달력

12

« 2019/12 »



 

 

 

앙상블 모형(ensemble)

·         주어진 데이터로부터 여러 개의 모델을 학습한 다음, 예측 여러 모델의 예측 결과들을 종합해 사용하여 정확도를 높이는 기법입니다.

·         여러 개의 분류모형에 의한 결과를 종합하여 분류의 정확도를 높이는 방법입니다.

·         적절한 표본추출법으로 데이터에서 여러 개의 훈련용 데이터 집합을 만들어 각각의 데이터집합에서 하나의 분류기(Classifiers) 만들어 앙상블하는 방법입니다.

 

 

https://en.wikipedia.org/wiki/Ensemble_learning

 

 

 

 

 

 

앙상블(Ensemble)

'함께', '동시'에라는 뜻에서 의미가 전화하여 '통일', '조화' 나타내는 용어입니다.

 

http://bit.ly/2PQ7ngk

http://bit.ly/2TAJlUH

http://bit.ly/2OYLnKI


http://bit.ly/2IVM1sf

 

'Development > Big Data, R, ...' 카테고리의 다른 글

Gradient-Descent(경사 하강법)  (0) 2019.12.10
선형회귀 이해  (0) 2019.12.10
앙상블 모형(ensemble)  (0) 2019.12.09
로지스틱 회귀 분석 그래프  (0) 2019.12.09
Bayesian rule(베이즈 정리)  (0) 2019.12.09
사전확률 vs 사후확률  (0) 2019.12.09
Posted by codedragon codedragon

댓글을 달아 주세요



 

 

로지스틱 회귀 분석 그래프

0 기준으로 꺽여진 양의 값과 꺽여진 음의 값을 가지는 그래프를 따릅니다.

(1) 거짓(0) 사이를 구분하는 S 형태의 선을 그려줍니다.

 


 

 

 

 

 

 

약물 치료 환자의 반응 예측

약물 치료에 대한 환자의 반응(종속 변수) 예측하고자 ,

약물 치료 적용 환자가 살아남은 경우 1, 살아남지 못한 경우를 0으로 표현할 있습니다.

 


'Development > Big Data, R, ...' 카테고리의 다른 글

선형회귀 이해  (0) 2019.12.10
앙상블 모형(ensemble)  (0) 2019.12.09
로지스틱 회귀 분석 그래프  (0) 2019.12.09
Bayesian rule(베이즈 정리)  (0) 2019.12.09
사전확률 vs 사후확률  (0) 2019.12.09
그래프 이론 - 노드(node), 에지(edge), 아크(arc)  (0) 2019.12.09
Posted by codedragon codedragon

댓글을 달아 주세요


 

 

 

Boundary Visualizer

·       경계의 시각화 임계의 가시화

·       기계학습 분류결과를 시각화합니다.

·       눈에 보이지 않는 현실을 데이터로서 사람이 인식할 수 있는 기준선 즉 임계로 가시화하는 것을 의미합니다. 임계점 또는 임계선이 있어야 분류의 기준으로 삼을 수 있기 때문입니다.

·       데이터세트에서 생성한 내부표현이며 기계학습의 진행과정을 시각화한 의사결정경계의 공간적 표현이 됩니다.

·       모든 데이터세트를 Boundary Visualizer 에 적용할 수 있는 것은 아니며 해당 데이터세트는 숫자형의 이루어진 속성이 2여야 합니다.

·       인스턴스 갯수가 150건 이상일 경우 경우에 따라 작동이 오래 걸리거나 결과가 제대로 나오지 않을 있습니다.

 



'Development > Java' 카테고리의 다른 글

CharlesBookClub.csv  (0) 2019.12.11
Weka - LinearRegression 수행 라이브러리  (0) 2019.12.10
Boundary Visualizer  (0) 2019.12.09
JavaBayes API(자바베이즈 API)  (0) 2019.12.09
노이지 인스턴스 (noisy instance)  (0) 2019.12.09
OpenMarkov  (0) 2019.12.09
Posted by codedragon codedragon

댓글을 달아 주세요


 

 

JavaBayes API(자바베이즈 API)

·       데이터웍스(Dataworks)의 조 슈바이처(Joe Schweitzer)가 깃허브에 업데이트를 하고 있는 베이지안 네트워크을 위한 자바 API입니다.

·       jar파일을 다운받아 사용할 수 있습니다.

 

 

https://github.com/jasebell/JavaBayesAPI


 

 

 

직접 다운로드

 

JavaBayesAPI-master.zip



'Development > Java' 카테고리의 다른 글

Weka - LinearRegression 수행 라이브러리  (0) 2019.12.10
Boundary Visualizer  (0) 2019.12.09
JavaBayes API(자바베이즈 API)  (0) 2019.12.09
노이지 인스턴스 (noisy instance)  (0) 2019.12.09
OpenMarkov  (0) 2019.12.09
WEKA IBk  (0) 2019.12.09
Posted by codedragon codedragon

댓글을 달아 주세요



 

 

Bayesian rule(베이즈 정리)

·       베이즈 이론 베이즈 법칙 베이즈 규칙

·       토마스 베이즈(Thomas Bayes) 이론을 그가 사망한 뒤에 1763년 리처드 프라이스(Richard Price)가 신의 존재를 증명하기 위해 쓴 에세이 "An Essay Towards Solving a Problem in the Doctrine of Chances"에서 인용한 이후 그의 이름을 따서 명명되었습니다.

 

·       조건부확률 구하는 공식을 말합니다.

·       베이즈 정리는 사건  B 가 발생함으로써(사건  B 가 진실이라는 것을 알게 됨으로써 즉 사건  B 의 확률  P(B)=1 이라는 것을 알게 됨으로써) 사건  A 의 확률이 어떻게 변화하는지를 표현한 정리이다. 따라서 베이즈 정리는 새로운 정보가 기존의 추론에 어떻게 영향을 미치는지를 나타내고 있습니다.

 

 


 

 

구분

설명

P(A|B)

사후확률(posterior)

사건 B 발생한 갱신된 사건 A 확률

P(A)

사전확률(prior)

사건 B 발생하기 전에 가지고 있던 사건 A 확률

P(B|A)

가능도(likelihood)

사건 A 발생한 경우 사건 B 확률

P(B)

정규화 상수(normalizing constant): 확률의 크기 조정

 

 

 

https://bit.ly/2VmmXiS

https://bit.ly/1EQl3wd

 

 


Posted by codedragon codedragon

댓글을 달아 주세요


 

 

사전확률 vs 사후확률

 

 

사전확률

사후확률

prior probability

posteriori probability

현재 가지고 있는 정보를 기초로하여 정한 초기 확률

사건 발생 후에 어떤 원인으로부터 일어난 것이라고 생각되어지는 확률

 

확률 시행 전에 이미 가지고 있는 지식을 통해 부여한 확률

 

추가된 정보로부터 사전 정보를 새롭게 수정한 확률(수정확률)

 

조건부 확률을 통해 사후확률을 표현할 수 있습니다.

동전을 던져서 앞면이 나올 확률은 1/2 입니다.

동전을 7번 던졌는데 앞면이 한번도 나오지 않아서 동전을 던지기 전의 사전확률(1/2)보다

사후확률은 더 낮을 것입니다.

사후확률은 뒤에서 나올 베이즈 정리로 부터 구할 수 있습니다.

 

 

개인의 주관에 달려 있음

이를 사전(prior) 확률이라고 합니다.

사건에 대해 증거를 수집했다면 개인의 믿음의 정도를 업데이트 함. 업데이트된 믿음의 정도를 사후(posterior) 확률이라고 합니다.

 

사후확률    =   결합확률 / 증거

 

사후확률은 likelihood(조건부확률), 사전확률, evidence(증거)로 구할 있습니다.

 


 

 

 


Posted by codedragon codedragon

댓글을 달아 주세요


 

 

그래프 이론

·         노드(node)

·         에지(edge)

·         아크(arc)

 

 

 

노드(node)

수학자들은 정점(vertex)이라고 부릅니다.

노드는 무엇이든 표시할 있습니다. 그래서 노드는 날씨, 배우, 영화, 단백질이 수도 있습니다


 

 

 

 

 

 

에지(edge)

원하는 만큼 노드를 가질 있지만, 노드를 연결할 있습니다.

에지(노드 연결선) 통해 노드를 연결하고 노드간에는 관계가 있음을 알수 있습니다.


 

 

구분

설명

그래프에서 많은 에지를 조작하거나 이동할 경우

Neo4j, 아파치 지래프, 스파크 같은 대규모 그래프 데이터베이스를 사용합니다.

노드를 조회하는 사용하는 언어

사이퍼(Cypher) 언어

 

MATCH (actress)-[:acted_in]->(film)

 

 

 

 

 

 

 




아크(arc)

방향성 에지(directed edge)

에지에 방향 화살표를 추가하면 그래프에 방향성이 생기게 됩니다.

노드 간의 관계는 에지와 화살표의 방향으로 정해집니다.


 

 


Posted by codedragon codedragon

댓글을 달아 주세요


 

 

노이지 인스턴스 (noisy instance)

·       인스턴스의 분포가 뒤섞여 있는 경우에 k-최근접 이웃을 통해 잘못된 분류를 방지할 수 있는 방법입니다.

·       노이지 인스턴스라고해서 잡음이 아니고, 약한 군집성을 띄는 군집내의 데이터 분석이 쉽도록 증폭해주는 역할을 합니다.

 

 

 


'Development > Java' 카테고리의 다른 글

Boundary Visualizer  (0) 2019.12.09
JavaBayes API(자바베이즈 API)  (0) 2019.12.09
노이지 인스턴스 (noisy instance)  (0) 2019.12.09
OpenMarkov  (0) 2019.12.09
WEKA IBk  (0) 2019.12.09
분석방법 로드맵  (0) 2019.12.09
Posted by codedragon codedragon

댓글을 달아 주세요


 

 

k-평균군집의 절차 도식도


 

 

클러스터 각각은 센트로이드(centroid; '평균'이라고도 부르므로 'k-means'라는 이름이 붙었습니다), 개체 거리를 측정했을 중심 지점이 있습니다.( 표시)

클러스터는 센트로이드에서 가장 가까운 개체와의 거리를 반복 계산하며 정해집니다. 이것이 비지도 학습입니다. 알고리즘이 알아서 처리하고 결과를 보면, 개체가 이상 다른 센트로이드로 이동하지 않는 지점까지 반복하여 계산합니다. 이상 반복이 없으면 k-means 클러스터링은 끝이 납니다.

 

 

 

새로운 데이터가 들어오면 거리를 계산해서 기준선에 따라 새로운 데이터를 분류해 주게 됩니다.

회색 점과의 거리가 녹색점과의 거리보다 가까우므로 새로운 빨간점은 회색으로 묶어집니다.


 


'Development > Big Data, R, ...' 카테고리의 다른 글

사전확률 vs 사후확률  (0) 2019.12.09
그래프 이론 - 노드(node), 에지(edge), 아크(arc)  (0) 2019.12.09
k-평균군집의 절차 도식도  (0) 2019.12.09
k개의 클러스터로 만드는 방법  (0) 2019.12.09
1.Summary  (0) 2019.12.09
요구사항 수집  (0) 2019.12.09
Posted by codedragon codedragon

댓글을 달아 주세요


 

 

k개의 클러스터로 만드는 방법

·       입력값으로 k를 취하고 객체 집합을 k개의 클러스터로 만드는 방법입니다.

·       원하는 군집 수만큼(k) 초기값을 지정하고, 각 개체(데이터)를 가까운 초기값에 할당하여 군집을 형성한 뒤, 각 군집의 평균을 재계산하여 초기값을 갱신합니다.

·       갱신된 값에 대해 위의 할당과정을 반복하여 k개의 최종군집을 형성합니다

 

 

·       클러스터 유사성은 높게

·       클러스터 유사성은 낮게

 

 



Posted by codedragon codedragon

댓글을 달아 주세요