분류 전체보기(14739)
-
유의수준(significance level; α), 귀무가설(H0)과 대립가설(H1)의 채택
유의수준(significance level; α)· ≒ level of significance· 계산된 유의 확률 값에 대해 귀무 가설을 기각하는지 채택하는지를 결정할 수 있는 기준 값입니다.· p-value를 크다, 작다로 나누는 기준입니다.· 유의수준의 값은 기호 α로 표시합니다.· 가설검정 시, 허용 가능한 1종 오류의 최대치입니다.· 연구자가 세운 대립가설의 채택 여부를 판단하는 기준입니다.· 기준값인 유의수준(α)보다 작으면 귀무가설이 나올 가능성이 적다고 판단하여 귀무가설을 기각(reject)합니다.· 유의수준으로는 0.05(5%), 0.01(1%), 0.1(10%)중 한 개의 값을 사용하는데 보통 0.05가 사용됩니다. 즉, p-value가 5%보다 크다면 귀무가설을 채택합니다. 이는 곧 귀..
-
확률분포 메서드
확률분포 메서드확률분포 객체가 가지는 메서드입니다.
-
summary() 함수의 결과 해석 - 데이터
summary() 함수의 결과 - 데이터 > summary(iris) Sepal.Length Sepal.Width Petal.Length Petal.Width Species Min. :4.300 Min. :2.000 Min. :1.000 Min. :0.100 setosa :50 1st Qu.:5.100 1st Qu.:2.800 1st Qu.:1.600 1st Qu.:0.300 versicolor:50 Median :5.800 Median :3.000 Median :4.350 Median :1.300 virginica :50 Mean :5.843 Mean :3.057 Mean :3.758 Mean :1.199 3rd Qu.:6.400 3rd Qu.:3.300 3rd Qu.:5.100 3rd Qu.:1.80..
-
강화 학습(RL; Reinforcement Learning)
강화 학습(RL; Reinforcement Learning) · 현재의 상황(상태; State)을 보고 어떤 행동(Action)을 하면 어떤 보상(Reward)을 받을지 예측하여 좋은(Positive) 보상을 받는 쪽으로 행동하는 학습 방법입니다. · 자신과 환경과의 상호 관계에 따라 자신의 행동을 개선해 나가는 학습법, 어떤 환경에서 보상을 최대로 하는 행동을 선택하는 방법입니다. · 강화라는 말을 사용한 이유는 상과 벌이라는 보상을 통해 '현재의 행위의 그 방향'으로 혹은 '반대방향'으로 그 행위를 강화하는 학습 방법으로, 상을 최대한 많이 받을 수 있는 방향으로 학습하는 방법입니다. · 입력에 대한 출력과 점수를 통해 학습합니다. 학습에 의해 답이 정해지는 것이 아니라 모르는 환경에서 보상 값(Re..
-
재현율(Recall) & 정밀도(Precision) 예시
재현율(Recall) & 정밀도(Precision) 예시 재현율(Recall) 계산 지표 계산값 재현율(Recall) = 민감도(Sensitivity) = TPR 5/8=0.625 정밀도 (Precision) 5/7=0.7143 정밀도(Precision) 계산 지표 계산값 재현율(Recall) = 민감도(Sensitivity) = TPR 5/8=0.625 정밀도 (Precision) 5/7=0.7143
-
sort_values()
sort_values() 데이터를 정렬해 줍니다. DataFrame.sort_values(self, by, axis=0, ascending=True, inplace=False, kind='quicksort', na_position='last') parameter description by 정렬 기준 axis 행, 열 여부 value description axis=0 행처리 (index) axis=1 열처리 (columns) ascending 순차정렬 여부 value description ascending=True 순차정렬(ascending) ascending=False 역순정렬(descending) http://bit.ly/2RQVmp5