2019/10/18(2)
-
Cross-Entropy(CE)
Information theory에서 엔트로피확률분포의 무작위성(randomness)을 설명하는 용도로 사용됩니다.확률분포 p를 갖는 랜덤 변수 X를 표현하기 위한 최소의 비트 수를 나타냅니다. Cross-Entropy(CE)· ≒ Log loss· 1997년 Rubinstein이 희소 사건의 확률을 추정하기 위한 용도로 발표 되었습니다.· 후에 희소 사건뿐만 아니라, 일반적인 조합 최적화(combinatorial optimization)에도 적용이 가능하다는 것이 밝혀지면서 널리 쓰이게 되었습니다. · 원래 엔트로피(Entropy)는 클라우지우스가 열역학 제2의 법칙, 즉 "열은 높은 온도에서 낮은 온도로만 흐른다"는 것을 설명하기 위해 고안된 개념이지만, 1877년 볼츠만에 의해서 확률적인 방법으로 ..
-
아이리스 데이터(iris dataset)
아이리스 데이터(iris dataset) · 아이리스 품종 예측 데이터 · 150ro의 샘플과 4개의 속성과 하나의 클래스로 구성되어있습니다. · https://codedragon.tistory.com/4970 https://archive.ics.uci.edu/ml/datasets/Iris https://archive.ics.uci.edu/ml/machine-learning-databases/iris/