Development/Big Data, R, ...(887)
-
순환 신경망(RNN; Recurrent Neural Network)
순환 신경망(RNN; Recurrent Neural Network) · ≒ 재현 신경망 · 시계열 데이터를 확률적으로 모델링합니다. · 순환 신경망은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망을 말합니다. 순환 신경망은 Feed-Forward (다층 피드 포워드 신경망)과 달리, 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있습니다. 이러한 특성에 의해 순환 신경망은 필기체 인식(Handwriting recognition)과 같은 분야에 활용되고 있고, 높은 인식률을 나타냅니다. · 순환 신경망을 구성할 수 있는 구조에는 여러가지 방식이 사용되고 있으며 완전 순환망(Fully Recurrent Network), Hopfield Network, ..
-
Play with neural networks
Play with neural networks · 신경망의 노드와 레이어를 추가한 뒤 어떻게 결정 영역을 학습하는지 확인해보실 수 있습니다 . · 네 가지의 서로 다른 데이터 집합에 대해서 테스트해 출력이 나오는 것을 애니메이션을 통해 볼 수 있습니다. http://playground.tensorflow.org https://github.com/tensorflow/playground
-
epoch, mini batch, epoch 이해, batch size에 따른 성능
epoch · ≒ 에포크 · 모든 데이터셋을 한번 학습하는 것 mini batch(미니배치) · 데이터를 batch size만큼 쪼개어 학습하는 것을 말합니다. · 샘플을 한 번에 몇 개씩 처리할지를 지정합니다. epoch 이해 전체 10000개 데이터를 300개씩 나누어 총 33번 학습시 1회 학습이 되어 1epoch가 됩니다. 구분 설명 전체 데이터 10000개 mini batch size 300개 1 epoch 10000 / 300 = 33.3333 33번만큼의 iteration batch size에 따른 성능 · batch size가 너무 크면 ↑학습 속도가 느려지고↓, 너무 작으면↓ 각 실행 값의 편차가 생겨서 전체 결괏값이 불안정해질 수 있습니다. · 분석 컴퓨터 메모리가 감당할 만큼의 bat..
-
맥스 풀링(max pooling)
맥스 풀링(max pooling) 풀링 기법 중 가장 많이 사용되는 방법이 맥스 풀링입니다. 정해진 구역 안에서 가장 큰 값만 다음 층으로 넘기고 나머지는 버립니다 크고 복잡한 컨볼루션 층 1 0 1 0 0 3 2 0 0 0 6 1 1 0 2 0 정해진 구역으로 나누기 1 0 1 0 0 3 2 0 0 0 6 1 1 0 2 0 각 구역에서 가장 큰 값을 추출합니다. 1 0 1 0 0 3 2 0 0 0 6 1 1 0 2 0 맥스 풀링(max pooling)후의 샘플 3 2 1 6 맥스 풀링과정을 거쳐 불필요한 정보를 축소하여 간추릴 수 있습니다.
-
Gapminder World - Wealth & Health of Nations
Gapminder World - Wealth & Health of Nations 한스 로슬링(Hans Rosling)교수의 그래픽 애니메이션으로 국가별 기대수명와 GDP를 시각화한 사이트입니다. http://bit.ly/2qH8gc4 http://bit.ly/2OFolZv
-
SAS(Statistical Analysis System)
SAS(Statistical Analysis System) · 미국 노스캐롤라이나 주립 대학교에서 1967년 원형이 개발되고 SAS Institute사에서 기능을 확장한, 통계 해석을 중심으로 한 통계분석 소프트웨어 제품군입니다. · 비즈니스 인텔리전스, 데이터 관리 및 예측분석과 관련한 제품군을 SAS연구소에서 개발하였습니다. · 2002년에는 텍스트 마이너 소프트웨어를 개발하였고, 2010년에는 소셜 미디어 분석, 소셜 미디어 모니터링, 참여와 심리 분석을 위한 도구 등을 개발하였습니다. http://bit.ly/2FjrJJV https://www.sas.com/ko_kr/home.html