MachineLearning(14)
-
특이점 제거
특이점 제거 · = 이상 값 제거 · 특이점은 머신러닝 결과에 영향을 미칠 수 있으므로 제거해야 합니다. · 신뢰 구간을 정하고 학습 데이터 중 범위를 벗어난 값을 제거합니다. · 신뢰 구간을 벗어나는 데이터를 처리하지 않으므로 불필요한 머신러닝 수행시간이 단축됩니다.
-
머신러닝 사례(기계학습 활용)
머신러닝 사례(기계학습 활용) · 가장 많이 사용되는 머신러닝 알고리즘들은 이미 알려진 사례를 바탕으로 일반화된 모델을 만들어 의사 결정 프로세스를 자동화하는 것들입니다. · 기계학습의 이러한 방식은 스팸 메일을 분류하거나, 얼굴을 인식하여 사람을 찾거나, 기상예측, 문자 인식 등의 분야에서 다양하게 활용될 수 있습니다. · 영화 추천에서부터 음식 주문, 쇼핑, 맞춤형 온라인 라디오 방송과 사진에서 친구 얼굴을 찾아주는 일까지 최근 많은 웹사이트와 기기가 머신러닝 알고리즘을 핵심 기술로 채택하고 있습니다. · 페이스북, 아마존, 넷플릭스 같은 복잡한 웹사이트들은 여러 가지 머신러닝 모델을 사용하여 구성 요소의 대부분을 만들어냅니다. · 별을 탐구하고 새로운 행성을 찾기 · 새로운 미립자를 발견 · DNA..
-
QUICK, DRAW 머신러닝 게임, 머신러닝 경험하기
QUICK, DRAW 머신러닝 게임, 머신러닝 경험하기· QUICK, DRAW 머신러닝 게임 페이지· 세계 최대 낙서 데이터 셋· 게임 시작하기
-
세계 최대 낙서 데이터 셋 the world's largest doodling data set
세계 최대 낙서 데이터 셋 the world's largest doodling data set 5천만개 이상의 낙서 그림 데이터셋을 머신러닝연구를 위해 구글은 오픈소스로 공유하고 있습니다. https://quickdraw.withgoogle.com/data 이 중에서 계산기 항목을 선택했습니다. 계산기를 손으로 그린 많은 이미지를 볼 수 있습니다.
-
향상도(lift), 향상도 값에 따른 관계와 의미
향상도(lift) · 품목 B를 구매한 고객 대비 품목 A를 구매한 후 품목 B를 구매하는 고객에 대한 확률을 의미합니다. · 연관규칙 A→B는 품목 A와 품목B의 구매가 서로 관련이 없는 경우( 독립적인 경우)에 P(B|A)=P(B)이므로 향상도는 1이 됩니다. 만일 향상도가 1보다 크면 이 규칙은 결과를 예측하는 데 있어서 우수하다는 것을 의미합니다. 1보다 작으면 우연적 기회보다 도움이 되지 않음을 의미합니다. 향상도 값에 따른 관계와 의미 향상도 의미 1 이다 두 품목간에 연관성이 없는 서로 독립적인 관계입니다. 1보다 작다 두 품목이 서로 음의 상관관계입니다. 품목 A와 품목 B는 연관성이 없음을 의미합니다. 1보다 크다 두 품목이 서로 양의 상관관계입니다. 품목 B를 구매할 확률보다 품목 A를..
-
Penn Treebank Tagset(펜 트리뱅크 태그세트)의 사용 품사
Penn Treebank Tagset(펜 트리뱅크 태그세트)의 사용 품사 Alphabetical list of part-of-speech tags used in the Penn Treebank Project Number Tag Description 1. CC Coordinating conjunction 2. CD Cardinal number 서수 3. DT Determiner 관형사 4. EX Existential there 5. FW Foreign word 6. IN Preposition or subordinating conjunction 7. JJ Adjective 8. JJR Adjective, comparative 9. JJS Adjective, superlative 10. LS List item..