달력

11

« 2019/11 »

  •  
  •  
  •  
  •  
  •  
  • 1
  • 2



 

 

CORNPlayer - download

 

메인 페이지에서 [64bit DOWNLOAD] 클릭

https://cornplayer.com/main/


 

 


 

 

 

 

 

 

 

CORNPlayer - install

 

 

다운받은 설치파일을 실행합니다.


 

 

 

[Yes]


 

 

[OK]


 

 

[Next>]


 

 

[I Agree]


 

 

[Next>]


 

 

[Install]


 

 

설치 ...


 

 

[Finish]


 

 

[Yes]


 

 

[OK]


 

 

 

 

실행 화면


 

 


 

 


Posted by codedragon codedragon

댓글을 달아 주세요


 

 

 

Partial Diff

클립보드에서 선택된 텍스트를 비교해 주는 확장 프로그램입니다.

 

https://marketplace.visualstudio.com/items?itemName=ryu1kn.partial-diff


 

 

 

 

 

Partial Diff Menu

비교할 구문을 블록 지정한 마우스 우클릭하면 사용할 있는 메뉴가 표시됩니다.

 


 

menu

description

Select Text for Compare

현재 지정한 텍스트를 다음 선택 항목과 비교할 텍스트로 지정합니다.

Compare Text with Previous Selection

선택한 텍스트를 이전에 선택 항목(Select Text for Compare) 비교합니다.

Compare Text with Clipboard

현재 클립 보드에 있는 내용으로 현재 선택한 텍스트와 비교합니다.

Compare Text in Visible Editors

두개의 에디터의 텍스트를 비교합니다.

Toggle Pre-Comparison Text Normalization Rules

사전 비교 텍스트 정규화 규칙을 토글합니다.

 

 

 

 

 

설치하기

VSCode 메뉴: [View] >> [Extensions]

 


 

 

 

"Partial diff" 입력 하여 검색합니다.

Partial diff


 

 

첫번째 항목을 선택합니다.


 

 

 

[Install]


 

 


 

설치완료


 

 


Posted by codedragon codedragon

댓글을 달아 주세요



 

 

Weka - 라이브러리, 패키지 설치하기 w/Package manager

·         Weka - Package manager

·         라이브러리 설치하기

·         설치된 라이브러리 확인하기

·         라이브러리 사용하기

 

 

 

Weka - Package manager

Weka에서 기본적으로 제공되는 않는 다양한 알고리즘, 라이브러리들을 Package manager 통해 설치 사용할 있습니다.

 

 

Weka 메뉴: [Tools] >> [Package manager]


 

실행 ...


 

 

Package manager 실행 완료


 

 

 

 

 

 

 

라이브러리 설치하기

원하는 라이브러리를 선택한 [Install] 클릭


 


 


 


 


 

 

 

 

 

 

설치된 라이브러리 확인하기

좌측에 [Installed] 항목을 클릭하면 아래에 설치된 라이브러리 목록을 확인할 있습니다.


 

 

 

사용자 계정의 wekafiles\packages 폴더에 설치가 되어 집니다.

C:\Users\[Username]\wekafiles\packages


 

 

 

 

 

라이브러리 사용하기

functions 보면 설치한 LibSVM 확인됩니다.



목록에 설치된 라이브러리(패키지) 보이지 않는 경우 KEKA 종료 다시 실행해주면 됩니다.

 


Posted by codedragon codedragon

댓글을 달아 주세요



 

 

픽픽(PicPick) - download

 

홈페이지 접속 상단 메뉴에서 [다운로드] 버튼 클릭

http://ngwin.com/kr

https://picpick.app/ko/


 

 

 

하단의 [다운로드] 클릭

http://ngwin.com/kr/download


 


 


 

 

 

 

 

직접다운로드

picpick_inst_kr_3.0.7.z01

picpick_inst_kr_3.0.7.zip

 

 

 

or

http://bit.ly/35jtmPP

 

 

 

 

'TechMaster > Teacher' 카테고리의 다른 글

YouTube의 실시간 스트림  (0) 2020.03.29
screenpen(스크린펜)  (0) 2020.03.21
픽픽(PicPick) - download  (0) 2019.11.23
NCS 교육과정  (0) 2019.05.02
PointerFocus - download(다운로드)  (0) 2019.04.16
NovoScreennote - 판서프로그램  (0) 2019.04.07
Posted by codedragon codedragon

댓글을 달아 주세요



 

 

모형 평가

·         모델 성능 평가

·         모델 평가 모델 평가 검증

·         모델링 성능 평가

·         분석 모형의 적합성 판단 조정을 합니다.

·         학습검증 데이터 결과를 비교 최적화합니다.

·         예측분석에서 예측모델의 성능을 평가합니다.

 

 

 

 

머신러닝 알고리즘

어떠한 데이터를 이용해서, 어떠한 문제를 정확한 결과를 얻는 것이 아니라 알고리즘에 의해 데이터를 분류와 예측을 수행하는 알고리즘입니다.

 

 

 

모델 평가 모형 평가

머신러닝 알고리즘에 의한 결과가 좋은지를 판단하는 것이 모델 평가입니다.

 

·         정상 메일, 스팸 메일 구분이 정확히 되었을까?  -> 스팸 기준을 평가

·         기업 부도 예측이 정확할까? -> 부도 판단 기준을 평가

·         머신러닝 알고리즘에 의한 결과는 정확할까? -> 알고리즘의 기준을 평가

 

 

 

 

Posted by codedragon codedragon

댓글을 달아 주세요

 

 

딥러닝 구동에 사용되는 고급 경사 하강법 개요 및 활용법

·         딥러닝 구동에 필요한 고급 경사 하강법과 케라스 내부에서의 활용법

·         방법이 개발된 순서대로 정리되어 있습니다. 먼저 나온 방법의 단점을 보완하여 다음 방법이 나온 만큼 나중에 나온 고급 경사 하강법이 좋은 성과를 보여줍니다.

·         마지막에 기재된 아담(Adam) 현재 가장 많이 사용되는 고급 경사 하강법입니다.

 

고급 경사 하강법

개요

효과

케라스 사용법

확률적 경사 하강법

(SGD)

랜덤하게 추출한 일부 데이터를 사용해 빨리, 자주 업데이트를 하게 하는

속도 개선

keras.optimizers.SGD(lr = 0.1)

케라스 최적화 함수를 이용합니다.

모멘텀

(Momentum)

관성의 방향을 고려해 진동과 폭을 줄이는 효과

정확도

개선

keras.optimizers.SGD(lr = 0.1, momentum

= 0.9)

모멘텀 계수를 추가합니다.

네스테로프 모멘텀

(NAG)

모멘텀이 이동시킬 방향으로 미리 이동해서 그레이디언트를 계산. 불필요한 이동을 줄이는 효과

정확도

개선

keras.optimizers.SGD(lr = 0.1, momentum

= 0.9, nesterov = True)

네스테로프 옵션을 추가합니다.

아다그라드

(Adagrad)

변수의 업데이트가 잦으면 학습률을 적게 하여 이동 보폭을 조절하는 방법

보폭 크기 개선

keras.optimizers.Adagrad(lr = 0.01, epsilon = 1e - 6)

아다그라드 함수를 사용합니다.

 

참고: 여기서 epsilon, rho, decay 같은 파라미터는 바꾸지 않고 그대로 사용하기를 권장하고 있습니다. 따라서 lr, learning rate(학습률) 값만 적절히 조절하면 됩니다.

알엠에스프롭

(RMSProp)

아다그라드의 보폭 민감도를 보완한 방법

보폭 크기 개선

keras.optimizers.RMSprop(lr = 0.001, rho = 0.9, epsilon = 1e - 08, decay = 0.0)

알엠에스프롭 함수를 사용합니다.

아담(Adam)

모멘텀과 알엠에스프롭 방법을 합친 방법

정확도와

보폭 크기 개선

keras.optimizers.Adam(lr = 0.001, beta_1 = 0.9, beta_2 = 0.999, epsilon = 1e - 08, decay = 0.0)

아담 함수를 사용합니다.

 

https://thebook.io/006958/

 


Posted by codedragon codedragon

댓글을 달아 주세요