Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- pytorch
- ERD
- nccl 설치
- multi gpu
- 분산 학습
- 딥러닝
- irregularly sampled time series
- first pg on this rank that detected no heartbeat of its watchdog.
- nccl 업그레이드
- moirai
- operation management
- queueing theory
- 패혈증 관련 급성 호흡곤란 증후군
- 대기행렬
- ed boarding
- 불규칙적 샘플링
- timesfm
- gru-d
- timellm
- Time Series
- GaN
- 의료정보
- nccl 업데이트
- 토픽모델링
- NTMs
- 리뷰
- pre-trained llm
- length of stay
- Transformer
- m/m/s
Archives
- Today
- Total
목록Dropout (1)
데알못정을
Pytorch를 이용한 Dropout 효과 시각화(코드구현)
pytorch를 이용하여 신경망을 설계하고, 학습과정에서 dropout을 지정할 때와, 그렇지 않을 때를 비교해서drop out의 효과를 공부해보자. 먼저, dropout이란 무엇인지 살펴보면 신경망 뿐만 아니라 머신러닝에서 자주 발생하는 문제 중에 'overfitting'이 있다. dropout은 이를 신경망에서 해결하기 위한 방법인데, 어떻게 하냐면 오른쪽 그림과 같이 일정한 비율로 훈련세트에서 무작위로 노드를 제거하면서 학습을 이어나가는 것이다. 이렇게 되면 활성화된 노드만 학습에 참여하여 과적합을 방지할 수 있다. 테스트 셋에서는 모든 뉴런에 신호를 전달하는 대신 훈련때 삭제한 비율을 각 뉴런에 곱해서 출력을 한다. 실제로 drop out을 할때 train, test loss의 변화는 어떤지 보자..
Coding
2022. 9. 30. 18:01