Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- nccl 업데이트
- 의료
- 의료 의사결정
- gru-d
- pytorch
- 토픽모델링
- irregularly sampled time series
- 패혈증 관련 급성 호흡곤란 증후군
- causal reasoning
- machine learning
- ERD
- netflix thumbnail
- GaN
- 불규칙적 샘플링
- causal ml
- nccl 설치
- Time Series
- multi gpu
- 의료정보
- 딥러닝
- doubleml
- NTMs
- first pg on this rank that detected no heartbeat of its watchdog.
- 분산 학습
- causal machine learning
- causal inference
- 리뷰
- 인과추론 의료
- Transformer
- nccl 업그레이드
Archives
- Today
- Total
목록Dropout (1)
데알못정을

pytorch를 이용하여 신경망을 설계하고, 학습과정에서 dropout을 지정할 때와, 그렇지 않을 때를 비교해서drop out의 효과를 공부해보자. 먼저, dropout이란 무엇인지 살펴보면 신경망 뿐만 아니라 머신러닝에서 자주 발생하는 문제 중에 'overfitting'이 있다. dropout은 이를 신경망에서 해결하기 위한 방법인데, 어떻게 하냐면 오른쪽 그림과 같이 일정한 비율로 훈련세트에서 무작위로 노드를 제거하면서 학습을 이어나가는 것이다. 이렇게 되면 활성화된 노드만 학습에 참여하여 과적합을 방지할 수 있다. 테스트 셋에서는 모든 뉴런에 신호를 전달하는 대신 훈련때 삭제한 비율을 각 뉴런에 곱해서 출력을 한다. 실제로 drop out을 할때 train, test loss의 변화는 어떤지 보자..
Coding
2022. 9. 30. 18:01