일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- moirai
- pytorch
- machine learning
- netflix thumbnail
- 토픽모델링
- NTMs
- doubleml
- first pg on this rank that detected no heartbeat of its watchdog.
- nccl 설치
- 분산 학습
- causal ml
- irregularly sampled time series
- causal inference
- 패혈증 관련 급성 호흡곤란 증후군
- pre-trained llm
- 딥러닝
- multi gpu
- 의료정보
- nccl 업그레이드
- 불규칙적 샘플링
- gru-d
- ERD
- nccl 업데이트
- causal reasoning
- Time Series
- Transformer
- timellm
- GaN
- 리뷰
- timesfm
- Today
- Total
목록pytorch (2)
데알못정을

신경망에서 특정 layer의 결과 값을 출력할 수 있다. 최근 신경망 관련 연구를 하다가, 신경망의 각 layer의 결과 값이 input data 대비 어떻게 representation 되는지 확인하기 위해 이 작업이 필요 했다. [전체 코드] class MLPclassifier(nn.Module): def __init__(self, input_size, drop_rate): super(MLPclassifier, self).__init__() self.input_size = input_size layer1 = [nn.Linear(input_size, 39), nn.BatchNorm1d(39), nn.Dropout(drop_rate), nn.ReLU()] layer2 = [nn.Linear(39, 72),..

파이토치의 구성 torch numpy와 같은 구성 torch.autograd 자동 미분을 위한 함수 포함 torch.nn 신경망을 구축하기 위한 다양한 데이터 구조나 레이어등이 정의돼 있다.(활성함수, MSEloss 등) torch.optim SGD(확률적 경사하강법) 을 중심으로 한 파라미터 최적화 알고리즘이 구현돼 있다 torch.utils.data SGD의 반복 연산을 실핼할 때 사용하는 미니 배치용 유틸리티 함수가 포함돼 있다. 1. torch.nn , optim 모듈을 사용하지 않고 수동으로 SGD를 구현하기 import torch y = 1 + 2x_1 + 3x_2 #우리가 만들 함수 w_true = torch.Tensor([1,2,3]) # 정답 파라미터 X = torch.cat([torch..