ai camp(2)
-
[플레이데이터 SK네트웍스 Family AI 캠프 6기] 8주차 회고 (11/11~11/15)
이론2024.11.11Python & PyTorch함수의 return 값이 없으면 None 출력.torch.flatten(대상, start_dim=1):입력 텐서를 1차원 이후로 평탄화.nn.Flatten(): 반복 작업을 줄이기 위한 PyTorch 모듈.item(): 텐서 내부의 값을 추출.데이터 타입:주로 float32 사용(메모리 효율성).Batch Normalization: 배치별 정규화.학습 종료 전략:Early stopping: 성능이 최고점 이후 학습 중단.모델 유형별 구현공통:Input layer의 in_features는 데이터 속성 개수와 맞춤.Hidden layer 수와 feature는 경험적으로 설정.회귀 모델:out_features: 정답의 개수.Activation 함수: 주로 없음..
2024.11.18 -
[플레이데이터 SK네트웍스 Family AI 캠프 6기] 7주차 회고 (11/~11/01)
주제: 딥러닝 모델의 구조와 학습 이해2024.11.04 - 기본 개념 다지기: 모델과 학습의 기초내용 요약: 딥러닝 모델 구성의 기초인 forward propagation과 backward propagation을 학습하고, 학습에서 중요한 개념인 learning rate 조정과 오버피팅 방지를 다뤘습니다. 특히 linear regression과 nn.linear 모델을 다루면서 기본적인 학습 흐름을 이해했습니다.핵심 통찰: 모델링의 기초를 다지며 개념 이해가 중요하다는 점을 강조하고, 학습률과 파라미터 조정의 미묘한 차이가 성능에 큰 영향을 미친다는 사실을 깨달았습니다.2024.11.05 - 딥러닝 모델 설계: 모델 구조와 학습의 구체화내용 요약: torch.nn.functional 함수 라이브러리를 ..
2024.11.11