[태그:] 과적합

차원의 저주 (Curse of Dimensionality)

1. 차원의 저주(Curse of Dimensionality)의 개념 개념도 ① 데이터 차원 증가 시 같은 데이터 밀도를 유지하기 위해 필요한 데이터 양 증가 ② 필요한 데이터 양 미충족 시 데이터 밀도 감소로 인한 데이터 분석/처리 문제 발생 일반적인 차원의 저주 데이터의 차원이 증가함에 따라 데이터의 밀도가 낮아져서 데이터 분석의 효율성과 정확도가 감소하는 현상 인공지능 분야 차원의 저주

파인튜닝 (Fine-Tuning)

1. 파인튜닝 (Fine-Tuning)의 개념 및 필요성 개념 필요성 인공지능 모델이 특정 작업이나 도메인에 적합하도록 이미 훈련된 인공지능 모델에 특정 데이터셋을 적용하는 미세 조정 기법 – 특정 작업/도메인에 적합한 모델 생성 – 적은 데이터셋으로 높은 학습 효과 – 신규 데이터에 대한 추론 성능 향상 파인 튜닝을 통해 학습 데이터가 적은 상황에서 특정 분야 인공지능 모델의 일반화

오버핏과 언더핏 (Overfitting & Underfitting)

1. 과한 학습과 부족 학습, 오버핏과 언더핏의 문제점 구분 문제점 현상 Overfit (과분산, 과적합) – 과학습, 오류 분산 – High Variance, 과분산 – 비슷한 입력에 부정확 반응 결과 – 학습 대상만 정상반응 Underfit (과편향) – 데이터해석 능력저하 – High bias, 과편향 – 여러 가지 입력에 제대로 반응불가 – 학습 부족, 편향 반응 오버핏과 언더핏의 공통적인

드롭아웃 (Dropout)

1. co-adaptation 해결 기법, 드롭아웃 (1) 드롭아웃(Dropout)의 개념 딥러닝 시 오버피팅 문제를 해결하기 위해 노드 중 일부를 제거하는 인공지능 최적 학습기법 (2) 드롭아웃의 목적 Overfitting 해결 – 신경망 비대 시 high variance 문제 해결 – Voting 효과로 정규화 유사 효과 가능 co-adaptation 회피 – 특정 뉴런의 가중치나 영향 감소 – 강건한 신경망 구성 가능