[Hands-On ML] 11장 심층 신경망 훈련하기(6) - 규제 (L1, L2, dropout, max-norm)
11.4 규제를 사용해 과대적합 피하기
11.4 규제를 사용해 과대적합 피하기
11.3.6 학습률 스케줄링
지금까지 훈련 속도를 높이는 네 가지 방법을 보았다.
“핸즈온 머신러닝”의 “11장 심층 신경망 훈련하기” 파트를 읽고 공부한 내용을 정리해보았다. 사전훈련된 층을 재사용하는 전이 학습에 대해 다뤄볼 것이다.
“핸즈온 머신러닝”의 “11장 심층 신경망 훈련하기” 파트를 읽고 공부한 내용을 정리해보았다. 그레디언트 소실과 폭주 문제 해결 방법인 배치 정규화와 그레디언트 클리핑에 대해 다뤄볼 것이다.
“핸즈온 머신러닝”의 “11장 심층 신경망 훈련하기” 파트를 읽고 공부한 내용을 정리해보았다. 그레디언트 소실과 ReLU 활성화 함수에 대해 다뤄볼 것이다.
“핸즈온 머신러닝”의 “10장 케라스를 사용한 인공신경망 소개” 파트를 읽고 공부한 내용을 정리해보았다. 신경망 하이퍼파라미터를 조정하는 방법을 다뤄볼 것이다.
“핸즈온 머신러닝”의 “10장 케라스를 사용한 인공신경망 소개” 파트를 읽고 공부한 내용을 정리해보았다. 케라스로 다층 퍼셉트론을 구현하는 방법을 다뤄볼 것이다.
“핸즈온 머신러닝”의 “10장 케라스를 사용한 인공신경망 소개” 파트를 읽고 공부한 내용을 정리해보았다.