본문으로 바로가기

올라프의 [데이터 사이언스] 공부 일기

현재위치 :: HOME BLOG CATEGORY SEARCH ARCHIVE TAGS MEDIA LOCATION GUESTBOOK

네비게이션

  • 홈
  • 태그
  • 방명록
관리자
  • 블로그 이미지
    lafgh

    링크추가
  • 글쓰기
  • 환경설정
  • 로그인
  • 로그아웃

xavier initialization 검색 결과

해당 글 1건

[7주차 총정리] Gradient Descent 활용한 신경망 학습 과정 (Neural Network Optimization)

Gradient Descent 활용한 신경망 학습 과정 1. Weight Initialization 모든 Parameter θ 초기화 - 초기화 시점의 작은 차이가 학습의 결과를 뒤바꿀 수 있으므로 보다 나은 초기화 방식을 모색하게 됨 - Perceptron의 Linear Combination 결과값 (Activation function의 입력값)이 너무 커지거나 작아지지 않도록 만들어주는 것이 핵심 - 발전된 초기화 방법들을 활용해 Vanishing gradient 또는 Exploding gradient 문제를 줄일 수 있다 1) Xavier Initialization (자비에 초기화) - 활성화 함수로 Sigmoid 함수나 tanh 함수를 사용할 때 권장 - 다수의 딥러닝 라이브러리들에 default..

멋쟁이 사자처럼 AI SCHOOL 5기/Today I Learned 2022. 4. 28. 01:55
  • 이전
  • 1
  • 다음

사이드바

NOTICE

  • 전체 보기
MORE+

CATEGORY

  • 분류 전체보기 (76)
    • 멋쟁이 사자처럼 AI SCHOOL 5기 (76)
      • Today I Learned (75)
      • Review (1)
    • 데이터 분석을 위한 수학 공부 (0)
      • 통계학 (0)
      • 선형대수 (0)

RECENTLY

  • 최근 글
  • 최근 댓글

최근 글

최근댓글

Trackback

TAG

  • Selenium
  • AutoML
  • 결측행 추출
  • sqlite3
  • Python
  • imagegenerator
  • DBSQL
  • Callbacks API
  • Join
  • keras
  • 웹스크래핑
  • TensorFlow
  • 네이버뉴스기사
  • Bayesisan HPO
  • 시각화
MORE+

ARCHIVE

CALENDAR

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

LINK

VISITOR

오늘
어제
전체
  • 홈으로
  • 방명록
  • 로그인
  • 로그아웃
  • 맨위로
SKIN BY COPYCATZ COPYRIGHT 올라프의 [데이터 사이언스] 공부 일기, ALL RIGHT RESERVED.
올라프의 [데이터 사이언스] 공부 일기
블로그 이미지 lafgh 님의 블로그
MENU
  • 홈
  • 태그
  • 방명록
CATEGORY
  • 분류 전체보기 (76)
    • 멋쟁이 사자처럼 AI SCHOOL 5기 (76)
      • Today I Learned (75)
      • Review (1)
    • 데이터 분석을 위한 수학 공부 (0)
      • 통계학 (0)
      • 선형대수 (0)
VISITOR 오늘 / 전체
  • 글쓰기
  • 환경설정
  • 로그인
  • 로그아웃
  • 취소

검색

티스토리툴바