Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 앳코더
- 카카오 로그인
- 넥토리얼
- Hello 2023
- E - Hanging Hearts
- dart
- list_display
- 레지스터
- expand item
- 2022
- iupc
- 밑바닥부터 시작하는 딥러닝 1
- Flutter
- 카카오 API
- vue-google-login
- vue3
- 알고리즘 대회
- Codeforces Round 831 (Div. 1 + Div. 2)
- django
- Graph Cost
- 코드포스
- 1557
- Div. 2
- 리버싱
- Good Bye 2022: 2023 is NEAR
- 인하대 프로그래밍 경진대회
- shake!
- idpiframe_initialization_failed
- Round 866
- 기본키 변경
Archives
- Today
- Total
목록역전파 (1)
pseong

밑바닥부터 시작하는 딥러닝 1 책을 읽고 난 후 책 내용을 전부 요약해서 정리해 봅니다. mnist 손글씨 파이썬 딥러닝 구현 신경망은 입력층, 은닉층, 출력층이 존재한다. 각 각의 층에서 다음 층으로 넘어갈 때 가중치(w)를 곱하고 편향(b)을 더해준다. 그리고 계산된 값을 활성화 함수에 넣어서 활성화를 시키는 것 까지 수행하면 된다. y = h(xw+b) xw+b의 작업을 Affine 레이어라고 부른다. h(a)의 작업을 활성화 함수라고 부르는데 Relu 또는 Sigmoid 등이 있다. 여기서는 ReLU레이어를 사용한다. 이것을 여러 노드들에게 적용시키면 다음과 같다. 이러한 연결을 완전 연결 계층이라고 하는데 필요한 변수는 각 각의 가중치(w)들과 각 층의 편향(b)이다. 흐름은 이미지 입력 -> ..
인공지능/딥러닝
2022. 1. 25. 13:33