Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 리버싱
- Flutter
- vue-google-login
- Codeforces Round 831 (Div. 1 + Div. 2)
- dart
- Good Bye 2022: 2023 is NEAR
- 카카오 로그인
- 레지스터
- Round 866
- vue3
- Hello 2023
- 밑바닥부터 시작하는 딥러닝 1
- iupc
- E - Hanging Hearts
- idpiframe_initialization_failed
- 1557
- 코드포스
- 앳코더
- django
- Graph Cost
- expand item
- 알고리즘 대회
- Div. 2
- 2022
- 인하대 프로그래밍 경진대회
- shake!
- list_display
- 기본키 변경
- 카카오 API
- 넥토리얼
Archives
- Today
- Total
목록CNN (1)
pseong

밑바닥부터 시작하는 딥러닝 1 책을 읽고 난 후 책 내용을 전부 요약해서 정리해 봅니다. mnist 손글씨 파이썬 딥러닝 구현 신경망은 입력층, 은닉층, 출력층이 존재한다. 각 각의 층에서 다음 층으로 넘어갈 때 가중치(w)를 곱하고 편향(b)을 더해준다. 그리고 계산된 값을 활성화 함수에 넣어서 활성화를 시키는 것 까지 수행하면 된다. y = h(xw+b) xw+b의 작업을 Affine 레이어라고 부른다. h(a)의 작업을 활성화 함수라고 부르는데 Relu 또는 Sigmoid 등이 있다. 여기서는 ReLU레이어를 사용한다. 이것을 여러 노드들에게 적용시키면 다음과 같다. 이러한 연결을 완전 연결 계층이라고 하는데 필요한 변수는 각 각의 가중치(w)들과 각 층의 편향(b)이다. 흐름은 이미지 입력 -> ..
인공지능/딥러닝
2022. 1. 25. 13:33