반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- pygraphviz 설치 오류
- CDC
- Pyverilog 실행
- Design DNN Accelerator
- Data HAzard
- linux c++ 컴파일
- pytest-pythonpath 설치 오류
- DNN 가속기
- Pyverilog 설치
- 데이터 해저드
- gcc 컴파일
- 남산업힐
- Pyverilog 튜토리얼
- 클럭 게이팅
- systolic array
- makefile
- 이진수 곱셈 알고리즘
- 딥러닝 가속기
- Makefile compile
- linux makefile 작성
- CLOCK GATING
- DNN Accelerator
- Pyvrilog tutorial
- 대구 반도체 설계기업 특화
- pyverilog 설치 오류
- AMBA
- gpgpu-sim
- 컨벌루션 연산
- CUDA
- linux c 컴파일
Archives
- Today
- Total
목록convolution 공식 (1)
오늘은 맑음

CNN(Convolutinal Neural Network)에서 주를 이루는 Convolution layer에서 입력 데이터의 크기, 커널의 크기, 패딩, 보폭(stride)가 어떤 상관관계를 갖는지 수식을 통해 알아보자. 기본적인 Convolutoin의 과정은 위와 같다. 1. input feature map와 kernel(filter)가 있고 input feature map과 kernel이 각각 원소 곱 연산을 수행 2. 원소 곱의 결과들을 모두 합산 위의 2단계 과정을 거친 값은 Output feature map의 하나의 값을 이룬다. 이 후 일정 보폭(stride)를 이동하여 다음 값을 구하기 위해 연산을 수행한다. stride를 이용해서 output feature map의 크기를 조절할 수 있다...
Deep learning
2020. 4. 20. 22:44