일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- AMBA
- CUDA
- gpgpu-sim
- systolic array
- 클럭 게이팅
- makefile
- linux c++ 컴파일
- Data HAzard
- Design DNN Accelerator
- Pyverilog 설치
- Pyverilog 튜토리얼
- DNN 가속기
- gcc 컴파일
- CDC
- linux c 컴파일
- Pyverilog 실행
- 딥러닝 가속기
- pygraphviz 설치 오류
- Pyvrilog tutorial
- 이진수 곱셈 알고리즘
- 컨벌루션 연산
- Makefile compile
- DNN Accelerator
- linux makefile 작성
- 남산업힐
- pytest-pythonpath 설치 오류
- 대구 반도체 설계기업 특화
- 데이터 해저드
- CLOCK GATING
- pyverilog 설치 오류
- Today
- Total
목록Deep learning (3)
오늘은 맑음
CNN(Convolutinal Neural Network)에서 주를 이루는 Convolution layer에서 입력 데이터의 크기, 커널의 크기, 패딩, 보폭(stride)가 어떤 상관관계를 갖는지 수식을 통해 알아보자. 기본적인 Convolutoin의 과정은 위와 같다. 1. input feature map와 kernel(filter)가 있고 input feature map과 kernel이 각각 원소 곱 연산을 수행 2. 원소 곱의 결과들을 모두 합산 위의 2단계 과정을 거친 값은 Output feature map의 하나의 값을 이룬다. 이 후 일정 보폭(stride)를 이동하여 다음 값을 구하기 위해 연산을 수행한다. stride를 이용해서 output feature map의 크기를 조절할 수 있다...
Autoencoder에서 encoding을 통해 feature를 추출하였다면 그 다음은 추출된 feature를 기반으로 다시 decoding을 하여 원래 이미지의 사이즈를 거치는 과정을 갖는다. decoding과정에서 다시 feature map의 사이즈를 키우는 과정을 Upsampling이라고 하는데 대표적으로 두 가지 방법이 있다. 1. max pooling 2. convolution transpose max pooling을 이용한 Upsampling은 과정이 convolution tanspose에 비해 단순하지만 전체적인 성능을 보자면 convolution연산을 거쳐 한번 더 feature를 추출해내서 Upsampling을 거치는 convolutoin transpose가 더 뛰어나기 때문에 최근에 주..
Pandas는 데이터 파일을 읽어 데이터 프레임을 만들어준다. 다음과 같은 포맷을 지원하여 다양한 데이터들을 이용하여 데이터 프레임을 만들 수 있다CSVEXCELHTMLJSONHDF5SASSTATASQL 다양한 포맷을 지원하기 때문에 딥러닝/머신러닝에서 학습을 위한 데이터를 전처리 할 때 사용한다.다음은 Pandas에서 사용하는 함수들을 알아보자.예시 이미지는 Kaggle의 titanic문제를 공부하며 사용한 예시를 보여주겠다. 1. Data = pandas.rad_csv('filename.csv')다음과 같이 실행하면 filename이라는 경로에 있는 csv파일을 읽어 데이터프레임을 만들어 Data에 넣어준다. 2. Data.head(N)해당 Dataframe의 N개의 데이터를 출력시켜준다.defaul..