Intro
AI 관련 Hardware 를 설계하다보면, 다양한 단어들을 사용합니다.
대화? 가 되기 위해서 필요한 기본적인 단어들을 나열하고 그 의미들을 정리합니다.
HW
-
FLOPS : In computing, floating point operations per second (FLOPS, flops or flop/s) is a measure of computer performance, useful in fields of scientific computations that require floating-point calculations.
-
AI
-
CVPR : Computer Vision and Pattern Recognition
-
L1 / L2 Loss : https://seongkyun.github.io/study/2019/04/18/l1_l2/
-
LSC, SSC : Long / Short Skip Connection
-
DenseNet : https://hoya012.github.io/blog/DenseNet-Tutorial-1/
-
Batch Normalization : https://shuuki4.wordpress.com/2016/01/13/batch-normalization-%EC%84%A4%EB%AA%85-%EB%B0%8F-%EA%B5%AC%ED%98%84/
-
Dataset (Image Recognition)
CIFAR : https://www.cs.toronto.edu/~kriz/cifar.html, 뒤의 숫자는 #Class 를 의미함
SVHN : http://ufldl.stanford.edu/housenumbers/
VOC : http://host.robots.ox.ac.uk/pascal/VOC/
COCO : http://cocodataset.org/#home -
Dataset (SR) : vllab.ucmerced.edu/wlai24/LapSRN
Urban100 :
Set 5 :
Set 14 :
B100 :
BSDS100 :
Manga109 : -
Channel Attention
-
Skip Connection : SC 를 통해서 Network 가 배워야할 capacity 를 줄여줄 수 있음. (ex : SR 에서 Residual 을 training 을 하는데, 이는 LR 을 SC 함으로 써, Network 에서는 LR 에 대한 data 를 따로 학습할 이유가 없어짐.
-
Multi distilation : convolution 의 결과 channel 을 concat 을 통해서 전달함.
'HW Engineer 가 이야기하는 AI > 01 설계에 필요한 AI 지식' 카테고리의 다른 글
CNN (Convolution Neural Network) 연산에 대해 이해해보자. (CNN Explainer) (0) | 2021.02.16 |
---|---|
Grouped Convolution, Dilated Convolution (0) | 2020.12.13 |
[MobileNet v1] depthwise separable convolution (DW, PW) (0) | 2020.12.13 |