딥러닝9 [Paper Review] MobileNet V1 "MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications" 논문 리뷰입니다. https://arxiv.org/pdf/1704.04861.pdf 2017년 4월에 Google Inc. 에서 발표한 MobileNet v1 논문을 간략하게 정리해보겠습니다. - 성능 저하를 최소화하면서 딥러닝 모델 파일의 크기를 줄이는 것이 목적 - 요점 3가지: Depthwise separable convolution, Width multiplier, Resolution multiplier 목차 MobileNet 소개 ConvNet은 computer vision 분야라면 어디서든 사용되었지만, 모델의 크기가 너무 커지고 가성비가 좋지.. 2022. 5. 26. [Paper Review] Batch Normalization Batch Normalization은 2015년 arXiv에 발표된 후 ICML 2015에 게재된 아래 논문에서 나온 개념입니다. "Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift" https://arxiv.org/pdf/1502.03167.pdf 현대 딥러닝 아키텍처에서 학습 속도(training speed)를 비약적으로 향상시킬 수 있었던 방법 중 하나인 배치 정규화(Batch Normalization)에 대한 설명을 해보겠습니다! Paper에 대한 real review는 아니지만, 참고 학습 영상(https://youtu.be/m61OSJfxL0U)을 학습하며 스스로 이해시켰던 방.. 2022. 3. 31. [CNN-Algorithm] ResNet 본 내용은 https://bskyvision.com/644 https://hnsuk.tistory.com/31?category=958494 https://youtu.be/vRtM4K8e_Q4(고려대학교 산업경영공학부 DSBA 연구실) 참고하여 제작하였습니다. CNN Algorithms 중에서 이미지 분류용 Algorithms 중 ResNet에 대해 포스팅해보겠습니다. 목차 CNN Algorithm - ResNet ResNet 소개 이번 포스팅에서 알아볼 알고리즘은 ResNet입니다. ResNet은 2015년 이미지넷 이미지 인식 대회(ILSVRC)에서 우승을 차지한 알고리즘입니다. ResNet은 마이크로소프트에서 개발한 알고리즘입니다. 층수에 있어서 ResNet은 급속도로 깊어집니다. 2014년의 Goo.. 2022. 3. 22. [CNN-Algorithm] GoogLeNet(Inception) 본 내용은 https://bskyvision.com/539?category=635506 https://hnsuk.tistory.com/32?category=958494 참고하여 제작하였습니다. CNN Algorithms 중에서 이미지 분류용 Algorithms 중 GoogLeNet(Inception)에 대해 포스팅해보겠습니다. 목차 CNN Algorithm - GoogLeNet(Inception) GoogLeNet(Inception) 소개 이번 포스팅에서 알아볼 알고리즘은 GoogLeNet입니다. GoogLeNet은 2014년 이미지넷 이미지 인식 대회(ILSVRC)에서 VGGNet(VGG19)을 이기고 우승을 차지한 알고리즘입니다. GoogLeNet은 19층의 VGG19보다 좀 더 깊은 22층으로 구성.. 2022. 3. 21. [ML - lec 07] ML의 실용과 몇 가지 팁 본 내용은 김성훈 교수님의 '모두를 위한 딥러닝 시즌1' 강의와 https://pythonkim.tistory.com/notice/25를 참고하여 제작하였습니다. 이번 강좌에서는 ML(머신러닝) 알고리즘을 실제로 사용함에 있어서 몇 가지 팁들을 알려 주셨습니다. 내용 구성은 Learning rate 조절과 Data preprocessing(데이터 선처리) 방법 그리고 Overfitting을 방지하는 방법에 대해서 이야기해보겠습니다. 목차 1. Learning rate 저희가 Cost function을 최소화하기 위해서 Gradient descent라는 알고리즘을 사용했었죠 이때 이 알고리즘을 정할 때 learning rate라는 알파 값을 임의로 정했습니다. 이 알파 값을 프로그래밍에서는 그림 상단처럼 .. 2022. 3. 13. [ML - lec 06] Softmax Regression (Multinomial Logistic Regression) 본 내용은 김성훈 교수님의 '모두를 위한 딥러닝 시즌1' 강의와 https://pythonkim.tistory.com/notice/25를 참고하여 제작하였습니다. 목차 1. Softmax Regression 기본 개념 소개 1.1 Logistic (regression) classification 지난 Chapter에서 Logistic regression에 대해서 학습했었습니다. 기본적으로 출발은 linear 한 방정식으로 시작을 합니다. 하지만 단점이 있었습니다. 해당 방정식으로는 binary classification 즉, 0이냐 1이냐를 고르는 문제를 해결하기에 적합하지 않았습니다. 따라서, 큰값을 압축하여 0이나 1 사이 값으로 나와주도록 하는 새로운 함수가 필요했습니다. 많은 사람들이 연구 끝에 .. 2022. 3. 13. 이전 1 2 다음