본문 바로가기

Deep Learning/CNN10

Hyper Parameters https://blog.naver.com/NBlogTop.naver?isHttpsRedirect=true&blogId=laonple&Redirect=Dlog&Qs=/laonple/220571820368 [Part Ⅲ. Neural Networks 최적화] 8. Hyperparameters Optimization [1] - 라온피플 머신러닝 아카데미 - Part I. Machine Learning Part V. Best CNN Architecture Part VII. Semantic Segmentat... blog.naver.com https://blog.naver.com/NBlogTop.naver?isHttpsRedirect=true&blogId=laonple&Redirect=Dlog&Qs=/laonpl.. 2021. 9. 18.
[퍼옴] CNN의 parameter 개수와 tensor사이즈 계산하기 https://seongkyun.github.io/study/2019/01/25/num_of_parameters/ CNN의 parameter 개수와 tensor 사이즈 계산하기 · Seongkyun Han's blog CNN의 parameter 개수와 tensor 사이즈 계산하기 25 Jan 2019 | CNN parameter tensor size CNN의 parameter 개수와 tensor 사이즈 계산하기 이번 글에서는 네트워크의 텐서 사이즈와 파라미터의 갯수를 계산하는 공식 seongkyun.github.io AlexNet으로 아주 잘 설명해주심 2021. 9. 3.
Receptive Field에서 Zero padding을 추가하여 Dilated Convolution 하는 방법 vs max pooling하여 솎아내는 방법 https://3months.tistory.com/213#:~:text=receptive%20field%EB%9E%80%20%ED%95%84%ED%84%B0%EA%B0%80,%ED%94%BC%ED%8C%85%EC%9D%98%20%EC%9A%B0%EB%A0%A4%EA%B0%80%EC%9E%88%EB%8B%A4. Segmentation과 Dilated Convolution Segmentation classification이 사진에서 어떠한 물체가 '존재하는지' 를 판단하는 것이라면 Segmentation은 이미지에서 픽셀단위로 해당 픽셀이 어떤 Class에 속하는지를 예측하는 태스크로 볼 수 있다. Input 3months.tistory.com 기본적으로, pooling을 하면, 공간 정보가 많이 손실된다... 2021. 8. 25.
Representation Learning & Activation Func에 대한 좋은 설명 https://ratsgo.github.io/deep%20learning/2017/04/25/representationlearning/ Representation Learning · ratsgo's blog 이번 글에서는 representation learning 개념에 대해 살펴보도록 하겠습니다. 딥뉴럴네트워크가 높은 성능을 내는 배경에는 복잡한 데이터 공간을 선형 분류가 가능할 정도로 단순화해 표현하기 때문 ratsgo.github.io 활성함수 ReLU 쓰려고 의도한것같은데, 그림을 잘못넣긴 했다. https://ratsgo.github.io/deep%20learning/2017/04/22/NNtricks/ 딥러닝 학습 기술들 · ratsgo's blog 이번 글은 딥러닝 관련 다양한 학습기술들을 .. 2021. 8. 25.