본문 바로가기

전체 글119

1x1 convolution https://blog.naver.com/laonple/220692793375 [Part Ⅴ. Best CNN Architecture] 5. GoogLeNet [2] - 라온피플 머신러닝 아카데미 - Part I. Machine Learning Part V. Best CNN Architecture Part VII. Semantic Segmentat... blog.naver.com - 차원을 줄이는 역할. - kernel이 1x1 즉, 한 픽셀이라는 것임. - 여러개의 feature-map으로부터 비슷한 성질을 갖는 것을 묶어낼 수 있다. - feature-map의 숫자를 줄일 수 있다. - 연산량을 줄일 수 있다. - 망을 더 깊게 구성할 수 있게 된다. 이는, fully connected layer 와.. 2021. 9. 22.
QnA 1. Cross Entropy가 MSE보다 좋은 이유 - MSE같은 경우는, sigmoid 함수와 같은 활성함수와 같이 사용하면, Gradient Descent 과정에서 편미분을 할 경우 sigmoid의 특성으로 인해 미분값이 거의 0에 가까워 update가 조금씩밖에 되지 않아 학습속도가 느린 문제가 발생. - Cross Entropy의 경우는 이런 문제가 발생하지 않음. 학습속도 저하원인 Cross Entropy 2. 4x4, 5x5 보다 3x3을 쓰면 non linearity가 더 추가된다고 한다. 왜? - 그리고, 3x3 두개를 쌓으면 5x5 역할을 한다고 한다. 왜? : output 이미지 크기가 그렇게 됨. - 아.. 커널을 거친다음에 activation function을 적용하는데, 이렇게되.. 2021. 9. 22.
Keywords 1. Cost Function 2. Activation Function 3. Batch Normalization 4. Drop Out 5. Vanishing Gradient 6. Initialization 7. Optimizer 2021. 9. 19.
Hyper Parameters https://blog.naver.com/NBlogTop.naver?isHttpsRedirect=true&blogId=laonple&Redirect=Dlog&Qs=/laonple/220571820368 [Part Ⅲ. Neural Networks 최적화] 8. Hyperparameters Optimization [1] - 라온피플 머신러닝 아카데미 - Part I. Machine Learning Part V. Best CNN Architecture Part VII. Semantic Segmentat... blog.naver.com https://blog.naver.com/NBlogTop.naver?isHttpsRedirect=true&blogId=laonple&Redirect=Dlog&Qs=/laonpl.. 2021. 9. 18.
ROS 프로젝트 폴더 구성 및 workspace 만들기 보통은 catkin_ws 이렇게 해서 src 안에 프로젝트 폴더들을 하나씩 만드는 경우가 있다. 그런데, 이러면 catkin_ws 안에 다 때려넣어서, 복잡해질 수 있다. 그래서, 예를들어 Supervised Learning관련해서 ros package를 만들고 싶다면, SL 폴더를 만들고 SL - src 를 만든다. 그리고 패키지들을 src 안에 집어넣으면 된다. 그리고, 그 전에, src폴더에서 터미널을 켜서 catkin_init_workspace 명령어를 쳐서 CMakeLists.txt를 만들자. 그러고, src안에 패키지들을 다 수정했으면, SL 폴더에서 터미널을 켜서, catkin_make를 한다. (또는 catkin build) 2021. 9. 9.
[퍼옴] CNN의 parameter 개수와 tensor사이즈 계산하기 https://seongkyun.github.io/study/2019/01/25/num_of_parameters/ CNN의 parameter 개수와 tensor 사이즈 계산하기 · Seongkyun Han's blog CNN의 parameter 개수와 tensor 사이즈 계산하기 25 Jan 2019 | CNN parameter tensor size CNN의 parameter 개수와 tensor 사이즈 계산하기 이번 글에서는 네트워크의 텐서 사이즈와 파라미터의 갯수를 계산하는 공식 seongkyun.github.io AlexNet으로 아주 잘 설명해주심 2021. 9. 3.
Receptive Field에서 Zero padding을 추가하여 Dilated Convolution 하는 방법 vs max pooling하여 솎아내는 방법 https://3months.tistory.com/213#:~:text=receptive%20field%EB%9E%80%20%ED%95%84%ED%84%B0%EA%B0%80,%ED%94%BC%ED%8C%85%EC%9D%98%20%EC%9A%B0%EB%A0%A4%EA%B0%80%EC%9E%88%EB%8B%A4. Segmentation과 Dilated Convolution Segmentation classification이 사진에서 어떠한 물체가 '존재하는지' 를 판단하는 것이라면 Segmentation은 이미지에서 픽셀단위로 해당 픽셀이 어떤 Class에 속하는지를 예측하는 태스크로 볼 수 있다. Input 3months.tistory.com 기본적으로, pooling을 하면, 공간 정보가 많이 손실된다... 2021. 8. 25.
Semantic Segmentation, FCN(CVPR2015) https://m.blog.naver.com/mincheol9166/221736294296 [Deep Learning] Semantic Segmentation 설명 1편 본 포스팅은 개인 공부 용도로 정리한 포스팅 입니다. 우선, Deep learning 초심자 혹은 Detection, Cla... blog.naver.com **야 근데, encoding, decoding, backward learning 이거 용어 차이를 좀 구분해야겠다. 아래에 쓰여있는게 잘못되어있을수도 있다. 내가 아직 잘 모르기 때문 downsampling - CNN layer를 지나면서 Pooling layer, Stride, Padding 등에 의해 계속 작아지는 과정 - spatial information*** 점점 사라짐 .. 2021. 8. 25.
Representation Learning & Activation Func에 대한 좋은 설명 https://ratsgo.github.io/deep%20learning/2017/04/25/representationlearning/ Representation Learning · ratsgo's blog 이번 글에서는 representation learning 개념에 대해 살펴보도록 하겠습니다. 딥뉴럴네트워크가 높은 성능을 내는 배경에는 복잡한 데이터 공간을 선형 분류가 가능할 정도로 단순화해 표현하기 때문 ratsgo.github.io 활성함수 ReLU 쓰려고 의도한것같은데, 그림을 잘못넣긴 했다. https://ratsgo.github.io/deep%20learning/2017/04/22/NNtricks/ 딥러닝 학습 기술들 · ratsgo's blog 이번 글은 딥러닝 관련 다양한 학습기술들을 .. 2021. 8. 25.