반응형

Algorithm/Deep Learning 8

Improving Deep Neural Networks : Hyperparameter tuning, Regularization and Optimization : Coursera 강좌 Deeplearning.ai 정리

Setting up your Machine Learning Application 1. Train / Dev / Test sets Train Set : 학습을 위한 데이터 셋Dev Set : Cross validation Set Train set으로 학습한 모델들을 비교하여 좋은 모델을 선택하기 위함즉 어떤 모델을 선택할지 결정되므로, 이 또한 학습에 영향을 미친다는 것을 의미Test Set : 학습과정에서 전혀 본적없는 데이터 셋으로 학습된 모델을 평가하기 위한 데이터 셋이는 학습된 모델이 얼마나 잘 학습 되었나를 검사하기 위한 목적, 혹시나 오버피팅이 되지 않았나..예전에는 60%/20%/20%로 데이터를 나누고 실험을 수행했으나, 요즘에는 데이터가 매우 많아서 98%/1%/1%로 분리하여 실험해도 됨..

ImageNet Classification with Deep Convolutional Neural Networks

Alexnet Introduction 기계 학습을 통한 객체 인식의 경우 데이터 셋을 필요로 한다.하지만, 기존에는 적은 양의 데이터 셋만 공개되어 단순한 인식 과제들만 수행되었다.최근에는 LabelMe와 ImageNet와 같이 많은 수의 데이터셋가 존재한다. LabelMe는 수백에서 수천 개의 완전히 분할된 영상으로 구성되며, ImageNet은 2만 2천개의 카테고리를 갖는 1,500만개의 정답있는 고해상도 영상으로 구성된다. 이렇게 수많은 데이터를 학습시키기 위해서는 좀 더 큰 학습 능력을 가진 모델이 필요함CNNs이 이러한 모델로 여겨진다.CNNs은 신경망의 깊이와 폭 변화로 제어 가능함.CNNs은 표준 Feedforward 신경망과 비교할 때, 훨씬 더 적은 수의 연결과 파라미터를 갖기 때문에좀더..

Convolutional Neural Networks (CNNs / ConvNets)

http://laonple.blog.me/220654387455CNN backpropagation : http://www.slideshare.net/kuwajima/cnnbpConvolutional Neural Networks (CNNs / ConvNets) 컨볼루션 인공 신경망은 일반적인 인공 신경망과 매우 유사하다 : 그들은 학습 가능한 가중치와 바이어스를 갖는 뉴런을 구성한다. 어떤 입력을 수신한 각각의 뉴런은 내적을 수행하고, 선택적으로 비선형(non-linearity)를 따른다. 전체 네트워크는 여전히 하나의 미분가능한 score 함수로 표현된다 : raw 영상의 픽셀로부터 클래스 점수로 그리고, 그것들은 여전히 마지막 레이어에서 loss 함수를 가지고 있으며, 인공 신경망에 학습을 위해 적용되..

Convolutional Neural networks(CNN) Practical

Code1. http://deeplearning.net/tutorial/lenet.html with Python2. http://eric-yuan.me/cnn/3. 2번 블로그 주인의 gitbub : https://github.com/xingdi-eric-yuan/single-layer-convnet with C++4. 강좌 사이트 같음 : http://cs231n.stanford.edu/[출처] Convolutional Neural Network 소스코드 (OpenCV KOREA 대한민국 최고의 컴퓨터비젼 커뮤니티) |작성자 쿠키남 VGG Convolutional Neural Networks Practical 링크 : http://www.robots.ox.ac.uk/~vgg/practicals/cnn/..

Learning Deep Architectures for AI (1 Introduction )

상위 레벨의 관념을 표현하는 복잡한 기능들의 종류를 학습하기 위해 이론적인 결과를 제안한다. Deep architectures는 많은 히든 레이어로 만들어진 뉴럴 네트워크, 또는 많은 서브 공식을 재사용하는 복잡한 공식처럼 비선형 동작의 멀티 레벨로 구성된다. Searching the parameter space of deep architectures is a difficult optimization task, Deep architectures의 파라미터 공간을 찾는 것은 어려운 최적화 작업이다. but learning algorithms such as those for Deep Belief Networks have recently been proposed to tackle this problem wit..

반응형