일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 재정의
- 콘볼루션 신경망
- 딥러닝
- Network
- learning
- TensorFlow
- 리눅ㅅ
- 사용자 매크로
- ResNet
- 클래스
- 메소드
- 안드로이드
- Machine Learning
- 이미지 분류
- Backpropagation
- 분류기
- 텐서플로우
- 자바
- vggnet
- deeplearning
- mobilenet
- 컴퓨터비전
- NeuralNetwork
- 알렉스넷
- 신경망
- Machine
- MNIST
- deep learning
- convolutional neural network
- 컨볼루션 신경망
- Today
- Total
목록분류 전체보기 (33)
강몬드의 프로그래밍 이야기
신경망의 구조 이번에 신경망을 소개한다. 그림 1.4.1은 신경망 구조의 예이다. 이 전에 언급했듯이 맨 왼쪽 뉴런들의 집합을 입력 층, 맨 오른쪽을 출력 층이라고 부른다. 그리고 입력 층과 출력 층 사이에 집합들을 히든 층이라고 한다. 처음 히든 층을 듣고선 무언가 중요하고 깊은 철학이 담겨있을까 생각을 했지만 히든 층은 단지 입력 층과 출력 층 사이를 가리키는 말일 뿐이다. 그리고 위의 신경망은 히든 층이 하나로 되어있는데 여러 개의 히든 층으로 이루어질 수도 있다. 그림 1.4.2는 두 개의 히든 층을 갖는 신경망의 구조이다. 각각의 시그모이드 뉴런으로 이뤄진 다중 히든 층을 갖는 신경망의 구조를 다층 퍼셉트론(Multilayer perceptrons) 또는 MLPs라고 부르기도 한다. 신경망의 역..
시그모이드 뉴런 학습 알고리즘을 생각해보자. 신경망에 대한 학습이 뭘까? 우리가 퍼셉트론으로 설계된 하나의 신경망 모델이 있으면 이 신경망을 어떤 문제에 적용하기 위해서는 학습을 해야 한다. 예를 들어, 손 글씨 문자를 이 신경망 모델의 입력으로 사용한다고 해보자. 그러면 입력은 손 글씨 문자의 픽셀 값들이고 출력의 결과가 그 문자들을 분류한 결과이다. 우리는 결과의 정확도를 올리기 위해 weights와 bias값을 학습할 수 있다. 그럼 신경망 모델에서 임의의 weights값들을 선택해 값의 변화를 줘보자. 그리고 그 변경한 값으로 계산된 출력 값과 변경 이전의 출력 값을 비교해보자. weights 값의 변화가 출력의 영향을 미치는 걸 볼 수 있다. 이 예로 우리는 값의 학습이 되고 있는지는 알 수 없..
퍼셉트론(Perceptron) 신경망은 무엇인가? 이에 대답하기 위해, 퍼셉트론이라 불리는 인공뉴런의 한 종류를 설명한다. 퍼셉트론은 1950년~1960대에 과학자 Frank Rosenblat이 개발하였다. 근래의 인공뉴런으로 많이 사용되는 개념은 퍼셉트론을 기반으로 한 시그모이드 뉴런이 있다. 시그모이드 뉴런은 간단히 설명될 수 있지만 왜 시그모이드 뉴런이 나오게 되었는지는 퍼셉트론을 먼저 이해할 필요가 있다. 그럼 퍼셉트론이란 무엇일까? 퍼셉트론은 2진(Binary, 0과1)값을 갖는 다중의 입력을 하나의 2진수 값으로 출력하는 모델이다. 그림 1은 퍼셉트론의 구조이다. 위 그림은 입력이 3개인 퍼셉트론 구조이다. 입력은 더 많거나 더 적을 수 있다. Rosenblatt은 출력을 계산하는 간단한 규칙..
http://stackoverflow.com/questions/30808735/error-when-using-classify-in-caffe Let go to line 253-254 in caffe/python/caffe/io.py Replace if ms != self.inputs[in_][1:]: raise ValueError('Mean shape incompatible with input shape.') By if ms != self.inputs[in_][1:]: print(self.inputs[in_]) in_shape = self.inputs[in_][1:] m_min, m_max = mean.min(), mean.max() normal_mean = (mean - m_min) / (m_max -..