본문 바로가기
반응형

딥러닝 알고리즘8

딥러닝 CNN 컨볼루션 신경망 10분만에 이해하기 딥러닝이 사용되는 분야는 다양하다. 그 중에서도 많은 딥러닝 모델들이 도전하는 분야가 바로 이미지 인식 분야다. 이미지 인식을 하기 위해서는 프레임을 이해하고 분해하고 해석할 수 있어야 한다. 딥러닝 이미지 인식분야에서 강력한 성능을 보이는 알고리즘이 바로 컨볼루션 신경망(Convolution Neural Network)이다. 컨볼루션 신경망(CNN) 컨볼루션 신경망은 입력된 이미지에서 특징을 한번더 추출해낸다. 특징을 추출하기 위해서 마스크(혹은 필터, 윈도, 커널이라고도 부른다.) 를 도입한다. 임의의 2x2 마스크를 만들고, 마스크에 임의의 가중치를 설정한다. 이미지를 기존 이미지에 순회하면서 적용하면 컨볼루션이라고 불리는 새로운 합성곱층이 만들어진다. 이 컨볼루션을 가지고 기존 이미지에서 더욱 정.. 2021. 12. 16.
딥러닝 실제 모델 만드는 방법 딥러닝 코드 구현해보기 이항 분류 keras 모듈 이용하기 (feat 인디언 당뇨병 문제) 1. 데이터 : 피마 인디언 당뇨병 발생 유무 2. 문제형태 : 이항분류(Binary Classification) 3. 코드 구현 keras 모듈을 호출한다. tf.compat.v1.disable_eager_execution()는 tensorflow 버전 호환 문제를 해결한다. 1 2 3 4 5 from keras.models import Sequential from keras.layers import Dense import numpy import tensorflow as tf tf.compat.v1.disable_eager_execution() cs seed값은 랜덤 테이블 중에서 사용할 테이블을 지정하는 것이다. 넘파이 라이브러리를 사용하면서 tensorflow 기반 딥러닝을 구현하면 일정한 값을 얻.. 2021. 12. 15.
딥러닝 오차 역전파 10분만에 이해하기 딥러닝 오차 역전파 딥러닝은 학습데이터를 가지고 예측결과를 추론하는 알고리즘이다. 입력값은 기울기 a와 절편 b값이다. 딥러닝은 실제데이터와 차이는 부분을 오차로 규정하고, 가중치와 절편을 임의로 조정하면서 오차가 가장작은 부분, 오차 그래프에서 미분이 0이 되는 지점까지 학습을 수행하고 결과를 도출한다. 문제는 퍼셉트론이 다층으로 쌓이면서 가중치와 바이어스의 수정값도 복잡해진다는 것이다. 층이 많아지면서 출력층에서 은닉층, 그리고 입력층으로 가중치+바이어스 수정값을 조정 하는데 이를 역으로 방향이 간다고 해서 오차 역전파(back propagation)라 부른다. 오차 역전파가 수행되는 도식은 다음과 같다. 1. 환경 변수 지정 입력값, 타깃 결과값, 학습률, 데이터셋을 먼저 정의한다. 2. 신경망 실.. 2021. 12. 15.
딥러닝 핵심 개념 신경망 10분만에 이해하기 인간의 신경망 작동 인간의 뇌는 약 1000억개의 뉴런으로 구성된다. 뉴런 사이에는 시냅스라는 연결부위가 존재한다. 신경 말단에서 자극을 받으면 시냅스에서 화학물질이 분비되고, 전위 변화를 일으킨다. 전위가 임계값을 넘기게 되면, 다음 뉴런으로 신호를 보내서 말단 신경에서 온 자극을 느끼고 이해하고 생각하고 행동을 취하게 되는 것이다. 딥러닝에서도 이와 유사하게 입력값을 받아서 활성화함수를 사용해서 출력값을 도출해낸다. 딥러닝 신경망의 핵심개념은 인간의 뇌의 뉴런과 시냅스와 유사한 개념인 퍼셉트론(peceptron)이다. 퍼셉트론(perceptron) 퍼셉트론에서 기울기, 절편은 다른 개념이다. 기울기 a는 가중치를 의미하는 w(weight)다. 절편 b는 편향을 뜻하는 바이어스(bias)다. 가중합이란.. 2021. 12. 15.
딥러닝 로지스틱 회귀 알고리즘 10분만에 이해하기 선형회귀분석과 다르게, 참과 거짓만을 분별해야 하는 모델이 필요하다. 우리는 이때 로지스틱 회귀 분석 알고리즘을 이용하게 된다. 로지스틱 회귀 분석 참, 거짓을 구분하는 알고리즘이 로지스틱 회귀 Logistic Regression이다. 로지스틱 회귀는 선형회귀와 동일하게 선을 그어나가는 알고리즘이다. 하지만 참 / 거짓 둘중 하나를 판별해야 하기 때문에, 그래프가 선형회귀와는 다른 모양을 가진다.로지스틱 회귀 Logistic Regression 0과 1 사이에서 그려지는 그래프를 가능하게하는 함수가 시그모이드 함수다. 시그모이드(Sigmoid) 함수 시그모이드 함수 공식은 다음과 같다. 우리가 사용해야 하는 공식은 결국 ax+b인 1차 방정식이다. 오차를 줄이기 위해서 learning-rate를 조정하지.. 2021. 12. 15.
딥러닝 머신러닝 인공지능 경사 하강법 10분만에 이해하기 쫄지마 딥러닝 딥러닝 경사 하강법? 이전 글에서 살펴본 선형회귀에서 오차를 줄여나가면서 예측값을 수정한다고 했다. 선형회귀에서 a값과 b값을 조정하면서 오차를 줄여나가게 되는데, 만약 기울기 a를 너무 크게 잡으면 오차가 커지게 된다. 오차와 기울기의 관계를 그래프로 표현하는 2차 방정식 형태의 그래프가 표현된다. 오차가 가장 작은 점은 그래프의 가장 아래부분이 된다. 즉, 오차 그래프에서 가장 작은 부분으로 이동하는 방법이 바로 경사 하강법 (Gradient Decent)이다. 경사하강법에는 미분을 사용한다. 계속 어려운 용어가 나와서 머리가 아픈가? 이것만 이해하면 딥러닝의 전체적인 그림을 이해하는 것이니 조금더 힘내길 바란다. 문과생이라면 미분을 이해하지 못할 수도 있다. 하지만 개념은 간단하다. x축 변화량 대.. 2021. 12. 15.
반응형