수업/AI 활용
AI 활용 중간 정리
ksy0314
2023. 4. 18. 22:24
- 기초 정보
- 인공지능 > 머신러닝 > 딥러닝
- 텐서플로와 케라스
- 텐서플로를 쉽게 사용하기위해 만든게 케라스
- 학습의 종류
- 지도 학습 (supervised learning) : 답(label)이 제공되는 traning data를 이용하여 학습 시키는것
- 비지도 학습 (unsupervised learning) : 답이 없는 데이터를 특징 끼리 군집화 함
- 기초 수학
- 2차 함수
- a > 0 일때 2차 함수 최소값 = 기울기가 0인 지점
- 편미분 : 수식에서 원하는 변수에 대해서만 미분하는것 -> 나머지는 상수로 취급
- 지수 함수
- y = a ^ x 일때 a > 1 크면 x가 0에서 증가 할수록 기울기가 증가
- y = a ^ x 일때 1 > a > 0 크면 x가 0에서 감소 할수록 기울기가 증가
- 시그모이드 함수
- 다 필요 없다
- 어떤 입력값이 0~1 사이로 변환해 준다
- 로그, 로그함수
- 교차 엔트로피에 사용
- 실제값 0일때 예측이 0에 가까우면 0 예측이 1에 가까워질수록 무한이 증가
- 실제값 1일때 예측이 1에 가까우면 1 예측이 0에 가까워질수록 무한이 증
- 2차 함수
- 선형 회귀 (Linear Regression)
- Loss Function = Cost Function
- 최소 제곱법?
- 평균 제곱 오차 (Mean Square Error)
- 경사 하강법을 통해 MSE가 최소가 되는 값을 찾음
- 평균 제곱 오차의 옵티마이저는 경사 하강법이다.
- 경사 하강법의 학습률 : a를 얼만큼 이동시킬지 -> 너무 크면 튕겨져 나가고, 작으면 오래걸림
- Loss Function = Cost Function
- 로지스틱 회귀 (ogistic Regression) = 이진 분류 (Binary Classification)
- Loss Function = Cost Function
- 로그 함수 사용한 교차 엔트로피 (Cross Entropy Error) 사용
- 경사 하강법을 통해 교차 엔트로피의 값이 최소가 되는 값을 찾음
- 평균 제곱 오차의 옵티마이저는 경사 하강법이다.
- 경사 하강법의 학습률 : a를 얼만큼 이동시킬지 -> 너무 크면 튕겨져 나가고, 작으면 오래걸림
- Loss Function = Cost Function
- 딥러닝 발전 과정
- 퍼셉트론
- 여러 입력 받아 가중치 넣고 출력 만듬, 가중치 조절 학습
- 아달라인
- 퍼셉트론 + 경사 하강법
- 퍼셉트론 한계
- XOR 문제 해결 불가
- 2차원 평면상의 직선만 그을수 있어서
- 다층 퍼셉트론
- 은닉층 nand
- 오차 역전파
- 활성화 함수로 사용한 시그모이드 함수는 미분값이 1보다 작아 여러 층을 거칠수록 기울기가 사라짐
- 이를 해결하기 위해 0이상일 때 미분값이 1인 렐루 함수 도입
- 고급 경사 하강법
- 확률적 경사 하강법
- 속도 빠름, 멈추지 않는다 BOY
- 모멘
- 아담
- 확률적 경사 하강법
- 퍼셉트론
- 실제 외울 코