CS(Computer Science)45 7. 단일층 신경망 단일층 신경망(Single-layer neural network) : 하나의 입력층과 하나의 출력층으로 구성된 인공신경망 모델 : 입력 데이터가 입력층으로 들어가면 출력층에서 결과가 출력된다. : 연결층에는 여러 개의 뉴런이 존재한다. 각 뉴런은 입력 데이터와 연결된 가중치(Weight)와 편형(Bias) 값을 가지고 있습니다. 입력 데이터는 이 가중치와 편향 값에 따라 출력층으로 전달된다. 한계점 - XOR 문제와 같은 비선형 분류 문제는 해결할 수 없다 => 다층 신경망, 딥러닝 from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split import numpy as np impor.. 2023. 3. 19. 6. 로지스틱 회귀 로지스틱 회귀 (Logistic Regression) - 입력변수 x와 출력변수 y 간의 관계를 확률로 모델링 - 출력변수는 0 또는 1의 값을 가질 수 있으며, 0 또는 1의 값이 나오도록 확률을 조정하는 함수로는 로지스틱 함수가 사용된다. - 로지스틱 함수는 S자 모양의 곡선으로 표현되며, 입력 값에 따라 출력 값을 0과 1 사이 값으로 변환합니다. - 입력 변수의 가중치(weight)와 편향(bias)을 조정하여 최적의 모델을 학습한다. from sklearn.datasets import load_breast_cancer from sklearn.model_selection import train_test_split import numpy as np import matplotlib.pyplot as .. 2023. 3. 19. 5. 뉴런 생성 & 시그모이드 함수 뉴런 생성 by Class from sklearn.datasets import load_diabetes import matplotlib.pyplot as plt diabetes = load_diabetes() x = diabetes.data[:,2] y = diabetes.target class Neuron: def __init__(self): self.w = 1.0 self.b = 1.0 def forpass(self,x): y_hat = x * self.w + self.b return y_hat def backprop(self, x, err): w_grad = x *err b_grad = 1 *err return w_grad, b_grad def fit(self, x, y, epochs=100): f.. 2023. 3. 18. 4. 경사하강법 Gradient Descent - 가장 일반적인 최적화 알고리즘 중에 하나 - 함수의 최소값을 찾기 위한 방법 - 현재 위치에서의 기울기 (gradient)를 구하고, 그 기울기가 가리키는 방향으로 이동하여 함수의 최소값을 찾음 1) 초기값 설정 : 가중치(weight)나 편향(bias)과 같은 모델의 매개변수를 초기값으로 설정 2) 기울기 계산 : 초기값으로 설정된 매개변수에서의 함수의 기울기(gradient) 계산 / 기울기 방향, 크기 알수 있음 3) 매개변수 업데이트 : 함수의 기울기 방향으로 매개변수를 업데이트 / 학습률(learning rate)라는 하이퍼 파리미터에 따라 업데이트 양이 결정된다 4) 종료조건 확인 : 일정한 반복 횟수나, 기울기의 크기가 충분히 작아졌을 때, 최적화 종료 5).. 2023. 3. 18. 이전 1 ··· 5 6 7 8 9 10 11 12 다음 728x90