목록Ai/DL (22)
UOMOP

Stochastic Gradient Descent(확률적 경사 하강법)은 학습 데이터 셋에서 하나의 샘플만을 이용해서 가중치와 절편을 update하게 된다. 하나의 샘플만을 이용해서 선형식을 업데이트하지만 Batch Gradient Descent와 비교해보았을 때 크게 차이나지 않는 것이 특징이다. 1. 데이터 불러오기 import numpy as np import pandas as pd from sklearn.datasets import load_boston boston = load_boston() boston_df = pd.DataFrame(boston.data, columns = boston["feature_names"]) boston_df["PRICE"] = boston.target 2. SGD ..

1. 데이터 불러와서 feature, target 분리하기 import pandas as pd import numpy as np from sklearn.preprocessing import MinMaxScaler from sklearn.datasets import load_boston from tensorflow.keras.layers import Dense from tensorflow.keras.models import Sequential from tensorflow.keras.optimizers import Adam boston = load_boston() boston_df = pd.DataFrame(boston.data, columns = boston["feature_names"]) feature_..

1. 데이터 불러오기 import numpy as np import pandas as pd from sklearn.datasets import load_boston boston = load_boston() boston_df = pd.DataFrame(boston.data, columns = boston["feature_names"]) boston_df["PRICE"] = boston.target boston_df.head() 2. 배치 경사 하강법, 함수로 정의 def gradient(feature, target, learning_rate, iter_epochs, verbose): bias = np.random.rand(1,) w1 = np.random.rand(1,) w2 = np.random.rand..

# 기본적인 케라스 모델을 만들어보도록 하자. from tensorflow import keras # 데이터 불러오기 (train_input, train_target), (test_input, test_target) = keras.datasets.fashion_mnist.load_data() # input, target data의 크기 확인 print("train_input의 크기 : {}".format(train_input.shape)) print("train_target의 크기 : {}".format(train_target.shape)) print("*" * 40) print("test_input의 크기 : {}".format(test_input.shape)) print("test_target의 크기..