목록전체 글 (295)
UOMOP
#include #include #define _CRT_SECURE_NO_WARNINGS #pragma warning(disable:4996) int main() { char str1[] = "hello"; char str2[100]; strcpy(str2, str1); printf("%s\n\n", str2); //////////////////////////////// char str3[20] = "hello "; strcat(str3, "world!"); printf("%s\n\n", str3); ///////////////////////////////// char str4[] = "sample"; char str5[] = "simple"; int cmp = strcmp(str4, str5); int..
#include #define _CRT_SECURE_NO_WARNINGS #pragma warning(disable:4996) int main() { int arr[] = { 1, 2, 3, 4, 5, 6, 7, 8, 9 }; for (int i = 0; i < sizeof(arr) / sizeof(int); i++) printf("%d ", arr[i]); } #include #define _CRT_SECURE_NO_WARNINGS #pragma warning(disable:4996) int main() { int arr[] = { 1, 2, 3, 4, 5, 6, 7, 8, 9 }; printf("arr의 크기 : %d\n", sizeof(arr)); printf("int형의 크기 : %d\n", si..
#include #define _CRT_SECURE_NO_WARNINGS #pragma warning(disable:4996) int main() { int n; do { printf("제발 0을 눌러주세요!! : "); scanf("%d", &n); } while (n != 0); }
#include #define _CRT_SECURE_NO_WARNINGS #pragma warning(disable:4996) int main() { int choice; makechoice: printf("1 : new game\n"); printf("2 : load game\n"); printf("3 : setting\n"); printf("4 : credit\n\n"); printf("what? : "); scanf("%d", &choice); switch (choice) { case 1: printf("new game!\n"); break; case 2: printf("load game!\n"); break; case 3: printf("setting!\n"); break; case 4: prin..
# 기본적인 케라스 모델을 만들어보도록 하자. from tensorflow import keras # 데이터 불러오기 (train_input, train_target), (test_input, test_target) = keras.datasets.fashion_mnist.load_data() # input, target data의 크기 확인 print("train_input의 크기 : {}".format(train_input.shape)) print("train_target의 크기 : {}".format(train_target.shape)) print("*" * 40) print("test_input의 크기 : {}".format(test_input.shape)) print("test_target의 크기..
"확률적 경사 하강법"은 추출된 데이터 한 개에 대해서 그래디언트를 계산하고, 경사 하강 알고리즘을 적용하는 방법을 말한다. 이때 경사는 손실 함수의 경사를 뜻한다. 손실함수의 경사가 적을수록 좋은 모델일 것이고 손실함수의 최저점을 찾아서 해당하는 point에서의 가중치(weight), 절편(bias)를 업데이트하게 되는 것이다. 다양한 지표를 손실함수로 사용할 수 있지만 분류 알고리즘에서의 정확도는 사용될 수 없다. 정확도는 불연속적인 값을 지니게 때문에 미분이 불가능하기 때문이다. 예를 들어서 2진 분류라면 정확도는 [0 0.25 0.5 0.75 1]일 것이고, 5가지의 경우의 수만 존재할 것이다. 분류 알고리즘에서는 성능을 평가할 때는 정확도를 사용하지만 최적화(확률적 경사 하강법 등)을 할 때는 ..