What is Data_Scaling
데이터 스케일링(Data Scaling) 이란?
데이터의 값의 범위를 조정하는 것
🤔 왜 데이터 스케일링을 하는가?
데이터의 경향, feature의 영향, 상관관계 등 데이터를 분석하는데 활용할 수 있으며, 인공지능 개발 중 학습단계에서 여러 feature의 영향도를 비슷한 수준으로 맞추기 위해 범위를 조정.
데이터의 값의 범위를 조정하는 것
데이터의 경향, feature의 영향, 상관관계 등 데이터를 분석하는데 활용할 수 있으며, 인공지능 개발 중 학습단계에서 여러 feature의 영향도를 비슷한 수준으로 맞추기 위해 범위를 조정.
AI 모델링을 위해 X_train, X_test, y_train, y_test로 나누는 작업은 필수적입니다. 저는 train과 test를 나누는 코드를 직접 짜서 사용했었는데 scikit learn에서 제공되는 함수가 있었습니다. “train_test_split()"이를 알아보겠습니다.
1~100의 데이터가 input의 양(x_train)으로 주어졌을 때
20 epoch를 적용한다는 의미는
단계별로 설명하자면,
1번째 학습(1 epoch) 시작
초기화된 가중치(w)와 편향(b)을 가지고 1에 대한 계산 진행 >
옵티마이저는 학습 데이터(Train data)셋을 이용하여 모델을 학습 할 때 데이터의 실제 결과와 모델이 예측한 결과를 기반으로 오차를 잘 줄일 수 있게 만들어주는 역할입니다.