안녕하세요
혼자 공부하는 머신러닝 + 딥러닝 확인문제 1 ~ 6장 본문
1-3
1. 데이터를 표현하는 하나의 성질로써, 예를 들어 국가 데이터의 경우 인구 수, GDP, 면적 등이 하나의 국가를 나타냅니다. 머신러닝에서 이런 성질을 무엇이라고 부르나요?
① 특성
② 특질
③ 개성
④ 요소
① 데이터를 표현하는 하나의 성질을 특성 (feature)이라고 부릅니다.
2. 가장 가까운 이웃을 참고하여 정답을 예측하는 알고리즘이 구현된 사이킷런 클래스는 무엇인가요?
① SGDClasifier
② LinearRegression
③ RandomForestClassifier
④ KNeighborsClassifier
④ k-최근접 이웃 알고리즘을 구현한 클래스는 KNeighborsClassifier입니다.
① SGDClassifier는 경사 하강법을 사용한 분류 알고리즘을 구현한 클래스입니다. 경사 하강법은 4장에서 소개합니다.
② Linear Regression은 선형 회귀 알고리즘을 구현한 클래스입니다. 선형 회귀는 3장에서 소개합니다.
③ RandomForestClassifier는 트리 기반의 앙상블 알고리즘을 구현한 클래스입니다. 트리 모 델은 5장에서 소개합니다.
3. 사이킷런 모델을 훈련할 때 사용하는 메서드는 어떤 것인가요?
① predict()
② fit()
③ score()
④ transform()
② 사이킷런의 모델을 훈련할 때 사용하는 메서드는 fit()입니다.
① predict() 메서드는 새로운 샘플에 대해 예측을 만듭니다.
③ score() 메서드는 훈련한 모델을 평가합니다.
④ transform() 메서드는 사이킷런의 전처리 클래스에서 데이터를 변환할 때 사용합니다. 이 메서드는 3장에서 소개합니다.
2-1
1. 머신러닝 알고리즘의 한 종류로서 샘플의 입력과 타깃(정답)을 달고 있을 때 사용할 수 있는 학습 방법은 무엇인가요?
① 지도 학습
② 비지도 학습
③ 차원 축소
④ 강화 학습
① 지도 학습은 샘플의 입력과 타깃이 준비되어 있을 때 사용할 수 있습니다.
② 비지도 학습은 타깃이 없는 데이터에 적용하는 머신러닝 알고리즘입니다.
③ 차원 축소는 비지도 학습의 하나로 데이터가 가지고 있는 특성의 개수를 줄이는 방법입니다. 비지도 학습과 차원 축소는 이 책의 2장에서 다릅니다.
④ 강화 학습은 주어진 환경으로부터 보상을 받아 학습하는 머신러닝 알고리즘을 말합니다.
2. 훈련 세트와 테스트 세트가 잘못 만들어져 전체 데이터를 대표하지 못하는 현상을 무엇이라고 부르나요?
① 샘플링 오류
② 샘플링 실수
③ 샘플링 편차
④ 샘플링 편향
④ 샘플링 편향은 훈련 세트나 테스트 세트가 잘못 샘플링되어 전체 데이터를 대표하지 못하는 현상을 말합니다.
3. 사이킷런은 입력 데이터(배열)가 어떻게 구성되어 있을 것으로 기대하나요?
① 행: 특성, 열: 샘플
② 행: 샘플, 열: 특성
③ 행: 특성, 열: 타깃
④ 행: 타깃, 열: 특성
② 사이킷런은 입력 데이터에서 샘플이 행에 위치하고 특성이 열에 놓여 있다고 기대합니다.
2-2
1. 이 방식은 스케일 조정 방식의 하나로 특성값을 0에서 표준편차의 몇 배수 만큼 떨어져 있는지로 변환한 값입니다. 이 값을 무엇이라 부르나요?
① 기본 점수
② 원점수
③ 표준점수
④ 사분위수
③ 표준점수는 각 데이터가 평균에서 몇 표준편차만큼 떨어져 있는지 나타내는 값입니다.
② 원점수는 변환하지 않은 원래 점수를 말합니다.
④ 사분위수는 데이터를 크기 순서대로 늘어 늘어놓았을 때 4등분 하는 수입니다.
2. 테스트 세트의 스케일을 조정하려고 합니다. 다음 중 어떤 데이터의 통계 값을 사용해야 하나요?
① 훈련 세트
② 테스트 세트
③ 전체 데이터
① 테스트 세트는 반드시 훈련 세트의 통계 값으로 변환해야 합니다. 그렇지 않으면 훈련 세트에서 학습한 모델이 테스트 세트에서 올바르게 동작하지 않습니다.
3-1
1. k-최근접 이웃 회귀에서는 새로운 샘플에 대한 예측을 어떻게 만드나요?
① 이웃 샘플 클래스 중 다수인 클래스
② 이웃 샘플의 타깃값의 평균
③ 이웃 샘플 중 가장 높은 타깃값
④ 이웃 샘플 중 가장 낮은 타깃값
② k-최근접 이웃 회귀는 예측할 샘플에서 가장 가까운 개의 주변 샘플을 찾고 이 주변 샘 플의 타깃값을 평균하여 예측값을 구합니다.
3-2
1. 선형 회귀 모델이 찾은 방정식의 계수를 무엇이라고 부르나요?
① 회귀 파라미터
② 선형 파라미터
③ 학습 파라미터
④ 모델 파라미터
④ 모델 기반 학습에서 모델이 찾은 정보는 모델 파라미터에 저장됩니다. 선형 회귀에서는 방정식의 계수가 여기에 해당합니다.
2. 사이킷런에서 다항 회귀 모델을 훈련할 수 있는 클래스는 무엇인가요?
① LinearRegression
② PolynomialRegression
③ KNeighborsClassifier
④ PolynomialClassifier
① LinearRegression 클래스는 선형 회귀, 다항 회귀, 다중 회귀를 지원합니다.
② PolynomialRegression이란 클래스는 없습니다.
③ KNeighborsClassifier는 k-최근접 이웃 분류를 위한 클래스입니다.
④ PolynomialClassifier란 클래스는 없습니다.
3-3
1. a, b, c 특성으로 이루어진 훈련 세트를 PolynomialFeatures(degree=3)으로 변환했습니다. 다음 중 이 변환된 데이터에 포함되지 않는 특성은 무엇인가요?
① 1
② a
③ a * b
④ a * b^3
④ 최고 차수가 3이므로 추가되는 특성은 1, a, b, c, a², b², c², ab, bc, ac, abc, ab², ac². bc², ba², ca², cb², a³ , b³ , c³입니다.
2. 다음 중 특성을 표준화하는 사이킷런 변환기 클래스는 무엇인가요?
① Ridge
② Lasso
③ StandardScaler
④ LinearRegression
③ 특성을 표준화로 변환하는 전처리 클래스는 StandardScaler입니다.
① Ridge는 릿지 회귀를 위한 클래스입니다.
② Lasso는 라쏘 회귀를 위한 클래스입니다.
④ Linear Regression은 선형 회귀를 위한 클래스입니다.
3. 다음 중 과대적합과 과소적합을 올바르게 표현하지 못한 것은 무엇인가요?
① 과대적합인 모델은 훈련 세트의 점수가 높습니다.
② 과대적합인 모델은 테스트 세트의 점수도 높습니다.
③ 과소적합인 모델은 훈련 세트의 점수가 낮습니다.
④ 과소적합인 모델은 테스트 세트의 점수도 낮습니다.
② 과대적합인 모델은 훈련 세트의 점수에 비해 테스트 세트의 점수가 크게 낮습니다.
4-1
1. 2개보다 많은 클래스가 있는 분류 문제를 무엇이라 부르나요?
① 이진 분류
② 다중 분류
③ 단변량 회귀
④ 다변량 회귀
② 2개보다 많은 클래스를 가진 분류 문제를 다중 분류 또는 다중 클래스 분류라고 부릅니다.
① 이진 분류는 2개의 클래스, 즉 양성 클래스와 음성 클래스를 분류하는 문제입니다.
③ 단변량 회귀는 하나의 출력을 예측하는 회귀 문제입니다.
④ 다변량 회귀는 여러 개의 출력을 예측하는 회귀 문제입니다.
2. 로지스틱 회귀가 이진 분류에서 확률을 출력하기 위해 사용하는 함수는 무엇인가요?
① 시그모이드 함수
② 소프트맥스 함수
③ 로그 함수
④ 지수 함수
① 시그모이드 함수는 선형 방정식의 결과를 0과 1 사이로 압축하여 확률로 해석할 수 있습니다.
② 소프트맥스 함수는 다중 분류에서 확률을 출력하기 위해 사용합니다.
3. decision_function() 메서드의 출력이 0일 때 시그모이드 함수의 값은 얼마인가요?
① 0
② 0.25
③ 0.5
④ 1
③ 1/(1+e^-0)=1/(1+1) = 0.5입니다. 따라서 이진 분류에서 decision_function() 의 출력이 0보다 크면 시그모이드 함수의 값이 0.5보다 크므로 양성 클래스로 예측합니다.
4-2
1. 다음 중 표준화 같은 데이터 전처리를 수행하지 않아도 되는 방식으로 구현된 클래스는 무엇인가요?
① KNeighborsClassifier
② LinearRegression
③ Ridge
④ SGDClassifier
② LinearRegression 클래스는 해석적인 방법으로 선형 방정식의 해를 구하기 때문에 특성의 스케일에 영향을 받지 않습니다.
① KNeighborsClassifier는 최근접 이웃을 찾기 위해 샘플 간의 거리를 계산합니다. 따라서 특성의 스케일이 다르면 잘못된 이웃을 선택할 수 있습니다.
③ Ridge는 가중치를 규제하여 모델의 과대적합을 막습니다. 특성의 스케일이 다르면 이와 곱해지는 가중치의 스케일도 달라집니다. 이렇게 되면 큰 가중치에만 관심을 두게 되어 가중치를 공정하게 규제하지 못합니다.
① SGDClassifier는 손실 함수를 최소화하기 위해 가장 가파른 경로를 찾습니다. ③과 같이 특성의 스케일 때문에 가중치의 스케일에 차이가 크면 손실 함수를 최소화하는 경로를 올바르게 판단하지 못합니다.
2. 경사 하강법 알고리즘의 하나로 훈련 세트에서 몇 개의 샘플을 뽑아서 훈련하는 방식은 무엇인가요?
① 확률적 경사 하강법
② 배치 경사 하강법
③ 미니배치 경사 하강법
④ 부분배치 경사 하강법
③ 미니배치 경사 하강법은 훈련 세트에서 몇 개의 샘플(보통 2의 배수)을 뽑아 경사 하강법 알고리즘을 수행합니다.
① 확률적 경사 하강법은 훈련 세트에서 랜덤하게 1개의 샘플을 뽑아 경사 하강법 알고리즘을 수행합니다.
② 배치 경사 하강법은 훈련 세트 전체를 사용해 경사 하강법 알고리즘을 수행합니다.
5-1
1. 다음 중 결정 트리의 불순도에 대해 옳게 설명한 것을 모두 고르세요.
① 지니 불순도는 부모 노드의 불순도와 자식 노드의 불순도의 차이로 계산합니다.
② 지니 불순도는 클래스의 비율을 제곱하여 모두 더한 다음 1에서 뺍니다.
③ 엔트로피 불순도는 1에서 가장 큰 클래스 비율을 빼서 계산합니다.
④ 엔트로피 불순도는 클래스 비율과 클래스 비율에 밑이 2인 로그를 적용한 값을 곱해서 모두 더한 후 음수로 바꾸어 계산합니다.
②, ④
지니 불순도 계산식 : 1- (양성 클래스 비율² + 음성 클래스 비율² )
엔트로피 불순도 계산식: - 음성 클래스 비율 × log_2(음성 클래스 비율) - 양성 클래스 비율 × log_2(양성 클래스 비율)
2. 결정 트리에서 계산한 특성 중요도가 저장되어 있는 속성은 무엇인가요?
① important_variables_
② variable_importances_
③ important_features_
④ feature_importances_
④ 결정 트리가 계산한 특성 중요도는 모델 객체의 feature_importances_ 속성에 저장되어 있습니다.
5-2
1. 훈련 세트를 여러 개의 폴드로 나누고, 폴드 1개는 평가 용도로, 나머지 폴드는 훈련 용도로 사용합니다. 그 다음 모든 폴드를 평가 용도로 사용하게끔 폴드 개수만큼 이 과정을 반복합니다. 이런 평가 방법을 무엇이라고 부르나요?
① 교차 검증
② 반복 검증
③ 교차 평가
④ 반복 평가
① 교차 검증은 훈련 세트를 여러 개의 폴드로 나누고 하나의 폴드를 검증 세트로 두고 나머지 폴드를 훈련 세트로 사용합니다. 이런 방식으로 모든 폴드에 대해 반복합니다.
2. 다음 중 교차 검증을 수행하지 않는 함수나 클래스는 무엇인가요?
① cross_validate()
② GridSearchCV
③ RandomizedSearchCV
④ train_test_split
④ train_test_split은 데이터를 훈련 세트와 테스트로 분할합니다.
① cross_validate()는 주어진 모델과 훈련 세트를 사용하여 기본 5-폴드 교차 검증을 수행합 니다.
② GridSearchCV와③ Randomized SearchCV는 하이퍼파라미터 튜닝을 수행하면서 최상 의 모델을 고르기 위해 교차 검증을 수행합니다.
5-3
1. 여러 개의 모델을 훈련시키고 각 모델의 예측을 취합하여 최종 결과를 만드는 학습 방식을 무엇이라고 부르나요?
① 단체 학습
② 오케스트라 학습
③ 심포니 학습
④ 앙상블 학습
④ 앙상블 학습은 더 나은 성능을 내는 여러 개의 모델을 훈련하는 머신러닝 학습 방법입니다
2. 다음 중 비정형 데이터에 속하는 것은 무엇인가요?
① 엑셀 데이터
② CSV 데이터
③ 데이터베이스 데이터
④ 이미지 데이터
④ 이미지는 대표적인 비정형 데이터입니다.
① 엑셀 데이터, ② CSV 데이터, ③ 데이터베이스 데이터는 대표적인 정형 데이터입니다.
3. 다음 알고리즘 중 기본적으로 부트스트랩 샘플을 사용하는 알고리즘은 무엇인가요?
① 랜덤 포레스트
② 엑스트라 트리
③ 그레이디언트 부스팅
④ 히스토그램 기반 그레이디언트 부스팅
① 랜덤 포레스트는 기본적으로 부트스트랩 샘플을 사용합니다.
② 엑스트라 트리의 bootstrap 매개변수의 기본값이 False이지만, True로 바꾸어 부트스트랩 샘플을 사용할 수도 있습니다.
③ 그레이디언트 부스팅과 ① 히스토그램 기반 그레이디언트 부스팅은 부트스트랩 샘플을 사용하지 않습니다.
6-1
1. 히스토그램을 그릴 수 있는 맷플롯립 함수는 무엇인가요?
① hist()
② scatter()
③ plot()
④ bar()
① hist() 함수는 첫 번째 매개변수에 입력한 배열 값의 히스토그램을 그립니다. bins 매개변수에 구간을 지정할 수 있으며 기본값은 10입니다.
② scatter()는 산점도를 그리는 함수입니다.
③ plot()은 선 그래프를 그리는 함수입니다.
④ bar()는 막대그래프를 그리는 함수입니다.
6-2
1. k-평균 알고리즘에서 클러스터를 표현하는 방법이 아닌것은 무엇인가요?
① 클러스터에 속한 샘플의 평균
② 클러스터의 중심
③ 센트로이드
④ 클러스터에 속한 샘플 개수
④ 클러스터에 속한 샘플 개수는 클러스터 구성에 관련이 없습니다.
① k-평균 알고리즘에서 클러스터에 속한 샘플을 평균 내어 클러스터 중심으로 정합니다.
② 샘플은 가장 가까운 클러스터 중심에 속하며 이런 샘플들이 모여 하나의 클러스터를 구성합니다.
③ 클러스터 중심을 센트로이드라고도 부릅니다.
2. k-평균에서 최적의 클러스터 개수는 어떻게 정할 수 있나요?
① 엘보우 방법을 사용해 이너셔의 감소 정도가 꺾이는 클러스터 개수를 찾습니다.
② 랜덤하게 클러스터 개수를 정해서 k-평균 알고리즘을 훈련하고 가장 낮은 이너셔가 나오는 클러스터 개수를 찾습니다.
③ 훈련 데이터를 모두 조사하여 몇 개의 클러스터가 나올 수 있는지 직접 확인합니다.
④ 교차 검증을 사용하여 최적의 클러스터 개수를 찾습니다.
① 엘보우 방법을 사용해 이너셔의 감소 정도가 꺾이는 클러스터 개수를 찾습니다.
② 클러스터 개수가 많을수록 이너셔가 작게 나오기 때문에 무조건 작은 이너셔를 얻을 수 있는 클러스터 개수를 선택하면 안 됩니다.
③ 군집은 타깃 없이 훈련하는 비지도 학습 알고리즘으로 대규모 데이터셋의 경우 직접 조사하여 몇 개의 클러스터가 만들어질지 파악하기 어렵습니다.
④ 교차 검증은 지도 학습 모델이 훈련 데이터에서 얻을 수 있는 성능을 평가하는 도구입니다.
6-3
1. 특성이 20개인 대량의 데이터셋이 있습니다. 이 데이터셋에서 찾을 수 있는 주성분 개수는 몇 개일까요?
① 10개
② 20개
③ 50개
④ 100개
② 일반적으로 특성의 개수만큼 주성분을 찾을 수 있습니다.
2. 샘플 개수가 1,000개이고 특성 개수는 100개인 데이터셋이 있습니다. 즉 이 데이터셋의 크기는 (1000, 100)입니다. 이 데이터를 사이킷런의 PCA 클래스를 사용해 10개의 주성분을 찾아 변환했습니다. 변환된 데이터셋의 크기는 얼마일까요?
① (1000, 10)
② (10, 1000)
③ (10, 10)
④ (1000, 1000)
① (1000, 100) 크기 데이터셋에서 10개의 주성분을 찾아 변환하면 샘플의 개수는 그대로이고 특성 개수만 100에서 10으로 바뀝니다. 즉 (1000, 10)이 됩니다.
3. 2번 문제에서 설명된 분산이 가장 큰 주성분은 몇 번째 인가요?
① 첫 번재 주성분
② 다섯 번째 주성분
③ 열 번째 주성분
④ 알 수 없음
① 주성분 분석은 가장 분산이 큰 방향부터 순서대로 찾습니다. 따라서 첫 번째 주성분의 설명된 분산이 가장 큽니다.
'Study_exam > 혼자 공부하는 머신러닝 + 딥러닝' 카테고리의 다른 글
혼자 공부하는 머신러닝 + 딥러닝 혼공 용어 노트 1 ~ 6장 연습문제 (3) | 2023.11.21 |
---|---|
혼자 공부하는 머신러닝 + 딥러닝 혼공 용어 노트 1 ~ 6장 (1) | 2023.11.21 |