공부/ABC 부트캠프

ABC 부트캠프 21일차

내가짱이야내가짱이야 2023. 4. 10. 16:38

부-하

안녕하세요.

오늘은 자전거 타고 정말 윈드브레이크해서

좀 힘듭니다.

금요일 특강 + 주말 콤보로 뭘 배웠는지 잊어버렸습니다.

제 머리속에 남은게 없어요.

(충격실화)

 

 

 

수업 시작~

 

나이브 베이즈 분류기는 선형 모델과 매우 유사한 분류기로

선형 분류기보다 훈련 속도가 빠른 장점이 있습니다.

 

원리는 각 특성을 개별로 취급해 파리미터 학습과

각 특성에서 클래스별 통계를 단순하게 취합하는 방식 입니다.

 

 

나이브 베이즈 분류기

- GaussianNB = 연속적인 어떤 데이터에도 적용 가능 / 텍스트 데이터 분류에 주로 사용

- BernoulliNB = 이진 데이터에 적용 가능 / 텍스트 데이터 분류에 주로 사용

- MultinomialNB = 카운트 데이터에 적용 가능

 

 

 

axis는 좌표계의 축이라

각 번호마다 의미가 있습니다!!_!!

axis = 0 row

axis = 1 column

axis = 2 depth

 

 

이건 살짝 이해하기 난해한 코드인데

unique가 중복제거라 0, 1만 남기고

y에서 0이 포함된게 0행과 2행

1이 포함된게 1행과 3행 이라

 

각각 0행 + 2행

1행 + 3행을 더해준 결과값이 나온것이에용

 

 

 

결정 트리란 분류와 회귀 문제에 널리 사용하는 모델로

결정에 다다르기 위해 예/아니오 질문을 이어나가면서 학습합니다.

(약간 스무고개 같은 느낌~)

 

오,, 마치 산과 바다 같은 느낌..

 

이건 깊이에 따른 그래프 결과인데용

깊이 9를 본다면 뭔가,, 이상한게 느껴지죠?

저렇게 까지 해야할까....

과대적합이라고 생각하시면 되용

 

아니 ㅋㅋ 이거 해야했는데 미리 다른거 하고있었지뭐에용,,,,,

근데 또 오류가,,!_!

 

해결방안

끝!

 

이제 슬슬 점심먹으러 보내주실 때가 됐는데,,,,

빵끗!

 

즐거운 점심시간~

오늘 점심은,, 컵라면이랑 삼각김밥!

 

옆에 앉은 재은이 점심도 슬적 사진 찍기(사실 대놓고 찍긴함)

 

 

 

 

닷 ㅣ즐

다시 즐거운 수업 시작 ^^!

 

 

뭔가 차이가 굉장히 많이 나네요

과대적합입니다.

깊이를 추가해서 둘의 차이를 줄여봅시다.

 

빵긋...

 

이건 유방암 데이터를 악성과 양성을 나누어

깊이 4까지 내려간걸 출력한거에용,,

 

 

간식 쪽에

자몽블랙티가 들어왔는데

너무 맛있어용,,,

근데 몇개 없어서 아쉽..

 

아직 한창 배고플 나이인 20대,,,

한눈팔면 먹을 간식이 하나두 없답니다..

항상 신속 정확 savage

 

 

결정 트리의 앙상블은 여러 머신러닝 모델을 연결하여

더 강력한 모델을 만드는 기법입니다.

 

랜덤 포레스트는 훈련 데이터에 과대적합되는 문제를 회피할 수 있습니다.

특히. 결정 트리의 주요 단점인 과대적합을 피할 수 있습니다.

굿....

 

그리고 랜덤 포레스트는 현재 가장 널리 사용되는 머신러닝 알고리즘이고

성능이 매우 뛰어나고 매개변수 튜닝을 많이 하지 않아도 잘 작동합니다.

 

 

왼쪽은 결정 트리로 한 특성 중요도이고

오른쪽은 랜덤 포레스트 모델의 특성 중요도 입니다.

 

확실히 결정 트리로 했을때는 몰랐던

중요한 요소들이 숨어있었군요!

 

오늘 정말 유익하고,, 많은 걸 배웠습니다.

오늘 수업도 이렇게 마치게 되었네요,,

 

 

 

아디오스.