본문 바로가기

혤로그 이전의 기록/프로젝트 일지33

[ Machine Learning ]K-Nearest Neighbors(KNN) : 최근접이웃 강의 내용 정리 이번주에 3주차 강의 들었다. 내일은 실습 복습하고 과제1,2 하고~ 다음주는 좀 널널하니까 4,5주차 강의 들어야겠다. 이번 방학에 다 끝내고 기계학습 수업듣는게 목표...! ٩(๑'o'๑)۶ K-Nearest Neighbors(KNN)의 개념 : 주변 k개의 자료의 클래스 중 가장 많은 클래스로 특정 자료를 분류 //가까이에 가장 많이 있는// ⓐ KNN 특징 - 매우 간단한 방법이면서 performance는 떨어지지 않아서 많이 사용. - 데이터 차원이 증가하면 차원의 저주(curse of dimension) 문제 발생 //차원이 증가할수록 성능 저하가 심함// * 차원의 저주 : 차원이 증가할수록 데이터의 분포 분석에 필요한 샘플 데이터의 개수가 기하급수적으로 증가함 - 관측치의 거리로 Minko.. 2021. 1. 30.
[ Machine Learning ] 데이터 전처리 강의 내용 정리 데이터 전처리 주요 기법 1. 데이터 실수화 ( Data Vectorization ) : 범주형 자료. 텍스트 자료, 이미지 자료 등을 실수로 구성된 타입으로 변환 EX 1 > One-hot encoding을 이용한 범주형 자료 실수화 : DictVectorizer(sparse) *Default -> sparse = True * 희소행렬 ( Sparse Matrix ) - 불필요한 0값으로 인해 메모리 낭비가 심함, 연산 시 시간 소요 ↑ - 해결 방법 : COO표현식, CSR표현식 ( 참고 : bkshin.tistory.com/entry/NLP-7-%ED%9D%AC%EC%86%8C-%ED%96%89%EB%A0%AC-Sparse-Matrix-COO-%ED%98%95%EC%8B%9D-CSR-%ED%98%9.. 2021. 1. 18.
[인공지능] 선형회귀 (Linear regression) , 경사하강(Gradient Descent Algorithm) 강의 내용 정리 Goal : Minimize cost(W,b) 데이터 예측 단계 Regression Data -> Presentation -> Hypothesis (Linear ? Non-linear ?) 1. Hypothesis (1) Linear ## 우리 모델에 가장 적합한 식(오차가 적음)을 찾자! : H(x) = Wx + b - cost function (오차) = Loss function = Objective function : Cost = H(x) - y (y : 창 값) 즉, 에러의 평균을 의미한다. 유도 방법 - Gradient Descent Algorithm (경사 하강 알고리즘) : 기울기가 0이 되는 지점을 찾는다. -> 미분 --> 갱신값 = 기존값 일때까지 반복 (즉, 미분값이 0인 경우) --.. 2021. 1. 11.
[ StereoPi with PI Camera - VR live Streaming] 2020.11.17 >이번 프로젝트는 3D 카메라 개발 !StereoPi에 2D카메라 2개 연결해서 3D 영상을 출력하게 만들고, 3d프린터기로 하드웨어를 제작할 생각이다.1차적으로는 웹 서버로 streaming하도록 하고, 최종적으로 VR에 디스플레이 하는게 목표교수님께서 이번에는 HLS 프로토콜 써보자고 제안하셨다.근데 굳이 웹 서버 안쓰고 바로 라즈베리파이 서버로 접속해도 될 것 같은데 ..1. camera 인식 오류 카메라 인식 오류로 애먹었다ㅠㅠㅠStereoPI에 RaspberryPi Lite를 끼운 모델을 사용하는데알고보니 따로 bin 파일 하나를 SD Card에 저장했어야 했다.그리고 OS 갈아엎고 다시 했더니 잘 구동됨 ! 참고자료 : wiki.stereopi.com/index.php?title=The_Bas.. 2020. 11. 17.