> Deep Learning은 ML과 메커니즘과 Code Flow가 다름 (pytorch)> Pytorch 하려면 Class 알아야 함 > Class는 객체를 만들기 위한 설계도 혹은 틀 (붕어빵 틀), 연관되어 있는 변수와 메서드(객체 안의 함수)의 집합> 객체(Object)는 실제로 만드는 붕어빵. 객체의 모든 인스턴스를 대표하는 포괄적인 의미. > 객체는 Instance라고 생각하면 된다. > 예) 철수는 인스턴스 철수의 클래스는 사람> 예) 소나타는 클래스 차의 종류, 인스턴스는 각각의 소나타의 차 #Class class Country01: name = '국가명' capital = '수도' population = 100 def introduce(self): sen..
> 피쳐가 여러 개, 타깃 데이터가 있으면 행 간 상관이 없는 데이터가 있고 상관이 있는 데이터가 있다.> 시계열은 후자이다, 앞의 행의 데이터가 없으면 밑의 행 데이터가 영향을 받는다. : 종속 변수 y의 오차들은 독립이다 > 시계열 분석으로 회귀 분석을 하고 남은 오차를 예측하는 것이다. > ARIMA, GARCH를 붙여서 더 복잡한 모델로 발전시킨다. > t 까지의 데이터를 가지고 있고 한 시점은 데이터마다의 정의가 다르다. > 시계열 기준 보통 최대 3 시점까지만 예측 가능하다. (상황마다 달라질 수 있다)> 단위가 다르면 예측하지 못한다. 단위 시간이 1년이면 7개월 후는 예측 못함. > Bold B는 한 시점 뒤로, Bold F는 한 시점 뒤로> Bold 대문자 표현을 하는데 행렬은 아..
> 비지도 학습은 타깃이 없음> 맞았는지 잘 모름 > 라벨링이 안되어있는 데이터를 묶는다 > 사용자가 묶음을 정해야 한다. > 별의 중심점은 random으로 처음에 정하고 클러스터링 후 평균값으로 다시 설정 > 중심점이 안 움직일 때까지 반복한다. from sklearn.datasets import make_blobsX,y = make_blobs(n_samples =100, n_features =2, centers =5, random_state =10)from sklearn.cluster import KMeans kmc = KMeans(n_clusters =5, init = 'random', n_init = 10, max_iter =10..
> 머신 러닝의 지도 학습 (kNN, 선형회귀, 로지스틱 회귀, 나이브 제이즈, 의사결정 나무. 서포트 벡터 머신)> 이 머신 러닝의 알고리즘을 합체시키는 것이 앙상블 학습이 있다. > 합체 방법은 여러가지 (voting (투표), bagging(구걸), boosting(가속), stacking(쌓다))> 하나의 모형을 분류기, 여러 분류기를 모아서 성능 좋은 분류기 생성> 그래도 개별 분류기의 성능이 accuracy 기준 50%는 넘겨야 함 (동전 던지는 것보다 나아야) 권장은 60% > 투표해서 결과 판단. #Voting 구분from sklearn.linear_model import LogisticRegression from sklearn import svmfrom sklearn.naive_bayes..
> 가장 가까운 K개 봐서 판단하는 모델 > 왜 K 근접 이웃 알고리즘 맨 처음에 배우는 이유는 쉽기 때문 > 빨간 점이 세모인지 네모인지 모를 때 > 가장 가까운 게 세모니깐 세모다 > 그래서 개수를 늘려가면서 판단하는 개념 > 거리 개념을 알아야 어떤 게 더 가까이 있는지 알 수 있다. > 거리 개념은 여러 가지가 있다 (유클리디안, 맨해튼 거리 등등) > 유클리디안 거리가 가까워도 맨하튼 거리가 길 수 도 있다. > ex) 길이가 짧아도 도달하는 시간이 더 길 수 도 있다 > 빨간 점 기준 거리를 구한다 > K 개수 늘려가면서 다수결로 판단한다 > 몇 개 뽑을지는 사용자가 정한다 > 모든 데이터의 거리를 구해야 되게 거리 데이터를 RAM에다가 올려놓음 > 연산이 빠른 장점이 있고 데이터 용..
최적화 > 선분은 시작과 끝 지점이 존재 (무한, 유한 차이) > 선분의 어느 점을 표현할 때 w로 표현 > 직선의 범위는 무한, 직선을 포함하는 집합도 무한 이 집합을 아핀 셋이라고 한다. > n차원으로 확장한 것을 아핀 조합이라고 한다 > 아핀 셋은 무한, 컨벡스 셋은 유한 > 컨벡스 셋은 선분을 포함한 유한 집합 > 회색 영역이 컨벡스 셋인가? 선분을 포함해야 함 (유한이어도) > 찾는 solution의 범위가 컨벡스 셋이 아니면 거의 못 찾음 > 이차 함수 예제로 들었던 이유는 이차 함수가 컨벡스 셋이기 때문이다. > 주어진 점들을 포함하는 컨벡스 셋을 의미 > w.T @ x 는 내적이고 내적 했을 때 스칼라 b를 갖는 벡터 x의 집합을 초평면이라고 한다. > 원, 세모를 빨간 선을 기준..
> 생각보다 실상에서 정규 분포가 많지 않음> 잘못 알려진 사실) 데이터 크기가 커지면 정규 분포를 따른다 (모수만큼 해로운 말) > 중심극한정리 잘못 이해해서 하는 말임. (잊어버리라고 함)> 이런 분포들이 많다. (감마 분포)> 이런 분포들은 평균보단 중앙값을 얘기해야한다. > 확률 변수가 확률 분포를 갖고 확률 분포는 함수다 (식이 있다). > 이산형은 셀 수 있는, 연속 확률은 셀 수 없는 > P(X=x)는 P는 확률, X는 확률 변수, x는 상수, 확률 변수 X가 특정 값 x가 될 확률 > 이산형은 확률 질량 함수, 연속형은 확률 밀도 함수 > 책마다 표현 fx 가 다름. > 질량은 덩어리로 있고 밀도는 특정 점에는 없음 그래서 확률 밀도 함수에서 특정 값이 될 확률은 0이다.> 확률 밀..
- Total
- Today
- Yesterday
- 광 흡수
- Charge Accumulation
- Reverse Bias
- 열전자 방출
- Acceptor
- Energy band diagram
- pn 접합
- channeling
- Donor
- C언어 #C Programming
- Optic Fiber
- 양자 웰
- 문턱 전압
- 반도체
- Semicondcutor
- Thermal Noise
- Diode
- semiconductor
- CD
- MOS
- Solar cell
- Depletion Layer
- Blu-ray
- 쇼트키
- Fiber Optic
- fermi level
- Laser
- PN Junction
- EBD
- Pinch Off
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |