
> 메르 블로그에서 VIX 지수에 대한 주제로 Post가 올라왔다. > VIX 지수가 Peak 일 때 주가 지수 바닥은 어느 정도 시간이 걸린다. > Event(침체) 마다 바닥은 다 다르다. > 실제 데이터를 확인해 보면 다음과 같다. 침체 구분Min(SP500)Max(VIX)First(Min_SP500_Date)First(Max_VIX_Date)A :(S&P Min - Vix max) DateB : 침체 기간11. 1990년 걸프 전쟁295.4636.471990-10-111990-08-23498712. 1998년 아시아 금융 위기957.2844.281998-08-311998-08-310-13. 닷컴 버블776.7645.082002-10-092002-08-056592914. 서브프라임 모기지 위..

> 관세 전쟁이 시작되면서 VIX 지수가 급등했다 > VIX 지수란 S&P 500 지수의 변동성이다. (@Grok) VIX 지수 간단 설명의미:VIX는 S&P 500 지수의 향후 30일 동안의 예상 변동성(Volatility)을 퍼센트로 나타냅니다.쉽게 말해, VIX 값이 높을수록 시장이 불안정하고 투자자들이 불확실성을 크게 느낀다는 뜻입니다. 반대로 VIX 값이 낮으면 시장이 안정적이라는 신호로 해석됩니다.계산 방식:S&P 500 지수의 옵션(특히 콜과 풋 옵션) 가격을 사용해 계산합니다.옵션 가격은 시장의 변동성 기대를 반영하므로, VIX는 투자자들이 예상하는 변동성을 수치화한 것입니다.공식은 다소 복잡하지만, 핵심은 옵션의 "내재 변동성(Implied Volatility)"을 평균화한 값입니다..
> Deep Learning은 ML과 메커니즘과 Code Flow가 다름 (pytorch)> Pytorch 하려면 Class 알아야 함 > Class는 객체를 만들기 위한 설계도 혹은 틀 (붕어빵 틀), 연관되어 있는 변수와 메서드(객체 안의 함수)의 집합> 객체(Object)는 실제로 만드는 붕어빵. 객체의 모든 인스턴스를 대표하는 포괄적인 의미. > 객체는 Instance라고 생각하면 된다. > 예) 철수는 인스턴스 철수의 클래스는 사람> 예) 소나타는 클래스 차의 종류, 인스턴스는 각각의 소나타의 차 #Class class Country01: name = '국가명' capital = '수도' population = 100 def introduce(self): sen..
> 피쳐가 여러 개, 타깃 데이터가 있으면 행 간 상관이 없는 데이터가 있고 상관이 있는 데이터가 있다.> 시계열은 후자이다, 앞의 행의 데이터가 없으면 밑의 행 데이터가 영향을 받는다. : 종속 변수 y의 오차들은 독립이다 > 시계열 분석으로 회귀 분석을 하고 남은 오차를 예측하는 것이다. > ARIMA, GARCH를 붙여서 더 복잡한 모델로 발전시킨다. > t 까지의 데이터를 가지고 있고 한 시점은 데이터마다의 정의가 다르다. > 시계열 기준 보통 최대 3 시점까지만 예측 가능하다. (상황마다 달라질 수 있다)> 단위가 다르면 예측하지 못한다. 단위 시간이 1년이면 7개월 후는 예측 못함. > Bold B는 한 시점 뒤로, Bold F는 한 시점 뒤로> Bold 대문자 표현을 하는데 행렬은 아..
> 비지도 학습은 타깃이 없음> 맞았는지 잘 모름 > 라벨링이 안되어있는 데이터를 묶는다 > 사용자가 묶음을 정해야 한다. > 별의 중심점은 random으로 처음에 정하고 클러스터링 후 평균값으로 다시 설정 > 중심점이 안 움직일 때까지 반복한다. from sklearn.datasets import make_blobsX,y = make_blobs(n_samples =100, n_features =2, centers =5, random_state =10)from sklearn.cluster import KMeans kmc = KMeans(n_clusters =5, init = 'random', n_init = 10, max_iter =10..
> 머신 러닝의 지도 학습 (kNN, 선형회귀, 로지스틱 회귀, 나이브 제이즈, 의사결정 나무. 서포트 벡터 머신)> 이 머신 러닝의 알고리즘을 합체시키는 것이 앙상블 학습이 있다. > 합체 방법은 여러가지 (voting (투표), bagging(구걸), boosting(가속), stacking(쌓다))> 하나의 모형을 분류기, 여러 분류기를 모아서 성능 좋은 분류기 생성> 그래도 개별 분류기의 성능이 accuracy 기준 50%는 넘겨야 함 (동전 던지는 것보다 나아야) 권장은 60% > 투표해서 결과 판단. #Voting 구분from sklearn.linear_model import LogisticRegression from sklearn import svmfrom sklearn.naive_bayes..
> 가장 가까운 K개 봐서 판단하는 모델 > 왜 K 근접 이웃 알고리즘 맨 처음에 배우는 이유는 쉽기 때문 > 빨간 점이 세모인지 네모인지 모를 때 > 가장 가까운 게 세모니깐 세모다 > 그래서 개수를 늘려가면서 판단하는 개념 > 거리 개념을 알아야 어떤 게 더 가까이 있는지 알 수 있다. > 거리 개념은 여러 가지가 있다 (유클리디안, 맨해튼 거리 등등) > 유클리디안 거리가 가까워도 맨하튼 거리가 길 수 도 있다. > ex) 길이가 짧아도 도달하는 시간이 더 길 수 도 있다 > 빨간 점 기준 거리를 구한다 > K 개수 늘려가면서 다수결로 판단한다 > 몇 개 뽑을지는 사용자가 정한다 > 모든 데이터의 거리를 구해야 되게 거리 데이터를 RAM에다가 올려놓음 > 연산이 빠른 장점이 있고 데이터 용..
- Total
- Today
- Yesterday
- Acceptor
- CD
- Solar cell
- 반도체
- Thermal Noise
- Pinch Off
- 열전자 방출
- Donor
- Charge Accumulation
- Optic Fiber
- Fiber Optic
- pn 접합
- channeling
- Laser
- Reverse Bias
- PN Junction
- EBD
- MOS
- C언어 #C Programming
- semiconductor
- 문턱 전압
- 쇼트키
- 양자 웰
- fermi level
- 광 흡수
- Diode
- Blu-ray
- Energy band diagram
- Depletion Layer
- Semicondcutor
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |