본문 바로가기
728x90
반응형

분류 전체보기266

[Data Science] 상관계수, Pearson, Spearman, Kendall 상관 계수한국어 위키백과) 두 변수 사이의 통계적 관계를 표현하기 위해 상관관계의 정도를 수치적으로 나타낸 계수.여러 유형의 상관 계수가 존재하고, 모두 $[-1, 1]$의 범위를 갖는다. $\pm 1$은 강한 상관성을, $0$은 상관성이 없다는 뜻이다.가장 중요한 유의점으로, 상관계수가 큰 것이 인과관계를 나타내지 않는다. (인과 관계를 알아내기 위해서는 보다 복잡한 과정이 필요하다. 추후 설명할 예정)Pearson's r, PCC(Pearson's Correlation Coefficient)두 확률변수 $X, Y$에 대하여 선형적(linear) 상관관계를 측정한다. 모집단(population)을 알 때의 상관계수와 표본에서의 상관계수의 정의가 다르다.우선, 모집단 상관계수는\[ \rho_{X, Y} .. 2023. 3. 17.
연속확률분포, Continuous Distribution Keywords연속확률변수, 확률밀도함수, 균등분포, 지수분포, 감마함수, 감마분포, 베타함수, 베타분포, 표준정규분포, 정규분포, 카이제곱분포Continuous Random Variable, probability density function, density, density function, uniform distribution, exponential distribution, gamma function, gamma distribution, beta function, beta distribution, standard normal distribution, normal distribution, chi-squared distribution  Continuous Random Variable확률변수 $X$가 모든.. 2023. 3. 16.
[Data Science] Basic Statistical Description of Data Keywordsbox plot, histogram, quantile plot, quantile-quantile plot, q-q plot, scatter plot Box Plotnumerical data를 5개의 수로 정리하여 그래프로 시각화한 그래프이다. Five-Number Summaryminimum, Q1, median(=Q2), Q3, maximumbox의 양 끝은 Q1과 Q3이다. 따라서 IQR은 박스의 길이가 된다. (IQR = Q3 - Q1)median은 박스 안에 한 선(line)으로 표시된다.Whiskers: 박스의 양끝 밖으로 선이 뻗어 min/max까지 이어진다.Outliers: 특정 threshold를 벗어나는 점들을 outlier라고 하고, 따로 점으로 표기된다.일반적으로 outl.. 2023. 3. 14.
[경제용어] 블루칩의 뜻을 알아보자 블루칩의 뜻블루칩(Blue Chip)이라는 용어는 금융 및 투자 분야에서 일반적으로 사용되며, 안정적이고 재무 상태가 양호하며 오랜 기간 안정적인 수익 및 배당 지급을 해온 기업을 의미한다. 이들 기업은 일반적으로 시가총액이 큰 업종의 선두주자이며, 상대적으로 위험성이 낮은 투자로 간주된다.위의 밑줄과 굵게 표시된 뜻에 따라, 일반적으로 우량주라고 볼 수 있다. 주의할 점은, 가격이 높은 주식을 의미하지는 않는다. 블루칩의 유래"블루 칩"이라는 용어의 기원은 포커 게임으로 거슬러 올라갈 수 있는데, 여기서 블루 컬러 칩은 일반적으로 가장 가치 있고 높은 인기를 얻고 있다. 20세기 초에, 금융 작가들은 고품질, 안정적이고 재정적으로 건전하다고 여겨지는 회사들을 묘사하기 위해 "블루칩"이라는 용어를 사용하.. 2023. 3. 12.
[CS224w] 5. A General Perspective on GNNs (1), 이론편 Idea of a GNN Layer벡터들을 하나의 벡터로 압축 + Message와 AggregationMessage Computation각 노드들은 메시지를 생성하여 다른 노드들에게 전달하는 직관으로 시작한다.노드 $u$에서  $l$번째 layer의 메시지 함수 $\mathbf{m}$을 다음과 같이 정의한다.\[ \mathbf{m}_u^{(l)} = \mathrm{MSG}^{(l)} \left( \mathbf{h}_u^{(l-1)} \right) \]가장 단순한 예시로 선형 레이어를 생각할 수 있다. $\mathrm{MSG} = \mathbf{W}$ Message Aggregation각 노드는 이웃 노드들로부터 받은 메시지를 집계할 것이다.노드 $v$가 메시지를 집계하여 임베딩 $\mathbf{h}_v$.. 2023. 3. 11.
[CS224w] 5. A General Perspective on GNNs (2), 아키텍처 GNN Layerclassic GNN layer는 이러한 구조를 갖고, 최신 딥러닝 모듈들(BatchNorm, Dropout, etc.)을 추가하여 layer를 구성할 수 있다.Batch NormalizationNeural Network가 안정적으로 학습할 수 있도록 함.batch단위 input의 centering과 scaling을 조정한다.GNN에서는, node embedding의 평균을 $0$으로 조정하고, 분산도 단위분산으로 크기를 조정한다. $\mathbf{X} \in \mathbb{R}^{N \times D}$: $N$개의 node embeddings$\mathbf{\gamma, \beta} \in \mathbb{R}^{D}$: trainable parameters$\mathbf{Y} \in \.. 2023. 3. 10.
728x90
반응형