목록Basis (25)
Adore__

segmentation model의 성능평가 지표로서 많이 사용되는 방법으로 Pixel Accuracy, IoU, Dice, Hausdorff 등 여러 방법이 있지만 본 포스팅에서는 Dice와 Hausdorff 두가지에 대해 다루려고 한다. 자세한 설명은 참조한 블로그에 잘 정리되어 있다. Sorensen-Dice coefficient 두 샘플간의 유사도를 측정하는 통계학적인 방법이다. 두 집합 X와 Y가 있을 때, DSC공식은 다음과 같이 정의된다. 직관적으로 보면 두 집합이 겹쳐지는 부분에 2를 곱하고, 총 이미지의 픽셀 수로 나누는 것이다. 따라서 모델이 예측한 이미지가 정답 이미지와 유사할수록 Dice값은 높아지고, 모델 성능이 좋다고 말할 수 있다. IoU (Intersection over Un..
image processing에서 성능평가 기준으로 사용되는 방법 중 하나로, 먼저 Signar-to-noise ratio에 대해 알아보자. Signal-to-noise Ratio 내가 원하는 신호와 background noise간의 level을 비교하는 데 사용되는 측정법이다. 보통 1보다 크면 noise보다 signal이 클 수 있다는 것을 알 수 있다. 신호를 처리하거나 전달하는 시스템(audio, radar, data acquisition, imaging systems...)의 성능과 품질에 중요한 영향을 미치는 parameter로, SNR이 높다는 것은 signal이 clear하고 감지하고 분석하기 쉽다는 것을 의미한다. SNR이 낮을수록 signal이 방해받고 있거나 noise로 인해 모호한 ..

Source : [BoostCourse '인공지능을 위한 선형대수' - 주재걸 교수님] 어떤 정방행렬이 주어졌을 때, eigendecomposition은 존재할 수도 있고, 없을 수도 있다. VDV(-1)에서 역행렬인 V가 없을 수 있기때문이다. 하지만 머신러닝에서 다루는 행렬은 대부분 symmetries positive (semi-)definite matrices이기때문에, eigendecomposition과 SVD가 모두 가능하다. symmetric positive definite matrix인 A가 들어온다. 이 행렬의 행은 특징값 (키, 몸무게, 나이...)을 가지고, 열은 data item (사람1, 사람2,..)을 가진다. 머신러닝에서는 AA(t)나 A(t)A를 가지고 알고리즘을 돌리는 경우가..

Source : [BoostCourse '인공지능을 위한 선형대수' - 주재걸 교수님] eigendecomposition 와 비교해서 살펴보면 상당히 비슷한 점이 있다. 한번 비교해보자 eigendecomposition은 Ax에서 A가 정사각행렬이었지만, SVD에서는 직사각행렬으로 허용범위가 넓어졌다. 또한 둘 다 A를 3개의 matrix로 분할하고, 조건이 있었다. eigendecomposition은 V가 가역행렬이고 D가 대각행렬이어야 한다. SVD는 U와 V transpose 는 각각 다 orthonormal matrix 이어야 한다. Sigma는 D와 마찬가지로 대각행렬이다. orthonormal 직교행렬 이란, 행렬의 모든 열벡터들이 길이가 1이고 서로 직교해야 한다. U의 column vect..

만약 행렬 A가 대각화가 가능하다면 (diagonalizable), 다음과 같은 식이 성립할 것이다. 여기서 D는 대각행렬, V는 가역행렬이어야 한다. 이 식을 살짝 바꿔서 A를 기준으로 만들어보자 이 꼴을 바로 A의 eigendecomposition이라고 한다. 주어진 A를 여러 개의 matrix 곱으로 나타내되, 이를 고유값 분해로 부르기위해서는 V와 D가 어떤 조건을 만족해야 한다. V는 가역행렬이고, D는 대각행렬이어야 한다. 음? 앞의 대각행렬의 조건과 같다. 따라서 A가 대각화가 가능하다면, 고유값분해가 가능하다는 것과 동치이다. 자 그러면 A가 고유값 분해가 가능하다고 가정하고, x의 선형변환을 A matrix로 설정해보자. A의 고유값 분해 식에 의해 Ax를 다음과 같이 바꿀 수 있다. 이..

Source : [BoostCourse '인공지능을 위한 선형대수' - 주재걸 교수님] 정규방정식, 즉 근사해를 구하는 방법은 크게 2가지로 나뉠 수 있다. 1. (A transpose * A)가 가역행렬일 경우 앞서 Least square에서 x^를 찾기 위해 출발했던 식은 아래 그램의 x^이었다. 이 x^를 minimize 하는 식을 구하면 결국에 Normal Equation 인 A transpose *(b-Ax) = 0와 같다. 따라서 A가 가역행렬일 경우, 위의 마지막 식처럼 근사해 x를 구할 수 있다. 2. (A transpose * A)가 가역행렬이 아닐 경우 역행렬이 없다는 것은 해가 무수히 많거나, 없는 경우 두 가지 중 하나이다. 하지만 보통 정규 방정식에서는 '해가 없는 경우'는 존재하..