의사역행렬을 이용해 값을 구하려면(from1) 행렬이 redundant(참고4) 하지 않아야 한다(참고1)는 것이 무슨 의미일까? 처음부터 생각해 보자. 우리가 만족시켜야 하는 식은 당연히 이다. 개의 특징을 가진 개의 데이터를 행렬에 담아 넣었다. 이를 이용해 우리는 파라미터 를 추정하고 있다. 여기서 중요한 것은 가 (특징, 데이터의 수) 로 구성된 행렬이라는 것이다. 이때, 만약 개의 데이터에 대한 특징을 두 개를 선택해 보자. 그럼 두 개의 벡터가 나올텐데, 이들은 모두 당연히 길이가 인 열벡터일 것이다. 이 두 벡터가 선형독립이 아니라면, 선형변환 의 변환 후 기저벡터의 개수가 이전과 동일하지 않으므로 차원이 붕괴(from2)되어 역행렬이 존재하지 않게 된다(참고3).
그래서 다음과 같은 이야기가 나온 것이다.
데이터를 많이 모으면 행렬 에서 두 열벡터가 완벽하게 선형독립일 가능성이 월등히 낮아질 것이다. 아무리 데이터의 두 특징 사이에 상관관계가 존재한다고 하더라도 실세계에는 노이즈가 있기 때문이다. 그래서 데이터를 더 많이 모으는 것도 행렬에 잉여 벡터(‣ Redundant vector)를 만들지 않는 방법이 될 수 있다(참고2,3).
parse me : 언젠가 이 글에 쓰이면 좋을 것 같은 재료들.
1.
None
from : 과거의 어떤 생각이 이 생각을 만들었는가?
1.
2.
supplementary : 어떤 새로운 생각이 이 문서에 작성된 생각을 뒷받침하는가?
1.
None
opposite : 어떤 새로운 생각이 이 문서에 작성된 생각과 대조되는가?
1.
None
to : 이 문서에 작성된 생각이 어떤 생각으로 발전되고 이어지는가?
1.
None
참고 : 레퍼런스