본문 바로가기

전체 글56

점프 투 스프링부트 추가 기능 구현 - 프로필 구현 https://wikidocs.net/162814의 추가 기능 구현 - 프로필 구현 3-14 SBB 추가 기능 구현하기 이 책에서 구현할 SBB의 기능은 아쉽지만 여기까지이다. 함께 더 많은 기능을 추가하고 싶지만 이 책은 SBB의 완성이 아니라 SBB를 성장시키는 경험을 전달하는 데 목표를 두고… wikidocs.net 이 글은 점프 투 스프링 부트의 3-13까지 구현과 이 글 이전의 구현을 마친 것을 전제로 한다. 이제 로그인 후 계정 정보를 보여주는 프로필 화면을 구현해보자. 이 화면에서는 사용자의 기본 정보와 작성한 질문, 답변, 추천한 글들을 확인할 수 있게 구현하면 좋을 것 같다. navbar에 프로필 링크 추가하기 먼저 navbar.html에 내 정보 링크를 추가해 주자. (...생략...).. 2024. 1. 19.
점프 투 스프링부트 추가 기능 구현 - 답변 페이징 및 정렬 https://wikidocs.net/162814의 추가 기능 구현 - 답변 페이징 및 정렬 3-14 SBB 추가 기능 구현하기 이 책에서 구현할 SBB의 기능은 아쉽지만 여기까지이다. 함께 더 많은 기능을 추가하고 싶지만 이 책은 SBB의 완성이 아니라 SBB를 성장시키는 경험을 전달하는 데 목표를 두고… wikidocs.net 이 글은 점프 투 스프링 부트의 3-13까지 구현과 이 글 이전의 구현을 마친 것을 전제로 한다. 기존에 구현한 질문 페이징을 토대로 답변 페이징을 구현해보도록 하자. 답변 페이징 기능 구현 Question의 페이징은 아래와 같이 Pageable 객체와 Page 객체를 통해 페이징을 수행했다. public class QuestionService { (... 생략 ...) pub.. 2024. 1. 19.
점프 투 스프링부트 추가 기능 구현 - 조회수 https://wikidocs.net/162814의 추가 기능 구현 - 조회수 이 글은 점프 투 스프링부트의 3-13까지 구현을 마친것을 전제로 한다. 글의 조회수를 저장하는 기능을 만들어보자. 조회가 가능한 글은 Question 뿐이므로 먼저 Question Table에 조회수를 담을 Column을 추가해야 한다. 나는 views라는 조회수를 저장하는 변수를 Question Entity에 추가하였다. 기본값은 0으로 설정하였다. public class Question { (...생략...) @Column(columnDefinition = "integer default 0") @NotNull private Integer views = 0; } QuestionService 클래스에 id를 받아 조회수를 1.. 2024. 1. 19.
Matrix Inversion Lemma 드디어 선대의 마지막 파트다. Matrix Inversion Lemma란? 이번에 배울 Matrix Inversion Lemma는 Sherman-Morrison-Woodbury formula라 부른다. 직전에 배운 Sherman-Morrison Formula의 일반화판으로 Sherman-Morrison Formula가 이 Matrix Inversion Lemma의 특별한 경우라고 보면 된다. 그럼 뭘 일반화 했다는 것일까? 직전에 배운 Sherman-Morrison formula는 한계점이 있다고 정리했었다. 바로 rank-1 Update. 즉, 데이터가 하나 추가될 때만 사용이 가능한 녀석이라고 배웠었다. 그러나 이번에 배울 Matrix Inversion Lemma는 여러 개의 데이터가 추가될 때에도 .. 2023. 12. 11.
Sherman-Morrison formula와 RLS 선형 대수도 거의 다 끝났다. 크하하 이거 정리하면 앞으로 Matrix Inversion Lemma 하나 남았다. 이번에 정리할 내용은 1949년 셔먼과 모리슨이라는 수학자들이 발표한 공식으로 Recursive Least Squares라는 것을 해결하는데 도움이 된다. Sherman-Morrison Formula Sherman-Morrison Formula란 invertible한(역행렬이 존재하는) 행렬 $A$와 $\textbf{u}, \textbf{v} \in \R^n$인 두 열 벡터가 있을때 $A+\textbf{uv}^T$의 역행렬을 구하는 공식이며 아래와 같다. $$ (A + \textbf{uv}^T)^{-1} = A^{-1} - \frac{A^{-1}\textbf{uv}^TA^{-1}}{1 + \.. 2023. 12. 11.
PCA (주성분 분석) PCA는 학교 선형대수학 수업에서는 많이 다루지는 않지만 고윳값 분해의 가장 널리 알려진 응용이고 또 요즘 유행하는 딥러닝, 데이터 과학에서 절대로 빼놓을 수 없는 주제이기에 정리를 해보려 한다. PCA(Principal Component Analysis)란? PCA… 주 성분 분석… 이름은 엄청 자주 들어봤는데 이게 정확히 뭔지. 그리고 어떤 과정으로 이루어지는 지에 대해서는 잘 이해를 못하고 넘어갔었다. PCA란 주어진 데이터들로부터 이 데이터 분포의 평균으로부터 데이터의 분포를 가장 잘 설명하는 방향인 주 성분 벡터를 찾는 것이 PCA의 주된 목표이다. 이렇게 주어진 데이터의 분포를 가장 잘 설명하는 벡터를 찾게 된다면 이 벡터 한 차원으로 모든 데이터를 정사영 시켜 전체적인 데이터 분포를 표현할 .. 2023. 12. 8.