글
단순 기록이 아니라 생각이 형태를 갖추는 과정.
테라폼 딥다이브 — 인프라를 코드로 다루기
Terraform으로 인프라를 선언적으로 관리하는 법. HCL 문법부터 모듈화, 상태 관리까지.
복잡도는 운명인가? P-NP와 시스템 전반의 한계
P vs NP 문제는 단순한 이론적 호기심이 아니다. 암호화, AI, 금융, 그리고 우리가 만드는 모든 시스템의 근본 한계를 묻는다.
모든 예측은 선형과 비선형 사이에 있다
선형 회귀에서 혼돈 이론까지. 예측이라는 행위의 수학적·철학적 구조를 탐색한다.
Attention is Still All You Need?
Transformer가 등장한 지 7년. 여전히 Attention이 전부인가, 아니면 그 너머가 있는가.
주어진 양보다 작은 소수의 개수에 대하여
베른하르트 리만의 1859년 논문 번역. 리만 가설의 출발점이 된 역사적 문서를 읽는다.
오일러 공식 고찰
수학에서 가장 아름다운 공식이라 불리는 오일러 항등식. 그 증명과 의미를 탐색한다.
네이버 퇴근길 테크밋업 발표 후기
처음으로 외부 기술 발표에 섰다. 준비 과정, 발표 당일, 그리고 그 이후.
선형대수학 1.6 — 기저와 차원
벡터 공간을 가장 효율적으로 설명하는 최소한의 벡터 집합. 기저와 차원의 개념.
선형대수학 1.5 — 일차독립과 일차종속
벡터들이 서로 얼마나 독립적인가. 일차종속과 일차독립의 정의, 그리고 판별 방법.
선형대수학 1.4 — 일차결합
벡터들의 선형 조합으로 새로운 벡터를 만든다. 일차결합의 정의와 연립방정식과의 관계.
선형대수학 1.3 — 부분공간
벡터 공간 안의 또 다른 공간. 부분공간의 정의와 검증 조건, 전치행렬과 대칭행렬.
선형대수학 1.2 — 벡터 공간
벡터들의 집합에 구조를 부여한다. 벡터 공간의 정의와 체(Field), 행렬의 개념.
선형대수학 1.1 — 벡터
힘, 속도, 가속도. 크기와 방향을 동시에 담는 수학적 언어, 벡터를 탐색한다.
Attention Is All You Need
2017년 Google Brain의 Transformer 논문을 읽고 번역·해설한다. 왜 이 논문이 AI의 역사를 바꿨는가.