기본 콘텐츠로 건너뛰기

Mathematical Tools for Computer Vision

University of Science and Technology
Electronics and Telecommunications Research Institute (ETRI)
Vision System Research Team, Jae-Young LEE
March 1, 2016 ~ June 24, 2016


   - Vector & Scalar & Vector Equality, Addition, and Subtraction
   - Euclidean Vector
   - Trigonometry Review
   - Polar Representation
   - Dot product & Cross product
   - Homework #1
   - Homework #2



2. Geometry: 공간 도형
   - 도형
   - 직선의 방정식
   - 평면의 방정식
   - 부등식의 영역
   - 도형의 방정식과 함수
   - Homework #3



3. 행렬 연산
   - Introduction
   - Matrices and matrix algebra
   - Matrices and systems of linear equations



4. 벡터공간, 선형시스템
   - Vector Spaces
   - Basis and Dimension
   - Rank of a Matrix and Systems of Linear Equations
   - 기타 선형대수학에서 알아두어야 할 것들
   - Homework #4
   - Homework #5



   - Eigenvalue and Eigenvector
   - Eigendecomposition
   - PCA (Principal Component Analysis)
   - SVD (Singular Value Decomposition)



6. 파라미터 추정과 최소 자승법
   - 파라미터 추정 기초
   - 최소 자승법 기초
   - Homework #8 (최소자승법을 이용한 영상 이진화)



7. Robust 파라미터 추정 기법
   - M-estimator (Weighted LS)
   - RANSAC
   - Homework #9 (LS, M-estimtor, RANSAC을 이용한 불균일 영역 검출)



8. 최적화 기법
   - 일차미분(Gradient descent)을 이용한 최적화
   - 이차미분(Newton)을 이용한 최적화 (2차 Taylor 근사)
   - 최적화 보완 기법 (Trust Region, Line Search, Saddle-free Newton)
   - 다변수함수에서의 최적화
   - LS 문제에 특화된 기법 (Gauss-Newton, Levenberg-Marquardt)
   - Homework #10 (원 근사 or 최적화, Gradient descent와 Gauss-newton 방법 사용)



9. 기계 학습 기법
   - 기계학습 기초
   - Gaussian Mixture Model 등 여러가지 알고리즘





Review
After taking this course, I can get knowledge of linear algebra such as vectors, matrices, eigen-decomposition, parameter estimation, Principal Component Analysis, Singular Value Decomposition, optimization techniques and so on and the computer vision. Actually, every class, we learn some linear algebra and we apply it to computer vision domain in order to solve the problem. It's very interesting because it is not only mathematics, but it's real world techniques of computer vision problems by using OpenCV or MATLAB. In this process, I could easily understand the concepts and have even intuition for difficult concepts.

One of the important knowledge is a way of solving linear or non-linear algebra system. Since in the real world, there are many problems of linear algebra system. So, given the knowledge, I could represent the problem to matrices (linear algebra representation) and know how to solve it even the non-linear case.

Taking this opportunity, the interest of linear algebra is increased more and more. I want to deep understand of the concepts. Linear algebra field is very interesting.  


Reference
[1] 다크프로그래머, http://darkpgmr.tistory.com/





댓글

이 블로그의 인기 게시물

Pattern Discovery in Data Mining

Coursera Illinois at Urbana-Champaign by Jiawei Han 2015.03.19 CONTENT 1. A brief Introduction to Data Mining 2. Pattern Discovery : Basic Concepts 3. Efficient Pattern Mining Methods 4. Pattern Evaluation 5. Mining Diverse Patterns 6. Constraint-Based Pattern Mining 7. Sequential Pattern Mining 8. Graph Pattern Mining 9. Pattern-Based Classification 10. Exploring Pattern Mining Applications Lecture 1 : A brief Introduction to Data Mining - We'are drowning in data but starving for knowledge ( a lot of data are unstructured ) - Data mining : a misnomer ! -> Knowledge mining from data - Extraction of interesting patterns (non-trivial, implicit, previously unknown and potentially useful) or knowledge from massive data. - Data mining is a interdisciplinary field (machine learning, pattern recognition, statistics, databases, big data, business intelligence..) Knowledge Discovery (KDD) Process Methodology View: Confluence of Multiple Disciplines Lecture 2 : Pattern Discovery : Ba...

Logistic Regression

By Andrew Ng 1. Logistic Regression      1.1   Visualizing Data Part             └ plotData function     1.2   Advanced  Optimization  Part             └ mapFeature function             └ costFunctionReg function             └ fminunc function         1.3   Decision Boundary and Prediction   Part             └ plotDecisionBoundary function             └ predict function 1. Logistic Regression We'll implement regularized logistic regression to predict whether microchips from a fabrication plant passes quality assurance (QA). During QA, each microchip goes through various tests to ensure it is functioning correctly. Suppose you're the product manager of factory and you have the test results for some microchips on two different tests. From...

Introduction to Data Structure Using C

윤성우의 열혈 자료구조 자료구조에 대한 기본적 이해 프로그램 = 자료구조(데이터 표현) + 알고리즘(데이터 처리) 자료구조가 결정되어야 그에 따른 효율적인 알고리즘 설계 가능하다. 알고리즘은 자료구조에 의존적이다. 알고리즘의 성능분석 방법 시간 복잡도(Time Complexity) - 속도      연산의 횟수를 통해 알고리즘의 빠르기 판단           데이터 수의 증가에 따른 연산횟수의 변화 정도 판단           탐색 알고리즘에서 시간 복잡도를 결정하는 핵심 연산자는 동등비교(==)이다. 공간 복잡도(Space Complexity) - 메모리 사용량 일반적으로 알고리즘 성능 평가할 때 메모리 사용량보다 실행속도에 초점을 둔다. 일반적인 알고리즘의 평가에는 논란의 소지가 거의 없는 '최악의 경우(worst case)가 선택된다. Big-Oh Notation은 '데이터 수의 증가에 따른 연산횟수의 증가패턴을 나타내는 표기법이다.' 또는 '데이터 수의 증가에 따른 연산횟수 증가율의 상한선을 표현한 것'이다. Recursive 하노이 타워      가장 작은 단위 패턴을 코딩하고 이를 일반화시키면 된다. 리스트 (List)      순차 리스트 (배열 기반)           배열 자료구조 특징인 Index를 통해서 어느 곳이든 바로 이동이 가능하다.           하지만, 프로그램 실행 전에 크기가 결정되어야 한다.           그리고 배열은 메모리의 특성이 정적이므로 메모리 길이 변경이 불가능하다.           정적인 배열은 필요로 하는 메모리의 크기에 유연하게 대처하지 못한다. ...