기본 콘텐츠로 건너뛰기

Interviews




[ Geoffrey Hinton ]

Four Questions For: Geoff Hinton (Jan 16, 2017) [Original][Sum-up]
* 3년전만해도 Neural Net이 raw data로부터 linguistic knowledge를 얻으리라는 예상을 하지 못해, Machine Translation에는 사용을 안했다. 하지만 지금의 NMT는 대세이다.
* 특이점이 오는 AI를 두려워하진 않는다. 단, 이들을 군사목적으로 사용되는데 있어서 국제적인 동의를 반드시 가져야 할 것이다.
* AI가 노동시장에 영향을 끼치는데 긍정적으로 바라본다. 이들은 생산성을 높여줘 (예전의 2차 산업때와 같이) 모든 사람들에게 좋은 영향을 주기 때문이다. 단, 올바르고 공정한 정치적 시스템이 전제되어야 할 것이다. 기술은 문제가 되지 않는다. 혜택을 모든 사람들에게 주지 않는 비공정 정치 시스템이 문제이다.
* 최근 deep learning이 여러 도메인 (e.g., image, speech, text)에 막대한 영향을 끼치고 있는데, 우리는 20년 또는 그 전부터 기초 neural network으로부터 이들의 잠재력(flowering)을 봐왔다. 그 잠재력은 더 좋은 타입의 뉴런, 더좋은 아키텍쳐, Deep Net을 학습하는 더 좋은 방법, 모델이 input의 실체를 더 잘 살펴보도록 하는 방법에 있다. 이러한 deep learning의 잠재력은 앞으로 계속 발전될 것이다.
* 앞으로 가장 기대가 되는 부분은, neural network가 정말로 document의 content를 이해하는 것이다. 최근 핫 토픽 중 하나인, new types of temporary memory가 이 부분에 속한다.
* 한가지 문제는 neural network가 small amounts of data에서 generalize를 잘 하지 못한다는 부분이다. 추측컨데, 이것을 해결하기 위해서는 완전 새로운 타입의 neuron을 개발해야 할 것이다.
* deep learning를 적용함으로써 우리가 얻는 교훈은 실제 인간 뇌의 뉴런이 어떻게 동작하는지 더 큰 insight를 가져다 주는 것이다. 그리고 이러한 insight는 앞으로의 deep learning 발전에 큰 영향을 미칠 것이다.

[국내 최초 단독 인터뷰]  21세기 인공지능의 대부 제프리 힌튼 (July 31, 2016) [Origianl]
* 지난 세기동안 대부분의 AI 연구자들은 많은 문제와 규칙을 프로그래밍해서 AI에 집어 넣으면 추론이 가능하다고 생각했으나, 이는 지식을 입력하는데 비용과 시간이 많이 걸리는 일이라고 생각했다. 
* 인간의 뇌가 작동하는 방식처럼 AI도 지식을 프로그래밍화하는 것이 아니라 스스로 배우게 해야한다고 믿었다. 따라서, 심층 신경망이 규칙을 일일이 입력해야 하는 논리 기반의 AI를 대체할 것이라는 사실에 단 한 번도 의심하지 않았다.
* 인공지능이 인간을 뛰어넘는 '특이점(Singularity)'은 분야마다 각기 다른 시간이 걸릴 것이다. 의료영상 분석은 5~10년 안에도 되겠지만, 극작가나 소설가를 뛰어넘는 데는 50년이 걸릴 수도 있다.
* AI는 생산성을 획기적으로 늘려주는 강력한 도구이다. 이는 모든 사람들에게 헤택을 줄 수 있고, 소수의 엘리트만 풍족하게 할 수도 있다. 후자가 되는 것은 공정하지도, 현명하지도 않다.
* 바둑의 경우 직관력이 요구된다. 다음 수를 결정하기 위해서 수많은 계산이 필요하지만, 직관력이 없으면 계산은 통제불능 상태에 이른다. 알파고는 인공신경망을 사용해 이런 직관력을 배웠다. 알파고의 성공은 인간의 직관이 인공신경망에 의해 실현될 수 있다는 또 다른 증거이기도 하다. 
* 근원적 호기심이 기반이 된 기초연구에 집중적인 투자가 이뤄진다면 한국 인공지능 역시 선진국 수준에 도달할 수 있을 것이다. 단기적인 성과를 위해 학자들을 압박하는 것보다 무엇이든 자유롭게 연구할 수 있도록 해주는 것이 훨씬 효과적인 방법이다. 딥러닝도 그렇게 만들어졌다.
* 기초과학을 현실에 응요하는 것이 중요하다. 하지만, 정부가 대학에 연구지원을 할 때, 그 목적을 '응용'에 맞추는 것은 옳지 않다. 정치인들은 일자리 창출과 이익확대를 위해 연구투자를 결정하지만, 사실 뜻밖의 큰 이익을 내는 건 호기심 그 자체가 목적인 연구라는 것이다. 따라서, 대학은 기초과학에, 기업은 응용분야에 몰두하는 게 맞다.


[ etc. ]

Episode 22: 자연언어처리 특집 (나는프로그래머다) [Sum-up]
[느낀점]
마이크로소프트 NLP연구자에 대한 인터뷰로, 마치 아는 선배가 이야기해주는 것처럼 친근했다. NLP의 전체적인 윤곽에 대해 이해할 수 있었고, 어디서 초점을 맞춰야될 지 고민할 기회를 주었다. 어떤 개념에 대한 강의/논문도 중요하지만, 이런 큰 그림을 그려주는걸 한 번씩 들으면 내가 원하는 방향으로 가는데 도움을 줄 것 같다.
[정리]
* 자연어(NL)의 큰 특징은 '모호함'(ambiguity)이다. 자연어 처리(NLP)는 모호함을 컴퓨터가 이해할 수 있도록 방법론이나 모델을 만드는 분야라고 할 수 있다.
* 이제는 검색의 시대에서 개인 비서(Task Completion)의 시대로 넘어가고 있다.
* NLP 파이프라인 중 stemming을 하는 이유는 sparse problem을 해결하기 위해 (i.e., study와 studies를 같다고 판단해야 한다.)
* 머신러닝은 간단한 output (e.g., integer or real value) NLP는 structured prediction (e.g., sequence, tree) (즉, NLP는 output자체가 구조(structrue)를 가진다.)
* NLP에서는 typology를 잘 이해하는 것이 중요하다. (언어마다 frame이 다르다.)
* 모호함을 해결하기 위한 연구는? (tree 구조를 이용한) Parsing (단어들의 dependency 파악)과 Semantic Role. 
* 회사마다 NLP방법론들은 서로 비슷하지만, 데이터 양과 품질로 판가름이 난다.
* 확률과 통계는 확실히해야 되고 (기본개념이 굉장히 중요), 선형 대수와 그래프 이론도 배우길 추천
* NLP를 잘하기 위해서 dynamic programming을 잘해야 한다.

댓글

이 블로그의 인기 게시물

Pattern Discovery in Data Mining

Coursera Illinois at Urbana-Champaign by Jiawei Han 2015.03.19 CONTENT 1. A brief Introduction to Data Mining 2. Pattern Discovery : Basic Concepts 3. Efficient Pattern Mining Methods 4. Pattern Evaluation 5. Mining Diverse Patterns 6. Constraint-Based Pattern Mining 7. Sequential Pattern Mining 8. Graph Pattern Mining 9. Pattern-Based Classification 10. Exploring Pattern Mining Applications Lecture 1 : A brief Introduction to Data Mining - We'are drowning in data but starving for knowledge ( a lot of data are unstructured ) - Data mining : a misnomer ! -> Knowledge mining from data - Extraction of interesting patterns (non-trivial, implicit, previously unknown and potentially useful) or knowledge from massive data. - Data mining is a interdisciplinary field (machine learning, pattern recognition, statistics, databases, big data, business intelligence..) Knowledge Discovery (KDD) Process Methodology View: Confluence of Multiple Disciplines Lecture 2 : Pattern Discovery : Ba

Vector Space Model

Motivation When you want to find some information by using Search Engines, you have to make a query used for search. Unfortunately, since you don't know exactly what it means, your query will be ambiguous and not accurate. Therefore, Search Engines give you the information in a ranked list rather than the right position. Intuition In order to make a ranked list, you need to calculate the similarity between the query and documents based on terms or words. One of the calculation of similarity is dot product on a vector space. In the vector space, there are many documents with respect to word dimensions The first to rank is d2, because to see with eyes it's the most similarity with the query. Problem How do we plot those vectors wonderfully and nicely and very very fairly ? - How do we define the dimension ? - How do we place a document vector ? - How do we place a query vector ? - How do we match a similarity ? Consideration 1. The frequency of each word of Query. First, Score in

Text Retrieval and Search Engines

by ChengXiang "Cheng" Zhai CONTENT 1. Natural Language Content Analysis 2. Text Access 3. Text Retrieval Problem 4. Text Retrieval Methods 5. Vector Space Model (Retrieval Model l) 6. System Implementation 7. Evaluation 8. Probabilistic Model (Retrieval Model ll) 9. Feedback 10. Web Search Harnessing Big Text Data: Text Retrieval + Text Mining Course Summary 1. Natural Language Content Analysis 1.1 Natural Language Processing (NLP) Natural Language Processing (NLP) is a field of computer science, artificial intelligence, and computational linguisitc concerned with the interactions between computers and human (natural) languages. As such, NLP is related to the area of human-computer interaction. Many challenges in NLP involve natural language understanding, that is, enabling computers to derive meaning from human or natural language input, and others involve natural language generation. Computers can understand human language like that Koreans understand English. but, it's