[ Google Research ]
1, 2, 3, 4, 5, 6
[한줄요약] For MT task, our method uses a multilayered LSTM to map the input sequence to a vector of a fixed dimensionality, and then another deep LSTM to decode the target sequence from the vector.[정리] Vanilla DNN은 input/output 길이가 고정되어 있어야하고, vanilla RNN은 input과 output 길이가 1:1대응되어야 해서, input/output길이가 가변적인 sequence learning을 하기 어렵다. 이를 위해 2개 LSTM은 붙여 input/output 길이에 구애받지 않는 seq2seq모델 설계하였다. LSTM과 reversing을 이용해 long sentence도 잘 학습되게 하였고, sentence embedding을 통해 의미적/구조적으로 비슷한 문장들의 점들이 가깝게 분포되어 있는 것을 확인할 수 있다.
[키워드] a fixed dimensional vector, reversing the input sequence, sentence embedding
Distributed Representations of Sentences and Documents [Dyed]
[ Total ]
On -and Off-Topic Classification and Semantic Annotation of
User-Generated Software Requirements [Sum-up]
파더본 대학 인턴연구를 위한 논문이며, 2번째 classifier의 성능을 높이기 위한 목표가 있다. 처음으로 영어라는 frame위에서 feature engineeing을 할 수 있어서 재밌을 것 같다. 데이터가 적고 분류할 class는 많고, unbalanced라서 매우 어려운 문제이지만 도전해볼만 하다. (장인의 정신으로 preprocessing, feature engineering을...)
[정리]
* 뉴스와 같은 범용 텍스트가 아닌 software requirement 텍스트를 대상으로 2단계 분류 문제 (1차: on-off topic인지 (binary class), 2차: semantic annotation (16개 class))
* 한 마디로, 제멋대로인 requirement 텍스트를 모델을 통해 이쁘게 구조화시킬려는 의도
* sequential 문제이지만 오히려 static model의 성능이 더 잘나옴 (데이터 부족, 또는 위치정보가 있는 feature때문에)
* 인상깊은 feature는 왼쪽 token의 classification 결과를 오른쪽 token의 feature로 사용한다는 점
[키워드] = { NLP, semantic annotation (semantic role labeling), machine learning, software requirement }
Going Deeper with Convolutions [Dyed]
1, 2, 3, 4, 5, 6, 7, 8, 9
* 한줄요약: GoogLeNet is a model that approximating the expected optimal sparse structure by readily available dense building blocks.* 정리: Uniform model은 overfitting의 한계, GoogLeNet은 Uniform model과 Sparse model의 절충, link간 connection-level의 sparse model은 어려운 계산 과정(병렬컴퓨팅하기힘듦)으로 inception module을 사용하여 filter-level의 sparse model 설계, 1x1 conv의 차원축소로 #of파라미터매우감소, 계산효율, deeper/wider로 추상화 더 잘함
* 키워드: Inception modules: filter-level sparsity, 1x1 convolutions: dimension reduction, auxiliary classifiers: solve vanishing gradient problem
Reinforcement Learning and Control, Stanford CS229, Andrew Ng [Sum-up]
Deep Learning: 기계학습의 새로운 트랜드 [Dyed]
AlphaGo의 인공지능 알고리즘 분석 [Dyed]
[ etc ]
Building Bridges for Web Query Classification [Dyed] [PPT]
Tweet Segmentation and Its Application [Dyed]
댓글
댓글 쓰기