Blog

海野です。10/24に、リクルートテクノロジーズさんの会議室で、EMNLP2015読み会を開催しました。
10件の発表と、およそ40人の参加者が集まりました。
昨年も開催しましたが、規模が2倍程度になり、この分野への注目度が伺えます。

特にEmbeding系の論文が多かったらしく、EMNLPのEはEmbeddingのEではないか、という皮肉があったそうです。
10本の発表中、2本がattentionベースの手法で、Embedding、RNNに続いて次のトレンドになりつつあるのかなという感触を得ました。

当日のTwitterの様子は、togetterにまとめました

最後に、会場提供や運営を手伝っていただいた、リクルートテクノロジーズ様と、@yag_aysさんに感謝いたします。

以下に発表スライドの一覧を載せます。

@Quasi_quant2010
Learning Better Embeddingsfor Rare Words Using Distributional Representations

@niam
Graph-based Readability Assessment Method using Word Coupling

@MasakiRikitoku
Long Short-Term Memory Neural Networks for Chinese Word Segmentation

@jnishi
Compact, Efficient and Unlimited Capacity: Language Modeling with Compressed Suffix Trees

@nozawa0301
Evaluation methods for unsupervised word embeddings

@tkng
Effective Approaches to Attention-based Neural Machine Translation

@shuyo
Efficient Methods for Incorporating Knowledge into Topic Models

@kiyukuta
A Neural Attention Model for Sentence Summarization

  • Twitter
  • Facebook