EMNLP2015読み会を開催しました

海野 裕也
リサーチャー

2015-11-02 10:59:34

海野です。10/24に、リクルートテクノロジーズさんの会議室で、EMNLP2015読み会を開催しました。
10件の発表と、およそ40人の参加者が集まりました。
昨年も開催しましたが、規模が2倍程度になり、この分野への注目度が伺えます。

特にEmbeding系の論文が多かったらしく、EMNLPのEはEmbeddingのEではないか、という皮肉があったそうです。
10本の発表中、2本がattentionベースの手法で、Embedding、RNNに続いて次のトレンドになりつつあるのかなという感触を得ました。

当日のTwitterの様子は、togetterにまとめました

最後に、会場提供や運営を手伝っていただいた、リクルートテクノロジーズ様と、@yag_aysさんに感謝いたします。

以下に発表スライドの一覧を載せます。

@Quasi_quant2010
Learning Better Embeddingsfor Rare Words Using Distributional Representations

Learning Better Embeddingsfor Rare Words Using Distributional Representations from Takanori Nakai

@niam
Graph-based Readability Assessment Method using Word Coupling

EMNLP 2015 yomikai from Yo Ehara

@MasakiRikitoku
Long Short-Term Memory Neural Networks for Chinese Word Segmentation

@jnishi
Compact, Efficient and Unlimited Capacity: Language Modeling with Compressed Suffix Trees

Emnlp読み会資料 from Jiro Nishitoba

@nozawa0301
Evaluation methods for unsupervised word embeddings

Evaluation methods for unsupervised word embeddings EMNLP2015 読み会 from nzw Nozawa

@tkng
Effective Approaches to Attention-based Neural Machine Translation

@shuyo
Efficient Methods for Incorporating Knowledge into Topic Models

[Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowledge into Topic Models from Shuyo Nakatani

@kiyukuta
A Neural Attention Model for Sentence Summarization

A Neural Attention Model for Sentence Summarization [Rush+2015] from Yuta Kikuchi

Leave a Reply