ホリケン's diary

趣味はでぃーぷらーにんぐ

ACL2018: Best Papers(Long全3種)の紹介

動機
  • NLP事情が気になっていた
  • arXivTimesさん主催のACL2018読み会に参加した
  • 参考: ACL 2018: Best Papers



Best Long Papers


1. Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information.

  • 内容(→元論文)
    良い質問(Good Clarification Questions)をNeural Modelを用いて判別させたのがこの研究。ここでいう良い質問というのは、"質問に対する回答"が価値を持つものであるとしている。StackExchange(質問サイト)のデータを用いており、投稿された内容(Post)、投稿内容に対する他ユーザーからの確認質問(Questions)、それに対する投稿者の回答(Answers) の3つを抜き取ってきている。下の図の"Initial post", "Question comment", "Edit as an answer"がそれぞれにあたる。 f:id:knto-h:20180709132623p:plain:w300
    例えば、この"Post"に対する"clarifying question"として(a)が質問されたが(b)や(c)でも代用可能か考える。
    (a) What version of Ubuntu do you have?
    (b) What is the make of your wifi card?
    (c) Are you running Ubuntu 14.10 kernel 4.4.0-59-generic on an x86_64 architecture?
    今回の例では(b)や(c)の質問は"Initial Post"に対する適切な質問とはならない。よってここでいう良い質問というのは(a)となる。本論文ではこのように有用な質問を選ぶとともにランク付けを行なっている。 f:id:knto-h:20180711130937p:plain
    "Post", "Question", "Answer"それぞれにLSTMをかけてそれらをNeural Netでまとめる、"joint network model"を提案した。入力データは、TF-IDF等によって似たような質問(p_i)を10用意しそれぞれに良い質問(q_i)・それに対する解答(a_i)が紐づけられているものが使われている。この中からp_i-q_iのペアを正しく推論するよう学習させる。
    f:id:knto-h:20180711131438p:plain
    結果は以上(提案モデルはした四つ)。完全ランダムでやると10%と考えると多少精度が良くなったと言える。


2. Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers.

  • 内容(→元論文)
    前提条件の有無を示す"also", "again","still"などの副詞が必要か否かの予測を行うタスクについての研究(presupposition trigers)。このタスクを解くには再帰的な構造や似たような文脈を検知する必要があり、これはNLPに生成モデルすなわち要約や対話システムに応用できる。f:id:knto-h:20180711130025p:plain bidirectional-LSTM+self-Attensionモデル(この論文では"weighted-pooling neural network, WP"と呼んでいる)で予測を行なっている。このself-attentionは"Attention-over-attention neural networks for reading comprehension"を参考にしている。f:id:knto-h:20180711130237p:plain WPの欄が提案手法での結果でBaselineよりも高い結果が出ている。80%程度の精度で前提条件を表す副詞の必要性をPredictできている。


  • 内容(→元論文)
    RNNG(Recurrent Neural Network Grammers)+Beam Searchにおける文生成とテキストを聞いてる時の人の脳波との複雑さの指標(Complexity Metrix)を調べた論文。人はテキストを聞いているとき、次に来るであろう単語や展開を無意識/意識的に予測をしている。その予測に伴う脳波の振幅とRNNG+Beam searchによる文生成の複雑さの指標とに相関を見いだせるかということ。 f:id:knto-h:20180712000853p:plain:w200
    結果、RNNG+Beam searchでの複雑さの指標は脳波と有意な関係がありLSTMではそれが見られなかった。"SURPRISAL","DISTANCE","ENTROPY"等は複雑さの指標の種類。
    f:id:knto-h:20180712001311p:plain:w400