RT @shion_honda: Recurrent GNN [Huang+, 2019] GNNの層ごとの計算にRNNを挟むことで周囲のノードから重要な情報だけを抽出させた。層を10層まで増やしても学習できるようになり、入力の摂動にも強くなった。GCN、GATなど既存のネットワークに適用して効果が確認された。 arxiv.org/abs/1904.08035 #NowReading pic.twitter.com/NFs0QPzmGF
posted at 00:04:23
RT @iwontbecreative: Some thoughts on the recent progress on the Winograd Schema Challenge (WSC): In the avalanche of great EMNLP submissions, the WSC received a lot of attention, with several papers concurrently claiming the state of the art (SOTA).
posted at 00:03:47
RT @arxiv_cs_cl: bit.ly/2PDdjWC HELP: A Dataset for Identifying Shortcomings of Neural Models in Monotonicity Reasoning. (arXiv:1904.12166v1 [cs.CL]) #NLProc
posted at 00:03:16
RT @verypluming: Groningen大学のJohan Bos先生との共同研究の論文(*SEM2019採択)をarXivにアップしました。言語処理学会でも一部発表した、「難しい」推論も解けるニューラル自然言語推論モデルの実現に向けて、単調推論の性質に基づいて推論データセットを自動構築するお話です。 #SEM2019 #NAACL2019 twitter.com/arxiv_cs_cl/st…
posted at 00:03:07