Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

6月10日のツイート

$
0
0

RT @arxiv_cs_cl: ift.tt/2UnPR3i Incorporating Pragmatic Reasoning Communication into Emergent Language. (arXiv:2006.04109v1 [cs.AI]) #NLProc

posted at 02:55:15

RT @icoxfog417: BERTで構文解析を行い既存の構文解析機(KNPなど)の精度を上回ったという研究。BERTの最終層表現を使用して各TokenのHead Tokenをsoftmaxで予測する。形態素単位で~1pt、基本句単位では2pt前後精度が向上。 kento1109.hatenablog.com/entry/2020/03/…

posted at 02:54:48

RT @tks: これがKing GNUか サインくれと言ったら 「何人待ってるんだろうなー時間かかるとまずいよね そうだ、emailの歌を一緒に歌おう!」といきなり言い出して「emailは面倒だ~」(ハッピーバースデーの節)と歌いだした medium.com/@tks/%E3%83%AA…

posted at 02:52:19

RT @saltandpepppppp: 新小1で、昨日初給食だった娘が 「初めてマスク外したからさぁ、えっ、この子こういう顔だったんだーって思う子がたくさんいたよ」 すごい世界に生きてるな…と、やるせない気持ちになったよね… 2ヶ月クラスメイトの顔を知らなかった世界…

posted at 02:47:48

RT @ml_review: Hummingbird – compiles trained Scikit-Learn, LightGBM, XGBoost models into PyTorch for faster inference By @scnakandala @MatteInter github.com/microsoft/humm… pic.twitter.com/p1U7B5aZ6b

posted at 02:43:20

RT @hyunjik11: Our work on ‘The Lipschitz Constant of Self-Attention’ is live! arxiv.org/abs/2006.04710 This is joint work with @gpapamak and Andriy Mnih. The Lipschitz constant of a function is a bound on how rapidly the function’s output can vary with respect to the input. (1/4)

posted at 02:42:33

RT @icoxfog417: Amazonから発表されたCVPR 2020の論文のうち、ファッションに関する3本の論文の紹介。それぞれ言語による画像検索(もうちょい明るい色の服、など)、補完的アイテム検索(このアウターに合わせるインナー、など)、仮想試着がテーマとなっている。 www.amazon.science/blog/how-compu…

posted at 02:41:11

RT @shion_honda: DNNの学習に関する最近の研究動向をまとめた記事。万能近似定理、二重降下、intrinsic dimension、宝くじ仮説などを扱っており、内3論文について再現実験もしています。俯瞰してみると相互に関連が見えておもしろいです。 Are Deep Neural Networks Dramatically Overfitted? lilianweng.github.io/lil-log/2019/0…

posted at 02:37:24

RT @arxiv_org: DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations. arxiv.org/abs/2006.03659 pic.twitter.com/UFXDU2Rxm6

posted at 02:36:44

RT @vaaaaanquish: 諸事情でダジャレのデータ30万件持ってるけど、ダジャレ生成はtempleteに検索+マルコフ連鎖あてるだけで出来てしまうので対話の中で面白い事言えないといけないんですよね…

posted at 02:36:20

RT @icoxfog417: 高速・シンプル・マルチエージェント対応の学習環境Slime Volleyballが公開。依存がgymとnumpyだけなのでインストールも容易。デフォルトのシングルプレイでは120パラメーターのNNと対戦する(=120パラメーターでもそこそこ賢く動く)ので、手軽に学習を回すことができそう。 twitter.com/hardmaru/statu…

posted at 02:34:33

RT @sei_shinagawa: CVPR2020の読む論文にアタリをつけたかったので、タイトルとアブストをスクレイピングして、入力したキーワードにマッチした数を基準にランキングしてみた。vision and languageも結構面白そうなのがあって楽しみ docs.google.com/spreadsheets/d…

posted at 02:34:03

RT @toodooda: 逆に言うと、奴隷貿易に由来する社会構造はまだそこまで大きくは変わってないのに、痕跡を破壊することで負の歴史をまるで無かったかのように見せるのはむしろ偽善であって単なる歴史修正主義ではないのか? という方向でも問われていいと思う。

posted at 02:27:06

RT @toodooda: 過去の「偉人」の罪を現在の価値観で裁くことに意味はないと思うが、そうした負の歴史の痕跡を破壊し忘却した方がいいのか、ちゃんと歴史の証人として残して反省しつづけたほうがいいのかは悩むところ。原罪意識・被害者意識・憎悪構造を何世代も再生産させることで和解を妨げている例があるからなあ。

posted at 02:26:53

RT @arxiv_org: Joint learning of variational representations and solvers for inverse problems with parti... arxiv.org/abs/2006.03653 pic.twitter.com/wjNVBa7swO

posted at 02:25:57

RT @unnonouno: 最近ひょんなことから、オージス総研のオブジェクトの広場がまだやってることを知ってびっくりした。20年近く前(高校生?)、インターネットがまだ遅くて紙に印刷して読んでた。ロゴも変わってない www.ogis-ri.co.jp/otc/hiroba/

posted at 02:24:55

RT @icoxfog417: 複数のSemantic SegmentationのデータセットをマージしたMSegデータセットが公開。単に合わせるとアノテーションのポリシーやラベルの差異が発生するため、それらを合わせ80,000画像の220,000マスクを調整している。単一のデータセットで学習するより汎化性能の高いモデルが得られるという。 twitter.com/ak92501/status…

posted at 02:24:08

RT @ak92501: Attention-Guided Hierarchical Structure Aggregation for Image Matting project page: wukaoliu.github.io/HAttMatting/ github: github.com/wukaoliu/CVPR2… pic.twitter.com/djuPOcPawA

posted at 02:22:48

RT @icoxfog417: 新しい環境にすぐ適用することを目的としたメタラーニングのワークショップのまとめ記事。ホストしているGoodAIが提唱するBadger Architecture(情報交換を行い内部状態を更新するinner loopとそれを基にした行動戦略を学習するouter loopからなる)を題材に各トピックに関する議論がまとめられている。 twitter.com/GoodAIdev/stat…

posted at 02:21:09

RT @hiroosa: 出ます。非常に面白い撮影でした/又吉直樹のヘウレーカ!「離れていても心は通じ合えますか?」 - NHK リモート会議にオンライン飲み会。いざ、やってみると思うようにコミュニケーションがとれなかった経験ありませんか。でも大丈夫。あなたを助ける驚き!の最新技術を紹介。 www4.nhk.or.jp/heureka/x/2020…

posted at 02:18:37

RT @GoogleAI: Presenting PEGASUS, an approach to pre-training, that uses gap-sentence generation to improve the performance of fine-tuning for #NaturalLanguageUnderstanding tasks, like abstractive summarization. Read more and try the code for yourself ↓ goo.gle/3e0b8Id

posted at 02:14:21


Viewing all articles
Browse latest Browse all 2923

Trending Articles