Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

2月12日のツイート

$
0
0

RT @hillbig: 潜在変数モデルを強力にするために潜在変数を階層的にした上で 1) 決定的に計算されるパスを並列に使う。これにより各層は前の全ての層に直接依存する 2) 各層の潜在変数をBottom-up (BU)とTop-down (TD)で順番に推論する、ことで自己回帰モデルに匹敵する尤度を達成 arxiv.org/abs/1902.02102

posted at 12:27:41

RT @willyoes: Twitter、やればやるほどフォローしてる人の属性が偏っていく。今の日本人は大学出たら米国に院留学してシリコンバレーあたりで仕事ゲットするのが普通、みたいな錯覚に陥ってる。。。

posted at 12:27:37

“【翻訳】scikit-learn 0.18 User Guide 1.4. サポートベクターマシン - Qiita” htn.to/7ca6ADBQA87

posted at 11:53:29

RT @arxivtimes: Distilling Policy Distillation bit.ly/2BwtrDg

posted at 11:45:29

“おうちKubernetes構築でハマったところ - ニッチ編 - - Qiita” htn.to/c9frCZhhckH

posted at 11:20:43

RT @kyoun: Cross-lingual Language Model Pretraining (Facebook) arxiv.org/abs/1901.07291 クロスリンガル言語モデルの事前学習。言語横断でサブワード語彙を共有。教師なし法としてはBERT-likeな穴埋め(MLM)、教師あり法として、翻訳コーパスを用いて2言語に基づく穴埋めを行う翻訳言語モデル(TLM)を提案(図1) pic.twitter.com/CNNRZpX9cP

posted at 10:58:33

RT @kazunori_279: サクサクメロンパン問題、知らなかった。高次元空間ではメロンパンがクッキーに限りなく近くなる。 windfall.hatenablog.com/entry/2015/07/… windfall.hatenablog.com/entry/2015/07/…

posted at 10:58:20

RT @icoxfog417: 強化学習における、戦略の蒸留についてまとめた研究。既存の蒸留手法について、どの時にどういうパターンが良いのかがまとめられている。蒸留を行うに際して、教師側と生徒側の確率分布の差を正則化として使うと良いとしている。 twitter.com/maxjaderberg/s…

posted at 10:58:10

RT @HirokatuKataoka: 最初3回くらいStrong Reject x 3で返ってきてました。 良い問題設定の研究をすることはもちろん、その会議の論文を詳解し、査読システムを理解することで査読が毎回Accept寄りに変わってきました。 twitter.com/HirokatuKataok…

posted at 10:57:53

RT @odashi_t: 次元の呪い(またはサクサクメロンパン問題) twitter.com/u_vi58/status/…

posted at 10:57:33

RT @aso_kamo: そろそろ原稿に取りかからねば。 1)ツイッターを閉じる。 2)原稿用紙を用意する。 3)お湯を沸かす。 4)ペンにインクを足す。 5)コーヒーを淹れる。 6)甘いものを用意する。 7)ツイッターを閉じる。 8)椅子に座る。 9)ツイッターを閉じる。 10)コーヒーのおかわりを淹れる。 11)ツイッターを閉じる。

posted at 09:45:12

RT @_kobakashi_: シールドマシンのその後について勘違いしてる人多くない? そのままトンネルの一部になるケースが多いのに… 写真は世田谷代田付近でトンネルの一部となった小田急下北沢地下化工事で使用されたシールドマシン pic.twitter.com/XPSuYYwzXv

posted at 08:32:54

RT @oota_ken: 営業マンが1年でSEになって機械学習エンジニアに転職する話 - かえるのプログラミングブログ kaeru-nantoka.hatenablog.com/entry/2019/02/…

posted at 08:32:42

RT @hurutoriya: AllenNLP が開発しているk8s基盤で実験を共同で行うためのプラットフォーム 実験の 説明文、ログ、メトリクス、パラメータ、Dockerイメージ、データセット が共通で管理していける AllenNLPはめっっちゃイケてるな~ ソフトウェア開発を一通り分かる人がDSに来ると凄い! github.com/allenai/beaker pic.twitter.com/d1OXxW1IMD

posted at 08:17:22

RT @sappy_and_sappy: 勉強会で発表した資料を公開しました。 / Understanding Back-Translation at Scale speakerdeck.com/ysasano/unders…

posted at 08:17:13

RT @sammy_suyama: タスクがDNNが解きやすいものに集中している。タスクごとに大量のラベルデータを集めて学習して・・・というやり方は個人的には非常に危ういと思っています。 The Limitations of Deep Learning for Vision and How We Might Fix Them thegradient.pub/the-limitation…

posted at 08:09:44

RT @PSYCHO_LIZARD_: @isolation49 シカおにぎりは普通に美味しかったですよ。。。 サンドイッチはカオスなラインナップ極まりなかったですww www.google.co.jp/amp/s/www.hotp…

posted at 00:19:18

RT @PSYCHO_LIZARD_: 所要で富山に来てるので伝説のコンビニに寄ってみましたww pic.twitter.com/pAbTxwpS6t

posted at 00:18:51

RT @ymym3412: [acl-papers] Improving Beam Search by Removing Monotonic Constraint for Neural Machine Translation bit.ly/2WY5T3F

posted at 00:12:16

RT @aokomoriuta: 「本物のプログラマーはWindows嫌いなんだよねー」という風潮が流れた結果、本物ではない、初級者から中級者になるあたりの人たちで、理由は全く的を得た説明できないのに「いやー、オレはウィンドウズ嫌いなんでww」って言う大衆が増えて、その風潮が加速された、ってだけじゃない?

posted at 00:10:09

RT @arxivml: "Binarized Knowledge Graph Embeddings", Koki Kishimoto, Katsuhiko Hayashi, Genki Akai, Masashi Shimbo, Kazunori Kom… arxiv.org/abs/1902.02970

posted at 00:08:56

RT @Khayashi0201: 単純な話ですが,CP分解をバイナリ化して知識グラフ埋め込みモデルをコンパクトにした研究です.バイナリベクトルなのでハミング距離を使って高速にスコア計算も可能です.続きの研究も進めています. twitter.com/arxivml/status…

posted at 00:08:51

RT @pons658: ja.wikipedia.org/wiki/%E9%8A%83… 「『銃砲』とは、(略)弾丸を発射する機能を有する装薬銃砲及び空気銃をいう。ただし、ここでいう空気銃とは、圧縮した気体を使用して弾丸を発射する機能を有する銃 」 とありますが、装薬していないし空気銃ではないので問題ないと認識しています。

posted at 00:07:01

RT @richard_wth: Generative adversarial nets may be improved if the discriminator actively learns the fine details in data, shown by our #iclr2019 paper "Improving MMD-GAN Training with Repulsive Loss Function". openreview.net/forum?id=Hygjq…

posted at 00:06:05


Viewing all articles
Browse latest Browse all 2923

Trending Articles