RT @yag_ays: 元論文はACL2018の“Baseline Needs More Love: On Simple Word-Embedding-Based Models and Associated Pooling Mechanisms” arxiv.org/abs/1805.09843
posted at 13:40:10
RT @yag_ays: sentence embeddingは、とりあえず単語ベクトル列に対してelement-wiseにpoolingすればいいよというSWEMのことを書きました。ベースラインとしてはこれで十分っぽいですね。 SWEM: 単語埋め込みのみを使うシンプルな文章埋め込み - Out-of-the-box yag-ays.github.io/project/swem/
posted at 13:40:02
RT @mentzer_f: Check out our new paper on learned lossless compression: 30% smaller images than PNG, using a fully parallel probabilistic model that is orders of magnitude faster than PixelCNN! Oral @cvpr2019 w/ @etagust, @mtschannen, R. Timofte, L. Van Gool, @ETH_en. github.com/fab-jul/L3C-Py…
posted at 13:39:29
RT @goodfellow_ian: As far as I know these kinds of analogies actually work in image models. twitter.com/goodfellow_ian…
posted at 13:38:31
RT @icoxfog417: GANで言語モデルを作成しようという試み。G側は(単語の)サンプリングが必要なため、強化学習の枠組みで学習を行っている。D側は報酬を与えることになるが、生成系列全体ではなく生成単語単位に報酬を与える形をとっている。単語単位の密な報酬と大きいバッチサイズ(512)が学習に寄与するとの結果。 twitter.com/hardmaru/statu…
posted at 13:37:52
RT @futaba_AFB: テストベッド機なので地味にバリエーションが多く最初は小型ジェットを背負い式にしてそれをニコイチに結合している。背負い式小型ジェットは今でもみるレイアウトではあるけどそれが機体ごと双発になると不思議な見た目になる。 pic.twitter.com/58hMrIMJhR
posted at 13:33:02
RT @futaba_AFB: 飛行機の世界には手っ取り早く既存機を改造して新技術をテストする例というのはいっぱいありますが、新技術だったジェットエンジンをテストする為グライダーをニコイチにしてエンジンテストベッドにしたFouga CM.88 Gemeauxほど奇異な機体を僕は知らない pic.twitter.com/RhnI1Pezj8
posted at 13:32:37
RT @himakane1: 戦前の日本人は戦争を嫌がっていたのに軍部や政府に従わされたーと思われる方がいるかもしれません。しかし実際は、戦争に負けたことがないとの楽観が根底にあり、祭りのように盛り上げる庶民が多かったのではと感じます。当時の子どもの作文から、その雰囲気の一端を。sensousouko.naganoblog.jp/e2222038.html
posted at 13:20:05
RT @icoxfog417: グラフを信号と見なした場合の処理についてはこちらの資料がわかりやすい。イメージしにくい「グラフが周波数(信号)とは??」というところがきちんと解説されている。 www.ieice.org/ess/sita/forum…
posted at 13:17:00
RT @goodfellow_ian: Whoa! It turns out that famous examples of NLP systems succeeding and failing were very misleading. “Man is to king as woman is to queen” only works if the model is hardcoded not to be able to say “king” for the last word. twitter.com/rikvannoord/st…
posted at 13:15:51
RT @ian_soboroff: @rikvannoord If instead of handpicking cute examples researchers would measure the graph match against WordNet I’d be more impressed. Re capitals/countries, a fave since Nikolov’s original paper, word2vec only finds 25-30 percent of capitals in Wikipedia.
posted at 13:15:47
RT @rikvannoord: 7/7 If you're curious, you can try analogies using the unrestricted code through this simple demo: www.let.rug.nl/rob/embs/. We'd love to get comments on the paper, so if you have any, let us know! Paper link again: arxiv.org/abs/1905.09866 #NLProc #bias
posted at 13:15:38
RT @rikvannoord: 1/7 Do word embeddings really say that man is to doctor as woman is to nurse? Apparently not. Check out this thread for a description of a short paper I co-wrote with Malvina Nissim and Rob van der Goot, available here: arxiv.org/abs/1905.09866 #NLProc #bias
posted at 13:15:04
RT @icoxfog417: Graph Convolutionは、グラフ信号に対するローパスフィルタの役割しか果たしていないのではという研究。代表的なデータセット(Cora等)で、高周波成分が有効な特徴を含まない場合(=単なるノイズの場合)にNNとGCNで精度の違いが大きくなることを確認。隣接行列の適用がフィルタに相当するという。 twitter.com/hardmaru/statu…
posted at 13:13:27
RT @matt_dz: Towards Neural Decompilation arxiv.org/abs/1905.08325 TraFix: a two-phased (Translate and Fix) automatic trainable decompiler based on NMT github.com/omerktz/trafix Omer Katz, Yuval Olshaker, Yoav Goldberg (@yoavgo), Eran Yahav (@yahave) pic.twitter.com/gGLyc1gXqA
posted at 13:12:45
RT @icoxfog417: 機械翻訳の仕組みを用いて、プログラムのデコンパイルを行ったという研究。具体的には、LLVMの中間コードやx86のアセンブリからCのコードを生成する。入力から直にコードを生成するのでなく、一旦canonical形式を経由し、そこからテンプレートを生成して中の値を埋めるという形式をとっている。 twitter.com/matt_dz/status…
posted at 13:12:25
RT @kusokaisetu: ガンダムZZでは途中でZがやられてしまい、それに乗ってたジュドーは命からがら逃げて来るんだけど、なんと仲間がZZのパーツを届けてくれて、それと合体してZZが登場するんだって‼️ なのでコンピュータ予測で展開を描いてみたよ pic.twitter.com/wBKz6PVMkL
posted at 13:09:50
RT @svlevine: SQIL: an imitation learning method so simple I can summarize in a tweet: drop demonstrations into buffer, set their reward to +1, set reward for all other data to 0, run Q-learning or SAC to train. Why does it work? Find out: arxiv.org/abs/1905.11108 w/ @sidgreddy @ancadianadragan pic.twitter.com/R2sY3H8m50
posted at 13:06:49
RT @rei10830349: コミュ障が人間と会話した後にやる、「あれを言っておけばよかった!」「あれは失礼じゃなかったかな?」みたいな1人脳内反省会は、フランス語で「L'esprit de l'escalier」、ドイツ語で「Treppenwitz」、英語で「Trepverter」と単語化されており、あれは全世界で共通したコミュ障の基本仕様らしいな。
posted at 13:05:39
RT @koba200x1: 誰も突っ込んでないみたいなので言っておこう このヴィーガンおばさんは「私の思いが閉店させた」と言ってますがとんでもないデマです 店主は「高齢になってきたのでそろそろ店を閉めよう」ということで閉店を決意されたそうです 嘘はよくないですねw twitter.com/STOPFUR/status…
posted at 12:57:20
RT @create_clock: living computer museumはコンピュータの歴史が好きなひとには超オススメ。シリコンバレーの奴より規模は小さいけど、ほとんどのコンピュータが動作した状態で展示されてるのはすごい。サーバールームには80年代のミニコン(VAX11/780とか)が轟音をたてて稼働していた!懐かしい雰囲気だ。 pic.twitter.com/WbYGquztV5
posted at 12:21:42
RT @futaba_AFB: マジステール異様に低い作りが不思議だったんですがグライダーメーカーだったのなら納得。あの位置関係全部グライダーならよくみる感じだもんね
posted at 12:20:39
RT @futaba_AFB: マジステールと言えばジェット練習機第一世代の傑作として有名だしイスラエル空軍ではMiG21相手に空中戦までやってたけど、その出自にこんな機体が存在してたんですね... pic.twitter.com/3FSv0Ensly
posted at 12:20:35
RT @futaba_AFB: そしてCM.8とCM.88のテスト結果を元にフーガ社が設計した準ジェット機がこのフーガ マジステールで世界初の純ジェット練習機の出自はこれらの怪しいジェットグライダーに遡るんですね(そのせいか高いアスペクト比の主翼とフーガ社のグライダーで多用されたVテールがマジステールにも利用されてる。 pic.twitter.com/kXiD75SZ1c
posted at 12:20:24
RT @futaba_AFB: W型尾翼を採用した例も僕はこの機体以外知らないです...どう言う特性になるのか想像できない...(Vテールに近そうではあるけども... pic.twitter.com/8GhiBK9tEU
posted at 12:19:58
RT @CcibChris: On your marks........ pic.twitter.com/mLFm9D5fQ8
posted at 12:19:48
RT @aoaoshimashima: トランジスタがペットの散歩してる貴重なシーンを収めました pic.twitter.com/fpEendeIYk
posted at 12:19:36
RT @55inukiti: 東からしまなみサイクリング来た人はぜひ帰りに岡山に寄って鷲羽山ハイランドのスカイサイクル乗って帰って欲しい、感動の景色と完全な恐怖を味わえるから(´;ω;`) pic.twitter.com/TfZN3MN0GY
posted at 12:19:24
須磨浦山上遊園和も似たようなもの twitter.com/55inukiti/stat…
posted at 12:19:22
RT @kazunori_279: AutoML NLで漱石・太宰・宮沢を分類してみた事例。3時間・1000円程度の学習で精度87%が出る。 #gcpja www.apps-gcp.com/automl-natural… www.apps-gcp.com/automl-natural…
posted at 12:18:10
RT @WANIGUNNSOU: 警視庁が採用してる緊急時に盾になるバインダー、これもっと広く普及しても良いと思うんですよね。 無いよりはマシレベルですけど、そういうのが色んな場所に置いてある。という事実だけでも犯罪抑止に繋がると思うんですよ。 pic.twitter.com/ytwGjOLz5O
posted at 12:17:25
RT @u_akihiro: ラズペリパイで、WiFiだったか、通信が途切れるのはUSBの電源が落ちるからで設定フラグでそれを無効化しないといけないとTWを昔に見ていたはずなのに、原因として思いつけないものなのですね...
posted at 12:09:25
RT @icoxfog417: 事前学習済み言語モデルを用い、少量で学習可能な要約モデルを作成した研究。既存のEncoder/Decoderモデルを踏襲するタイプと(重みは共通で事前学習済みの言語モデルからとる)、文章/要約を結合し言語モデルタスクにして要約を生成する2パターンを検証。後者にて3000程度で十分なROUGEが出ることを確認 twitter.com/BrundageBot/st…
posted at 12:09:03
RT @d_nak: うちの部屋も撮ってもらいました…。多分こんまり的な片付けのときめきアニミズムとは対極というか相互補完的な関係にある、男子にとっての肥大する自我の拠り所をモノとカルチャーの物量的トーテミズムで支えようとする有り様を赤裸々に写し取ってる写真作品になってる気がします…! twitter.com/kei_ono/status…
posted at 12:03:27
RT @hiroharu_kato: Cerberus: A Multi-headed Derenderer (B. Deng, S. Kornblith, and G. Hinton) arxiv.org/abs/1905.11940 まだ全然読んでないんですが Hinton 先生らの新作で [Kato+ 2018] がめっちゃ言及されてる???
posted at 11:56:06
RT @u_akihiro: それは特許なのか?と言われるものほど、特許としては強力と、昔聞いたのを思い出すのです。 twitter.com/gizmodojapan/s…
posted at 11:53:57
RT @Hi_king: Youtubeでマネキンチャレンジが流行ったため、突然"人間を静物として見られる動画データセット"が集まり、多視点ステレオで深度がきれいに取れるため、単眼深度推定の精度が上がった、ってストーリー面白すぎるでしょ。 twitter.com/GoogleAI/statu…
posted at 08:54:36
RT @shion_honda: Neural Talking Head Models [Zakharov+, 2019] 人の顔の画像から別の表情の画像をfew-shotで生成した。元画像の埋め込みとターゲットのランドマークを条件とする生成タスクでメタ学習する。損失関数には埋め込みと識別器の潜在変数の間のmatch lossを加える。 arxiv.org/abs/1905.08233 #NowReading pic.twitter.com/IF5oIlckyq
posted at 08:33:03
RT @gneubig: What happens when you remove most of BERT's heads? Answer: surprisingly little! Check out @pmichelX's new preprint on pruning heads from multi-head attention models, with interesting analysis and 81% inference-time accuracy gains on BERT-based models! twitter.com/pmichelX/statu…
posted at 08:32:43
RT @metatetsu: モニタ業界が流行らせたい『32:9スーパーウルトラワイドモニター』 16:9モニタ2台のマルチモニタ環境の人が多い。ならば32:9モニタ1台にしたほうが画面枠が無くなって「資料と制作ソフトのウィンドウ並べて作業」と「大画面フルに使ってゲームや作業」両立できてモニタアームや配線もスッキリすると pic.twitter.com/HhKVTH3opB
posted at 08:31:57
RT @dpyNonunc: ムーンショットビジョナリー会議で、ムーンショット的ではない研究の重要性を説く北野先生👏👏 pic.twitter.com/qmHpgericC
posted at 07:58:23
RT @uchujin17: 「えー、でもマクネリーさんがそう言ったんですけど」「彼は2週間前に退社しました」「はぁ?!」「今はコーニッグが引き継いでいます」「コーニッグさん、マクネリーから何か聞いてます?」「何も聞いてないよHAHAHAー」となることも。
posted at 07:52:57
RT @uchujin17: アメリカ流のビジネストークにも悪いとこがあって、担当者が結構その場で「イエス」「ノー」を即断で決めるので「おー、アメリカ式はスピーディーで簡潔だ!」と思っていたら、後になって納品したあと「話が違う」「聞いていない」となって…
posted at 07:52:53
RT @ShinyaMatsuura: 日経のスクープだが、今からの方針転換はキツいなあ…… MRJ、米国需要狙い70席型投入へ 名称も変更:日本経済新聞 www.nikkei.com/article/DGXMZO…
posted at 07:44:32
RT @Sakai_Sampo: ぎゃーー! 今、すげえドキュメンタリー映画観てます!>『アポロ11』 当時の記録映像を8Kレストアした超美麗映像で再構築したアポロ11号の記録映画。いきなり冒頭からアポロ乗せて移動するトレーラーのどアップで始まるとことか、編集も素晴らしい。これ、日本でもぜひ劇場公開してほしい! pic.twitter.com/F0UDGdjcPW
posted at 07:39:49
RT @RASENJIN: @ogawaissui もっと詳しい人がいるでしょうけども、基本は立ち乗りだと思います。鞍を椅子のように考えて尻で座るのはどの場合でも基本NGの筈なので。 pic.twitter.com/0bMXofym6t
posted at 07:37:15
RT @OriolVinyalsML: Evaluating generative models is hard! We propose Classification Accuracy Score from classifiers trained on generated data: -Accuracy of 43% when trained purely on BigGAN samples (vs 73%) -Naive data augmentation doesn't work (yet!) Paper: arxiv.org/abs/1905.10887 cc @SumanRavuri pic.twitter.com/7HsdZFGzek
posted at 07:31:58
RT @japan_rg3: 失禁や脱糞による悪臭から死臭まで消す持続性消臭剤をプロテクターに吹き掛けたら臭いが完全に消滅。しかも効果は数ヶ月持続。介護用品なので無害で直接肌にかけても大丈夫。スポーツ用に改良してもらってます。来店された方は無料お試しオッケーです! pic.twitter.com/tO2kMqzSDb
posted at 00:07:48
RT @DeepMindAI: “An Explicitly Relational Neural Network Architecture” - new work from the DeepMind cognition team takes a step towards reconciling #deeplearning and symbolic #AI, with Marta Garnelo, Kyriacos Nikiforou, @ToniCreswell, Christos Kaplanis, and @dgbarrett: arxiv.org/abs/1905.10307 pic.twitter.com/hFnbPrhnUa
posted at 00:07:14