RT @arxivml: "Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain Question Answering", Alexander Hanbo Li,… arxiv.org/abs/2108.02866
posted at 08:57:55
RT @SonodaHiroki: ウィスキー・ロングビン級がウルトラ警備隊のハイドランジャーの元ネタってのは一目瞭然なんだけど、ホーク3号にもソ連風味を感じる。ホーク1号はJAS-35に似たアウトライン… ウルトラ警備隊の兵器体系は非アメリカ系? pic.twitter.com/9rHJSM42Kb
posted at 08:56:18
RT @hillbig: Bengio, LeCun, Hinton教授らによるDLの最近と課題のまとめ(2015年のサーベイ論文以来の共著)。近年の進展としてTransformerや自己教師あり学習の進展を挙げ、今後の課題として少量のデータからの学習、非i.i.d問題への対応、System 2のタスクを解けることを挙げている。cacm.acm.org/magazines/2021…
posted at 08:53:51
RT @coral_capital: Coral Developersが失敗談を語るイベントを開催、8社がトークを繰り広げました。法人向けプリペイドカードを発行するFintechスタートアップHandii CTOの森さんは、ステージング環境と本番環境の微妙な違いで起こったトラブルと、その教訓を共有してくれました。 hubs.li/H0T-mrl0
posted at 08:15:02
RT @publickey: ブログ書きました: ElasticのクライアントライブラリがAWS OpenSearchへの接続を排除。AWSは仕方なくクライアントライブラリのフォークを発表 www.publickey1.jp/blog/21/elasti…
posted at 08:05:08
RT @kazunori_279: NNのe2e制御でミサイル飛ばす話かな。 "トンボの脳はわずか3~4層のニューロンで獲物と自分の位置情報を把握し、適切な追跡経路を割り出して動いている" gigazine.net/news/20210809-…
posted at 07:57:32
RT @hiranoff: そうだよな、聞こえる人からしたら何もしてないように見えるよな。手話通訳者が手話をしない姿をずっと映す事で「音声情報がない」事を伝えてるんだよ。ちゃんと仕事してる。 twitter.com/_sh23u_/status…
posted at 07:56:56
RT @kimakimakakao: 通訳者が映像を見ているのは、「今は通訳が必要な場面ではないので映像を見て下さい」というサインです。見ている人がどこを見たらいいかわかりやすくするためのものです。やることなくて映像を見ているわけではないです。 #オリパラ手話通訳
posted at 07:56:40
RT @RASENJIN: なので「ソ連女性兵士エピソード集」として読むのではなく、「ソ連で生きてきた女性たちの、従軍・戦争経験を軸とした人生の自己評価」「そこから見えてくる時代と社会、あい対する人々」と踏まえるべき、実は結構文脈が山盛りの本なのです。
posted at 07:51:38
RT @RASENJIN: コミック版の解説にも書きましたが、「作り話をするよ」と言われたインタビューをアレクシエーヴィチが事実かどうか検証していないのがポイントです。そういった点が大事な本ではないので。
posted at 07:51:15
RT @DeepMind: These results raise the possibility of learning algorithms that are more widely accessible, requiring neither human annotations nor vast amounts of computation. To be presented at #ICCV2021 by @olivierhenaff @skandakoppula @jalayrac @avdnoord @OriolVinyalsML & @joaocarreira 3/3
posted at 07:50:08
RT @DeepMind: Contrastive detection amplifies the learning signal from each image by carving it into pieces and learning from each simultaneously. This works particularly well when transferring to challenging tasks like detection, segmentation, and depth estimation. 2/ pic.twitter.com/RonEN3Qi4f
posted at 07:49:38
RT @DeepMind: Self-supervised learning promises to leverage vast amounts of data, but existing methods remain slow and expensive. Introducing contrastive detection, a new objective that learns useful representations for many tasks, with up to 10x less computation: dpmd.ai/3jsOV9l 1/ pic.twitter.com/le8FuvRDYn
posted at 07:49:24
DeepMind's Perceiver IO: A General Architecture for a Wide Variety of Inputs & Outputs syncedreview.com/2021/08/09/dee… @Synced_Globalから
posted at 07:48:32