給付金10万円で米国株を買い増した小学4年の長男の決断! www.j-cast.com/kaisha/2020/07… @jcast_kaishaから
posted at 08:27:19
RT @hiroosa: 面白い。ホーキング輻射による蒸発を考慮して改めて生成プロセスを考えると、そもそも圧縮と蒸発が同時に起きていた、ということか。ストレージになるかどうかはともかく、物体の新しい相、というのはなるほど/蒸発するブラックホールの内部を理論的に記述 | 理化学研究所 www.riken.jp/press/2020/202…
posted at 08:19:28
RT @moco_beta: 好奇心で妄想を書きました。ご自由にお使いください。 @chezou @shiumachi [PoC][書籍] 仕事ではじめる検索システム github.com/mocobeta/build… twitter.com/chezou/status/…
posted at 08:19:06
RT @raven_38_: ICML通っていてstarが900超えているのにまともに動かないgithub のリポジトリ, 大量のissue にもかかわらず引用してる論文では実装が利用されている.
posted at 08:18:08
RT @arkitus: Contrastive Training for Improved Out-of-Distribution Detection arxiv.org/abs/2007.05566 Joint (cross entropy + SimCLR) training gives your network a feature space that is better for OOD detection than cross entropy training alone. pic.twitter.com/DgGdAVSXAF
posted at 08:13:42
RT @daniel_m_cer: Language-agnostic BERT Sentence Embedding (LaBSE) improves translation pair retrieval accuracy over 112 languages to 83.7% from the prior state of the art of 65.5% on Tatoeba. Paper: arxiv.org/pdf/2007.01852… Model: tfhub.dev/google/LaBSE/1 #NLProc #DataMining #MachineLearning
posted at 08:06:25
RT @TensorFlow: 🤖📢 New language-agnostic BERT sentence embedding model already available on #TFHub 🤖📢 Check it out → tfhub.dev/google/LaBSE/1 twitter.com/daniel_m_cer/s…
posted at 08:06:15
RT @htyanaka: 業務内容は明らかに研究ではなく、「研究活動を控えていただく可能性」と明記、なのに専門型裁量労働制適用予定。これだと裁量労働制は絶対適用できないはずで、国立大学からこういう違法案件が出てくることに、闇を感じる。雇うくせに労働法知らないんだろうな。 twitter.com/a_tshong/statu…
posted at 08:05:15
RT @enullper: 先日注文した本がこの本が届いた 当初の宣教師による日本語の文法書ではいまでいう「格助詞」を「冠詞」として捉えていた話がすごく印象的。 たしかに、ポルトガル語では「前置詞+冠詞」の短縮形(たとえば do, à)で格を表せるから感覚としては自然だ。 twitter.com/yagisyoten/sta…
posted at 08:04:41
RT @white_w681: 修学旅行がなくなるのはほんとに気の毒。 旅行業時代の上司が添乗前に「信じられないかもしれないが、世の中には修学旅行が最初で最後の旅行になる生徒っている。修学旅行がなかったら旅行に行けなかった生徒もいる。そういう子のために精一杯やるんだ。」って言ってたの思い出します。
posted at 07:58:59
RT @a_sugiyama: 佐野先生とこの論文を書いてた時に、「thus, thereforeは論文中に1回のみ、機関銃文章で書きなさい」と言われました。Plant Biotechnology編集長の時に書かれたノートにも同様の記述がありました。 www.ncbi.nlm.nih.gov/pmc/articles/P… pic.twitter.com/RbTmNHq7wL
posted at 07:47:42
RT @na_ma3: 先日、「なぜおれたちはそんな少女を現実に見たこともないのに田舎の風景に佇む白いワンピースの少女にノスタルジーを感じてしまうのか。現代の妖怪ではないか」という話をしたんだけど、これで「出会ったとき、存在しない思い出が浮かぶ」みたいな属性が付与されるとマジで現代の妖怪になる気がする。
posted at 01:23:06
RT @kazunori_279: HPCのジョブの中から障害が起きそうなものをAutoML Tablesで予測、スパコンの利用効率向上に利用する話。 #gcpja cloud.google.com/blog/ja/produc…
posted at 01:14:41
RT @matsui_kota: PRMLは読めるけど仮説検定の作法は分からない人がたくさんいるってことですか???
posted at 01:13:37
RT @naloma2020: Good morning! Today's NALOMA @WeSSLLI2020: the invited speaker Mark Steedman will give the talk "Linguistic Semantics and Contemporary NLI" at 8:45am EDT. The workshop chair Larry Moss will give the talk "Formalizations and Implementations of Monotonicity Reasoning" at 10:00am.
posted at 01:13:16
RT @physics303: ハミルトニアン多様体仮説. 多様体仮説によると,画像は低次元多様体に住んでいるわけだけど,画像シーケンスの軌跡は,ハミルトニアンが決定するという話.思想としてはとても面白いと思う.検証する方法とかあるのかな. pic.twitter.com/iWno2Fb10v
posted at 01:09:29
RT @arkitus: @irinavlh, @DaniloJRezende and I are presenting a tutorial at ICML on 'Representation Learning Without Labels'. Jul 13, 9 AM to 12 PM and 7 PM to 10 PM (BST) icml.cc/virtual/2020/t… icml.cc/Conferences/20… Drop by to find out what Plato has to do with VAEs, GANs and SimCLR! pic.twitter.com/X0iXBweDKw
posted at 01:00:43
RT @arkitus: Slides now available to download: drive.google.com/file/d/1Ee2_EB… Thank you all for attending the morning session. We'll be back online tonight. Tune in for more Q&A. twitter.com/arkitus/status…
posted at 01:00:29
RT @physics303: プラトンの洞窟の比喩に始まるイントロダクション,とてもおもしろい.教師あり学習って自然じゃないよね,って指摘がとても自然. twitter.com/arkitus/status… pic.twitter.com/sgQzaxpCfj
posted at 00:59:55
RT @ken5scal: ファイル共有無料サービス「Firefox Send」が一時停止。理由はマルウェアやランサム配送に以下の理由で人気になったから -Firefoxを隠れ蓑に無料で配送経路を確保できる -デフォ暗号化なので検査を掻い潜れる -有効期限により検体入手を困難にできる #情報収集 #security 1/2 www.zdnet.com/article/mozill…
posted at 00:59:02
内務省へ twitter.com/HiromitsuTakag…
posted at 00:43:24
RT @usaminoriya: 最近批判の多い池上彰さんも最初の頃は 「長年かけて溜め込んだ知識をアウトプットする」 という芸風でやってたんだと思う。それがどこかで知識の貯金を残高が減って 「スタッフが集めた情報を池上彰というフィルターを通して権威づけする」 という池上システムに転換して批判が増えた印象。
posted at 00:39:19
RT @searchliaison: The Google Books Ngram Viewer has now been updated with fresh data through 2019. Previously, data stopped at 2012. The viewer allows tracking the occurrence of words & phrases in books over time. Learn more about the viewer here: books.google.com/ngrams/info pic.twitter.com/hEUJCpJE7o
posted at 00:01:31