Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

10月14日のツイート

$
0
0

RT @pmichelX: Happy to share a preprint of the work I did during my internship at DeepMind with @seb_ruder and @DaniYogatama : "Balancing Average and Worst-case Accuracy in Multitask Learning", check it out on arxiv: arxiv.org/abs/2110.05838 pic.twitter.com/H9XfHv6OGx

posted at 01:07:40

RT @hf149: Vision Transformerのしくみ - MPRGのD2箕浦くんによるチュートリアル資料です。 speakerdeck.com/himidev/vision…

posted at 01:07:12

RT @insou: 深層学習で精度が上がる理由、色々考えられるけど、どれが効いているかが状況に依存するので、「場合によるんじゃないですかね」以上のコメントができない気がする。

posted at 01:06:01

RT @DeepMind: Language models (LMs) can generate toxic language, including offensive or hateful text. In this work, our team evaluates methods to reduce LM toxicity, discusses limits of automatic eval, and analyses consequences for LM quality and social bias: dpmd.ai/detoxifying 1/

posted at 01:05:49

RT @sei_shinagawa: 「深層学習をどう思ってますか?」という質問なら「そもそもDeep Learningという言葉はですね、Hinton先生がニューラルネット不遇の時代を過ごして、この時代と決別をしようという万感の思いを持ってつけた名前だと思うんですよね。人生の重みを感じちゃいますよね!」みたいな話がいくらでもできます

posted at 01:05:29

RT @matsui_kota: 定性的には画像や自然言語みたいなデータの構造とマッチするアーキテクチャがあるとか、特徴抽出器まで学習できるとか、一部の層を付け替えてお手軽転移学習とか…深層であることに注目するなら良く近似できる関数のクラスが他の方法よりも広いとか… (今泉さん本知識) 切り出し方で会話は広がりそう

posted at 01:05:20

RT @sei_shinagawa: 「深層学習」は(裾野を広げるためか)かっちりした定義なく定着した用語で、ぶっちゃけ「イケイケのニューラルネット手法」ぐらいの意味しかないので、「なぜ深層学習で精度が良くなるのか?」には「精度が良くなったニューラルネット手法を深層学習と呼んでるだけですよ」と口を滑らせたくなる

posted at 01:04:27

pythonのsetup.pyについてまとめる qiita.com/Tadahiro_Yamam… #Qiita @Tadahiro_Yamamuより

posted at 00:49:05

pythonで自作パッケージをsetup.pyで作成する流れ qiita.com/greenteabiscui… #Qiita

posted at 00:48:42


Viewing all articles
Browse latest Browse all 2923

Trending Articles