RT @pei0804: #datatechjp ぼくのかんがえる最高のデータ分析基盤のスライドです。 speakerdeck.com/pei0804/strong…
posted at 22:00:02
RT @_daichikonno: 「GPT-4は誰もが予想するより素晴らしい」という、非常に心踊るコメント。 以前の記事では、GPT-4のパラメータ数は100兆程度になるかもしれないと言われていた。 これは脳のシナプス数とだいたい同じであり、パラメータ数と知能の関係を考える上で極めて重要なイベントになると考えられます。 twitter.com/Scobleizer/sta…
posted at 21:59:30
RT @MLRepositories: stanza: Official Stanford NLP Python Library for Many Human Languages Lang: Python ⭐️ 6373 Author: @stanfordnlp #MachineLearning github.com/stanfordnlp/st…
posted at 20:49:40
RT @matsui_kota: 中山先生の表現学習視点の導入良さ…そのすぐ後に二反田さんの硬派な深層学習の解説が来るのも良い。早く最後まで読みたい pic.twitter.com/gFaBJcQmbb
posted at 20:47:24
RT @nokomoro3: Whisperの日本語fine-tuningについて、Hugging Faceブログに沿ってやる方法を書きました。 自社データの活用もこれでできるやも? #DevelopersIO Hugging FaceでOpenAIの音声認識”Whisper”をFine Tuningする方法が公開されました dev.classmethod.jp/articles/whisp…
posted at 18:48:31
RT @tatsushi_do_ob: やっぱり伊藤先生のところでしたねw 午前は弊社に来てました.今どきの中学生は,最初から「ゼロから作るDeep Learning - O'Reilly Japan」を読んで来るそうで,すごいです. twitter.com/1T0T/status/15…
posted at 16:17:07
RT @1T0T: 今日は中学生が研究室見学に来るのだが、うちに来る理由が拙研究室の論文を読んだかららしい。すごい時代だわ。昔から感じていたが僕にとって日本語の論文の公開ってむしろ非研究者との接点とか中高生等への広報なのよね。(ただ広報といっても今回は女子大に男子生徒が来るという話なのだが…
posted at 16:16:59
RT @kodaigirisyano: 古代ギリシャには「テッサリアの魔女が月を降ろす」から月食が起こるという迷信(諺)がありましたが,本日の月食を見てこの諺を不思議に思いませんか? というのも一般に月食は皆既になると赤銅色になり,空から消えるわけではないからです. pic.twitter.com/rzU0MVcnjl
posted at 16:15:15
RT @refeia: 月食のスマホ写真、妙に鮮明+クレーターの陰影まで描写されているのがあって(月食中は順光なので陰影ほとんど見えないはず)、おかしいなと思って調べてたら「月撮影モード」で素材合成っぽい処理が普通に実装されていたみたい twitter.com/search?q=xiaom…
posted at 16:14:54
RT @ML_deep: ドメイン知識と結びついてないデータ分析者とかマジでイランわな。現場で現場の人と同じ仕事をしなきゃいけない道理はないけど、分析対象に興味をちゃんと持って挑むと、結果的に手段として現場を見るというのを行使したくなると思うんだけど(もちろん手段のレイヤーなのだけど、かなり強力な手段)。 twitter.com/kurosuke1964/s…
posted at 08:33:20
RT @Lasha1608: 🚨Help NLP models process negation🚨 Introducing ℂ𝕆ℕ𝔻𝔸ℚ𝔸, a *contrastive* reading comprehension dataset that requires reasoning about negation w/ @nlpmattg & @anmarasovic @ai2_allennlp, at #EMNLP2022 📝Paper arxiv.org/abs/2211.00295 🚀Data github.com/AbhilashaRavic… [1/8] pic.twitter.com/XIHfilSc9y
posted at 07:48:10
RT @matsui_kota: 毎週夜な夜なやっていたMLP深層学習本の勉強会が第22回で完了した。皆さんまじめに資料作ってやって下さったのであの分厚い本が全編講義資料化した状態で手元に残るというすごい副産物が得られた (ありがてぇありがてぇ) pic.twitter.com/cFBMQccFze
posted at 07:47:06