RT @nadaloglou: How much do you know about self-attention? Here is my take from the literature: math, intuitions and 10+1 hidden insights Link: theaisummer.com/self-attention/ #nlp #ml #machinelearning #deeplearning pic.twitter.com/oJgtmIW2LM
posted at 08:50:32
RT @s_scardapane: *Implicit MLE: Backpropagating Through Discrete Exponential Family Distributions* by @Mniepert @PMinervini Incredibly good paper that shows how to include discrete operations in a neural network (e.g., selecting a subset) with implicit differentiation. arxiv.org/abs/2106.01798 pic.twitter.com/WDmdYGEoVe
posted at 08:49:11
RT @takapy0210: 直近やっていたことを書きました🐍 #はてなブログ オンボーディング改善に機械学習を活用する〜Graph Embedding(node2vec)による推薦アイテム計算〜 tech.connehito.com/entry/2022/09/…
posted at 08:49:04
RT @tallinzen: Attention is all you need, except residual connections, layer norm, position embeddings, extra feedforward layers, multiple heads, and masking future words
posted at 08:47:32
RT @_akhaliq: Phenaki: Variable Length Video Generation from Open Domain Textual Descriptions abs: openreview.net/forum?id=vOEXS… project page: phenaki.video Generating videos from text, with prompts that can change over time, and videos that can be as long as multiple minutes pic.twitter.com/GSDGEURaJD
posted at 08:46:45
RT @abursuc: #ICLR2023 submissions are now visible or it's that time of the year when you realize that most of your #CVPR2023 ideas are already scooped 🙃 openreview.net/group?id=ICLR.…
posted at 08:46:34
RT @Sakura_Med_DSci: 医療系研究者✖️RといえばThe Epidemiologist R Handbook📗 これ、無料で読めます❗️ データの前処理の方法、可視化、解析まで幅広くカバー。 例えば生存時間解析の方法を確認したい場合等すぐに該当ページに飛べる。 日本語化計画も進んでいるとの事で期待しています✨ epirhandbook.com/en/
posted at 08:31:13
RT @arankomatsuzaki: Large Language Models Can Self-Improve Improves the reasoning ability of a 540B-parameter LLM (74.4%→82.1% on GSM8K, 78.2%→83.0% on DROP, 90.0%→94.4% on OpenBookQA, and 63.4%→67.9% on ANLI-A3) and achieves SotA perf, w/o any ground truth label. openreview.net/forum?id=NiEtU… pic.twitter.com/ok6j5xkrko
posted at 08:31:00
RT @kattsun4417: うわーめっちゃいいな。10月2日まで京都鉄博で展示されてるのか 【やじうまPC Watch】「レイバー」っぽい巨大人型重機が鉄道インフラを守る未来。京都鉄博で漫画家ゆうきまさみ氏も操作体験 - PC Watch pc.watch.impress.co.jp/docs/news/yaji…
posted at 08:29:54
RT @arankomatsuzaki: GPTQ: Accurate Quantization for Generative Pre-trained Transformers Can quantize GPT models w/ 175B params in ~4 GPU hours, reducing the bitwidth down to 3 or 4 bits per weight, with negligible accuracy degradation relative to the uncompressed baseline. openreview.net/forum?id=tcbBP… pic.twitter.com/gmX4Pc5PpJ
posted at 08:17:02
RT @boztank: Great research from Meta AI on how generative AI could push creative expression forward. Exciting potential in the space. makeavideo.studio/?fbclid=IwAR1T… Here is "Two kangaroos are busy cooking dinner in a kitchen" pic.twitter.com/vyEzB0GBaQ
posted at 08:16:49
RT @MatsumotohaJimu: ベンチャー創業者の大言壮語を真に受けた知事が「大阪ワクチン」を前のめり宣伝。失敗に終わると、「実際に聞いた話に基づく発信だから問題ない」と責任逃れ。創業者は「できるかもしれないと語尾は濁した」「期待を盛り上げたのはメディアだ」と責任転嫁。実に維新らしい。mainichi.jp/articles/20220…
posted at 08:15:30
RT @DhruvBatraDB: We are entering a new phase in generative models. Text-to-video is here! Make-a-video by @MetaAI and FAIR. makeavideo.studio Look at this video! It's generated! "A golden retriever eating ice cream on a beautiful tropical beach at sunset, high resolution" pic.twitter.com/THRuOSoEOu
posted at 07:58:39
RT @interaction_j: インタラクションの過去の発表論文や当時のホームページはすべてオンラインで公開されているのってご存知でしたか?26年も続いてると結構壮観ですね。 www.interaction-ipsj.org/2023/archive
posted at 07:55:30
RT @jun40vn: 低画質の顔画像を高画質化するCodeFormerのブログに動画版のColabリンクを追加しました。 ブログ:cedro3.com/ai/codeformer/ pic.twitter.com/7VS16Ucah0
posted at 07:54:59
RT @rockfish31: 投稿のツリーを見れば分かりますが「韓国K2戦車は優秀でパワーパックの自力設計製造の目途も立ってこれからよく売れる。韓国はドイツみたいに政治的に面倒臭いことを言わないから一部の国で人気が高くなることは必至。あと納期も早いし技術供与もOK。」という主旨です。 twitter.com/rockfish31/sta…
posted at 07:53:48
RT @namchan_koushi: 二足歩行ロボットが小学1年生と同じ速度で走れるように進化しています。このロボはラジコン操作ではありますが、100mを24.73秒(時速14.5km)で走行しています。スターウォーズのAT-STみたいなのが誕生して、走り回る未来が本当に来るかもしれません。 米 Agility Robotics agilityrobotics.com pic.twitter.com/292gC9tlch
posted at 07:53:03
RT @yoshikawanori: 日本ファクトチェックセンターに関して、体制とかいろいろ情報が出ているので、想像よりも、まずはファクトを確認するのが有益と思われますね。運営委員会、監査委員会は、信頼できる先生方の名前が並んでいる。ガイドラインも定められていて、これを論評するのが良さそう。 factcheckcenter.jp/n/n50986dc9216c
posted at 07:51:42
RT @kohjingyu: It's a good day for text-to-image... 1) Make-A-Video (makeavideo.studio): text-to-video w/o paired examples 2) Phenaki (phenaki.video): text-to-video (up to a few mins long (!)), prompts can change over time. 3) DreamFusion (dreamfusionpaper.github.io): text-to-3D
posted at 07:51:30
これで驚いてたら明日くらいには、テキストから3D動画が生成されるようになったとの発表がどこからかあったりするのだろう
posted at 07:51:11
RT @arankomatsuzaki: Guess the Instruction! Making Language Models Stronger Zero-Shot Learners 3B-sized FLIPPED outperforms T0-11B and 3-shot GPT3 (175B) on average by 1.8% and 3.1%, respectively, on 14 tasks of the BIG-bench benchmark. openreview.net/forum?id=FtOxg… pic.twitter.com/vZ5avH0erk
posted at 07:15:36
RT @_akhaliq: DreamFusion: Text-to-3D using 2D Diffusion paper: openreview.net/pdf?id=FjNys5c… abs: openreview.net/forum?id=FjNys… project page: dreamfusionpaper.github.io DeepDream on a pretrained 2D diffusion model enables text-to-3D synthesis pic.twitter.com/20zIElXJDN
posted at 07:14:51
RT @arankomatsuzaki: Large Language Models Are Human-Level Prompt Engineers The proposed automatic prompt engineering model achieves equal or better than human performance on 19 of 24 tasks using InstructGPT in terms of zero-shot performance. openreview.net/forum?id=92gvk… pic.twitter.com/2wuc37vdyn
posted at 07:14:42
RT @Yamkaz: なんて日..。 テキストから動画を生成するAIの後に、3Dを生成するAIが出てきた。(両方とも過去のものより質が高い) 名前は「DreamFusion」。作者は匿名。 ええ、速すぎる ほんとに何が起きてるの dreamfusionpaper.github.io pic.twitter.com/GJMJic2V5R
posted at 07:13:13
RT @jsl_ninjal: 国立国語研究所オープンハウス2022 「どうすれば語彙学習が楽になるか」(松下達彦)youtu.be/g079jHWo-Ls
posted at 00:43:17
RT @Yamkaz: え..このクオリティはやばい。 テキストから動画を生成するAI「Make-A-Video」をMetaの機械学習エンジニアチームが発表。 makeavideo.studio pic.twitter.com/VLzKTCuAYg
posted at 00:39:01
RT @alfredplpl: 新しいText-to-VideoがMetaから発表。手法はStable Diffusion と同じ原理の拡散モデルがベース。Text-to-Imageが結構できてきたと思ったら、もう動画の世界が始まっている。 twitter.com/_akhaliq/statu…
posted at 00:38:42