Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

11月25日のツイート

$
0
0

RT @ai_scholar: 【読まれています📈】 異常性、新規性、オープンセット、外れ値検出を統一的にサーベイ。 アプローチの限界を分析・議論した結果、有望な研究の方向性が示されました。 既存の技術に関する包括的なレビュー! 信頼性の高い予測を生成したい方におすすめ📗 ai-scholar.tech/articles/surve…

posted at 12:24:59

RT @shohei_aio: Microsoftから、Copilot早期利用ユーザーを対象に業務がどの程度改善したか定量的に調査した結果が公表されています (日本語版) Work Trend Index スペシャルレポート Copilot の初期ユーザーから学ぶ、生成 AI の職場での可能性 news.microsoft.com/ja-jp/features…

posted at 12:07:32

RT @kanhatakeyama: 松尾研の大規模言語モデルサマースクールに参加&発表させて頂いた際のスライド(+AIロボット化学実験の宣伝)です。 理論・研究動向の解説に加え、コード実装もあり、とても勉強になる会でした。オススメです。 2023 LLMサマースクール コンペの解法メモ www.docswell.com/s/KanHatakeyam…

posted at 12:06:31

RT @sald_ra: GPT4に自分のやりたいこと聞いて、「モチベを保ちつつとかどうでもいいからマジで最短効率でうまくなりたい」って言ったら「形と比率をやれ」って指示されて「どうやって比率やれば良いかdalle使って示して」って言ったらお手本が出てくる世界だぞ やるしかないです

posted at 12:03:52

駒場祭もな。関節痛にきたな

posted at 12:00:33

RT @usutaku_com: ChatGPT, ChatGPT Plus, Bard, Claude2の違いがわかりやすくまとめられてる記事。 技術的の説明されても分からないけど出力結果の差異は知りたい、という方にはおすすめ。 >Claude2が来たので大手AIチャットボットを比較してみた ascii.jp/elem/000/004/1…

posted at 11:51:45

RT @yukino: 🤖👥本日11:30から、駒場祭の公開講座で「人間とAIの協働」というタイトルで一般向けの講演を行います。YouTubeにてライブ配信&駒場祭期間中はアーカイブ配信があるそうです👉 www.youtube.com/live/GCpsXFUUk…

posted at 11:51:30

RT @Mega_Gorilla_: 最近名前を聞くMiniGPTって何か?と思ってたけど、 視覚的タスクへの統合インターフェイスなのか。なるほど。 www.youtube.com/watch?v=atFCwV…

posted at 11:15:00

RT @EL2031watson: 本日の第42回ロボティクス勉強会の資料はこちらです。 発表タイトルは「RealSense T265とD415とUFACTORY Lite 6で模倣学習の実験」でした。 speakerdeck.com/hygradme/reals…

posted at 08:57:14

RT @pacocat: Q*がQ-learningから来ているかは知らないけれども、制作者にとって好ましい出力を得るために方策空間を探索する技術は今後さらに求められていくと思うし、RLHFみたいな分かりやすいアラインメントを超えてAGIみたいな文脈でも野心的な試みは増えてくるんじゃないでしょうか。

posted at 08:57:13

RT @jerryjliu0: Multi-document RAG is hard. The article below shows that the OpenAI Assistant API does much better on single documents vs. multiple documents. We have a ton of resources in @llama_index for modeling multiple documents, from most complex to least complex - check it out 👇 -… twitter.com/i/web/status/1… twitter.com/llama_index/st…

posted at 08:53:50

風邪をひいた。研究会も技書博もダメだ

posted at 08:36:14

RT @sozoraemon: ラズパイを使って、国際宇宙ステーションのライブ映像が見られる時計を作りました。 背後にはゆっくり動く巨大な地球。ラズパイはロマンの塊だ。 pic.twitter.com/7fEfMGzinU

posted at 08:35:02

RT @rao2z: Not to rain on the Q*Anon parade but those AlphaGo self-play references are misguided. You can't do "self play" if you don't have an in-built reward signal. AlphaGO had the rules of the simple closed form game embedded as the external reward. What does an AGI-wannabe LLM have?

posted at 08:33:56

RT @younesbelkada: IPO algorithm, a new method from Google Deepmind: arxiv.org/abs/2310.12036 has been just added in Hugging Face TRL library ! Try it out now by installing TRL from source, simply pass `loss_type="ipo"` when initializing DPOTrainer: huggingface.co/docs/trl/main/…

posted at 07:46:27

RT @ShuShuShuhe1: 改めてAI Labの産学連携先がすごい。そして多い。 cyberagent.ai/ailab/academic… pic.twitter.com/780TwTf9NU

posted at 07:44:13

RT @asas_mimi: LLM追ってなかったけど、これ面白い。 RLHFのRLって本当に必要?って論文。 ”Your Language Model Is Secretly a Reward Model” 証明等はまだ全然追ってないけど。 分類問題に置き換えてる。 Direct Preference Optimization: Your Language Model is Secretly a Reward Model arxiv.org/abs/2305.18290

posted at 07:41:48

RT @ZainHasan6: Can we use synthetic, LLM generated, data to train the next generations of bigger and better LLMs? How far will synthetic data take us in the pursuit of AGI?🤔 A paper(arxiv.org/abs/2305.17493) from researchers at Oxford and Cambridge addressed these questions earlier this year.… twitter.com/i/web/status/1… pic.twitter.com/EpQcUfYPL1

posted at 07:09:07

RT @AtharvanDogra: Hope everyone learned about #ReinforcementLearning when Q-Learning was trending. Returning to what's happening in the mainstream #RL in #LLM research, I talked about @caglarml's paper from @GoogleDeepMind in our reading group at @ravi_iitm's lab @cerai_iitm @rbc_dsai_iitm twitter.com/AtharvanDogra/… pic.twitter.com/rrxT8djgsa

posted at 07:08:42

RT @koizuka: DoGAという、3DCGを専門に太古の昔からやってる団体アカウントが書いた「CGだってレンダリングのボタンを押してるだけ」発言が、CG知らない人が書いたと思った人たちに届いて読み違いで燃えてたのか twitter.com/doga_cganime/s…

posted at 07:03:40

RT @akshay_pachaar: Self-attention as a directed graph! Self-attention is at the heart of transformers, the architecture that led to the LLM revolution that we see today. In this post, I'll clearly explain self-attention & how it can be thought of as a directed graph. Read more...👇 pic.twitter.com/b6d0u3L8Y2

posted at 07:00:11

RT @llama_index: Head-to-head 🥊: LlamaIndex vs. OpenAI Assistants API This is a fantastic in-depth analysis by @tonicfakedata comparing the RAG performance of the OpenAI Assistants API vs. LlamaIndex. tl;dr @llama_index is currently a lot faster (and better at multi-docs) 🔥 Some high-level… twitter.com/i/web/status/1… pic.twitter.com/OIPlfe1chZ

posted at 06:50:13

RT @sssugasawa: 来月ベイズ分析の入門セミナーをやるのですが、その場でStan使った実装をライブで見せて、実装のときに考えるポイントを共有しながら進めていきますので、実際の使い方のイメージがかなり湧きやすい内容になると思います!! twitter.com/nospare_inc/st…

posted at 06:42:56

RT @BS_Hakus: ここでいう製作状況云々はこのmodのことです、未だ製作中 twitter.com/BS_Hakus/statu…

posted at 06:31:51

RT @BS_Hakus: 宣伝というほどの内容はないけど海外ニキらと一緒にMount & Blade 2を戦国時代に改造するMod『織豊』の制作を手伝っています。完成は当分先。音量注意。 pic.twitter.com/JRJu0QLk96

posted at 06:30:34


Viewing all articles
Browse latest Browse all 2923

Trending Articles