Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

11月9日のツイート

$
0
0

RT @stdaux: 最終的にDの話をしたい。そのためにはA, B, Cの情報がいる。順番的にはA→B→C→Dがわかりやすいかな。…とまず頭の中で考えるじゃん。Aを説明し始めるじゃん。そこで混ぜっ返されてDどころかBにも辿り着けないじゃん。このストレスがすごい

posted at 14:01:58

従来の小さなニューラルネットワークでも「メタ学習」でChatGPTを凌駕するほど高度な生成AIができるとの報告、Nature誌 | AIDB aiboom.net/archives/57838

posted at 14:01:38

RT @_akhaliq: Can LLMs Follow Simple Rules? paper page: huggingface.co/papers/2311.04… As Large Language Models (LLMs) are deployed with increasing real-world responsibilities, it is important to be able to specify and constrain the behavior of these systems in a reliable manner. Model developers… twitter.com/i/web/status/1… pic.twitter.com/WqRHWqHlHu

posted at 13:58:37

RT @ai_database: ユーザープロンプトをLLMが一旦言い換えて、LLM自身が理解しやすくする手法『RaR』が新たに提案されています。 ChatGPT(GPT-4、GPT-3.5)やその他のLLMで効果が確認されています。 実行プロンプトは以下のように比較的シンプルです。 カリフォルニア大学の研究者らによる発表です。 @ Yihe Deng et… twitter.com/i/web/status/1… pic.twitter.com/PiNYVWMM0r

posted at 13:05:32

どこに何があるか、領域を区切って説明させててみる。 pic.twitter.com/M49STQFGJt

posted at 13:05:24

RT @jerryjliu0: A big issue with using ReAct/function calling agents is that sequential execution is slow/inefficient, making RAG for complex questions hard. E.g. if you needed to query 5 tools at once, you’d need to think step-by-step. Parallel function calling helps to alleviate this. Allows… twitter.com/i/web/status/1… twitter.com/llama_index/st…

posted at 10:40:07

RT @tricalt: Combine it all into a Cypher query to get a graph visible on the right side. pic.twitter.com/8Svbp88viE

posted at 10:27:00

RT @tricalt: Add it dynamically to Long Term Memory, Short Term Memory, and Cognitive Buffer, establish relationships and unique Node IDs. pic.twitter.com/odZcwjJq57

posted at 10:26:54

RT @tricalt: In the first step, I decompose the prompt into nodes and edges using some of the work done by @tb_tomaz I create a two-layer system -> Memory Components (STM, LTM, Buffer) and Memories themselves pic.twitter.com/iZWulqGwQs

posted at 10:26:18

RT @cumulo_autumn: GPT-4Vの現状のモデルの苦手としているところとかも公式がまとめてくれてるし、自分でテストする前に一通りこういうの見ておくと向いてるユースケースとかもイメージしやすくなりそう。 リンク platform.openai.com/docs/guides/vi… pic.twitter.com/HT0sdJ3bU8

posted at 10:21:55

RT @QuanquanGu: 📢 Excited to share our latest research on improving human-AI communication! 🤖💬 We introduce 'Rephrase and Respond' (RaR), a simple yet effective method that enhances LLMs’ understanding of human questions. Check out how RaR improves #GPT4 performance by resolving ambiguities &… twitter.com/i/web/status/1… pic.twitter.com/PdCAcVY2Dv

posted at 09:50:07

RT @cumulo_autumn: OpenAIのPlayground (Assistants)で論文読むスピードがまじであり得んほど上がった 最近、興味のある論文が出るペースも上がってきてたからどうやってキャッチアップしようか考えてたけど、これなら割と追っていけそう なんか、色々な意味でまた世界が加速した感じする pic.twitter.com/DybT0tDRpW

posted at 09:41:25

RT @gessan_ishiD: 本人はここまで拡散されると思ってなかったんだろうけど、第一艦橋さんは現役で島本和彦先生のアシスタントです。 twitter.com/dai1kankyo/sta…

posted at 09:30:58

RT @thukeg: How to #RLHF for LLMs: #PPO or #DPO? Introducing #BPO (black-box prompt optimization) to align LLMs without model training. 1) ChatGPT + BPO > ChatGPT 2) GPT-4 + BPO > GPT-4 3) Vicuna + BPO > Vicuna + PPO/DPO 4) Vicuna + DPO + BPO > Vicuna + DPO arxiv.org/pdf/2311.04155… pic.twitter.com/lx3ft6beZa

posted at 09:28:56

RT @volokuleshov: Excited to announce the newest update to the Cornell Open Applied ML course! We are releasing 16 chapters of open online lecture notes covering topics across ML: neural networks, SVMs, gradient boosting, generative models, and much more. kuleshov-group.github.io/aml-book/intro… pic.twitter.com/F8LyNFcZ18

posted at 09:25:19

RT @Dream_Library_: 進藤資訓 様より寄贈いただいたNeXTstationに残されていた受信eMail 送信日:1993年5月25日 送信者:Steve Jobs 宛先:New Colleague (新しい仲間へ) 件名:Welcome! twitter.com/Dream_Library_… pic.twitter.com/D6rqfdleYV

posted at 09:22:29

RT @Dream_Library_: #マイコン博物館 を拡張移転します 広さが10倍になります 写真左は、旧マイコン博物館の展示 数本のラックに展示品を並べていました 写真右は、移転先の展示フロア 数十本のラックでも余裕で配置できます 移転応援クラファンへのご支援をお願いいたします 本日10時スタート readyfor.jp/projects/2023_… pic.twitter.com/oGWOBXLgxu

posted at 09:20:52

RT @ai_scholar: 【新着記事📕】 LLMが生成した情報の信頼性を検証するフレームワーク「FacTool」の提案💡 Google ScholarやPythonを使って誤情報を検出します。 コード生成から文献レビューまで、多様なタスクに活用できる点がポイント! ファクトチェックを効率化したい方におすすめです👨‍💻 ai-scholar.tech/articles/large… twitter.com/i/web/status/1…

posted at 08:55:18

RT @Dream_Library_: #マイコン博物館 を拡張移転します 青梅駅から徒歩2分のビルに移転します 広さが10倍になります これから内装工事を行いますが、広いので内装工事費用の負担が大きいです 本日10時スタートするクラウドファンディングで内装工事費用のご支援を募集します 応援お願いいたします readyfor.jp/projects/2023_… pic.twitter.com/x5Q9RiiC2r

posted at 07:49:55

RT @nagumon: 以前、新潟民が熱く語ってたイタリアンというものが一体何なのか?食べに行ってみた。【みかづき】(1/2) #ごはん図鑑 pic.twitter.com/rckwSi1St6

posted at 07:46:00

RT @tegnike: Assistants APIの記憶性能を調べたらとんでもなかった件|ニケちゃん @tegnike #note note.com/nike_cha_n/n/n…

posted at 07:12:21

RT @tegnike: 記憶管理が相当楽になったのでマジでChatBot運営者はAssistantsへの乗り換えを検討した方が良いと思います あと、おそらく今後もこんな感じで使いやすい機能がバンバン出てくると思うので、コスト下げる意味合いでもOpenAI社のやり方には素直に乗っかった方が良い twitter.com/i/web/status/1… twitter.com/tegnike/status…

posted at 07:12:08

RT @llama_index: Want to build your own GPT-4V experience without using @OpenAI's models? @HarshadSurya1c shows you how to build a multi-modal conversational interface with the following tech: 1️⃣ Automatic Captioning with KOSMOS-2 🖼️ 2️⃣ PaLM for conversational chat 💬 3️⃣ @streamlit for the… twitter.com/i/web/status/1… pic.twitter.com/rx28yYeWk8

posted at 07:08:01

RT @schroneko: arxiv.org/abs/2311.04155 Black-Box Prompt Optimization (BPO) LLM の追加学習させずにアライメントをする手法。あくまで自動でプロンプトを改善するものであって、モデルに依存しないところがポイント。PPO や DPO… twitter.com/i/web/status/1… pic.twitter.com/s9btcQPqCI

posted at 06:55:03

RT @mpshanahan: My paper "Role Play with Large Language Models", co-authored with Kyle McDonell and Laria Reynolds, is out in @Nature: www.nature.com/articles/s4158… (Work carried out @GoogleDeepMind and @imperialcollege) 🧵 1/

posted at 06:53:08

RT @syoyo: 🤗 transformers で, llama.cpp grammer のように生成される文字を制御したい...(JSON を出力, 特定の単語を含める, ...) transformers で対応進んでいるけど, とりま outline or guidance でいけそ? transformers で LLM のテキスト生成をコントロールしたいメモ zenn.dev/syoyo/scraps/8…

posted at 06:52:50

この辺もどうなんだろうと。試せていない。 github.com/noamgat/lm-for… twitter.com/syoyo/status/1…

posted at 06:52:46

RT @gneubig: We know that LLMs are sensitive to prompts. But from social science, we know humans are sensitive to prompts too! In opinion surveys, the way you ask a question can change answers significantly. Our new work examines whether LLMs and humans have the same response biases. 1/3 twitter.com/lltjuatja/stat…

posted at 06:49:15

RT @kazunori_279: Ng先生がRAGとかvector "databases"とかバズワードを惜しげもなく使っててなんとも。。ElasticsearchのことElastic… twitter.com/i/web/status/1… twitter.com/andrewyng/stat…

posted at 06:48:41

RT @AkiraTOSEI: arxiv.org/abs/2303.08128 pythonコードを言語モデルに書かせることで、画像とそれに関する質問テキストから成る問題を解かせるViperGPTを提案。さまざまな既存ツールをAPIで利用したコードを書くことで、幅広いタスクを解くことできる。また、コードを書くため解釈性も高い pic.twitter.com/1uXxQH8okJ

posted at 06:39:44

RT @GOROman: OpenAI GPT-4V(GPT-4 with Vision)で画像を解説してもらい、解説内容をOpenAI TTS(Text To Speech)で日本語で喋ってもらった。 twitter.com/GOROman/status… pic.twitter.com/xnis7OO4qf

posted at 00:30:13

RT @WenhuChen: Congrats to CogVLM for achieving such good results. Btw, this example form the paper is hilarious. twitter.com/arankomatsuzak… pic.twitter.com/dVxuVd4uPl

posted at 00:29:47

異色の「漫画家」広報職員、産総研ガイドブックに作品掲載…主人公は実在の「暗黒シート」研究者ら : 読売新聞オンライン www.yomiuri.co.jp/science/202311…

posted at 00:18:42


Viewing all articles
Browse latest Browse all 2923

Trending Articles