Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

2月28日のツイート

$
0
0

RT @Maxwell_110: Cohere Summarization 🧰 dashboard.cohere.ai/playground/sum… cohere.ai がテキスト要約サービスをリリース 要約タスク特化の言語モデルで 50,000 文字までの要約が可能(殆どの論文の全体要約を行えそう) 現在,β 版 の Playground や API を試用可能 Python API: docs.cohere.ai/docs/summarize pic.twitter.com/Wr4sr2bkr7

posted at 09:46:15

RT @syoyo: FlexGen で opt-66b 256 GB CPU mem + 3090 で動きました✌️ chatbot 用途では, 返答は 1 分くらいかかるので向かないかも. とりあえずは寝てる間に文章生成とか文章解析用とかに使うのがいいかも? > FlexGen で opt-66b を動かすメモ zenn.dev/syoyo/articles…

posted at 09:43:24

RT @ShayneRedford: 🔭 A 🧵 on @OpenAI LLM "Alignment" (e.g. #ChatGPT) Q: How does this differ from publicly available "Instruction Tuning" (IT)? A: Proprietary Alignment is actually 3 separate components: 1⃣ Instruction tuning 2⃣ ➕ Open-ended generation/creative prompts 3⃣ ➕ Human feedback 1/ pic.twitter.com/DdnnStDGpc

posted at 08:35:41

RT @magicarchtec: ネットワーク調べてたらIEEE会議に出されていたDisney Seaの資料が引っかかった。 技術向け資料であんまり表に出てこないような内容なのでなかなか濃い。 CobraNetと聞いてはいたものの2000年時点でこの規模だったのか.... grouper.ieee.org/groups/802/3/t… pic.twitter.com/DBjJ23NJRl

posted at 08:26:25

RT @WeizhuChen: A recent work to augment ChatGPT with External Knowledge and Automated Feedback: arxiv.org/pdf/2302.12813…. Big shout-out to the main contributors @JianfengGao0217, @pengbaolin2019 and @MichelGalley. pic.twitter.com/9D6xQs4xHZ

posted at 08:00:25

RT @matsu_vr: OPT-6.7B以外のモデルでPEFTを試しても上手くいかないので、途中の知見を公開することで道を探ろうとするnoteです LLM(大規模言語モデル)のmodulesを見るにはstr(model.moludes)|松xRのnote #note note.com/eurekachan/n/n…

posted at 07:58:30

RT @CST_negi: GPT-3とVoiceVoxを活用してAIエージェントを作る!【Unity】|ねぎぽよし @CST_negi #note note.com/negipoyoc/n/n0… AIエージェントを作った話を忘れないうちに書きました🙏

posted at 07:58:07

RT @Yamkaz: SnapchatがChatGPTを利用した独自のAIチャット 「My AI」をリリース www.theverge.com/2023/2/27/2361… 書かれている内容を見る限り、お友達のような存在として実装されてるっぽい。しかもなんとSnapchatはOpenAIのFoundryに入ってる。現在はPlus加入者のみだけど最終的には全員利用可能にするとのこと pic.twitter.com/sOY9xxAbbC

posted at 07:57:57

RT @srush_nlp: minichain (v0.1): github.com/srush/MiniChain Tiny library for LLM apps. Thanks for all the feedback! Added full code examples for chat, retrieval QA, information extraction. 🧵 pic.twitter.com/fdZxgBG9dh

posted at 07:57:01

RT @karaage0703: AIエージェント作ったら面白そうだなーと思っていましたが、やはり既に作っている人いましたね。コーディングにもGPT活用してて凄い。Unityメインなのか、なるほど > GPT-3とVoiceVoxを活用してAIエージェントを作る!【Unity】|ねぎぽよし @CST_negi #note note.com/negipoyoc/n/n0…

posted at 07:46:49

RT @goto_yuta_: Metaが公開した巨大言語モデルであるLLaMAベースのモデルをChatGPTと同じRLHFでより効率的に学習できる「ChatLLaMA」のが早くもgithubで公開されてる...!!(しかも超簡単) 性能はさておき、誰でも簡単に自分だけのChatGPTを作れる!! github.com/nebuly-ai/nebu… twitter.com/i/web/status/1… pic.twitter.com/17T8DCGH6T

posted at 07:44:42

RT @johnjnay: A Retrieval-Augmented LLM R&D Platform -End-to-end Q&A toolkit -Create custom apps w/ trainable retrievers & readers for deployment -Easy training, inference & eval of SoTA (ColBERT, DPR) Paper arxiv.org/abs/2301.09715 Models huggingface.co/PrimeQA Code github.com/primeqa pic.twitter.com/zM5NVSfOX0

posted at 07:44:06

RT @kazunori_279: Yahoo Japanトップページでのベクトル検索による記事推薦。すごく参考になる。ニュース記事で事前学習したBERTで記事ベクトル、閲覧履歴からRNNでユーザーベクトルを作り、距離学習。ちなみに多様性についてはMatching Engineにもcrowding tagという機能が提供されてます。 techblog.yahoo.co.jp/entry/20230227…

posted at 07:42:07

RT @aviaviavi__: If you're using GPT-3 or any other LLMs read this: 1. Don't want it to hallucinate? 2. Need attribution for generated answers? 3. Have access to proprietary data that you want to index yourself and generate answers from it? Use PrimeQA! We added "retrieve" and "read" mode.🧵 pic.twitter.com/vXNKsgKFom

posted at 07:33:44

RT @OsoneHiroyuki: AIに感情メーター出力させるのは面白いと思っていて、小説や脚本を区切ってAIに読ませて100回くらい感情メーター出力させれば、平均的な読者の感情グラフができるので作品分析に役立ちそう(画像は新海監督による君の名はのグラフ) あとはキャラの好感度やヘイト推移とかも擬似的にできるはず pic.twitter.com/1AAb6do6sn

posted at 07:32:42

RT @omarsar0: ChatLLaMA - an open-source implementation of LLaMA based on RLHF. Claims a 15x faster training process than ChatGPT. It allows users to fine-tune personalized ChatLLaMA assistants. github.com/nebuly-ai/nebu… pic.twitter.com/bpZBbxoOfV

posted at 00:14:18

RT @johnjnay: Improving LLMs w/ Fact-Feedback 1 Retrieve external evidence 2 Context & reasoning chains 3 Give to ChatGPT 4 Check hallucinations 5 If yes: give feedback & revise -Iterate until verified Major hallucination reduction Paper arxiv.org/abs/2302.12813 Code github.com/pengbaolin/LLM… pic.twitter.com/rzV2urwF3U

posted at 00:09:09


Viewing all articles
Browse latest Browse all 2923

Trending Articles