RT @Sakkusakumura: 論文紹介: LLaVA-1.5 (Improved Baselines with Visual Instruction Tuning)|Sakusakumura @Sakkusakumura #note note.com/sakusakumura/n… LLaVA-1.5の論文紹介記事を書きました! めちゃくちゃ面白い内容だったのでおススメです twitter.com/imhaotian/stat… pic.twitter.com/An7Mgkwtvi
posted at 21:15:56
RT @forthshinji: 明日は #会いに行ける科学者フェス #JAAS2023 で↓のポスターを発表してます.来てねー! pic.twitter.com/VxkfYkzNtI
posted at 21:06:36
RT @ai_scholar: 【読まれています】 LLMと対話型エージェントを使って人間の行動をシミュレートするアーキテクチャ「Generative Agents」をご存じですか? 人工的な村社会を形成することで、集団行動のシミュレーションを実施できます。 アーキテクチャの構成を本記事で詳しく解説! ai-scholar.tech/articles/large…
posted at 20:58:57
RT @AIST_JP: 【予告】つくばに秋がやってきます🍁 研究者の熱気に満ちた、アツい秋が。 11/11開催予定の #産総研一般公開2023 in つくばセンター、目玉のひとつが「マンガ」! 取材から作画まで産総研広報の完全内製でお送りします(毎回ひそかな自慢)。 開催情報は3日後の10/10(火)20時公開。お楽しみに。 pic.twitter.com/ekv7XO5gZ2
posted at 20:57:50
RT @ryoNLP0123: 言語で学習したニューラルネットの下層に文法情報、上層に意味情報が含まれるというのは、より多くの事例に適用できるような情報を下層が学習しやすいということではなかろうか。誤差逆伝搬の性質的に。知らんけど。
posted at 20:20:41
RT @kaityo256: わからないことをChatGPTに聞こうとして、ChatGPTが答えやすいように質問内容をまとめていたら自己解決した。あなたがプロンプトエンジニアリングをしようとしている時、深淵もあなたをエンジニアリングしているのだ。
posted at 19:41:40
RT @TUT_RC: 技科大祭1日目終わりました! 本日はたくさんの方にお越しいただきありがとうございます 明日もまたしますのでぜひ見に来てください! #技科大祭 #ロボコン #とよはしロボコンズ pic.twitter.com/3QHpoTUzrQ
posted at 19:41:14
RT @sla: RAG(検索による情報補完)と入出力長の拡大どちらがLLMにとって有効か、Q&Aと要約のタスクで検証したNVIDIA論文。 ・RAGは入力長の長短に関わらず性能を向上させる ・4k+RAGなら16kとほぼ同じ精度でより高速に推論できる ・RAG有りLLaMA2-70B-32kはGPT-3.5-turbo-16kとDavinci003を凌駕しベスト性能 twitter.com/_philschmid/st…
posted at 19:33:18
RT @abagames: DALL-E 3ならウォーリーを探せ的な絵を色々作れるんじゃないかと思ったけどすごく難しい。バカ目立ちした「わたしです」的な絵にしかならない pic.twitter.com/THKo4CJRi7
posted at 18:09:03
RT @_philschmid: RAG or longer context windows - what performs better? 🤔 A new study from @nvidia compares retrieval augmentation generation (RAG) with increasing context window for large language models (LLMs) on long context question answering and summarization tasks. 🔍🧪 ⬇️ pic.twitter.com/WPBa6i4Wh4
posted at 18:08:23
RT @Hironobu_Asano: Kioxia、「記憶検索型AI」実用化へ異色開発者が躍動 スイマセン。記事を読んでも良く判らなかったのですが、文中の 「従来のAIが必要とする膨大な演算ではなく、記憶させた大量の学習データを参照する新しい発想」 というところから、誤りを恐れずに、より簡単に #AI #SSD www.nikkei.com/article/DGXZQO…
posted at 17:53:00
RT @KinoShinjuku: 【5階PC】技術評論社より先行販売書籍が入荷致しました。 『ChatGPT/LangChainによるチャットシステム構築[実践]入門』 棚E13にございます。 是非いち早くご覧下さいませ。es pic.twitter.com/X8qsOpzzob
posted at 17:51:32
RT @TJO_datasci: 既に良く知られているように、正則化項が入ると推定パラメータの不偏性が悪化するというのが良く分かりますね / 正則化項付き線形回帰は真の偏回帰係数を推定しているのか? bob3.hatenablog.com/entry/2023/10/…
posted at 16:22:50
RT @monestar: 少しやり方を変えてみた。 まず、Chat GPTに疲れ切ったおじさんの写真を見せる。で、「このおじさんにカメラを持たせて」と伝えてDALL·E 3用のプロンプトを考えてもらう。 プロンプトをDALL·E 3に読み込ませる。ブラッシュアップさせる。で、こんなイラストが完成する。便利だ。 pic.twitter.com/v11mNcztYR
posted at 16:16:57
RT @Historian_nomad: >雍正帝に比べたら私なんて全然、努力も及ばないし実力も何もかも圧倒的に雍正帝のほうが上なので、 清朝史研究者として言うけど実務能力はともかくゼネラリストとしての知識能力は多分君のほうが現時点で上やで(真顔 news.yahoo.co.jp/articles/22fac…
posted at 16:05:00
RT @itnavi2022: #DALLE3 with #ChatGPT の特徴と面白い使い方 ✅DALLE3の特徴と仕組み ✅ChatGPTとの対話を活用した画像生成 ✅文字の挿入 ✅フラットデザインのイラスト ✅漫画を描く ✅DALLE3の規制 ✅自動小説生成の挿絵挿入 ✅RPGのイメージ画像表示 ⬇️記事を読むには以下をクリック! note.com/it_navi/n/n4bd…
posted at 16:04:43
RT @bob3bob3: 正則化項付き線形回帰(Ridge、LASSO、Elastic net)で真の偏回帰係数を推定できるのか?を実験してみました。 bob3.hatenablog.com/entry/2023/10/… #R言語 #rstatsj
posted at 13:59:48
本当かなぁ。半年後に出願を確認してみればよいか news.mynavi.jp/techplus/artic…
posted at 13:52:48
#DevelopersIO 【Bedrock / Claude】AWSオンリーでRAGを使った生成AIボットを構築してみた【Kendra】 dev.classmethod.jp/articles/imple…
posted at 13:51:37
導入1ヵ月で、35,000行分のコーディング時間を削減 定量面・定性面から評価する「GitHub Copilot」 logmi.jp/tech/articles/… @logmi_techから
posted at 13:51:17
RT @GriffonPocket: CASIO FP-1100で実験してた事を、備忘録的に書いてみた! 試してみたい事がいくつかあるので、サブCPUのμPD7801Gアセンブラは作らないとダメかもなぁ…(にやにや はてなブログに投稿しました #はてなブログ CASIO FP-1100覚え書き! - レトロパソコンであそぼう! pocketgriffon.hatenablog.com/entry/2023/10/…
posted at 13:14:29
RT @GriffonPocket: ChipCard VW-200、ついに単独で起動!(^-^) 今の時代にRP2330(空気亜鉛電池)が手に入らなくて動かす事ができなかった本体。 先日からちょっとずつ実験していたんだけど、ついに動かせたよ! これは…ChipCard所有してる人に朗報じゃない?!(^^) 詳細は明日以降に(今日は寝るw pic.twitter.com/CT8BB4qAtb
posted at 13:07:24
RT @rikoushonotana: 10/6新刊 『乱数』伏見正則(ちくま学芸文庫) 乱数作成の歴史は試行錯誤、悪戦苦闘の歴史でもあった。基礎的理論から実用的な計算法までを記述した「乱数」を体系的に学べる日本で唯一の教科書。 pic.twitter.com/VvNSZwwXhK
posted at 12:45:10
RT @Shahules786: RA-DIT: A very interesting paper from Meta on improving RAG systems using two techniques. Acheives SOTA performance on variety of datasets and tasks including reading comprehension. 1️⃣Finetuning open source LLMs for RAG : this would allow model to attend information in the… twitter.com/i/web/status/1… pic.twitter.com/EFt0sawvIY
posted at 12:44:49
RT @yone: 乾電池で動くUNIX FreeBSD 2.2.5 キタ━! #PocketBSD pic.twitter.com/SOTPojI2S6
posted at 12:43:54
大規模言語モデル(LLM)で独自データセットを評価する|taishi-i zenn.dev/taishii/articl… #zenn
posted at 11:46:40
RT @cwolferesearch: The term (large) language model can refer to many types of models beyond GPT-style, generative language models. Here are the three primary types of language models and the tasks they are best suited for… TL;DR: Three primary types of language models exist, distinguished by the… twitter.com/i/web/status/1… pic.twitter.com/tX5xkCmBZD
posted at 11:44:54
RT @WenhuChen: In the GenAI era, evaluation becomes more critical than ever. The existing metrics BLEU, ROUGE, etc have low human correlation and poor explainability. How can we build an accurate, explainable and generic metric to evaluate generated text for different types of TextGen tasks? twitter.com/IjJLPNspXIsXlk…
posted at 10:46:01
RT @abagames: ChatGPTを自動ゲーム生成器としてしか見てない人からの、間違ったDALL-E 3活用方法のご提案です / htn.to/C9ubC2WjUp
posted at 10:13:42
RT @langstat: 読了。計量的な日本文学研究がアメリカで出版されたことに意義があるのだと思うけど、言及されている文学研究・文体研究の多くは、古典的なもの。 解析手法に関しては、後半に比較的新しい手法も見られるが、大半は古典的なもの。(別に悪いとは言っていない) pic.twitter.com/nr6ET2ceqL
posted at 10:13:15
RT @kunukunu: 全盲で iPhone をばりばり使いこなしている人の記事を思い出した。「白杖を持っているのにスマホを使っている」みたいなの、視野が狭すぎる。 king.mineo.jp/staff_blogs/387
posted at 10:10:40
RT @svlevine: Neural nets extrapolate unpredictably, right? It turns out that for reasonable shifts, extrapolation can be much more structured: neural nets can be made to "hedge" for OOD inputs, reverting to the "optimal constant prediction" (OCS). A thread about our recent paper below: pic.twitter.com/VA9Bu60Pxp
posted at 10:00:16
RT @IjJLPNspXIsXlkN: While neural metrics can correlate well with human annotations on certain text generation tasks, what about the other tasks? Is there an explanation for this score? Can we do this in a reference-free manner? 🔥 Introducing 𝑻𝑰𝑮𝑬𝑹𝑺𝒄𝒐𝒓𝒆! [1/n]🔻 pic.twitter.com/wimDJlHmNO
posted at 09:53:36
RT @7takeuchi7: 一般企業の社員全員と研究者全員とでは意味が異なります。ホテル従業員の全員がシェフでは「ない」ようなものです。高度専門技能者の話をしています。また、企業は一年毎の決算ですが、大学や研究所は数十年単位でしか業績判断ができません。だから、企業内の比喩は成り立たず、近いとしたら、ベンチャ… twitter.com/i/web/status/1… twitter.com/zip_pod/status…
posted at 09:49:06
RT @CStanKonrad: 🎇Introducing LongLLaMA-Code 7B Instruct 🦙!🎇 A step towards an open-source alternative for Claude 2. Run in 🆓 Colab (8bit). 🗨 Answers questions about 📑 papers and >_ code. SOTA 7B reasoning : 🎓 GSM8K: 65% 🐍 PoT 0-shot, 42% std CoT 8-shot setting. >_ 37%: HumanEval pic.twitter.com/K9mMQLkoIy
posted at 09:47:56
RT @kouboguide: 季刊公募ガイド2023年秋号🍁10/6発売! 特集は「公募・創作 生成AIの最前線」。 生成AIはいったい敵なのか? それとも味方なのだろうか? クリエイターやコンテスト主催者、専門家や弁護士など幅広い目線で話を聞きました。 ↓詳しい見どころはこちら koubo.jp/article/20036 pic.twitter.com/NrfH5B2blF
posted at 09:30:51
RT @ai_syacho: 生成AIが既存コード全てを自動修正 「CodePlan」米Microsoftが開発 これまでは ・0→1のプログラム生成 ・プログラムの部分修正 までがサービス提供範囲で、既存コード全てを修正する技術はなかった。 グラフ理論とLLMを併せることで実現した。 www.itmedia.co.jp/news/articles/… pic.twitter.com/rL2IL8SMxQ
posted at 09:21:57
RT @shahdhruv_: We just open-sourced the training and deployment code for ViNT, along with model checkpoints. Try it out on your own robot at github.com/PrieureDeSion/… We will also be doing a live robot demo @corl_conf #CoRL2023 in Atlanta! Come say hi to our robots 🤖 twitter.com/shahdhruv_/sta…
posted at 09:21:40
RT @lmthang: Excited to share FreshLLMs, our work that gives a “fresh” look of LLMs in the context of factuality! Our newly-curated FreshQA benchmark showed that LLMs still struggle on real-time knowledge and false-premise statements. More importantly, our technique FreshPrompt to incorporate… twitter.com/i/web/status/1… pic.twitter.com/BkgUusG8vM
posted at 08:58:45
RT @tuvuumass: 🚨 New @GoogleAI paper: 🤖 LLMs are game-changers, but can they help us navigate a constantly changing world? 🤔 As of now, our work shows that LLMs, no matter their size, struggle when it comes to fast-changing knowledge & false premises. 📰: arxiv.org/abs/2310.03214 👇 pic.twitter.com/1vqSCmnNUe
posted at 08:20:06
RT @AndyJiananZhao: Wonder if LLMs can process graph problems via text? 📢 Presenting GraphText! ✨ GraphText uses a tree to bridge structured data and sequential text, letting LLMs analyze graphs in natural language. 📎Paper: arxiv.org/abs/2310.01089 1/3 pic.twitter.com/YHuFsM2aTZ
posted at 07:54:32
RT @gclue_akira: 1/28 donkey carとAIカエルの共演 pic.twitter.com/4BjlOjOov4
posted at 07:54:05
RT @JieMarinaZhang: The paper "Large Language Models for Software Engineering: Survey and Open Problems" is now on arXiv: arxiv.org/abs/2310.03533 Any comments and suggestions are welcome!! pic.twitter.com/epZYmeWl8C
posted at 07:52:57
RT @Icchi_Team: 「アンラーニング(Unlearning)」に関する論文 大きくまとめると、概念的には重要性は指摘されているものの、あまり整理されていない。例えば、忘却とアンラーニングの違いは?アンラーニングはラーニングの一部?対極?(Ericら, 2008)。… twitter.com/i/web/status/1… pic.twitter.com/JjDcixyxaN
posted at 07:43:48
RT @daiti_m: 来週10/13(金)15:10より、NAISTに行って「データサイエンス特別講義」でHolographic CCGの話をします。(ここから検索: edu-portal.naist.jp/uprx/up/pk/pky…) NLPコロキウムの山木君の発表と同じですが、NLP以外の人が聴かれるのでもう少し丁寧に話すつもりです。折角なので、奈良に泊まって帰る予定です。
posted at 07:43:08
RT @mattshumer_: GPT-4-Vision has a new open-source competitor, LLaVA v1.5. And it's REALLY good. More examples: twitter.com/i/web/status/1… pic.twitter.com/UfxgrC3E2w
posted at 07:14:44
RT @aman_madaan: Sally leaves her marble in a basket, and Anne moves it to a box. GPT-4 can probably tell you that Sally *still* thinks the marble is in the basket. But then things get interesting. Can GPT-4 infer that in this situation, Sally is the person who might need help? Sounds easy… twitter.com/i/web/status/1… twitter.com/peizNLP/status…
posted at 07:03:36
RT @_akhaliq: EcoAssistant: Using LLM Assistant More Affordably and Accurately paper page: huggingface.co/papers/2310.03… Today, users ask Large language models (LLMs) as assistants to answer queries that require external knowledge; they ask about the weather in a specific city, about stock prices,… twitter.com/i/web/status/1… pic.twitter.com/PkaYkimgNT
posted at 07:02:23
RT @jd92wang: (1/4) Your foundation models are not clean since the (black-box) pre-training data are noisy! Check our latest paper *Understanding and Mitigating the Label Noise in Pre-training on Downstream Tasks*. We propose a new research topic: Noisy Model Learning! arxiv.org/abs/2309.17002 pic.twitter.com/27mrblcL0r
posted at 07:02:09
RT @CVpaperChalleng: 「ICCV 2023 速報」のPDFを公開しました! #ICCV #ICCV2023 #ICCV2023速報 hirokatsukataoka.net/temp/presen/23… pic.twitter.com/tk1GCWXv6N
posted at 07:00:02