8月19日のツイート
RT @mi141: 9月に大阪で開催されるFIT2023のイベント企画で講演します! 拡散モデルの話なんですが、基礎よりもV&L応用に特化して様々な技術を紹介する予定です。「とりあえずCLIPがあればなんとかなるんでしょ」とか信じている人にはたぶん面白いと思います。 onsite.gakkai-web.net/fit2023/abstra…...
View Article8月20日のツイート
RT @npaka123: DRLX による Stable Diffusion の RLHF を試す|npaka @npaka123 #note note.com/npaka/n/nb78f0… posted at 18:03:14 RT @kyuukanba: 日本一有名な悪の組織の物語(1/18) pic.twitter.com/Gzm08tOgYq posted at 18:02:45 RT...
View Article8月21日のツイート
RT @ai_database: 既存のキャラクターの性格をLLMに模倣させることに特化したフレームワーク「チャットハルヒ」が登場しました。香港企業SenseTimeなどの研究者による開発です。 ○ Cheng Li et al. ChatHaruhi: Reviving Anime Character in Reality via Large Language Model...
View Article8月22日のツイート
RT @npaka123: Google ColabでPaLM2を試す。モデルのダウンロードとかないのですぐ動いた。 pic.twitter.com/CBH6VWFPTh posted at 16:35:53 RT @zakelfassi: Here’s an alt/𝛂 take: what if this is Google’s ChatGPT moment, and behind the...
View Article8月23日のツイート
RT @omarsar0: Introducing Giraffe - New Long Context LLMs Giraffe is a new family of models that are fine-tuned on Llama and Llama 2. Giraffe extends context length, including include 4K, 16K, and 32K...
View Article8月24日のツイート
RecursiveCharacterTextSplitter と SimpleNodeParser を組み合わせる記事があるが、pydantic validation errorが出る。 posted at 14:43:49 RT @sei_shinagawa:...
View Article8月25日のツイート
RT @chikumashobo: 【筑摩書房 近刊情報9/1発売】トーマス・S・マラニー/クリストファー・レア著 安原和見訳『リサーチのはじめかた ―「きみの問い」を見つけ、育て、伝える方法』 スタンフォード大教授らが18年かけて磨きあげたリサーチの極意、待望の翻訳。何度でも使える一生モノのリサーチガイド。読書猿氏推薦! pic.twitter.com/pRPAKKZOt7 posted at...
View Article8月26日のツイート
RT @DrJimFan: Pioneer of reinforcement learning, Richard Sutton, once said that "the two most powerful methods that seem to scale arbitrarily are search and learning". LLM is learning. Systematic,...
View Article8月27日のツイート
ragasっての、中身読んでおこう posted at 00:34:10 RT @omarsar0: A Survey on LLM-based Autonomous Agents Nice paper presenting a comprehensive survey of LLM-based autonomous agents. It delivers a systematic review...
View Article8月28日のツイート
RT @hiroshima_pot: 対訳文を100文チェックする必要があり、GPT-4に10文ずつ見てもらって全部問題ないというコメントをもらった後に自分で確認すると3文にちょっとした問題があった。その3文について個別にGPT-4に意見を聞くと、ぼくが気づいた問題点をそれぞれ正しく指摘してきた。こいつ…。 posted at 23:59:16 RT @nhk_meicho: 📺来月放送!...
View Article8月29日のツイート
RT @itnavi2022: ELYZAの評価用データセットは素晴らしいと思います。一方で、これは日本語運用能力の評価であって、日本に関する知識の評価はほとんど入っていません。 僕も自分で評価用データセットを作ろうとしていたところなので、時間のある方ほテストに使ってみてください。当然ですが、GPT-4は満点が取れます。 twitter.com/elyza_inc/stat…...
View Article8月30日のツイート
RT @shriver_light: #111論文等共有 1144 aclanthology.org/2023.acl-long.… [ACL'23] Noiseの多い弱ラベルでnamed entity recognition。既存手法は課題評価されており実際にはclean...
View Article8月31日のツイート
RT @paulabartabajo_: Everyone is talking about LLM and fine-tuning... ...but no one is telling you how to pre-process your data. In this article, I share the secret sauce to make LLMs work for YOUR...
View Article9月2日のツイート
RT @cosminnegruseri: 1/ Awesome talk on LLM history by @lukaszkaiser at #edgeintelligencesummit. My takeaways: Transformers with Chain of Thought are Turing Complete !?! arxiv.org/abs/2303.14310...
View Article9月3日のツイート
RT @gclue_akira: OpenDriveLabがDriveLM公開らしい。Transformer系自動運転ネタはOpenDriveLabがほんと元気あるなぁ twitter.com/inoichan/statu… posted at 17:29:25 RT @kawaushi: 視覚障害者と晴眼者のボランティアをつなぐマッチングアプリ「be my...
View Article9月4日のツイート
RT @fam_taro: 個人の経験内の話をすると classification に比べて画像の異常検知の論文スコアの信用度低いんよな…タスクやドメイン(データセット)依存が強いという感じ 例えば PatchCore の場合 imagenet pretrained weight から feature 取ってくるのでそもそも異常検知したいデータセットと imagenet…...
View Article9月5日のツイート
関連する #2996 のgrammar supportが気になっている twitter.com/npaka123/statu… posted at 23:22:14 RT @npaka123: 【ローカルLLM】llama.cppの「投機的サンプリング」を試す|Baku #note note.com/bakushu/n/n52c… posted at 23:17:51...
View Article9月6日のツイート
記憶の研磨、記憶の研出 posted at 22:27:36 RT @YayaSoumah: @swyx @AlecRad @OpenAI Actually you can find this on him, I think the only long content: youtu.be/BnpB3GrpsfM?si… posted at 22:18:53 RT @swyx: IMO the...
View Article9月7日のツイート
RT @Yampeleg: The world's largest and most powerful open model is here. Falcon - 180B By UAE's Technology Innovation Institute 180 Billion parameters. 3.5 Trillion tokens. --- - Blog:...
View Article