Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

2月5日のツイート

$
0
0

RT @hAru_mAki_ch: PokeLLMonのリポジトリ見たけど ドキュメント無いけど正直もう動きそう どこかで動かしてみるか!! github.com/git-disl/PokeL… twitter.com/_akhaliq/statu… pic.twitter.com/oO8A9M4gyc

posted at 21:15:54

RT @ai_database: Metaなどの研究者らが、LLMが自分自身に報酬を与える「自己報酬言語モデル」を開発 ai-data-base.com/archives/62797 同社のオープンソースモデルLlama-2に適用した結果、Gemini ProやGPT-4などを凌駕する場面も。 記事ではフレームワークと実験結果、また注意点を紹介します。 twitter.com/i/web/status/1…

posted at 20:56:42

RT @uchujin17: 某氏と「なんだこれ」と頭を掻いていた物体。ドイツの無線誘導爆弾フリッツXは知っていても、その制御システムを間近に見るのは初めてでした。今のマーベリックとかペイブウエイみたいな動翼制御じゃないんですね。(前部にX型・後部に十型で付いている安定翼はどれも動きません) pic.twitter.com/8eEP3xpcBH

posted at 20:31:07

RT @yoko_materialDX: 機械学習により偏微分方程式を解く論文。 従来のニューラル演算子は1つの支配方程式しか解けなかったのに対し、システム間の類似度評価を工夫した対照学習により、複数の支配方程式の系にも適用できたそうです。 機械学習が複雑系にも対応しつつある。 arxiv.org/abs/2401.16327 pic.twitter.com/r591ZWkAio

posted at 20:06:44

RT @iznaiy_emjawak: 文献管理ツールはゼッタイPaperpile、MendeleyとかEndNote使ってる研究者はPaperpile使うと次元の違いにぶったまげるぞ(というか他社が使いづらすぎ)。”全研究者Paperpileユーザー化計画”を推進する私が、Paperpileの素晴らしさと使い方を徹底解説してしんぜよう。まず… 【いくらなの?】… twitter.com/i/web/status/1… pic.twitter.com/935n6GGZeG

posted at 20:06:11

RT @webbigdata: DPO(Direct Preference Optimization)は「望ましい出力」と「望ましくない出力」を併記したデータセットを使ってモデルを学習させる手法 同様な事をする従来手法(人間のフィードバックを使った強化学習 (RLHF))は、 ・モデルの出力が良いか悪いかを人間がラベル付けしてデータセットを作る… twitter.com/i/web/status/1… pic.twitter.com/QMEL26sMku

posted at 20:05:58

RT @aoshun7: 今日の論文。ポケモンバトルじゃん!と思って読んだらガチでポケモンバトルをLLMでやります論文だった。 むっちゃ強い敵にぶつかると探索的にポケモン交代しまくるパニックを起こす(panic switchingと呼んでる)らしく統計取ってConsistent Action Generationで勝率上げたり、… twitter.com/i/web/status/1… pic.twitter.com/tBXP5w5Iri

posted at 19:32:51

去年楽しんだのに、今年もあるとは気づかなかった。残念 twitter.com/YOXOFESTIVAL/s…

posted at 19:32:32

RT @btreetaiji: Transformerによるin-context learningにおいて非線形特徴量を勾配法で学習できることを示した論文です (修士学生Kim君主著). Attention層の前にNNによる非線形特徴抽出層を入れたモデルを平均場ランジュバン動力学で学習できることを示していて,非凸損失の鞍点を抜ける方策も提案しています. twitter.com/StatMLPapers/s…

posted at 19:16:57

RT @_akhaliq: K-Level Reasoning with Large Language Models paper page: huggingface.co/papers/2402.01… While Large Language Models (LLMs) have demonstrated their proficiency in complex reasoning tasks, their performance in dynamic, interactive, and competitive scenarios - such as business strategy… twitter.com/i/web/status/1… pic.twitter.com/UEvXr9RaDY

posted at 18:12:59

RT @kenmcalinn: これは明確に間違いで、科学史/哲学でも現代科学でもこの論法は未知を予測する範囲内で受け入れられてきたし、正当化できる。問題は対照群の有無じゃなくて本当に(未知の)予測になってるか。 twitter.com/takua_scientis…

posted at 14:12:37

RT @_akhaliq: TravelPlanner A Benchmark for Real-World Planning with Language Agents paper page: huggingface.co/papers/2402.01… Planning has been part of the core pursuit for artificial intelligence since its conception, but earlier AI agents mostly focused on constrained settings because many of… twitter.com/i/web/status/1… pic.twitter.com/IsKC6IDwJ5

posted at 13:41:35

RT @_akhaliq: Repeat After Me Transformers are Better than State Space Models at Copying paper page: huggingface.co/papers/2402.01… Transformers are the dominant architecture for sequence modeling, but there is growing interest in models that use a fixed-size latent state that does not depend on… twitter.com/i/web/status/1… pic.twitter.com/2qV9OsQrS4

posted at 13:39:26

RT @kizuki_jpn: ここまで正論でボコボコに殴ってくるアプリレビューもなかなかない pic.twitter.com/bgyDGQW4bl

posted at 13:37:55

RT @_akhaliq: Apple presents Specialized Language Models with Cheap Inference from Limited Domain Data paper page: huggingface.co/papers/2402.01… Large language models have emerged as a versatile tool but are challenging to apply to tasks lacking large inference budgets and large in-domain training… twitter.com/i/web/status/1… pic.twitter.com/FyC8fWzaLD

posted at 13:14:34

RT @ai_database: Unifying Large Language Models and Knowledge Graphs: A Roadmap doi.org/10.48550/arXiv… 著者:Shirui Pan, Linhao Luo, Yufei Wang, Chen Chen, Jiapu Wang, Xindong Wu 機関:(IEEE Fellows,)Griffith University, Monash University, Nanyang Technological University, Beijing University… twitter.com/i/web/status/1…

posted at 12:32:24

RT @ai_database: LLMと知識グラフを併せて使用するためのロードマップがまとめられています。 「知識グラフでLLMを強化する」および「LLMで知識グラフを拡張する」どちらも複数のアプローチが存在すると述べられています。 "Unifying Large Language Models and Knowledge Graphs: A Roadmap"より ■知識グラフとは… twitter.com/i/web/status/1… pic.twitter.com/yhWv09BHk7

posted at 12:31:48

RT @Saki_reset: ペーパーテストが上手な人は、勉強時間を「固定時間」と「変動時間」に「固変分解」して、勉強戦略を立てているという話。 twitter.com/i/web/status/1… pic.twitter.com/we2a3PgeNg

posted at 11:19:08

RT @virattt: Query Rewriting Cost Comparison Recently, I compared speeds of four models at query rewriting. Today, I added $ cost comparison to my experiments. Four models were used: • cohere command • gpt-3.5 turbo • gpt-4 turbo • mistral-medium My methodology was simple. For each… twitter.com/i/web/status/1… pic.twitter.com/XPbZMUhSH1

posted at 10:48:06

RT @_stakaya: Googleから時系列予測のための基盤モデル(二億パラメータ、1000億データ点で学習)が出た模様。ゼロショットでの使用想定なのでベースラインとして使うと便利そう。 A decoder-only foundation model for time-series forecasting blog.research.google/2024/02/a-deco…

posted at 10:27:11

RT @sla: 時系列データの基盤モデル by Google、いろんな時系列予測をゼロショットで実現。Fine-tuning無しでもSoTAに近いベンチマーク性能。商用サービス出てくるまで試せないのは残念だけど、この方向性は期待しか無い。 twitter.com/GoogleAI/statu…

posted at 10:27:03

RT @YYama0: 大規模モデル時代のdata augmentationのサーベイ A Survey on Data Augmentation in Large Model Era arxiv.org/abs/2401.15422

posted at 10:26:55

RT @tuanacelik: It's been a while! But I'm back on @huggingface spaces. I present to you, Hacker News summaries 🧡 This space uses Mixtral-8x7B-Instruct-v0.1 by @MistralAI using Hugging Face TGI. Go ahead and get summaries of the current top Hacker News posts 🫶 Next, I'll add the option to… twitter.com/i/web/status/1… pic.twitter.com/iVQ08aoXrA

posted at 10:20:40

RT @tuanacelik: Had a great time introducing everyone to @Haystack_AI at #fosdem today. I showed a demo we built together with the community which produces summaries for Hacker News posts. You can find my slides, the code, and all resources on the talk page 👇 fosdem.org/2024/schedule/… pic.twitter.com/4RsSLRRk0f

posted at 09:56:53

RT @hokazuya: すんごいの来た⚡️ 画像生成AIがプロンプトを受け取って行なってるステップを明示的に何をどうする、のような形でフロー形式で指示しとる。 pic.twitter.com/ncHnHcSUcS コード不要の AI 画像生成および分析ワークフロー プラットフォーム ドラッグ アンド ドロップ… twitter.com/i/web/status/1…

posted at 09:55:01

RT @Maxwell_110: 📦 github.com/vitoplantamura… OnnxStream は Attention Slicing と量子化等を駆使することで, OnnxRuntime で要する RAM の 1/50 程度で推論が可能なライブラリ 例えば,512MB RAM しかない Raspberry Pi Zero 2 (www.raspberrypi.com/products/raspb…) で,Stable Diffusion や Mistral 7B 等の推論が可能となる pic.twitter.com/LBxFauNmPw

posted at 08:58:52

RT @llama_index: Optimizing Embeddings for Multilingual RAG 🇫🇷🇮🇹 There’s been a lot of new embedding models, but most models/benchmarks (MTEB) are optimized for English. This is a great article by Iulia Brezeanu in @TDataScience that shows you how to pick the right embedding model for a… twitter.com/i/web/status/1… pic.twitter.com/E3ukfclIDa

posted at 08:54:31

RT @kazunori_279: ところでEmbeddings for Textに新しいオプションが追加されたと中井先生が教えてくれた。Q&A用、分類用、クラスタリング用、類似検索用のembを取れる。Q&A用はtwo-tower modelを自前で作らずに検索品質が上がるのでRAGによさそう。そのうち試してブログ書きたい。 cloud.google.com/vertex-ai/docs… pic.twitter.com/kN0cCd7Pnj

posted at 08:50:37

RT @LangChainAI: 🔦Lumos: A RAG LLM co-pilot for browsing the web, powered by local LLMs Use Cases 🧵Summarize long threads 📰Summarize news articles ❓Ask questions about pages Awesome stuff by @andrewnguonly Repo: github.com/andrewnguonly/… pic.twitter.com/w4uyfLhoeQ

posted at 08:15:07

RT @kanhatakeyama: 自分の専門文章の経験だと、 無関係な文章が増えると 検索の難易度が上がり、そもそも欲しい文章にたどり着けなくなるケースが大半でした twitter.com/ai_database/st…

posted at 08:12:57

RT @shao1555: 電子レシートのJSONデータ、マジでレシートすぎて乾いた笑いがこみ上げる。 pic.twitter.com/W69CyxhQNy

posted at 08:10:12

RT @nishio: 使ってみればすぐわかることだし、何がCursorでしかできなくて何がGithub Copilotでもできることなのか知らないので「Cursorでこんなことができる!」という投稿はしてなかったんだが、先日のエンジニア飲み会で話した相手がCursor自体を知らなかったので投稿してみようと思う

posted at 08:09:37

RT @kaityo256: 卒論発表での審査員からの質問は、あくまで「その研究を『自分の研究』として主体的にやってきたか?」を問うのが目的であって、「先生が事前に用意している答えを質問や表情から推定して答える」ゲームではありません。ちゃんと研究をやってきたなら、自分の言葉で自信をもって堂々と答えてください。

posted at 08:09:34


Viewing all articles
Browse latest Browse all 2923

Trending Articles