RT @tks: 年々レベル上がる #Robomaster は、30人以上の部員と数百万JPYの予算前提で手を動かしまくらないと本戦に来れなくなってて、しかも年々更に高度化してるので、国際化は難しそうだなあ 中国人コーチ雇わないと話にならない卓球みたいになってるww #scrambleロボマス視察部 twitter.com/takumi_k_jpn/s…
posted at 22:10:43
RT @AIcia_Solid: これ知りませんでした😮 面白い!🤩 qiita.com/billy_t/items/…
posted at 22:06:02
RT @umiyuki_ai: 教えてもらったけど、Llama. cppにもgrammar-based samplingっていうフォーマット固定法が入ってるらしい。なんか例を見ると、日本語での出力を強制したりしててすごそう →RT
posted at 22:01:38
RT @umiyuki_ai: grammar-based samplingは良さそうだけど、BNF記法ってのがワケワカメなんだけど、ChatGPTにお願いすれば書いてくれるんかなコレ
posted at 22:01:36
RT @gl_odean: 知り合いのめちゃくちゃ論文出す人、ものすごく研究に対する情熱が強いのかと思ってたんだけど、この前飲みの席で「1つの研究テーマへの興味のピークは結果が出た時であって、論文を書く時にはそのテーマに対してほぼ興味がなくなっているので早く片付けたいだけ。」と言っていてとても才能を感じた。
posted at 21:55:47
RT @yuko_kuroki_cs: The 44th Machine Learning Summer School will be held at OIST ( @OISTedu ), Japan!! This is a great opportunity to learn about diverse topics in machine learning and expand your research network. The application site is already open! groups.oist.jp/mlss
posted at 21:42:06
RT @AGIRobots: 今もGPT-4と共にプログラムを開発してるんだが、ある意味では以前より賢くなったのかも。 要点だけ教えるから詳細は自分で考えろスタイルになった感じ。 むしろ人間っぽい? プログラム全体を省略せずに記述するようお願いしても、この関数を用意して作ればよいから、あとは自分で埋めろって言われる。 twitter.com/AGIRobots/stat…
posted at 19:06:11
汗だくになりながら、実家荷物を整理中。惜しいけど読み返さないだろうな
posted at 19:01:53
RT @umiyuki_ai: ジェネレーティブエージェントは想定されてるフォーマットで回答がもらえる前提で設計されてる。ChatGPTのAPIならFunctionCallingで回答フォーマットを固定できるからいいとして、ローカルLLMの場合はどうしたらいいだろう?そこで、LangChainには2つのフォーマット固定の仕組みが存在する。JsonForme… twitter.com/i/web/status/1…
posted at 16:42:30
RT @icoxfog417: 何回か試してみたが、「あなたは、優秀なコンサルタントとしてユーザーの質問に回答してください。」と体感差がある回答は得られなかった。企業固有のデータ量は全体からするとわずかに思えるので、最後の「あなたはユーザーの学び・・・」以外あまり効いていない気もする。 twitter.com/fladdict/statu…
posted at 16:42:11
RT @ichikawakon: 38年前に撮影されたボーイング747SR-46(機体記号:JA8119)。 1985(昭和60)年冬に千歳空港で撮影された写真。 JA8119は日本航空(JAL)123便に使用されていたが、この写真が撮影された年の8月12日に群馬県多野郡上野村の山中ヘ墜落した。 引用元は本ツイートのスレッドを参照してください。 pic.twitter.com/KY0ZrRODNs
posted at 16:34:21
RT @shriver_light: #111論文等共有 615 arxiv.org/pdf/2304.12210… [arXiv’23] 自己教師あり学習の入門やノウハウの整理にピッタリ。モデルだけでなく実験上役立つテクニックなどもまとまっている。 pic.twitter.com/sVKYlFAVF0
posted at 16:32:50
RT @UtopianF: LK-99合成歴2週間の職人のアドバイス下で合成した自家製Pb10-xCux(PO4)6Oの標本も頒布します。1500円。 不純物量は少し多くなりますがガラス管壁上のものをピックアップしたので、硫黄量が少なくても運搬中に崩れにくいです。#評論情報系同人誌告知 #C102 twitter.com/UtopianF/statu… pic.twitter.com/3H9ThjP4Rv
posted at 16:32:33
RT @ai_database: 「リアルタイム映像」から未知オブジェクトを検出・追跡する手法が登場 ○ Alaa Maalouf et al. Follow Anything: Open-set detection, tracking, and following in real-time MITとハーバードの研究者らは、リアルタイムであらゆるオブジェクトを追跡する新しいロボットシステムを開発しました。… twitter.com/i/web/status/1… pic.twitter.com/xPENKpnxtH
posted at 15:11:21
表面的な言語の使い方と、深い(ように見える)使い方方にはまだまだギャップがあるということ?そこは言語によらないマルチタスク学習のほうがよいのかな
posted at 15:10:06
RT @ai_database: メタ認知をさせてLLMの認知能力を上げる手法"メタ認知プロンプティング(MP)"が発表されました。 ○ Yuqing Wang et al. Metacognitive Prompting Improves Understanding in Large Language Models… twitter.com/i/web/status/1… pic.twitter.com/NG3OvbQqkv
posted at 15:08:24
RT @ikuyamada: 最近のLuceneはtransformers(の埋め込み)を良い感じに扱えるようになってきている(近似近傍探索がHNSWでできるようになった)し、ベクトル検索用の新しい実装をわざわざ使わなくても、LuceneやElastic Stack(ELK)のままでいいんじゃない、という話。 伝統的な検索とあわせた性能向上もやりやすい twitter.com/lintool/status…
posted at 15:08:09
RT @itnavi2022: 日本語特化型言語モデルのJapanese StableLM Alphaをテストしてみた 結論:他のオープンソースモデルよりも自然な日本語の受け答えができるが、論理的思考力、情報の正確性、表現力等の点でGPT-3.5には適いません。微調整して専門分野に特化した利用が有効です。 #StableLM note.com/it_navi/n/n5eb…
posted at 15:07:33
RT @Luke_629: 衝撃。現在のうつ病治療の基盤データとなっていると言っても過言ではないSTARDのアウトカム評価と解析がプロトコール通り行われておらず、再解析したところ、結果が半減したという報告。 twitter.com/luke_629/statu…
posted at 15:06:55
RT @hshimodaira: 2023年度統計関連学会連合大会/チュートリアセッションでは東工大の岡崎直観先生が言語モデルを詳しく解説してくださります.チュートリアルはオンライン参加可能です. 言語モデルと自然言語処理のフロンティア confit.atlas.jp/guide/event/jf… twitter.com/hshimodaira/st… pic.twitter.com/TKngYahQ87
posted at 12:09:30
RT @ichikawakon: 墜落の約8分前の日本航空(JAL)123便。 1985(昭和60)年8月12日に、東京都奥多摩町で山崎啓一氏が撮影した写真。 JAL123便は、1985年8月12日18時56分に群馬県多野郡上野村の山中ヘ墜落した。この写真は、事故直前のJAL123便を唯一撮影した写真で、オリジナルのフィルムから8K化されたもの。 pic.twitter.com/7jOmckoEbU
posted at 12:08:04
RT @kyon_mm: まぢか!!!! 【サービス復活】年25,000円でACM会員になればO'Reilly本が読み放題になる!! qiita.com/kabuakantech/i… #Qiita @kabuakantechより
posted at 12:05:58
RT @matsuu: これは操作手順書の作成が捗るな。SIerが泣いて喜ぶやつだ。 / “【全録】Microsoft Edgeに閲覧したすべてのページのスクリーンショットを保存する機能が追加へ | ソフトアンテナ” htn.to/4aCfhTPdsJ
posted at 12:05:48
RT @kazunori_279: LangChain, Vertex AI PaLM API, Embeddings API, Matching EngineでつくるRAGの詳細を解説。 #gcpja cloud.google.com/blog/products/…
posted at 10:18:40
RT @goto_yuta_: モデルが学習する時にいつ「記憶」が「汎化」に切り替わるかを分析してる話。 分かりやすい話で言うと、weight decayが小さすぎると過学習に寄って行き、そこから大きくすると学習データとテストデータの損失が近づいて汎化、大きすぎると何も学習しなくなる、みたいな話をしてる↓ pic.twitter.com/trsfgQHXp0
posted at 10:14:37
RT @goto_yuta_: 日本最初の音声合成についての動画おもろい。 もちろんニューラルネットワークなんて1mmも使われていない。 www.youtube.com/watch?v=uXLkQM… pic.twitter.com/P1OX6eHZbC
posted at 10:14:16
RT @npaka123: DPO による Llama 2 のファインチューニング|npaka @npaka123 #note note.com/npaka/n/nfe739…
posted at 09:55:12
RT @iBotamon: 3日前のJournal of Digital Imagingより: AIを適切に使うために,将来的には多くの放射線科医はAIの原理や特性を学ぶ必要があり,その体制や教育プログラムについても提唱した論文 たしかに私達はCTやMRIの撮像原理も勉強しますし,それと同じと考えれば理に叶っています link.springer.com/article/10.100…
posted at 09:54:35
RT @_stakaya: エージェントとしてのLLMの推論・意思決定能力を評価するための環境提案と、実際に25LLMを8環境で評価した結果の論文。結論、GPT-4が強い(論文より図引用)。環境は「シェル/DB操作、デジタルカードゲーム、Web閲覧」等、多岐に渡る AgentBench: Evaluating LLMs as Agents arxiv.org/abs/2308.03688 pic.twitter.com/mOtc0sYUip
posted at 08:27:01
RT @maximelabonne: nanoLoRA: A Minimalistic Implementation of Low-Rank Adaptation Working LoRA module with dense layers. I used it with a GPT-2 model in the following notebook (+ additional explanations). 💻 Notebook: colab.research.google.com/drive/1QG1ONI3… pic.twitter.com/AWFq58UBb0
posted at 08:26:51
RT @priyanka_17: We are excited to release QAmeleon dataset, a multilingual QA dataset with 47,000+ LLM-generated QA pairs in 8 languages! github.com/google-researc… Training multilingual QA models with this bridges ~60% of the gap between an En-only baseline and a fully-supervised upper bound.
posted at 08:24:44
RT @_stakaya: "モデルが生成したデータでモデルを学習"で世代を重ねていくとどうなるのか?に答えた論文。結論、各世代に十分な実データがなければ精度が低下とのこと。モデル構造基因(仮説)の紋様が世代を経て増幅される様子が観察される(図引用) Self-Consuming Generative Models Go MAD arxiv.org/abs/2307.01850 pic.twitter.com/Q1fANHcw1V
posted at 05:59:20
RT @umiyuki_ai: ジェネレーティブエージェント、API代払いたくね~からローカルのLLMで動かしたいな~と思うけど、みんな同じこと考えてるらしく、イシューとかでリアルタイムであーだこーだ論じられてるから様子見して寝かしといたらできるようになりそうだな github.com/joonspk-resear…
posted at 05:55:17
RT @LangChainAI: 🦜⚒️Evaluating Q&A Systems with Dynamic Data 🔄 Evaluating Q&A systems with changing data can be challenging. We made a recipe on how to use indirection to make sure your labels are up to date. 1/4 Here's a quick overview: pic.twitter.com/mCvAa6SvZa
posted at 05:55:09
RT @omarsar0: LLMs as Database Administrators Data is growing and DBs are growing. There are a lot of potential ways to automate the tasks of data administration using LLMs. This paper presents D-Bot, a framework based on LLMs that continuously acquires database maintenance experience… twitter.com/i/web/status/1… pic.twitter.com/XBXyJJxnpN
posted at 05:54:38
RT @rasbt: The NeurIPS 2023 LLM Efficiency Challenge is a super exciting opportunity for developing & benchmarking new research directions for param-efficient LLMs. If you are looking for something to tinker with this weekend, I just put together a Starter Guide: lightning.ai/pages/communit… twitter.com/i/web/status/1… pic.twitter.com/u0ELU0gn69 twitter.com/LightningAI/st…
posted at 05:53:55
RT @kazunori_279: なんか聞いたことあるタイトルだなと思ったら先週やった自分のセッションだった。VLMとベクトル検索によるマルチモーダル検索の話。要登録。 twitter.com/googlecloudtec…
posted at 05:26:05
RT @omarsar0: Create Your Own Custom LLM Chatbot Impressive step-by-step tutorial explaining how to choose the best LLM and the components needed for building your own custom LLM-powered chatbot. @abacusai offers one of the best solutions that I've used to quickly build custom LLM chatbots.… twitter.com/i/web/status/1… pic.twitter.com/efzy9AHz5c
posted at 05:25:53
RT @npaka123: 【ローカルLLM】ネガティブ・プロンプトがtext-generation-webUIに実装される|Baku #note note.com/bakushu/n/n7ee…
posted at 05:24:43