RT @gotshu: この動画(podcast)の23:25あたりで、水野さんが「ある言語学者が上手いこと言っていて、“言語とは軍隊を持った方言である”」と言っているのだけど、たぶん元ネタは田中克彦『ことばと国家』5章の扉(p. 107)にあるエピグラフ。 youtu.be/DMUs16pYVaQ?si… pic.twitter.com/6PNOCkEEpS
posted at 23:07:42
RT @wdpress: 技術評論社発行のWEB+DB PRESS Vol.1~136までの記事を一覧にしたGoogleスプレッドシートを公開します。 2024年春発売予定の総集編や過去記事を閲覧する際の参照用にご利用ください。 docs.google.com/spreadsheets/d… 注意事項はGoogleスプレッドシートの「注意事項」のシートにまとめています。 #wdpress
posted at 22:48:36
RT @syoyo: LLM 向け日本語データセットの整備メモ をいくらか更新しました. RefinedWeb 参考に, だいたいいろいろカバーできたでしょうか... 🥺 残るは文章結合(... で別れている文章をくっつけるとか)などカナ. 形態素解析などで頑張る感じになるでしょうか... zenn.dev/syoyo/articles…
posted at 22:01:27
RT @ai_database: 算術タスクでGPT-4を圧倒的に上回る大規模言語モデルが『MathGLM』登場しました。 特別に作成したドリル(データセット)とステップ・バイ・ステップ戦略が功を奏したとのことです。 ○ Zhen Yang et al. GPT Can Solve Mathematical Problems Without a Calculator… twitter.com/i/web/status/1… pic.twitter.com/Vi1VLRQyG8
posted at 21:56:56
RT @rasbt: Regarding "- A model before RLHF. - A model after RLHF. What is the difference?" RLHF > Supervised finetuning in terms of helpfulness and safety. twitter.com/Yampeleg/statu… pic.twitter.com/AAaHj7kfv2
posted at 21:48:29
RT @ymg_aq: ちなみに回転寿司の看板だと「寿司屋です」と認識してくれるようです。日本語のOCRタスクは学習していないはずなのですが、EVA-CLIPに含まれる日本の画像と日本語LLMがうまくリンクしているのでは?と社内では話しています twitter.com/ymg_aq/status/… pic.twitter.com/6sC4QWDDe6
posted at 20:08:37
RT @futsaludy: Knowledge distillation is a promising technique to incorporate LLM's knowledge into E2E ASR systems. In this study, we explore transferring multiple, diverse representations of LLM and verify its effectiveness. Paper submitted to ICASSP 2024! arxiv.org/abs/2309.04031
posted at 20:07:37
RT @elizabeth_munh: 1966年7月22日。縦二列のエンジン配置の超音速機、ライトニング戦闘機が尾部から轟々と噴射炎を発しつつ、滑走路を猛然と走る。キャノピーはなく、搭乗者はノーヘルで、そもそも戦闘機パイロットではなかった。 生涯最長の12分が始まる。 pic.twitter.com/ljf6cTp1lG
posted at 19:54:49
Open Interpreter、GPT-4だとガンガンお金を食っていくなあ。
posted at 19:28:49
RT @data_sos: データが消えてしまったので調べてほしい、と持ち込まれた256GBのUSBメモリ。どうも挙動がおかしいので詳しく調べると容量偽装品。本当は64GBの容量しかなく、それを超えると前のデータを消すという極悪仕様。 pic.twitter.com/lwodr6JeKN
posted at 19:24:44
"Heron" って大文字から始まるから、蒸気タービンのヘロンかと勝手に思っていた。 ja.wikipedia.org/wiki/%E3%82%A2…
posted at 19:24:37
いいことを聴いたが内容をまだ把握していない。 www.reddit.com/r/LocalLLaMA/c…
posted at 19:21:15
RT @sea_movies: @conte_kun 以前は"Lux Super Rich"のCMをモノマネしてると両方の発音が身につくってよく聞きました…🫧
posted at 18:13:36
RT @ai_database: AIが見た目に対する物理的感覚を獲得。「変形しにくい容器はどっち?」などに正確に回答 aiboom.net/archives/55038 本研究には質感を感じる現象への好奇の声、新世代ロボットを期待する声等が多く寄せられています。 実験結果の抜粋やアフォーダンス理論との関連性などを説明する記事を公開しました。
posted at 18:11:58
発送通知がきた。楽しみ。 twitter.com/ratuta/status/…
posted at 18:08:23
RT @hir_kurashige: Algonauts2023という自然画像刺激へのfMRI応答予測コンペのwinnerモデルの研究 特徴はencoding modelに32時点前(32個前)までの画像の記憶を含めているところ ゆえにMemory Encoding Modelという名前 記憶部は「各時点MLP→全時点圧縮用MLP」の構成で、RNNは使っていない 視覚野外の予測性能に優れる twitter.com/HuzeYann/statu…
posted at 13:51:04
RT @ArthurCamara: Llamaindex is nice. But this mini-thread show exactly what the main issue with (most) modern “RAG” frameworks. The ignorance of the whole RETRIEVAL part of RAG. These are NOT new problems. In fact, they have been discussed for decades in, well, Information Retrieval. twitter.com/llama_index/st…
posted at 12:00:48
RT @ai_database: 「GPTの書いた文章」と「人間の書いた文章」、信頼されやすいのはどっち? 実験の結果、(今のところ)差はないことが判明しました。研究者らはメディアリテラシーの強化を推奨しています。 ○ Martin Huschens et al. Do You Trust ChatGPT? -- Perceived Credibility of Human and AI-Generated… twitter.com/i/web/status/1… pic.twitter.com/re76Dv8Znc
posted at 11:21:54
RT @_akhaliq: From Sparse to Dense: GPT-4 Summarization with Chain of Density Prompting paper page: huggingface.co/papers/2309.04… Selecting the ``right'' amount of information to include in a summary is a difficult task. A good summary should be detailed and entity-centric without being overly… twitter.com/i/web/status/1… pic.twitter.com/YntNmcZpzR
posted at 11:19:49
RT @johnjnay: Cognitive Architectures for LLM Agents -LLMs manage agents' internal states via learning & reasoning -Internal vs external: boundary btwn agent & env? -Learning vs acting: how should agent continuously learn? -LLMs vs code: where should agents rely? arxiv.org/abs/2309.02427 twitter.com/i/web/status/1… pic.twitter.com/6TXqeUddpc
posted at 08:37:44