JAXA調布ほか、全4研究所の一般公開の抽選には外れていた。今頃確認した。
posted at 23:24:06
#DevelopersIO ChatGPTで独自データを利用できるLlamaIndexはどんな仕組みで動いているのか?調べてみました dev.classmethod.jp/articles/llama…
posted at 23:06:21
#DevelopersIO LlamaIndexを使ってAWS CDKの記事200本以上でインデックスを作りOpenAIに質問してみた dev.classmethod.jp/articles/llama…
posted at 17:45:17
RT @shanegJP: 少し自己紹介。 現在: OpenAIではChatGPT開発チームで強化学習周りのアルゴリズムやインフラを書くサブチームを率いています。3ヶ月前に入社し、下に現在二人見ており、もう二人にオファーを出した所です。皆結構有名人。一応開発マネージャーですが、私も基本的にコードを書くだけです。続く…
posted at 14:53:40
RT @ML_deep: 横河電機から発表された化学プラント制御に世界初実機導入のFKDPPという手法、勉強してみよう。 モデルベース強化学習だから基本的にMDPを同定して最適制御の枠組みでどう解くかという話だと思うのですが、強化学習という言葉で売り出されるのが潮流になっていくのですかね。
posted at 13:20:30
RT @izumisatoshi05: LLM人狼にVOICEVOXで声をのせたらパーティーゲーム感が一気に出てきて凄く面白くなった。 一人ひとりが別のGPT3.5で、人間のプレイヤーと同じ情報を与えられて必死にCoTで推論してる。 ただ、GPT4でやっても役職を騙ってくれないので、もう一歩頑張りたいところ。 pic.twitter.com/6uhZIp61jx
posted at 13:17:57
RT @tuktoe: yann lecun先生の「自律的機械知能への道」の論文が面白い。openreview.net/pdf?id=BZ5a1r-… 「LLM(ChatGPT等)は根底にある現実でのダイレクトな経験をしていないため、彼らの持つ常識は浅く、現実から乖離し得る。」とのこと。 (1/n) twitter.com/raphaelmillier… pic.twitter.com/jWwvsrtiKk
posted at 13:16:17
RT @_akhaliq: HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace abs: arxiv.org/abs/2303.17580 pic.twitter.com/TZVyEiBRnI
posted at 13:08:00
RT @nkmry_: HuggingFace の機械学習コミュニティが開発する様々なAIモデルを、ChatGPT によって管理・連携して複雑なAIタスクを解決するシステムを提案 HuggingFace には多様なモダリティで多様なドメインの膨大なモデルがあるから、これらを活用できるのは強い! twitter.com/_akhaliq/statu…
posted at 13:07:50
RT @hayashiyus: ニューラルネットの各層毎の表現がもつ固有次元を調べてみると,層が深くなっていくにつれて一般に固有次元は小さくなっていく傾向がある Intrinsic Dimension of Data Representations in Deep Neural Networks (Ansuini et.al, 2019) jmlr.org/papers/v23/20-…… twitter.com/i/web/status/1… pic.twitter.com/ahcBjvLcta
posted at 12:36:20
RT @tanichu: 記号創発ロボティクス/認知発達ロボティクスからの流れで言ってきたことと完全一致しはじめているなぁ。まだ流石にLanguageの社会的な形成と個体の認知の依存性のようなところまでは話が来ていないものの。 twitter.com/tuktoe/status/…
posted at 12:07:32
RT @BioDr_Goro: 研究室で大事な3つのこと ①研究テーマは2つ並行して進めること ②アイディアは3つまで考え出すこと ③研究以外で心の拠り所を持つこと ①と②はリスクマネジメント、③はメンタルコントロールに繋がる。 首もげるくらい良いこと書いてあるので読んでほしい。 note.com/hidenoritanila…
posted at 12:07:24
RT @arankomatsuzaki: BloombergGPT: A Large Language Model for Finance Presents BloombergGPT, a 50 billion parameter language model that is trained on a wide range of financial data. arxiv.org/abs/2303.17564 pic.twitter.com/hxsXJuS649
posted at 12:06:30
RT @labmlai: We are open sourcing GeoV-9b, a 9 billion parameter causal language model designed and trained by @gharik 🖥 Code (apache 2.0): github.com/geov-ai/geov 📀 Model weights (bigscience-openrail-m): huggingface.co/GeoV/GeoV-9b 📗 Google Colab notebook: colab.research.google.com/github/geov-ai… 🧶👇
posted at 09:04:47
RT @nek0jita: 事前のサンプルサイズ決定をせずに試験を始め、仮説に合う結果が出るまで続け、差が出たら打ち切る戦略は、第一種過誤やバイアスをきわめて大きくするし、まともに統計を扱う分野では研究不正と扱われる可能性すら有るのでは。 twitter.com/dokushoa/statu…
posted at 08:43:43
RT @chiral: プロンプトエンジニアリングはトークン長の制約ゆえに永続化されないけどfine-tuningはコストが掛かり過ぎる。そこで既存のTransformerの出口に少数のTransformerを被せて小さなfune-tuningを行う方法。ドメイン知識って通常は常識の上に成立するものだろうからこのアプローチは上手くワークしそう。 twitter.com/rasbt/status/1…
posted at 08:42:33
RT @rasbt: LLaMA-Adapter: finetuning large language models (LLMs) like LLaMA and matching Alpaca's modeling performance with greater finetuning efficiency Let's have a look at this new paper (arxiv.org/abs/2303.16199) that proposes an adapter method for LLaMA instruction finetuning 1/5 pic.twitter.com/xMPvybKOtC
posted at 08:30:41
RT @urawazakun: GPTは全体のテキストを放り込んだ瞬間に思考が完了している状態であり、デコーダでテキストに落とし込むことで我々の理解しうる言語として読める状態になる。デコーダを別に持てばデカいエンコーダは1台で済む。 RWKVは状態遷移上でテキストが漏れ出る状態であり、常に考えながら出力してる。
posted at 08:15:33