RT @knshtyk: え、やば やばくないですかこれ ブレストで出た付箋を自動的に取りまとめて要約も作成、ガントチャートも自動生成。もちろん抽出作業にこそ気づきがあるからすべて任せれば良いというものではないが、一方で発散させるフェーズでのファシリテーションを自動化できるのはアイディア出しの効率爆増しそう twitter.com/figma/status/1…
posted at 16:22:07
RT @umiyuki_ai: へえ。今までゲームのAIを強化学習で作ると言えば、無知の赤ちゃんの状態からとにかく総当たりでプレイさせてちょっとずつ上達させてたわけだが、あいだにLLMを挟み込んでLLMの常識力でフィードバックする事で強化学習をショートカットできるという手法らしい。例えばお金を拾った時、それが良い事なの… twitter.com/i/web/status/1…
posted at 16:21:56
RT @kanhatakeyama: 従来型の強化学習aiにllmでコンテクスト情報を与えると性能が上がる研究 www.itmedia.co.jp/news/spv/2311/… という文脈で解釈すると、 マテリアルインフォマティクスなどの従来型の構造ー物性相関予測モデルに、llmでコンテクストを与えて性能を上げる という発想と共通点があります
posted at 14:29:24
RT @IEN_enjoy: chatGPT4の書く英文が気持ち悪いという意見は時々聞くけど、「主にB1レベルまでの単語を使って書きたいです」ってやると良い感じに書いてくれるよ 逆に英検1級のライティングの練習をしたいときは、B2やC1レベルの単語を使って書いてください、ってやると良い感じに書いてくれる pic.twitter.com/elgBMYZetm
posted at 14:29:08
RT @IntuitMachine: 1/n How do we systematically reason about the integration of Knowledge Graphs (KG) and Large Language Models (LLM)? Let me propose a framework in semiotics that I've found extremely insightful. It's called Code Duality. twitter.com/IntuitMachine/… twitter.com/i/web/status/1…
posted at 13:56:24
RT @wakwak_koba: USBメモリーが禁止された場合に備えて、ファイルをQR化するプログラム出来た。 59KBのバイナリが23個のQRで表せる。 これを連続表示させたモニターをスマホで撮影し、後々やっくりデコードすれば大丈夫や! twitter.com/wakwak_koba/st… pic.twitter.com/6AJM8rvVAb
posted at 13:44:06
RT @dory111111: GPT-4VとDALL-E 3のAPIが開放されたので、顔写真をアップロードすると、そいつっぽい雰囲気のペンギンを生成する謎ジェネレータを作りました pic.twitter.com/7GsEbHDetC
posted at 13:43:45
修理。といっても基板交換。メイン基板に加えて電源基板も。内臓丸ごと交換の感。延長保証に入っていてよかった。修理の方がいらしたときに症状が再現して不幸中の幸いだった。
posted at 13:43:17
RT @hmtd223: Ice Lake以降のXeonはINT4でLLM推論が速くなるそうです。 twitter.com/haihaoshen/sta…
posted at 13:31:15
RT @kazunori_279: 例えばTiktokも、いいねもチャンネル登録も何もしなくても、スワイプのタイミングだけで全て(いま何が気になっているのか、何にどのくらい飽きてきたのか、多様性への感度はどうか等々)をリアルタイムに察してもっと観たいコンテンツを次々と流してくる。これぞAI-UXだなと思う。 twitter.com/fladdict/statu…
posted at 13:31:03
RT @kazunori_279: テキストと画像それぞれの別々に類似度を測って合算してるけど、テキストと画像のtwo-towerモデル(つまりファッションアイテム専用のマルチモーダルモデル)作った方がよい気がするけどどうだろう。 tech.drobe.co.jp/entry/2023/11/…
posted at 13:30:48
RT @currypurin: Kaggleの新コンペ: SenNet + HOA - Hacking the Human Vasculature in 3D 腎臓の3D画像から、血管のセグメンテーションマスク作成 ・2024年2月6日まで ・コードコンペ www.kaggle.com/competitions/b…
posted at 13:20:05
RT @hiro_gamo: OpenAIのKeynoteではないセッションかな? で、RAGの精度向上に関する発表があったとか。 めちゃくちゃ見たい。 いまだMLにおける精度向上はFine tuningなど学習が唯一解という認識が多く、RAGは過小評価されてる印象です。知識の付与および忘却の容易性という点でもRAGを育てることはとても重要。 twitter.com/benparr/status…
posted at 13:19:13
RT @nakasorahami: 昭和ファミコン男子 1/5 #しなのんちのいくる pic.twitter.com/VTBkNehuwC
posted at 13:19:05
RT @npaka123: OpenAI API の Assistant API のしくみ|npaka @npaka123 note.com/npaka/n/n9fa72… #note
posted at 13:18:59
RT @reasan_mirasan: gpt-4-1106-previewで128k入力をがっつり使うのにはOpenAIのティア4にならないとだめらしい。 私今184$でティア3でした。。(´・ω:;.:... #ChatGPT #GPT4Turbo #128k community.openai.com/t/test-new-128…
posted at 13:18:55
RT @izutorishima: なるほどな… OpenAI の思想は常に一貫していて、「〇〇やっといて」と言われれば良い感じにこなす専属メイドがあらゆる人間の課題を解決してくれる未来を作りたいってことか (続) オペレーティング・システムから、オペレーティング・エージェントへ|深津 貴之 (fladdict) note.com/fladdict/n/nf4… pic.twitter.com/jr9VygVpN7
posted at 13:18:38
RT @ai_database: オープンソースの画像解析LLM『CogVLM』が開発されました。 画像から抽出された特徴を、LLMが理解できるような形式に加工するためのモジュールも提供されています。 研究と商用の両方で使用でき、デモも公開されています。 @ Weihan Wang et al., "CogVLM: Visual Expert for Large Language Models"… twitter.com/i/web/status/1… pic.twitter.com/WsuEZ01UrH
posted at 13:18:23
第19回 Language and Robotics研究会 に参加を申し込みました! langrobo.connpass.com/event/300018/?…
posted at 13:17:56
RT @schroneko: Refuel LLM データラベリングとデータエンリッチメントに特化した大規模言語モデル。アノテーションにおいて、標準で GPT-3.5-turbo や PaLM-2、Claude を上回り、 15 分未満のファインチューニング(H100 x 8)で GPT-4… twitter.com/i/web/status/1… twitter.com/BansalDhruva/s…
posted at 13:17:14
RT @developer_quant: 大規模言語モデルを効果的に活用するためのTipsが詰まったスライド。 IBIS2023チュートリアル「大規模言語モデル活用技術の最前線」 speakerdeck.com/1never/ibis202… pic.twitter.com/qJ9Ly2SGpC
posted at 11:55:15
RT @takuya_b: 来月12/20(水)、豊洲の弊社オフィスにて4年ぶりに検索技術勉強会を開催します! 🎉🎉🎉🎉 発表ネタがある方はこちらの登録フォームより入力をお願いします! bit.ly/SpeakerSearchT…
posted at 11:54:03
RT @mr_bay_area: OpenAIがRAGの精度を上げるためにやったことを一通り紹介するブログを書いたら多分プチバズると思うので、詳しい人は是非書いてほしいし、俺もそんな記事を読みたい🥺(他力本願)
posted at 11:53:50
RT @oosugi_naoya: Pythonのopenaiライブラリがv1となり破壊的変更が加えられているので使ってる人は注意が必要です CI/CDでバージョン指定してなかったりすると普通に動かなくなります pypi.org/project/openai…
posted at 11:53:36
RT @MLBear2: LangChainが昨日のDevDayでリリースされた機能を取り込み始めてる👀 ・Assistant API (as OpenAI assistants) ・JSON mode ・Vision 以下のようにrcをpip install する必要があるので注意が必要とのこと。 pip install -U "langchain>=0.0.331rc1" github.com/langchain-ai/l… pic.twitter.com/KzuMJfytR5
posted at 09:34:04
RT @nejumi_dqx: 審査通過しました!当日は他のサークルさんの本も楽しみです。よろしくお願いします! ワンドビー完全理解者の会 | WandBで始める実験管理 - MLOpsからLLMOpsまで #技術書典 techbookfest.org/product/9TpE2x…
posted at 08:28:00
RT @hillbig: Transformerを信号伝搬理論に基づき単純化。Shaped Attention(自己位置注意割合を増やす)を使い、値と出力行列を無くし、MHA/MLPは並列化した上で全てのスキップ接続を取り除き、正規化も無くす。学習効率や性能は落ちずパラメータ数や速度は少し改善する。解析しやすい arxiv.org/abs/2311.01906
posted at 08:27:54
RT @goukoutaki: 顔検出はAdam Harvey氏のこの動画が分かりやすいです。2001年の論文が2004年にはコンシューマデジタルカメラ(CPU非力なはずなのに)に実装・実用化というのがすごい。当時は衝撃的だったのかと思います。 pic.twitter.com/1EtuKCTT5o
posted at 08:27:46
RT @GOROman: ChatGPT同士で会話させとる pic.twitter.com/1aZ4L9uRUM
posted at 08:27:38
RT @moons_dev: AIを使って完全自動・チャット形式でゆっくり解説を生成できるシステムができました! 自然言語で ・ゆっくり解説を生成 ・画像を自動で表示 ・セリフの内容を編集/追加/削除 ・動画内の画像を変更 などができます!… twitter.com/i/web/status/1… pic.twitter.com/ODQP6qRuT1
posted at 08:27:32
RT @uezochan: GPT-4のトークン長128kのパワーで1700行くらいのソースコード(コメントほぼなし)読み込ませて、日本語でやりたいこと聞いたらちゃんと理解して教えてくれた🙌 pic.twitter.com/aWYfC3QHDI
posted at 08:26:57
Retrieval-Augmented Generationシステムの改善方法の紹介 - AITC - ISID | AI トランスフォーメンションセンター コラム isid-ai.jp/column/Retriev…
posted at 07:54:46
RT @mr_bay_area: LLMを利用した自動問い合わせ応答システムが、リクルート社のレストランボードと連携して予約完了までいけるようになりました。実証実験中なので、街中で見かけたらよろしくお願いします☺️ twitter.com/IVRy_jp/status…
posted at 07:54:10
外部データをRetrievalしてLLM活用する上での課題と対策案 - ABEJA Tech Blog tech-blog.abeja.asia/entry/retrieva…
posted at 07:53:46
RT @benparr: .@openAI has put in a lot of work into RAG (retrieval augmented generation). Accuracy has jumped from 45% to 98% with things like retaining, prompt engineering, and query expansion. pic.twitter.com/byvuHlqF4Y
posted at 07:46:04
RT @mr_bay_area: RT、どうやらOpenAIはRAGをチューニングして精度を爆上げさせているとのこと。OpenAIのembedding + cosine similarityだとそもそもretrievalがあまり上手くいかないので、ここを改善してくるのはそれはそうだと思うし、何なら弊社内でもここはいろいろやって改善してる☺️
posted at 07:45:40
RT @itnavi2022: OpenAIの #AIアシスタント は面白い❗️ pic.twitter.com/P5psWPtO2p
posted at 07:45:06
RT @matsu_vr: 映像を見せてAIに実況させたいけどレスポンス時間がなぁ…と思っていたけど、そっか、録画映像に対して解説を生成させて、載せれば良いのか。なにもリアルタイムにこだわる必要はなかった twitter.com/geepytee/statu…
posted at 07:44:43
RT @mah_lab: OpenAI DevDayを機会に、一気にAIエージェントの認知が加速していますね! と言うわけで私がAIエージェントについてまとめた本が来月出ますので、よろしければご高覧くださいませ! (なんちゅうタイミングだ) www.amazon.co.jp/dp/4297139014/
posted at 07:43:53
RT @LangChainAI: ⭐️Multi-modal RAG w/ GPT-4V ⭐️ "A picture is worth 1000 words," but images are typically invisible in RAG apps. Multi-modal LLMs like GPT-4V unlock RAG apps that use images. Using the new @OpenAI GPT-4V API, we'll be releasing templates and cookbooks this week to highlight… twitter.com/i/web/status/1… pic.twitter.com/ajSA6gK7Lg
posted at 07:43:40
RT @ksasao: ちょっとプロンプトを追加したらヤバい。きざはし知りませんでした...。 #GPT4V pic.twitter.com/EsJT8HR3Lt
posted at 07:41:12
RT @ksasao: 音として575にはなってないのですが情景はいい感じに描写できてますね pic.twitter.com/jf4R1l9r5A
posted at 07:41:07
RT @ksasao: GPT-4Vにハイクを詠めをやってみた pic.twitter.com/uXaz2xGZY0
posted at 07:41:00
RT @hiro_gamo: OpenAIは段々と王者の貫禄が出てきた。 ナレッジカットオフ、コンテキスト長、価格など競合が一部でもOpenAIに追いつこうとし工夫する中、その努力を突き放し差を広げる一手。 先日AWSの生成AIの攻勢に関するポストをしたとき、OpenAI Dev Dayの内容をここまで知っていたわけではない。… twitter.com/i/web/status/1…
posted at 07:40:20
RT @llama_index: New Multi-modal LLM Abstractions 🖼️📝 The default LLM interface is text-in/text-out. Multi-modal LLMs (LMMs?) are text+image in, text out - includes GPT-4V but also LLaVa, Fuyu, and other open-source models. We’ve created a base `MultiModalLLM` class to unify the interface… twitter.com/i/web/status/1… pic.twitter.com/xaWtTM3arH
posted at 07:40:06
RT @kenken26679105: このベイズ推論(ベイズ行動)も、かなり使えますよ😆👍 実際のビジネスの現場に沿う損失関数を自分で用意し、 最小二乗誤差ではなく、カスタム損失を最小化するような予測値を事後分布から取得(緑色)しています😆 (事後分布の平均=青色点線) 以下、ご紹介♪ ↓ #Python #ベイズ統計 #データ分析 pic.twitter.com/og3G9vpPmA
posted at 07:39:42
RT @8hmVmEGJ6nFyUE5: 世界ではこんな事が当たり前になりつつあるのに、miniGPTでもLlavaでもなくBLIP2からスタートしようとしてる……ゴールが遠すぎて来世でもゴールしない可能性ある…… twitter.com/ctgptlb/status…
posted at 07:14:02
RT @npaka123: Google Colab で OpenAI API の Retrieval を試す|npaka @npaka123 #note note.com/npaka/n/ndcacb…
posted at 07:13:43
RT @sald_ra: 「自分の癖にあったファインチューニング用データセットをローカルLLMを使って作る」という提案記事を書いてみました。もしよければ。 自分の癖にあったファインチューニング用データセットをLLMで作ろう!【Calm2】|Sald ra zenn.dev/saldra/article… #zenn twitter.com/i/web/status/1…
posted at 07:07:44
RT @8hmVmEGJ6nFyUE5: Vision API、一応1秒ごとのスクショを2枚入れて、どうなりそうか、聞く、って感じで使ってみました。 画像への理解力が強いので複数入れられるのすごくて画像A,Bから次にどうなりそうか予測させられたりしそうです。あと英語推奨なので英語推論で日本語で出力、の方がリッチな回答になります。 twitter.com/8hmVmEGJ6nFyUE…
posted at 07:00:53