RT @santa128bit: これなかなかすごいな。30b で llama-2-70b とほぼ同じスコアだ。 huggingface.co/upstage/llama-… pic.twitter.com/ynbkP1NXn2
posted at 21:26:32
@NVIDIAGeForceJP これでお家でLLMを。 #RTX4060
posted at 20:49:00
RT @jouhouken: 💡動画 「言語生成AIの仕組み -対話を可能にするための学習-」 鶴岡 慶雅 東京大学大学院情報理工学系研究科 教授 日時:2023年6月9日オンライン開催 主催:国立情報学研究所 大学の情報環境のあり方検討会 #decs #教育機関DXシンポ edx.nii.ac.jp/lecture/202306…
posted at 20:41:31
RT @hitasuraeiga: 平日の昼間から堂々と『遊星からの物体X』を放送する午後のロードショーって素晴らしい(今や地上波でこういう映画がオンエアされること自体が貴重なのよねぇ😓) pic.twitter.com/xcm04AWD6B
posted at 20:28:34
RT @ai_database: 大規模言語モデルが16,000以上のAPIを理解し適切に操作する能力を与える 論文:arxiv.org/pdf/2307.16789… イエール大学やWeChatのAI研究チームは、GPT-4などの大規模言語モデルが、16,000以上のAPIを理解し適切に操作する能力を向上させる手法「ToolLLM」を提案しています。… twitter.com/i/web/status/1… pic.twitter.com/lhJoNz0bxf
posted at 20:26:49
RT @_akhaliq: The Hydra Effect: Emergent Self-repair in Language Model Computations paper page: huggingface.co/papers/2307.15… investigate the internal structure of language model computations using causal analysis and demonstrate two motifs: (1) a form of adaptive computation where ablations of… twitter.com/i/web/status/1… pic.twitter.com/0X92Jo0Bmp
posted at 19:54:16
RT @RHigashinaka: 本日『さらばのこの本ダレが書いとんねん!』(テレビ大阪,火曜深夜24:30)に出演し「AIの雑談力」について紹介します.YouTubeでも本日20時から見られます. www.youtube.com/watch?v=KuheVF…
posted at 19:54:03
RT @gclue_akira: 今までKitにしてきた教育向けのAIカーの推移はこんな感じ。 pic.twitter.com/PSLWo4YLxt
posted at 19:50:54
RT @ImAI_Eruel: OpenAIがGPT-5の商標を出願したようです 言語,音声も扱えるマルチモーダルモデルの模様 GPT-4からの正当進化で,言語,画像,音声の全てを高度に扱えるとなると,いよいよ「GPT-Human」みが出てきました GPT-4の商標と差分はあまりないものの,OpenAIにはGPT-5を学習する意思はあるという点は重要 pic.twitter.com/N1eMdtbzLw
posted at 19:50:15
news.mynavi.jp/techplus/artic…
posted at 19:49:38
RT @syoyo: 日本語 LLaMa チャレンジの作業中🚧 repo を公開しました😾 github.com/lighttransport… ✅ 日本語データセットの pre-clean TODO - [ ] 品質スコアリングと dedup - [ ] 日本語データセットと日本語トークナイザで追加事前学習 - [ ] ファインチューニング 引き続き作業して参ります🫡 pic.twitter.com/1ANXYY0B2i
posted at 19:35:36
RT @S_Ishimaru: 池袋。ジュンク堂行ったら生成AIコーナー出来てる。ChatGPT、LLM関連の本むちゃ出てるな。@npaka123 先生の本も2冊並んでてサスガ働き者。 こってりラーメンなりたけ。すげー味濃くてパンチが効いてる。調整スープで薄めた方が良いと思うがインパクト重視なんかな。外出たらスゲー雨。 pic.twitter.com/lCiAis5uem
posted at 19:34:14
RT @jaguring1: OpenAI が『GPT-5』という文字列で商標出願したっぽいな。7月18日に米国特許商標庁(USPTO)に提出。どうやらGPT-5は「人間の音声とテキストを扱ったもの」にする計画らしい(最終的に実際にこの記述通りにOpenAIが作成するかは知らないが) tmsearch.uspto.gov/bin/showfield?… pic.twitter.com/hs1Sq8KGRZ
posted at 19:21:57
RT @mr_bay_area: 勉強、基礎が出来てればキャッチアップに時間かからないと思っていて、最近のLLMも深層学習とNLP分かってれば最新の話は時間かけずとも分かるし、深層学習は機械学習の基礎が分かってればあとは積み木なので、勉強が追いつかない人は最近の話追うよりまず基礎をやるべきじゃないかという思いがある。
posted at 15:56:10
RT @verypluming: 本日、東京大学大学院情報理工学系研究科コンピュータ科学専攻(理学部情報科学科兼担)の准教授に昇任しました。現在生成AIの研究が盛んな中、今後も人工知能・自然言語処理・計算言語学の本質を追求しさらに研究を盛り上げたいです。引き続き谷中研(本郷)では大学院生(修士・博士)を募集します。 pic.twitter.com/PRIhiEPBFD
posted at 15:55:46
posted at 12:45:07
画像を2,3個入力できれば? twitter.com/dev_inada/stat…
posted at 12:40:10
RT @dev_inada: rinnaのマルチモーダルチャットモデル、AITuberとして簡単なゲームの実況できるところまでいけるといいですねー。こんな風に淡々と「このあと崖から落ちるか、崖から突き落とされるのどちらかなのだ」って言ってくれたら、キャラがたって良いです。 pic.twitter.com/F7nyxJ4U7k
posted at 12:38:52
RT @_akhaliq: ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs paper page: huggingface.co/papers/2307.16… Despite the advancements of open-source large language models (LLMs) and their variants, e.g., LLaMA and Vicuna, they remain significantly limited in performing… twitter.com/i/web/status/1… pic.twitter.com/moKBmapqGX
posted at 12:38:27
RT @ai_database: MIT、ハーバード、スタンフォード、ケンブリッジなどが共同で、人間フィードバック強化学習(RLHF)の改善方法を提案 論文:arxiv.org/pdf/2307.15217… Metaが最近発表したLlama2の論文でも重要性が強調されている「人間のフィードバックに基づく強化学習(RLHF)」についての大きな研究報告です。… twitter.com/i/web/status/1… pic.twitter.com/vgG5ItavE0
posted at 12:10:11
RT @npaka123: 【勉強メモ】Google Robotic Transformer 2 ( RT-2 ) vision-language-action (VLA) AI|だいち #note note.com/daichi_mu/n/n7…
posted at 12:09:24
RT @omarsar0: Open Problems & Limitations of RLHF A previous paper I shared earlier looked closely at the technical details of RLHF. This new paper takes a closer look at open problems and the limitations of RLHF. The authors flesh out the challenges with human feedback, the reward… twitter.com/i/web/status/1… pic.twitter.com/7xVgS9IyC8
posted at 08:25:52
RT @omarsar0: Multimodal models for the medical domain are coming fast! Med-Flamingo allows in-context learning and enables tasks such as few-shot medical visual question answering. This model leverages the pre-trained OpenFlamingo-9B which is built on LLaMa-7B and the CLIP ViT/L-14 vision… twitter.com/i/web/status/1… pic.twitter.com/GleNlvnhth twitter.com/Michael_D_Moor…
posted at 07:38:12
RT @cwolferesearch: Open-source LLMs are now commonly used and widely studied, but this area of research saw some initial struggles and criticism due to the poor performance of models like OPT and BLOOM. These four recently-proposed open-source models changed this narrative… LLaMA. Interest in… twitter.com/i/web/status/1… pic.twitter.com/ihdsr1GjmH
posted at 07:38:01
RT @kazunori_279: ウォルマートによるLLMを使って推薦システムのアスペクトを得る研究。PaLM2 APIでアスペクト文字列を取得、TensorFlowでembeddingに変換してアイテムembと3種類のパターンで組み合わせてそれぞれ評価。 openreview.net/forum?id=bStpL… pic.twitter.com/AHKnclprBg
posted at 07:37:22
posted at 07:09:32
RT @shion_honda: 画像を扱う訓練で複数GPUを効率的に使用するためにほぼ必須となる逐次データロードの手法(TFRecordとWebDataset)を解説し、速度比較の実験をした記事。 zenn.dev/turing_motors/…
posted at 06:55:42