RT @kyoun: Stanford Alpaca crfm.stanford.edu/2023/03/13/alp… self-instruct arxiv.org/abs/2212.10560 によりtext-davinci-003(GPT-3.5 175B)から52Kのinstruction-followingデータを生成,LLaMa 7Bをfine-tuning.7Bにて175Bレベルの動作を実現. github: github.com/tatsu-lab/stan… demo: crfm.stanford.edu/alpaca/ pic.twitter.com/fX3uw1Ytjb
posted at 07:41:41
RT @jerryjliu0: It’s been observed that existing LLM’s perform better at answering complex q’s when they can break the question into smaller steps. 🪜 With the latest release of @gpt_index, we show that this process can also offer much better data retrieval 🗂️ performance on ChatGPT! 👇 pic.twitter.com/yZIsJ4Ary0
posted at 07:41:17
RT @arapanman: 震災から約2か月後に人生案内に掲載された相談と回答をもう一度噛み締めるべきなのかもしれない。干支も一回りしたことだし。 pic.twitter.com/tu4Ow5SKn9
posted at 07:39:56
RT @Kyukimasa: いかにしてウクライナは電力インフラ攻撃を耐え冬を乗り越えたか www.economist.com/europe/2023/03… 供給された対空兵器やロシアの精密誘導ミサイルの枯渇などもあるが、破壊されるたびに修理し続けた電力作業員たちの努力の賜物(ミサイル降ってくる中で作業を行ない100人以上が亡くなっている)
posted at 07:37:16
RT @im132nd: LLMにコード書かせる時、Googleのコードっぽい冒頭部分をつけるとコードの品質が上がるって話見かけてワロタ。拡散モデルくん達にmasterpieceとかhigh qualityとか言っとくと良いみたいなのと同じ感じしてうける。 web.stanford.edu/class/cs224n/s… pic.twitter.com/vjanGfwUyb
posted at 07:36:19
RT @Yamkaz: たった2行のコードで、自分のコンピューターでGPT-3、Chinchilla、PaLM級のモデル「LLaMa」を実行する方法が公開 cocktailpeanut.github.io/dalai twitter.com/cocktailpeanut… pic.twitter.com/IfPx91beXx
posted at 07:35:44
RT @kazunori_279: “サービスに流れ込んでくるデータを全て、良い感じに捉えてくれる大規模モデルによってEmbeddingにしてしまって、GCPのVertex Matching Engine辺りに突っ込んでおけば、今世の中にある殆どのAIへの要望は良い感じに対応できるだろう” - データの民主化とこれからのAI組織 note.com/vaaaaanquish/n…
posted at 07:35:02
RT @johnjnay: Open-Source ChatGPT Replication -LLM fine-tuned on 43 million instructions -Extensible retrieval system to augment bot responses with info from external data -Smaller LLM fine-tuned to filter which questions bot responds to -Decentralized training Post: www.together.xyz/blog/openchatkit pic.twitter.com/T9hzonuRM1
posted at 00:11:12