RT @johnjnay: Evolving LLM Prompts -LLM fails at deep learning architecture design w/ standard prompting -Evolutionary search finds prompts that guide LLM to build architectures outperforming those designed by human experts -Discovered new graph neural networks Paper arxiv.org/abs/2302.14838 pic.twitter.com/cnGbFSxvRL
posted at 01:13:54
RT @kaityo256: このツリーに、僕がこれまで書いてきたHPC関係の記事をぶら下げます。まずは「一週間でなれる!スパコンプログラマ」。スパコンの使い方や簡単な並列計算のサンプルコードの説明を書きました。 kaityo256.github.io/sevendayshpc/i…
posted at 01:10:11
RT @karasawananboku: 飯塚昭三氏のお話。 「映画のハカイダー(雨宮慶太監督『人造人間ハカイダー』)のときね、ハカイダーの声の話が来たんだけど、オーディションで決めるって言うんで、腹が立って降りちゃった。"ハカイダーは俺"なんだよ。他の人間と比べるというんなら、最初から呼ばなけりゃいい」 プロのプライド。 pic.twitter.com/xNgeUVFxK3
posted at 01:07:15
RT @ogawa_yutaro_22: arXiv roundupより BERTからChatGPTまでの基盤モデル(大規模言語モデル)の変遷をまとめたpaper BERTでTransformerが実用レベルになってから、ChatGPTまでの流れをきちんと語れる人は少ないです 基盤モデル、大規模言語モデルに関わる人におすすめの論文です arxiv.org/abs/2302.09419
posted at 01:06:58