RT @shunk031: 日本語ベンチマークデータセットの JGLUE を huggingface datasets で使えるようにしました!これを使ってベースラインモデルの再現実装をしてみようか考え中です 💭 (日本語 NLP 盛り上げていきたさアリ🔥) 🤗 huggingface.co/datasets/shunk… 🐙 github.com/shunk031/huggi… 📝 aclanthology.org/2022.lrec-1.317/ pic.twitter.com/0WpuOw29sY
posted at 23:58:35
RT @CST_negi: OpenAI GPT-3+VoiceVoxで、3D AIエージェントを作ってLooking Glassで良い感じに表示させてみた! ふとした時に何か会話するの楽しいし、自分の作業してるすぐ横で見守ってくれるし、AIにどんどんかわいさを感じていってあまりにも良い…👏😭 pic.twitter.com/I5UegeJUrl
posted at 23:56:41
RT @Megapolisomancy: 面接に行くと毎回、あなたはTOEICと簿記と工学修士号を持っていて何でもできそうだけど何がしたいのか一貫性が見えなく、てどうしてうちでこれをしたいと思ったのか説明してもらいたいと聞かれ、そのたびに出まかせを言っていたが、結局私は何もしたくないし何もできないということがわかってきた
posted at 23:51:37
RT @npaka123: Google Colab で trlX による大規模言語モデルのファインチューニングを試す|npaka @npaka123 #note note.com/npaka/n/n13895…
posted at 22:44:15
RT @MBS_fan: 3月5日(日)午後1時放送📺 「天才たちにブーッて言いたい! ~あの企業が考えた本気の一問〜」 企業が考えた本気の一問以外の問題を出題したら #伊沢拓司 は答えられるのか⁉️ 収録後に挑戦してもらいました💪 クイズが多ければ多いほど嬉しい伊沢さん😊 #四千頭身 #QuizKnock pic.twitter.com/Vgr0qJwF9a
posted at 22:06:26
RT @NishimotoShinji: FlexGenで申請無しで利用できる最大モデルOPT-66Bと話してみた。このサイズのLLMが手元で動くこと自体は感慨深く、また内部表現を研究に使えるのはありがたいけれど、やはりChatGPTは凄いのだなとも感じる(175B>66Bの影響か、RLHFか、あるいはもっと細かい諸々の調整の集合なのか)。 pic.twitter.com/oS39XycPcU
posted at 21:46:01
RT @df5066: さらば和田岬線の103系 pic.twitter.com/VZihoUjDxT
posted at 21:40:40
RT @kyuukanba: 最近「AIの進歩がヤバすぎでは?」と感じてる皆様にオススメの夏アニメがあります。7、8年ほど前、世間より先走って「AIヤバすぎでは?」とビビった作者が、AIの最新トレンドを踏まえて未来社会を描いてみようと一念発起して作った『AIの遺電子』って漫画のアニメです。 www.youtube.com/watch?v=PbmR7J… pic.twitter.com/TQha9h4tZT
posted at 21:35:58
RT @arXiv_cs_CL_ja: Time-aware Multiway Adaptive Fusion Network for Temporal Knowledge Graph Question Answering arxiv.org/abs/2302.12529v1 Comment: ICASSP 2023 ナレッジ グラフ (KG) は、自然言語処理に広く応用されているため、ますます注目を集めています。ただし、一時的な質問応答 (QA) での使用
posted at 21:11:43
RT @kojikita: MIXIの新卒技術研修ではGitの内部構造まで学びます。道具として使うだけなら不要な知識ですが、どうやって動いているかを知る楽しさを伝えることで、より深く学ぶ習慣を身につけてほしいとの想いで実施しています。 codezine.jp/article/detail…
posted at 21:11:34
RT @Hiro_IMADA: 英国にいた時はみんな「博士課程に入る試験には合格したけど奨学金/フェローシップ落ちたから博士やりません」「自費なら博士課程いきません」というスタンスの人が多かった.英国はそもそも博士課程への自費入学を認めない大学もけっこうある.博士課程は自費で無理してやるほどのものではないとは思う. twitter.com/itoukaityou/st…
posted at 21:10:30
RT @MlopsJ: ヤフートップページの裏側:記事推薦システムの試行錯誤と今後の挑戦 techblog.yahoo.co.jp/entry/20230227… いろいろ工夫されてて面白い。推薦モデルの品質と計算量で苦労されていて、その打開策を分析してるのが参考になった。 #mlops #mlopsコミュニティ
posted at 20:57:38
RT @mr_bay_area: Andrew NgのCS229の、(主に実務の)MLアルゴリズム改善のためにやるべきことを解説した資料なのだけれども、「当てずっぽうの改善をするな。まずは何故精度が出ないかを分析しろ」というのはめちゃくちゃ重要なので、皆さん常に心に留めておいてほしい☺️ cs229.stanford.edu/materials/ML-a…
posted at 16:08:24
RT @hillbig: LLaMAは巨大言語モデルで、モデルサイズ、投入計算量に対する学習データの割合を増やし1/10のパラメータ数でも、後続タスクにおいて従来巨大モデル同様の性能を達成できる。小さめモデルの推論は1GPUでできる。殆どのデータは学習中1回しか見ず、まだ収束しきていない research.facebook.com/publications/l…
posted at 16:07:28
RT @tmaehara: > 殆どのデータは学習中1回しか見ず、まだ収束しきっていない 5〜10年前に NLP の人から「エポック数を増やすくらいならデータ数を倍にする」って言われ,そりゃそうだけどそんな無茶な,って当時は思ったんだけど,今やわたしも完全にこっち派閥
posted at 16:06:57
高校生が学園祭の配信システムをAWSで自作 奈良・西大和学園「生徒会電算部」の活躍、本人たちに聞いた share.smartnews.com/GZLyi #スマートニュース
posted at 16:03:54
RT @umiyuki_ai: AIハッカソンで作られた、Metapromptというブツ。AIにいきなり答えさせずに、まずタスクの実行計画を立案させて、その計画を実行するための”プロンプトを生成させる”。そしてそれらのプロンプトを実行して、最後に結果を評価して、ブラッシュアップしてファイナルアンサーしてくれるらしい →RT
posted at 15:50:21
RT @h_okumura: もうみんなやってるかもしれないけれど、例のOpenAIのAGIについての声明 openai.com/blog/planning-… をChatGPTに要約してもらった(ChatGPTはサイトを見れないため2000語全文コピペした) pic.twitter.com/8hHkUpo7Ua
posted at 15:45:56
RT @sammy_suyama: 勉強しなきゃいけないことが多すぎる?問題 【2023年02月27日 12:00配信】 データサイエンス、どうやって学ぶ? - 須山敦志 r.voicy.jp/wOVLdOvnVe2 #Voicy
posted at 15:45:48
RT @kmoroboshi: S-OS… OSというより各マシン共通エントリーのモニタ,IOCSぐらい。 エントリーが共通なので、そのエントリーを呼んでいる限りでは各マシンで動くプログラムが作れる。 「コマンドで引数」みたいな高度な事は出来ずモニタらしく「メモリにファイルをロード」「メモリ上のアドレスをコール」と低レベル
posted at 15:40:30
RT @goto_yuta_: 外部知識を用いて自動でフィードバックしてChatGPTとかのLLMが平気で嘘ついてくる頻度を減らす手法の提案。 RLHFを自動化するまではいかなくても、出力の妥当性くらいは自動評価して強化学習に盛り込んでうまくいくんやな。 arxiv.org/abs/2302.12813 pic.twitter.com/k6xSICjIsm
posted at 15:32:08
posted at 13:51:02
posted at 12:52:34
RT @umiyuki_ai: LLMの回答精度を上げる研究。LLMにいきなり答えさせないで、まずそれについて知ってる事を暗唱させてから答えさせる事で精度が上がるらしい。たとえば、「レモンって誰の曲?」と聞いた時に、まず「レモンは、日本のミュージシャン・米津玄師の楽曲で…」って暗唱させてからあらためて答えさせる →RT
posted at 11:46:56
RT @kazunori_279: この本面白かった。経済や医学、政策、マーケティング等の分野でものごとの「因果関係」の調査に使われる手法(RCT、DID、傾向スコア等)と、それらが実際にどう活用されてるか平易に解説。専門書を読んだ時はこれって実際どう使われてるんだろう?ってピンときてなかった。 www.amazon.co.jp/%E3%80%8C%E5%8…
posted at 11:46:38
RT @izutorishima: パワーのある記事、業界人でもないのに節税周り含めてここまで詳細に調べ上げて買ってるのすごすぎる(もちろん一生に一度の買い物だからそりゃそうなんだけど…) 独身男性 新築を買う www.mzyy94.com/blog/2023/02/0…
posted at 11:46:28
RT @kenmcalinn: 因果推論は究極的にはわからないってのは因果推論を勉強すればわかることだと思うんだけど、それを明言しないのはそれを理解してないかポジショントークで因果推論はわかるって言いたいかのどちらかな気はする。
posted at 11:05:48
RT @tmrowing: 近年の大学入試では A, if not B を文脈に応じて解釈する読解系のスキル・知識が求められるようになってきた感がある。 まずは典型例とも言える実例に出会うことが大事なのだが、オンラインコーパスで得られる知見から文章をAI生成してもうまくいかないような気はしている。 写真は授業で示したもの。 pic.twitter.com/W1DF9kP2Lu
posted at 10:33:37
早速 setup.py から pyproject.toml に変わっていて、どう直せばよいか調べ中。。 twitter.com/karaage0703/st…
posted at 09:07:48
RT @gijigae: ChatGPTの可能性を知りたい全ての方にオススメしたいのが「eXtensible Prompts(X-Prompt、拡張型プロンプト)」。テンプレート文字列も"X-Prompt"の延長線で考えるとわかりやすい。自然言語だけでは表現しづらいものを扱えるよう拡張したプロンプトの提案が、X-Prompt(👉arxiv.org/abs/2212.00616)。 twitter.com/TsuyoshiAI/sta… pic.twitter.com/esUe6sV8ym
posted at 08:45:26
RT @Zuntan03: ControlNetのopenposeとhedで、ポーズを指定しつつも詳細な背景と正常な手を無料で描画する手法です。 !!手の絵を描けなくても大丈夫です!! !!体型の一致する3Dモデルを用意しなくても大丈夫です!! pic.twitter.com/e69zoDNXZ6
posted at 08:32:08
RT @syoyo: FlexGen opt-30b x299 256 GB + 3090 で 7 tokens/sec キタ! 🎉概ね期待通りネ(README だと 7.32 tokens/sec) . peak gpu mem は 12 GB なのでもうちょい batch size なりあげ俺得チャットボットがローカルで良き良きに動く日は近い... 😌 pic.twitter.com/6X3qnVUqhp
posted at 08:29:07
RT @shigekzishihara: github.com/FMInference/Fl… おっ,FlexGenのApple silicon 対応が動き出しましたね.パッと見,CUDAがなくてもエラーにならないようにする,PytorchはNightly buildを使う,CPUだけか,いわゆる"MPS",GPUを使うモードも選べる ように追記している様子.
posted at 08:27:46
RT @forasteran: 手がめっちゃ綺麗にでてる♥ canny + openpose の Multi ControlNet試さないと!! 線画をリアルの手で描くとなると絵心が試されるw canny、scribble、hedのどれが良いん?輪郭、手描き、線の強弱だっけ twitter.com/ddPn08/status/…
posted at 07:50:30
RT @zenn_unofficial: ChatGPTとLlamaIndex(GPT Index)を使った仕様問い合わせAIの作成 zenn.dev/kinzal/article…
posted at 07:48:51
RT @pacifinapacific: 記事を投稿しました! # 画像から人体の3Dモデルを生成する技術 [Python] on #Qiita qiita.com/pacifinapacifi…
posted at 07:32:00