第17回 CoderDojo武蔵小杉【レギュラー回】 ※初めての方歓 に参加を申し込みました! coderdojo-musashikosugi.connpass.com/event/272346/?… #CoderDojo
posted at 14:58:56
RT @tokada: 日本語GPT-2をシラス(ゲンロン完全中継チャンネル)の過去コメントでファインチューニングしてみたらそれなりにコメント自動生成AIっぽいものができた pic.twitter.com/vPUH8Tzzue
posted at 12:49:40
RT @yp_genzitsu: わかりやすいスライドにするための推敲技法がbefore/after付きでまとめられている >切り分ける・並び替える・繋ぎ方を変える・削り落とす・一貫させる・まとめる・明確にする・限定する・やさしくする プレゼンスライドがみるみる良くなる基本の推敲技術 -事例付き解説- note.com/hisashi_is/n/n…
posted at 12:49:23
“鉄道では行くことができない最大の街”「鹿屋」には何がある? 南の南へ#2 #文春オンライン bunshun.jp/articles/-/600…
posted at 12:48:48
RT @Yamkaz: 連続した自然言語予測のために、脳に電極を埋め込む方法が取られてきたけど、これは傷をつけない。MRIで記録された皮質の意味表現から連続した自然言語を再構成する こういう技術とAI繋いで早く魔法使いになりたい tabi-labo.com/305393/wt-sema…
posted at 08:50:19
RT @narou_fun_db: 小説家になろうにおける「埋もれている名作」の作り方 ・タイトルを短くする ・毎日連載はしない ・ブクマや評価への誘導をしない ・1話あたりの文字数3000字オーバー ・ストーリー展開を遅くする ・地の文は多めに ・段落間に空行を入れない これだけやると、いかに名作といえどもほぼ埋もれます。
posted at 08:37:08
RT @ellnore_pad_267: これ、マジで大事なんだよなぁ。。 pic.twitter.com/sBFruqqZTT
posted at 08:36:38
RT @erukiti: zenn.dev/erukiti/articl… DenoでChatGPTクローンというかLangChainクローンを作るっていう記事の第一弾を書いた
posted at 08:26:19
RT @npaka123: Embedding ProjectorでEmbeddingsの可視化を試す。 wikiの説明文をベクトル化して比較 pic.twitter.com/jULYtedN7w
posted at 08:26:00
RT @arts_lib: 事後分布に基づく推定量に関して、EAP推定量とMAP推定量の具体的な確率分布に対する導出を取り扱いました〜 準1級のワークブックではEAP推定量がベイズ推定量と表記されますが、わかりにくいので期待事後推定量を表すEAP推定量と表しました🌿 www.hello-statisticians.com/practice/stat_… pic.twitter.com/pncwGjZTu7
posted at 08:01:22