RT @umiyuki_ai: ChatGPTに「専門家の観点から、この案を改善するにはどんな事を訊くべきですか?」つって質問リストを出させてから、「じゃあそれらの質問に具体的なアイデアで答えてください」つって、相手に質問出させた上にそれの回答までやらせるという、人間相手には許されない鬼畜コンボがかなり便利
posted at 17:35:49
RT @shion_honda: RLHFの詳しい解説記事。OpenAIだけでなくAnthropicやDeepMindの論文も踏まえた上で、共通点(スカラー報酬、KL罰則)と相違点(報酬モデルのサイズ、強化学習アルゴリズム、計算効率化の工夫)をまとめている。データやOSSなどの公開リソースについても紹介がある。 huggingface.co/blog/rlhf
posted at 13:52:14
RT @shigekzishihara: オープンソースAI(Whisper、BERT、VOICEVOX)を用いた音声対話ロボットの作成 qiita.com/kunishou/items… #Qiita 2022年12月のこれを今の現状でアップデートすればなかなか行けるものができるよね
posted at 13:51:55
RT @churin991116: ということで無事ChatGPT画像出力に対応。1つのプロンプトから1000通り以上の画像ができる。 明日の夕方くらいまでに詰めて作り方公開しますので何卒…… pic.twitter.com/6f000DbQuE
posted at 13:47:23
RT @resnant: 少し自分で使ってみた感想: 結構良い ・検索クエリを自分で設計できる分、Google Scholarのレコメンドより興味ある論文が出てくる ・要約の品質はまちまちだが、日本語でシュッと読めるので及第点 ・メールに加えてSlackにも流したくなる(できそう) twitter.com/resnant/status…
posted at 12:50:19
RT @sakamoto_582: NTT研究所を辞めた方の退職理由の一つが共感できると話題に > まだまだ技術を深く知り、コンピュータシステムに向き合い、手を動かし続けていたかったけれども、周りからはそのような役割を求められなくなったことが大きな理由の一つ 12年勤めたNTTを退職しました jinmen.hateblo.jp/entry/2019/08/… pic.twitter.com/zSRxAFzpkv
posted at 12:35:19
RT @_akhaliq: ChatGPT Outperforms Crowd-Workers for Text-Annotation Tasks abs: arxiv.org/abs/2303.15056 pic.twitter.com/MqUA9721nk
posted at 12:34:44
RT @Shingetsu_yuki: 漫画家がくも膜下出血になり、集中治療室(ICU)の入院生活の話(1/7)(再掲) pic.twitter.com/BurHr5RQh9
posted at 12:02:16
RT @johnjnay: LLMs Can Outperform Humans on Data Annotation -Compare 0-shot accuracy of ChatGPT vs crowd-workers on: relevance topic detection stance detection general frame detection policy frame detection -ChatGPT better on 4/5 tasks -20x cheaper than MTurk Paper: arxiv.org/abs/2303.15056 pic.twitter.com/VS3wRCkuUG
posted at 11:55:57
RT @tanichu: 岩波『科学』に @NaoTsuchiya さんとの対談が掲載されました。表紙にある「アリスより、さらに先へ」ってどういうこと?ってなりますが、そういうことです。 科学 2023年4月号 amzn.to/3Zqlesy pic.twitter.com/qgVjBUn8Sz
posted at 11:48:28
RT @poyopoyochan: これ免許証に本籍国籍表記させなくしたせいだよ… twitter.com/jibansaigai/st…
posted at 11:34:24
RT @kajikent: ChatGPTでめちゃくちゃ効率的に読書するためのプロンプト術を編み出しました。 1. シンプルに全体を要約 2. この本を理解するための問い自体を考えてもらう 3. テーブル形式でキーポイントを整理 4. 最後にChatGPTに著者になりきってもらい対談 特に2と4ができるのが革新的すぎる!笑 pic.twitter.com/VdhnsXA0Nj
posted at 11:33:11
RT @omarsar0: ChatDoctor: A medical chat model fine-tuned on LLaMA using medical domain knowledge. Collects data on around 700 diseases and generated 5K doctor-patient conversations to finetune the LLM. paper: arxiv.org/abs/2303.14070 code: github.com/Kent0n-Li/Chat… twitter.com/i/web/status/1… pic.twitter.com/YbQqXLig26
posted at 11:32:49
RT @Tzawa: ChatGPTはなんでも「できる」の認識の違いがありそう。 一般の人:どんな問いにも正確に答えられるようになった 研究者:どんな問いにも何かしら、それっぽい出力ができるようになった。だだしそれが正しいとは言ってない この認識の違いが不幸を招くんじゃない?
posted at 10:05:22
RT @syoyo: RWKV 7B(14 GB) が RX6800 で動いてええ感じにチャット反応速度速くて勝てました✌️2018 年から見届けてきた ROCm pytorch ちゃん, シッカリと成長しており偉い!(後方彼氏面🧑🌾) > pytorch2 + ROCm で RWKV(LLM Chatbot) と Wisper 動作確認メモ zenn.dev/syoyo/articles…
posted at 09:45:47
RT @ntakahiro1027: 9年前に行った実験結果がやっと論文となりました。普段は写真についてばっかつぶやいていますが、本業はこちらになります。 真空中に凝縮したクォーク凝縮を原子核密度中で精密測定した初めての結果となります。 www.riken.jp/press/2023/202… www.nature.com/articles/s4156…
posted at 09:43:58
RT @iwashi86: とても良かった。 "全員で成果物を作ってきたとき、口頭で宿題の発表会をするとあっという間に2時間の会議が終わってしまいます。これは本当に時間がもったいないので、10分の黙読で終わらせましょう。" すごいわかる。 note.com/ozyozyo/n/n89f…
posted at 09:43:47
RT @hpeo_jp: デルファイ法 pic.twitter.com/3ENxUjbKBK
posted at 09:43:17
RT @tokoroten: 子供の名前に困ったら、ChatGPTにつけてもらうのが良いのでは? キラキラネームとDQNネームを理解して、別の評点を付けてきているのが面白い pic.twitter.com/Xpmfe8ewlI
posted at 09:27:04
RT @shu65: LangChainを同僚に教えてもらって試したらすごすぎて感動したので書きました! ChatGPTみたいなアプリが簡単に作れるLangChainがすごすぎ | まったり勉強ノート www.mattari-benkyo-note.com/2023/03/28/lan…
posted at 09:09:46
RT @kumomajin: JR両毛線各駅にて、あらゐけいいち先生がイラストを手がけたポスターが公開となりました。 pic.twitter.com/IxAWE7kTSf
posted at 09:09:36
RT @kamenjiro: 4月からNHK BSプレミアムなどで放送される実写ドラマ「藤子・F・不二雄SF短編」。 『定年退食』登場人物の原作への寄せっぷりを見るだけで期待が高まる! pic.twitter.com/rLu8rOplqM
posted at 07:58:55
RT @tmaehara: データが最初から全部あるときのp値と途中で増やしたときのp値は定義に戻ると別の値になります。なので単純に「途中で追加したのにも関わらず最初から全部あったかのように計算するのは間違い」です。後から増やしてもわからないのは別の問題(隠蔽)で、これを気にするならp値は原理的にダメです。 twitter.com/tkm2261/status…
posted at 07:57:03
ChatGPTに自然言語処理モデル「GPT2-Japanese」の使用方法を聞きながら実装したら想像以上に優秀だった件 | 豆蔵デベロッパーサイト developer.mamezou-tech.com/blogs/2023/03/… #豆蔵デベロッパー @MamezouDevから
posted at 06:55:25
RT @yoko_materialDX: 構造情報をテキストにして物性予測する論文。 先週も似たような論文が公開されていましたが、こちらは構造テキストをTransformerで学習、なんとグラフ系のモデルよりも高精度に予測できたそうです。 本当なら衝撃的、結晶構造言語化の研究が増えそう。一度遊んでみよう。 arxiv.org/abs/2303.12188v1
posted at 00:18:59
RT @tka0120: 「大規模言語モデル(LLM)に関連するビジネスを展開する際に留意すべき法規制・知的財産権・契約」という連載記事を書き始めました! storialaw.jp/blog/9239… twitter.com/i/web/status/1…
posted at 00:18:46
RT @resnant: GASとChatGPT APIを使ってarxivから新着論文をまとめてメールで送ってくれるサービス作った。 (ChatGPT APIで何かしないとイット業界の人間として人権が認められないような気がしたので。。 pic.twitter.com/npY7jLWRyd
posted at 00:18:09
RT @resnant: コードをGistに置いときました: gist.github.com/resnant/d42ae6… 新しいGoogle Apps Script作って↑のコードの中身をコピペしてChatGPTのAPI Keyと送信先メアド入れれば動くと思います script.google.com/home
posted at 00:18:02
データセットと前処理がほぼすべてやなぁ..
posted at 00:15:56