RT @kenken26679105: これは、僕のポリシーには反するけど、刺さる時系列データのコンペとかありそうですね🤔 (1) tsfreshで、特徴量の自動性生成と選択 (2) Lasso正則のロジ回帰で特徴量選択 (3) (2)の結果を基に、オリジナル辞書を作成し再度tsfreshで生成 Lassoで積極的に特徴量を削るのがポイントですね👍 #Python pic.twitter.com/8seTxBrlw9
posted at 23:12:12
RT @langstat: ジャンプ漫画の名言はどんな印象?BERTでポジネガ分析をする - Qiita qiita.com/yuya2220/items…
posted at 23:11:04
RT @edo_m18: 今日色々触っていたGenerative Agentのデモ実装を動かすまでのブログを書きました! ちょっとしたエラーに躓いたりしたのでそれも記載してます! -> Generative Agentのデモ実装をプレイしてみる zenn.dev/meson/articles… #GenerativeAgent #OpenAI #GPT #AI pic.twitter.com/uIimOPPO6c
posted at 23:07:47
RT @nakamura: 中村研M2の山﨑郁未さんによる第204回HCI研での「自由記述設問の順番とテキストボックスサイズが離脱に及ぼす影響: スマートフォン・PCの比較」の発表報告.大きい入力欄は文章量を増やせるが離脱率も上昇させてしまう等の結果が得られました. 初北海道を堪能したようです. nkmr-lab.org/news/hci204_we…
posted at 23:07:38
RT @koguGameDev: ローカルLLMへの流れ加速する と言ってもマスが取れればOpenAIやら大手は十分で、NSFWに踏み込むなんてリスクしかない ローカル勢の具体的なモチベーションが上がりつつ、ニッチ狙いのサービスの乱立とが始まってくんだろうな 日本語はまだ恵まれてる方かな twitter.com/mutaguchi/stat…
posted at 22:38:00
RT @chinchilla10x: ChatGPTは入出力が良くも悪くもブラックボックスなので、こういった入出力評価に関する知見の情報は貴重です。ありがとうございます。 結果、シンプルで十分なのですね。 ChatGPT の長いプロンプトに意味があるのか気になったときに試す評価方法|piqcy @icoxfog417 #note note.com/piqcy/n/nd25bc…
posted at 22:37:33
RT @Libratechw: 書きました。 Embeddingsを使ってローカルでテキストをクラスタリングする(Multilingual-E5)|Libratech zenn.dev/libratech/arti… #zenn
posted at 22:36:11
RT @tweeting_drtaka: それにしても、ChatGPT、研究ディスカッションの相手として相当優秀ですね。 …みたいな発言をすると、hallucinationがーとか、過去の文書による制約がー、みたいなツイが返ってくるのですけれど、そんなこと、どうでも良いのですよね。こちらは発言の正しさを吟味し、検証できるわけですから。(続く)
posted at 22:34:42
RT @shoty_k2: メタ認知をさせてGPTなどの大規模言語モデルの認知能力を上げる手法 「メタ認知プロンプティング(MP)」 人間の認知プロセスを真似させてんだね。 このプロンプトテンプレはリプにつけておくが、以下の5段階のプロセスをへるんやね。 arxiv.org/abs/2308.05342 理解の確認:… twitter.com/i/web/status/1… pic.twitter.com/3YJ9NV4T3k
posted at 22:34:34
RT @yoko_materialDX: 緩和前から後の構造を予測する論理。 第一原理計算によるスクリーニングでは構造緩和が大きな律速になりますが、 ある画像から別の画像を出力する技術をこれに応用することで84%の高精度で予測できたそうです。 このグループの研究は毎度興味深く個人的に注目度高めです。 www.nature.com/articles/s4152…
posted at 22:33:32
RT @karaage0703: なかなか学びが深い本でした。事例はリアルだなと感じました。自分の数少ない経験でも「ウッ」となること多数。評価指標ちゃんと学ぼうと思いました > データ分析失敗事例集: 失敗から学び、成功を手にする Amazon: amzn.to/45uVOxv pic.twitter.com/cnWXR4UQ32
posted at 22:31:56
RT @akira_dev: このレベルの議論に対する丁度よい童話 twitter.com/tsuyomiyakawa/… pic.twitter.com/qMgVh35omt
posted at 22:29:59
RT @mr_bay_area: 今更ながらDesigning Machine Learning Systems読んでるんですけど、「本番環境で起こるMLシステムの問題の過半数は、ML関係無いエンジニアリングの問題に起因している」と書いてあって、割と自分の感覚とも合ってるし、エンジニアリングは大事だぞと当たり前のことを思うなどしてる。
posted at 22:29:37
RT @karaage0703: 寄稿した日経Linux、特にLLMの特集に言及有りです @Beluuuuuuga @pondelion1783 > 素振りの記:『日経Linux2023年9月号』の特集に沿ってLLMをファインチューニング! Linuxコマンドを教え込む - nikkie-ftnextの日記 nikkie-ftnext.hatenablog.com/entry/llm-fine…
posted at 22:29:20
RT @iBotamon: 4日前のarXivより: 読影レポートから部位や所見を読み取り それらの関係を有向グラフに変換するためのデータセット RadGraph2が提案されたようです NeurIPS 2021採択のRadGraphを拡張したもので 前回検査からの変化やデバイスの留置/抜去が追加アノテーションされています arxiv.org/abs/2308.05046
posted at 22:25:04
RT @AiXsatoshi: 小説AI buncho面白い! 続き気になるけど、短文で終わること多い min_length指定してみたら長文出力 800tokenぐらいを一気に仕上げてくれた pic.twitter.com/WWrKUDds5F
posted at 22:15:39
RT @kyudai_mokeibu: がお土産として寄贈した物らしいのですが…………………… すっっっっげぇぇぇぇぇ…………(圧倒 ""1/96""!!!??? 部長が両手広げても足りない大きさ!? 竣工時の図面を精密に再現していて細部まで見応え抜群!!??!!?? 真鍮パーツ堪んねぇなオイ!!!!!!!!!! あっあっ喫水標がローマ数字で(字数)↓ pic.twitter.com/dABKZhWyAk
posted at 22:10:27
RT @kyudai_mokeibu: 先日、「ウチの大学にメチャでっかい船の模型があるらしいぜ!」という情報を入手し、九大工学部の””船舶海洋工学科””さんにお邪魔しました! 応接室に通されると、そこには何と 1/96 日本海軍戦艦『霧島』の姿が! 九大がまだ『九州帝國大学』だった時代、造船科の教授を務める野中季雄造船中将↓ pic.twitter.com/kxfrnHtGFt
posted at 22:10:17
RT @shion_honda: オージス総研の『はじめての自然言語処理』が連載5年目に突入していました… Colabで実行というポリシーを守りつつMixCSEやRLHFに挑戦していて、相変わらずすごいです。 twitter.com/shion_honda/st… pic.twitter.com/bPwzyiTrsy
posted at 22:09:40
RT @itnavi2022: ② 質問に対する最初の回答案を作成する。 ③ 回答案が正しいかどうかを批判的に評価する。 ④ 上の評価を踏まえて、最終的な回答を作成し、その理由を説明する。 ⑤ 最終的な回答に対する自信を評価する。
posted at 22:09:22
RT @itnavi2022: #ChatGPT のカスタム指示用の簡単なメタ認知プロンプトを作成し、質問に回答させてみました。 ユーザーの質問に対して、以下のメタ認知アプローチを使用して回答してください。 ### メタ認知アプローチ: このアプローチは5つの段階で構成される。 ① ユーザーの質問の内容を分析する。(次頁に続く) twitter.com/shoty_k2/statu… pic.twitter.com/mAmR5ZS9Cy
posted at 21:40:09
RT @KEUMAYA: お母さんの嘘つき!! マジで会場で一冊たりとも見つけられなかったよ!! 自分が作ったお母さん本だけだったよ! セセリアさんをお母さんにする本ばっかりだよ! pic.twitter.com/Xv4vNefz7B
posted at 20:57:48
RT @masa_0083: そうそう。F-35は複座もありますよね! ライトニング2じゃなくてドラケンの方のF-35(機種転換訓練機型sk-35c)だけど。 twitter.com/lyuzhngyn1/sta… pic.twitter.com/lt7GdSfOkB
posted at 20:57:40
RT @alfredplpl: Microsoft!雇ってくれ! なぜ神戸に? 米マイクロソフト、日本初のAI開発支援拠点を設置へ:朝日新聞デジタル www.asahi.com/articles/ASR8B… #
posted at 20:57:31
RT @kkaigai: 娘殿が夏休みにやっている算数の問題集、最後の設問が親世代の腹筋を殺しにかかっとる。(子供は意味がわからない) pic.twitter.com/MzOKYwfbxG
posted at 20:51:16
RT @izutorishima: コメント含めてあまりに素晴らしすぎる、才能の塊なんだよな……… 文化祭で某チェーン店を再現して失敗した話 qiita.com/NaYuA/items/1c… #Qiita
posted at 20:51:04
セリアと学研キッズネットのコラボ企画!!セリアの商品を使って自由研究に挑戦しよう!8月17日までセリアのお店に今年の自由研究の材料や作り方が置いてあるよ♪ www.seria-group.com/natsuyasumi/in…
posted at 17:53:57
RT @goto_yuta_: LLaMA2をfine-tuningする際のtipsをまとめた記事を読んだ。 チューニング次第でタスクを絞れば凄い精度が出ている。 つまり精度だけなら個人開発でもなんとかなるのか! あとはこの巨大モデルを運用するサーバー費用をどう乗り越えるか... pic.twitter.com/AqKeJ7PDHz
posted at 10:54:34
RT @goto_yuta_: 言語モデルが政治的に何かしら偏っているって論文、読む前から学習データの問題だと思ってたら結論もやはり学習データの偏りの話で草。 ただ、こういう偏りってRLHFとかで何とかなりそうな気もする。 pic.twitter.com/RgEUelFuPT
posted at 10:45:24
news.tv-asahi.co.jp/news_society/a…
posted at 09:12:44
RT @yoko_materialDX: 反応に使う溶媒を予測する論文。 特許データを学習して、反応前後の分子を入力、その反応に使われた溶媒を予測するモデルを構築、実際に実験で検証すると11中8反応を当てられたそうです。 BERTとRFを組み合わせた点がポイント。 IBMさんより。早速試してみたくなる手法。 doi.org/10.26434/chemr… pic.twitter.com/vzswGeyHFT
posted at 08:26:16
RT @DrJimFan: This is an ape ("Kanzi") playing Minecraft! A fascinating experiment on non-human biological neural networks 🙉 I've been teaching AI to play Minecraft for too long. There're so many similar techniques that the ape trainers used: - In-context reinforcement learning: Kanzi gets… twitter.com/i/web/status/1… pic.twitter.com/3t8D7iuBQR
posted at 08:24:14
RT @Kinosuke_sophi: 飛行機雲コンペ1stのnotebook、inferenceだけかと思ったら気前よくtrainもあるやん! ありがたやありがたや🙇♂️ www.kaggle.com/code/junkoda/b…
posted at 08:08:00
RT @Kinosuke_sophi: とりあえず後で試したいこと。 oneformer, MAXVIT, EfficientNetB6を1024、5Fold, efficientnet_l2, solt label terekaさん2.5D classification -> segmentation まだコンペ終わってから1時間ちょっとなのにこんなに情報公開してくれるのありがたすぎる🙇♂️ 0.5pixelの件はディスカッションを待とう
posted at 08:07:53
RT @shapoco: "X(旧Twitter)で使われている短縮リンクt.coの古いものが機能しなくなり、リンクの付かないt.coのURLが表示されるだけになっています。これにより、古いポストにおいてURLやドメインに言及していると、それがどこだったのかわからなくなっています www.orefolder.net/2023/08/x-t-co/
posted at 08:03:07
RT @8hmVmEGJ6nFyUE5: rinna4.0b multimodalに自分の動画にコメント付けてもらう動画をつくってみました。 本編はいつものマージモデルを使ってるのであやふやの極致ですが、15:11~ オリジナルによる応答の様子もつけてあります youtu.be/Zot8JRr0N04
posted at 08:02:25
RT @jerryjliu0: A naive assumption for building RAG is that the context “chunk” used for embedding vs. LLM is the same. Instead 💡: use smaller chunks for embedding and an “expanded window” for the LLM. Super simple trick to improve performance of your QA system. 👇 gpt-index.readthedocs.io/en/stable/exam… pic.twitter.com/6aNs9iTFq0
posted at 07:09:03
RT @jerryjliu0: The LLM stack over structured data is typically just text-to-SQL. But SQL tables can contain unstructured text. So you can actually combine text-to-SQL with retrieval augmentation for sophisticated LLM QA 💫 @ravithejads shows this in our latest blog 📝: medium.com/llamaindex-blo… pic.twitter.com/MNTKWwkGkw
posted at 06:14:16
RT @kodaigirisyano: 昔の人は「神が人間を含む生物を作った」と考えていたが,突如ダーウィンが現われて進化論を提唱したというのは素朴過ぎる理解です.古代より生物の発生については様々な学説が提唱されており,魚的なものから人間が発生したという学説を嚆矢として原子論に至るまで様々な議論の枠組みがあったのです. pic.twitter.com/QAqjcYWlfo
posted at 06:13:16
RT @IIMA_Hiroaki: 過去数か月以内に、テレビで「『なるほど』は避けましょう、『そうなんですね』を使いましょう」と言うマナー講師の話を聞きました。メモが残っておらず、詳細が分からなくなってしまいました。どなたか、番組名などをご記憶の方はいらっしゃいませんか? 漠然とした情報でもいただければ幸いです。
posted at 06:12:13
RT @taro_stst: ドメインとして遠いところ?(例では明るいところと暗いところ)の一方のデータで学習するとき、もう一方にも適応させようとするとrgbのaugmentationでは不十分で、raw画像から変換したほうが良いみたいな話っぽい。rgbからの変換ではその前段にある変換処理のせいで不自然になるとか。勉強になった。
posted at 06:04:35
RT @taro_stst: 俺たちのaugmentationは間違っていた!という動画を見た。いい動画だった。 youtu.be/nKfnSVyGX_I
posted at 06:04:22
RT @langstat: BERT系モデルで文章をEmbeddingする際のTips - Qiita qiita.com/anyai_corp/ite…
posted at 06:03:12