RT @fladdict: AIを普及させるのも手だけど、個人としては「今のうちにひたすらAI使ってリードして、資本をためて先行者利益で逃げ切る」というのができるタイミングであるのでチャンスではある。 twitter.com/masahirochaen/…
posted at 23:20:39
RT @ysk_motoyama: マッキンゼーの「伝説の社内資料」が書籍化した本がヤバすぎる。 この本に書かれている「問題の定義」のフレームワークがシンプルでわかりやすい。他の章も、学びの量が桁違いに多いし、出てくる事例がリアルすぎるので、何度も読み返してしまいます。 本書の学びメモも載せておきます。 pic.twitter.com/mH90umBLGM
posted at 23:18:56
RT @zoeai: 西日本新聞に連載中のエッセイが公開されました。今回のテーマは「言い間違い」です。 言い間違い 似た言葉まで脳内で活性化 www.nishinippon.co.jp/item/n/1120976 #西日本新聞
posted at 23:10:44
RT @itnavi2022: AIの要約性能を向上させるChain of Density(CoD)を試してみた ✅CoDの英語プロンプトと日本語プロンプト ✅通常のGPT-4要約との比較 ✅ニュース記事、note記事、小説の一部などの要約 #ChatGPT #ChainofDensity note.com/it_navi/n/ne18…
posted at 22:37:22
RT @31pi_: ローカルLLMで手軽にLoRAを適用して高速で推論させてみる試みをしました✨ text-generation-webuiで、ELYZA-japanese-Llama-2-7n-fast-instructをExLlamaでロードし、LoRA適用してみる|さいぴ @31pi_ #note note.com/sa1p/n/n27e922…
posted at 22:36:59
RT @MickeyKubo: speakerdeck受けたので,以前話した数理最適化と機械学習の融合についてのスライドもあげました. speakerdeck.com/mickey_kubo/sh…
posted at 22:27:38
RT @Tomuo2000: 笑わない数学シーズン2、放送開始に先立ち、2009年に私が制作に携わった素数の番組が再放送されます。興味のある方はご覧ください。 www.nhk.jp/p/ts/LR4X1K4WV…
posted at 22:27:00
RT @y8o: ChatGPT + textlint + reviewdog で最高の文章を無限に生成しよう zenn.dev/junyaokabe/art…
posted at 22:23:11
RT @yellowshippo: 本日 Optimization Night で LT します! 最適化と物理シミュレーションの関連と、それを使った機械学習手法について話します! スライドはこちら: speakerdeck.com/yellowshippo/w… #opt_night
posted at 22:23:01
RT @sinchir0: 今日の勉強会で思い出したが、Confident Learningの論文、手法は直感的だし、ハイパラなしだし、ライブラリしっかりしてるしで素晴らしいと思う。 arxiv.org/abs/1911.00068 日本語記事なら下記が分かりやすい。 aotamasaki.hatenablog.com/entry/confiden…
posted at 22:20:05
RT @forthshinji: 新しい論文です。「深層学習で獲得される音声シンボルはZipf則に従うか?」 1. 上記仮説は真か? 2. テキストに表せない音声的逸脱を、Zipf則を使って検出できるか? です!よしなにー。 twitter.com/forthshinji/st…
posted at 22:19:57
RT @forthshinji: Our new paper! New criterion to diversify data in the text-speech space for dataset creation. We provide a data selection strategy for maximizing data diversity. テキスト-音声データセット作成において「データ多様性」という軸を提案し,多様性最大化に基づくデータ選択法を提案します. twitter.com/trgkpc/status/…
posted at 22:19:09
RT @bilzrd: Contrastive Decodingにより論理思考を要求する各種タスクでベースラインを上回ったとする報告。 しばらくこの方向で関連研究が進むかもしれない。 arxiv.org/abs/2309.09117
posted at 22:18:48
「研究に没頭する女性教授がいてもいい」 新発見を重ねる女性植物科学者(73)を支えた父の教え dot.asahi.com/articles/-/201…
posted at 22:16:57
RT @jouhouken: 📖広報誌NII Today No.100 「生成AIに挑む」 を刊行しました。 急速に開化した生成AIが世界のニューストピックを賑わせています。 言語、画像や音声を含む生成AIの進化は、その技術や活用に期待がかかる一方、データの真偽、正当性、フェイクによる情報の錯乱や犯罪の脅威に人々を晒しています。… twitter.com/i/web/status/1… pic.twitter.com/vbpCTYZcU5
posted at 22:06:03
RT @ptarmigan_jp: さきがけ「文理融合による人と社会の変革基盤技術の共創」領域にて「立場と規範を反映した言語モデルによる法議論シミュレーション」という課題で採択していただきました。シミュレーションという切り口から、司法における言語処理応用の促進と発展に向けて研究に取り組みます。よろしくお願いします! twitter.com/JST_Kisokenkyu…
posted at 21:52:29
RT @yukky_saito: ChatGPTにBlenderでROS2の点群描画させてって指示出して、「もっと頑張れ」って言いまくったら描画できるようになった pic.twitter.com/dvXnfVoF1q
posted at 21:51:04
RT @kohto_ai: ゲームAIの祭典、Computer Olympiad 2023 の最終結果が確定し、開催された32競技全ての参加を有言実行できました!!! 開催競技数自体が新記録なので、もちろん前代未聞の記録です。主催者、参加者含め多くの方にサポートしていただき、ありがとうございました!!! icga.org/?p=3874 pic.twitter.com/msLy5p3WmW
posted at 21:40:02
RT @yuruhuwa_kdenpa: 金融庁「本社は多摩に移転したんだって!?多摩店にも行くわ」 ビッグモーター「😭😭😭」 金融庁「ちなみにうちの立ち入り検査は警察と違って数ヶ月続くからね」 ビッグモーター「」 笑う pic.twitter.com/E4mNmT2mHf
posted at 21:39:31
RT @sandae2356: #仮面ライダー #大野剣友会 「変身!変身!と子供達の大きな声が町の中でこだまする。今まさに仮面ライダーの変身ポーズが子供達の中を駆け巡る(平山Pから視聴率上昇の知らせを聞き)何が何だか分からないけど胸が熱く、涙がぽろぽろ出てきやがる」高橋一俊 命を懸けで夢を作ってくれた男達 pic.twitter.com/t0LY8AcfPD
posted at 20:37:50
RT @izutorishima: 『開発したLLMは最終的にGitHubやHugging Faceで公開するが』マジで?神 なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由” www.itmedia.co.jp/news/articles/…
posted at 20:37:03
RT @m_k_696: Flash Attentionを使ったLLMの推論の実験が丁寧に解説されている。 Flash Attentionを使ってLLMの推論を高速・軽量化できるか? qiita.com/jovyan/items/1… #Qiita
posted at 20:36:56
RT @hardmaru: The Computational Beauty of Nature: Computer Explorations of Fractals, Chaos, Complex Systems, and Adaptation Published in 1998, this is a beautiful classic that gives an overview of many topics and ideas that are still relevant today. mitpress.mit.edu/9780262561273/… pic.twitter.com/FLNaQa268h
posted at 20:35:24
RT @alfredplpl: “生成AIのルールが今後、整備されていく過程で、作り手の側がしかるべき倫理のあり方を考え、発信することです。生成 AIが広く社会に受け入れられ、活用されていく上で、研究者自身が、法にとどまらない倫理のあり方を議論していくことが重要なのだと思います。” www.nii.ac.jp/today/100/7.html
posted at 19:44:28
RT @_akhaliq: MindAgent: Emergent Gaming Interaction paper page: huggingface.co/papers/2309.09… Large Language Models (LLMs) have the capacity of performing complex scheduling in a multi-agent system and can coordinate these agents into completing sophisticated tasks that require extensive… twitter.com/i/web/status/1… pic.twitter.com/BXnM7ATGM0
posted at 19:43:02
RT @yuiseki_: 私の愛用しているtext-davinci-003がgpt-3.5-turbo-instructという新しいモデルに置き換えられて停止される予定であることにいまさら気がついた GPT-4 API general availability and deprecation of older models in the Completions API openai.com/blog/gpt-4-api… gyazo.com/782e12cef3fdca… pic.twitter.com/ST4ClUeUky
posted at 19:06:24
RT @tanichu: 教師あり・なし、強化学習の3分法。よく講演では『イラストで学ぶ人工知能概論』の図を見せながら「初学者・学部生向けには少なくともこういう三分法を教えますが、実際にはこの境界はあまりクリアじゃないし、現状どんどん溶けているので便宜的なものだと思ってくださいませ」とよく言いますねー。 pic.twitter.com/xRAbyQvnzN
posted at 19:01:39
RT @GrantSlatton: The new GPT model, gpt-3.5-turbo-instruct, can play chess around 1800 Elo. I had previously reported that GPT cannot play chess, but it appears this was just the RLHF'd chat models. The pure completion model succeeds. twitter.com/GrantSlatton/s… See game & thoughts below: pic.twitter.com/pztWrIuKFD
posted at 19:01:05
RT @hevohevo: “リスキリングは基本的にはあくまで企業や行政が責任をもって行うもので、企業が実施する場合は、“業務”として就業時間内に行うことが必要” とても重要な視点よね。 / “2万コースが無料で受けられる…日立製作所「業界最大の赤字→過去最高益」の背景に半端ないリスキリン…” htn.to/JADrgqXav2
posted at 18:58:06
RT @omarsar0: 🐙Agents This open-source library looks really promising. It supports features for building autonomous language agents. Includes features like long-short term memory, tool usage, web navigation, multi-agent communication, human-agent interaction, and symbolic control.… twitter.com/i/web/status/1… pic.twitter.com/hRQzMA97Sk
posted at 18:57:55
始まりはカボチャの種 「女の人は無理だよ」と言われ教員に落ち続けた女性研究者が京大教授になるまで dot.asahi.com/articles/-/201…
posted at 18:44:29
RT @omarsar0: LLMs for Generating Structured Data This is an Interesting paper studying the use of LLMs for generating complex structured data. It proposes a specific dataset to assess structured text generation. It's well known that even the best LLMs today struggle with structuring… twitter.com/i/web/status/1… pic.twitter.com/tJEzh1PddV
posted at 18:41:10
RT @_akhaliq: Adapting Large Language Models via Reading Comprehension paper page: huggingface.co/papers/2309.09… explore how continued pre-training on domain-specific corpora influences large language models, revealing that training on the raw corpora endows the model with domain knowledge, but… twitter.com/i/web/status/1… pic.twitter.com/IQurA4LoEV
posted at 18:39:24
RT @mi141: 物体を検出・認識する系の様々なタスクを単一のモデルで解くUNINEXTの紹介動画(全然知らなくて勉強になりました) 「タスク情報をプロンプトのような形で統一的に表現 ⇒ 画像/動画と共に入力」というLLMっぽいイマドキな感じ。今後はこういうのが主流になるんですかね~ youtu.be/PtLTREXwA7Q?fe… pic.twitter.com/C6GeYx4C0l
posted at 18:38:41
RT @yo_ehara: JSTさきがけの「文理融合による人と社会の変革基盤技術の共創」領域に採択されました!「大規模言語モデル上での学習者の思考過程シミュレーションによる教育変革基盤技術」という研究課題で、3年半頑張ります。同領域でNLPやAIED関係の先生も採択されており、楽しく研究を進めていきたいと思います。 twitter.com/JST_Kisokenkyu…
posted at 18:37:50
RT @usait0: 反実仮想や強化学習に関するワークショップ”CONSEQUENCES”の運営メンバーとして今日からRecSys参加してます 日本から現地参加されてる方ぜひ仲良くしてください.. sites.google.com/view/consequen… pic.twitter.com/zStj7fRkte
posted at 18:31:57
RT @Maxwell_110: 🌐Dive into LoRA Adapters towardsdatascience.com/dive-into-lora… 限られた GPU resource で LLM を fine tuning したい場合,今やデファクトとなりつつある LoRA を非常に平易に解説してくれている記事 全 4 回を予定しているシリーズの第一回目の記事で,最終回では QLoRA を解説予定とのこと
posted at 18:31:49
RT @MLBear2: 「非構造化データを解析して情報を抽出する」タスクにFine-tuningしたGPT3.5が、GPT4相当の精度でタスクをこなせたという事例の紹介。 GPT4では時間もお金もかかるところをGPT3.5に置き換えができて良かったとのこと。OpenAIの想定する使い方に沿った、いい工夫ですね😇 tech.drobe.co.jp/entry/2023/09/…
posted at 18:31:32
RT @shima__shima: LLMを使った推薦のチュートリアルを見たがなかなか豪快だった 過去の購買履歴をいれて,この場合はこれとかいうプロンプトを入れて,それに対してこの購買履歴では?と聴いて答えをみれば推薦できるとかいう考え recsys.acm.org/recsys23/tutor…
posted at 18:31:12
RT @MLBear2: `gpt-3.5-turbo-instruct` っていうモデルが生えてた。 チャットのやり取りをしない一発回答のモデル ( `text-davinci-003` ) の後継らしい。要約や翻訳を一発で回答させるのはこっちの方が向いてるのかな?後で試そう。 platform.openai.com/docs/models/gp… pic.twitter.com/Jiakh2syv4
posted at 18:29:35
RT @_akhaliq: PDFTriage: Question Answering over Long, Structured Documents paper page: huggingface.co/papers/2309.08… Large Language Models (LLMs) have issues with document question answering (QA) in situations where the document is unable to fit in the small context length of an LLM. To overcome… twitter.com/i/web/status/1… pic.twitter.com/N2o5ktBj0N
posted at 15:04:45
RT @marktenenholtz: New method for LLM summarization that surpasses human performance. Basic idea: it’s hard to know what to put in a summary. So, do a first pass summary. Then, check for any missing details or entities, and refine the summary to include those *without* making the summary longer. pic.twitter.com/iuNwbszDjW
posted at 12:42:58
RT @fladdict: アルツハイマーになった作家の文章を分析。これ応用すれば、自分のツイートやブログからアルツハイマーの兆候を見つけられそう reading… アルツハイマーになった作家(アガサ・クリスティなど)の文章を調べた論文が面白い「兆候は40代から始まっている」 - Togetter togetter.com/li/2226111
posted at 12:42:02
RT @sei_shinagawa: 第17回 Language and Robotics研究会 langrobo.connpass.com/event/294880/ 2023/09/21(木) 11:30 〜 12:40 (日程変更後のスケジュールはこちらです。ご注意ください) #LangRobo
posted at 12:40:49
RT @nerio_mulee: 田舎のしがないリトミック教室なんですが、中1生徒が勝手にシンセを設計し始めてて、意味が分かんないです。 #音楽教室ミューレ pic.twitter.com/03doi5AasS
posted at 12:39:54
RT @tmak_tw: 長く待ち望まれていたホストへの自動メモリ返却が実装された。アイドル時にキャッシュを返す。あとはNATを使わないネットワークモードもインパクト大。 / Windows Subsystem for Linux September 2023 update devblogs.microsoft.com/commandline/wi…
posted at 12:39:39
RT @_akhaliq: Contrastive Decoding Improves Reasoning in Large Language Models paper page: huggingface.co/papers/2309.09… demonstrate that Contrastive Decoding -- a simple, computationally light, and training-free text generation method proposed by Li et al 2022 -- achieves large out-of-the-box… twitter.com/i/web/status/1… pic.twitter.com/yakosyIwah
posted at 12:39:25
RT @Zuntan03: 『簡単プロンプトアニメ』 プロンプトだけで簡単に動画生成 Google アカウントだけで、スマホでも動画を生成できます。colab.research.google.com/drive/1QVxBjAa… 作例はプロンプトのみで、2重にアップスケールをかけて、Flowframesで60FPSにしています。 nadenadesitai_v10 利用 実写系モデルなど他の作例はスレッド pic.twitter.com/vWub8wPrT4
posted at 12:39:08
RT @hiro_gamo: なんか推しすぎるとうざいかも知れないですが、私の担当してるお客様でも、この「Vector +Keyword SeachにAzure独自のセマンティックリランクを組み合わせた検索」が凄い評判良くて結構移行してくれてて嬉しいんです。Vector単独の類似度って意図したものじゃないときもあるし。 twitter.com/daiki15036604/…
posted at 12:38:17