Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

5月22日のツイート

$
0
0

RT @MasahiroKaneko_: 📢 Our research with @gneubig and @chokkanorg demonstrates how human-AI discussions enhance task performance. We introduce a dataset and framework for dialogue-based prediction refinement, resulting in up to 25-point accuracy improvement in NLI tasks. 📜: arxiv.org/abs/2305.11789 pic.twitter.com/nQ3ZySn8hk

posted at 22:00:23

RT @KYOCERA_JP: 【次の魔改造は鳩時計!!】 超一流エンジニアたちが極限のアイデアとテクニックを競う、技術開発エンタメ番組「#魔改造の夜」👻 第2回目の放送では、熱いハートで高さ8mのカゴへ鳩を飛ばす必見バトル🐦🔥 今回も出場します!! 5/25(木) 19:30からNHK総合テレビで♪😉 www.nhk.jp/p/ts/6LQ2ZM4Z3… pic.twitter.com/aWCr2QIaxa

posted at 21:59:47

RT @saiensu_sha: 【近刊】『SGCライブラリ185 深層学習と統計神経力学』甘利俊一(東京大学名誉教授) 著 は6月下旬発売予定です!#SGCライブラリ 目次はこちら👇 ・深層学習:その仕組みと歴史 ・層状のランダム結合神経回路 ・深層ランダム神経回路による信号変換 (続く)

posted at 21:59:17

RT @freude111: これは本当にそうで、文学部卒で数学的なバックグラウンド皆無でAtCoderやってただけの私でも、Y社で検索エンジンの開発に携われるようになったりしています(流石に新卒では無理でしたが)。 ありがとうAtCoder! twitter.com/fushiroyama/st…

posted at 21:58:48

RT @CyberAgent_PR: 当社子会社の株式会社AI Shiftにて、サイバーエージェント独自の日本語LLMを活用し、カスタマーサポートに特化した「各企業専用LLM構築サービス」の提供を開始いたしました。 www.cyberagent.co.jp/news/detail/id…

posted at 21:58:31

RT @mizchi: キャリア10年超えたのでベテラン側だと思うが、基本140文字超えたらブログにしようと思ってるけど経験つむと「あの概念のアレ」で、端的に物事を整理できるようになっていくので、「アレのアレとソレのコレをXしたやつ」で圧縮して満足しがちではある yyyank.blogspot.com/2023/05/blog-p…

posted at 21:54:22

RT @hasegaw: Rust (Game) の Dedicated Server がどれぐらいの負荷になるのか知るためのテストをしているけども仮想メモリ31GB、実使用量が15GB~22GBぐらいで推移しており驚いている。Ultima OnlineなんてPentium Pro 200Hz, 128MB RAMとかで500人くらいホストしてたはずなのに

posted at 21:54:03

図書館で本を借りては読みきれずに返却していたが、借りることにより本に『実績』がつくという説を聞いてから大手を振って借りまくっている togetter.com/li/2151916 #Togetter @togetter_jpから

posted at 20:36:08

特集は「ラズパイPicoで1500行 ゼロから作るOS」——CQ出版が「Interface 2023年7月号」を発売 | fabcross fabcross.jp/news/2023/2023…

posted at 20:33:26

ChatGPTは「トロッコ問題」にどう回答する?有名な哲学・倫理の問題への返答まとめ otona-life.com/2023/05/22/173…

posted at 20:32:23

ソフトバンクから転出。SIMを返しにいったけど、返却不要で自分で捨ててだと。

posted at 19:23:19

RT @knshtyk: この発想がより進んでいけば人間の表現活動の基本原理を再現できたことになりそうな。そしてAnyとAnyの変換が行われるとき、我々が一体何を交換しているのか、言語が定義する"モデル"が相互性を持つということは一体どのようなことなのか?の問いがより高い解像度を持ち始める時代が来る。わくわくする twitter.com/RosaRugosaBeac…

posted at 19:02:17

RT @ProfMatsuoka: 目標としては、GPT3.x並みの1700憶パラメタのモデルを富岳の1/5程度を使って一月程度で事前学習モデルを形成します。勿論、富岳ではその為に多くの高速化の技術を既に開発中で、それらの技術は今後の各機関の学習専用スパコンやFugakuNEXTなどに活かされるでしょう。

posted at 17:59:03

RT @yhkondo: 富岳で170BのオープンなLLMを作って、商業利用も可という素晴らしい計画。ぜひ、古典日本語や漢文データも事前学習に取り込んで欲しい。現代日本語の日常の漢語の生成には、漢文データ(論語・史記・唐詩等の中国漢文含む)からの転移学習が有効だと思う。LLMで古代語を分析していての実感。 twitter.com/ProfMatsuoka/s…

posted at 17:58:53

RT @RosaRugosaBeach: いずれ出てくると思ったけど、Any2Anyの拡散モデルが提案されたみたい。言語、画像、動画、音声の任意の組み合わせ(訓練データになかったものでさえ)から、任意の組み合わせを出力できる。単一モダリティのSOTAとすら並んだり凌駕する(画像はImagenとかと比べてないけど) arxiv.org/abs/2305.11846

posted at 16:43:33

RT @RosaRugosaBeach: 適切に選択したたった1000件の学習データでLLaMa 65BをFTすると、RLHFとか使わずともAlpaca 65B〜GPT4までと比較して競合できるくらいの性能に到達するという研究 arxiv.org/abs/2305.11206 興味深い pic.twitter.com/Fuq97xxxFl

posted at 16:42:58

RT @shino7878shino: 一番期待しているのは、やはり技術です。 ウクライナの戦後復興というのが、ウクライナ人にとっては、命が続いているということのメッセージになります。それは、即時のファースト・リカーバリープランもそうですし、長期的なインフラ発展のプロジェクトも必要です。

posted at 16:34:43

RT @shino7878shino: この分野における日本の経験が極めて重要であり、今日、総理とこの話をしてきました。  エネルギー分野、特にクリーンエネルギー、鉄道開発と日本の技術が必要であり、 医療分野などについてお互いに話し合ってお互いの理解を得ています。  将来の効果が期待できると思います。

posted at 16:34:42

RT @shino7878shino: 昨日のゼレンスキー大統領の広島での演説、記者との質疑応答で、最後に質問したのは、後輩のテレビ東京 横堀記者です。 反響が大きかったので、そのやりとりを、こちらに掲載します。 【横堀記者】 日本のテレビ局、テレビ東京の横堀と言います。今日はありがとうございます。 ウクライナ国内が大変

posted at 16:34:29

RT @icoxfog417: 大規模LLMのFine Tuning はデータ量よりデータの質が鍵とする論文。65BのLLaMaモデルを1000件の厳選したサンプルで学習することでGPT-4と比較して人間が選好/同等とする割合が43%、またGPT-3ベースのdaVinci003では65%と勝ち越す。事前学習で必要な知識は獲得済みの示唆 arxiv.org/abs/2305.11206

posted at 16:32:15

RT @CyberAgent_PR: 「富岳」政策対応枠の本取組みにおいて、当社も大規模言語モデル構築のためのデータおよび技術提供の連携の検討を進めております。 引き続き、生成AI技術発展の貢献に努めてまいります。 ーーー 東京工業大学や富士通が和製生成AI 「富岳」使い23年度中に - 日本経済新聞 www.nikkei.com/article/DGXZQO…

posted at 16:06:30

RT @oldconnie: ゼレンスキー大統領の目的地、ポーランドのジェシェフ到着まで2時間を切ったけど、付近を米空軍のE-3Gセントリーが警戒中。 pic.twitter.com/IDUW6nzZM1

posted at 16:05:32

RT @kosaki55tea: pr.fujitsu.com/jp/news/2023/0… 最近の活動です。このプレス、だすのすごいがんばりました。いままでGAFAしか出来なかった大規模言語モデルの研究を日本の研究者でもできるようにします

posted at 16:04:44

RT @RIKEN_RCCS: 📣プレスリリース 東京工業大学、東北大学、富士通、#理研 は、「富岳」政策対応枠において、「#富岳」を活用した大規模言語モデル(Large Language Model, LLM)の分散並列学習手法の研究開発を 2023年5月から実施します。 🔽詳細はこちら www.riken.jp/pr/news/2023/2… pic.twitter.com/7gNZEeQMN4

posted at 16:03:07

RT @_akhaliq: Visualizing Linguistic Diversity of Text Datasets Synthesized by Large Language Models present LinguisticLens, a novel inter-active visualization tool for making sense of and analyzing syntactic diversity of LLM-generated datasets. LinguisticLens clusters text along syntactic,… twitter.com/i/web/status/1… pic.twitter.com/Kj4aC3KVZl

posted at 11:59:48

ChatGPTやBardで建築士試験に挑戦、苦手の「法規」でつまずき正答率5割切る xtech.nikkei.com/atcl/nxt/colum…

posted at 11:53:35

「紙飛行機で世界中を自由に飛び回れるゲーム」のデモが公開、「ChatGPT」「Unreal Engine 5」など注目技術てんこ盛りで圧巻の出来栄え - GIGAZINE gigazine.net/news/20230521-…

posted at 11:51:50

RT @bto: TuringComplete(NANDゲートからCPUを実装するゲーム)クリアした。これは自分で作った4バイトの命令セットを持つCPUでハノイの塔を解いている様子。このゲーム、CPUの仕組みが良く分かるようになるから、CPUの勉強してみたい人はやってみるのオヌヌメ pic.twitter.com/te8ce0vxt5

posted at 11:25:24

RT @minaokukita: ある出版社の方から「ChatGPTとかが大変騒がれていますので、ここらでAIと倫理について書きませんか?」と持ち掛けられて、「そういうタイムリーなのは筆の早い人に頼まないと駄目ですよ。例えば平和博先生とか」と言って断ったのですが、いや、まさかこんなに早いとは。 books.bunshun.jp/ud/book/num/97…

posted at 11:12:37

RT @mootastic: 関連: PyPIでは悪意あるパッケージ・作者が増えすぎたため、一時的に新規プロジェクトの登録を停止している。 status.python.org/incidents/qy2t…

posted at 10:56:02

RT @mootastic: VSCode Marketplaceで悪意ある機能拡張が蔓延している。一見すると無難なテーマパックが利用者PCに関する情報を収集していたり、よく似た名前の機能拡張に便乗して認証トークンを盗んだりする。 programmingeeksclub.com/microsoft-vsco…

posted at 10:55:55

RT @arankomatsuzaki: CRITIC: Large Language Models Can Self-Correct with Tool-Interactive Critiquing repo: github.com/microsoft/Prop… abs: arxiv.org/abs/2305.11738 pic.twitter.com/X3lqZeIHXe

posted at 10:49:17

RT @takuramix: 成功か失敗かの二択、ゼロ百で語るなら、あらゆるものは失敗とされるだろう。どこまで進んだとか、そこからどんな前向きな段階が提案できるとか、そういう事を語るべきだと思う。 → 被爆者サーロー節子さん、広島サミットは「失敗」(中国新聞デジタル) #Yahooニュース news.yahoo.co.jp/articles/4d8e9…

posted at 10:48:46

RT @_akhaliq: Any-to-Any Generation via Composable Diffusion present Composable Diffusion (CoDi), a novel generative model capable of generating any combination of output modalities, such as language, image, video, or audio, from any combination of input modalities paper page:… twitter.com/i/web/status/1… pic.twitter.com/p6n8rp7cms

posted at 10:48:25

RT @arankomatsuzaki: LIMA: Less Is More for Alignment Presents LIMA, a 65B LLaMa language model fine-tuned on only 1k curated samples w/o RLHF. Outputs from LIMA are either equivalent or strictly preferred to GPT-4 or Bard in 43% or 58% of cases, respectively. arxiv.org/abs/2305.11206 pic.twitter.com/W658u7Y8n1

posted at 10:44:16

RT @arankomatsuzaki: Any-to-Any Generation via Composable Diffusion Present CoDi, a novel generative model capable of generating any combination of output modalities from any combination of input modalities. proj: codi-gen.github.io repo: github.com/microsoft/i-Co… abs: arxiv.org/abs/2305.11846 pic.twitter.com/d581FZTHQA

posted at 10:26:06

RT @soh_mitian: F35ステルス戦闘機、iPhone LiDARに映らず……。 twitter.com/i/web/status/1… pic.twitter.com/mNgSHqkWrx

posted at 10:24:39

RT @bungoyama: スレッタ捨てられった。#水星の魔女 (グエル先輩はドミニコス隊を目指してたから憧れの人とかそういうあれじゃないかなと) pic.twitter.com/ukXpEuZ5S0

posted at 10:23:15

これは... twitter.com/rkmt/status/16…

posted at 10:22:21

RT @rkmt: 論文1件ごとに要約&図でこんな感じのカードになります。某CHI勉強会のスライドも自動生成できそう.. github.com/rkmt/summarize… pic.twitter.com/U19pClKKx6

posted at 10:21:15

RT @omarsar0: A General Taxonomy of LLM Prompts Proposes a general taxonomy to design prompts that can be used to benchmark LLMs on complex tasks. arxiv.org/abs/2305.11430 pic.twitter.com/huj5BaTUQO

posted at 10:20:54

RT @Yuto3629938305: 「AIが倫理的にNGなこと言わないか?」を誰でも評価・改善できるようなツールをマイクロソフトが公開してる👀 使うデータセットに人種やジェンダーによるバイアスがどれくらいありそうかを測定するライブラリとかがある。こういう発信を欠かさないのは我が社推せるな~ github.com/microsoft/resp…

posted at 10:19:32

RT @KulasanM: 映像の21世紀「このとき、お好み焼きの名称問題があれほどの国際問題に発展しようとは、誰も予想だにしていなかったのです…」 第5集「そして世界は鉄板を見た」より

posted at 09:03:17

RT @Ndoromaru: みんなスレッタのことを想ってるのに… #水星の魔女 #G_Witch pic.twitter.com/tNsuMsw7iB

posted at 08:46:19

RT @Dream_Library_: ある日のマイコン博物館 CoderDojo青梅の特別開催として、マイコン博物館にて、ラズパイでタミヤのキャタピラタンクを制御する電子工作を行いました ラズパイにPWM制御ICを接続して、キャタピラタンクの左右のモーターを制御して操縦します ラズパイ上の制御プログラムはpythonで開発します pic.twitter.com/KQ21WAtd4Y

posted at 08:26:43

RT @hyuki: #ChatGPT でWeb Browsingのプラグインがやってきたので、動かしてみました。たまたまMediumで流れていた英文の読み物が「ちょっとおもしろそうだけど、時間を掛けてその英文を読むかというとたぶん読まないかなあ」というものだったのでChatGPTに読んでもらいました。その様子を画像で添付しました。 pic.twitter.com/rGDm8spyAp

posted at 08:26:20

RT @hillbig: 言語モデル(LM)が意味を理解しているのかを調べるため、プログラムに対するLMを構築し、LMの内部状態からプログラムの意味を推定する実験をした結果、単語予測精度と意味推定精度の改善ペースがほぼ一致し、またLMが将来に何を生成するかを考えていることもわかった。arxiv.org/abs/2305.11169

posted at 08:08:01


Viewing all articles
Browse latest Browse all 2923

Trending Articles