Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

5月19日のツイート

$
0
0

RT @bandainokairai1: 「🇵🇱ポーランドから離陸した」 謎の🇫🇷✈フランス航空宇宙軍 第31戦略給油輸送航空団 第3/60輸送飛行隊のA330-243戦略輸送機〈F-UJCT〉が、 「なぜか現在紅海上空を南東進中」です。 #週刊安全保障

posted at 22:57:35

RT @seishin55: CyberAgent社の日本語LLM OpenCALMを対話モデル用途にdollyデータセットでLoRAチューニングしたブログ記事を公開しました!既存の公開モデルに対してクオリティの高い生成もできているので是非御覧ください! tech.acesinc.co.jp/entry/2023/05/…

posted at 22:05:39

RT @zoeai: 『自動人形の城 人工知能の意図理解をめぐる物語』が2刷になりました! 刊行から5年半、悲願の重版です。最近のAI事情が後押しになったのかも? 今後、身体を持ったLLMが出てきた時にプロンプトの参考になるかもしれませんよ!(と、いい加減なことを言ってみる😎 www.utp.or.jp/book/b324623.h… pic.twitter.com/Dw1umm5vD0

posted at 22:05:26

RT @studiomasakaki: GeForce RTX4060Ti 16GBは7月発売、8万8800円からですか! ゲームより画像生成AI需要を見込んだモデルと感じますわね。RTX3060 12GBを使っている身からすると16GBモデルというだけで魅力的ではありますが、処理速度を考えると価格帯が見合わない気も・・・

posted at 21:26:11

消費電力面で3060より低いなら、差し替えはきくかなあ twitter.com/StelsRay/statu…

posted at 21:16:49

RT @StelsRay: RTX4060tiが破格のスペックでめちゃ良さげ! 画像生成向きのグラボの選択肢は 3060 12G 4-5万 4060Ti 16G 9万 4070 12G 9-10万 4070Ti 12G 12万 4080 16G 18万 4090 24G 25万 この辺が選択肢になるだろうけど消費電力も考えると4060tiが最強すぎるかも? てか3060より省電力! twitter.com/gigazine/statu… pic.twitter.com/9rO5n1DPRI

posted at 21:15:32

RT @nakamura: 合宿の第1セッションは、4人1グループで、2人だけがChatGPTを使って、55分の間に提示された8問の課題をできるだけたくさん解くというもの。めちゃ盛り上がっている。さて、全問正解するチームは出るかどうか。 pic.twitter.com/qLp42rZPsJ

posted at 21:13:57

RT @dongyeopkang: We found that current instruction-tuned LLMs are under-fitted, so making their instruction space denser via task-specific instruction tuning outperforms InstructGPT/PEER/GPT3, and generalizes better to composite and unseen instructions. twitter.com/_akhaliq/statu… pic.twitter.com/aRPghzpMfG

posted at 21:09:27

RT @y8o: 【新刊】BERT実践入門 PyTorch + Google Colaboratoryで学ぶあたらしい自然言語処理技術 amzn.to/3pYKkD2 7月20日発売。AttentionやTransformerをベースに、BERTの仕組みや実装方法についてサンプルを元に解説。環境はPyTorchとGoogle Colabを利用。章末には演習を用意。

posted at 21:09:00

RT @ebriakou: LLMs exhibit translation capabilities despite having never seen intentionally-included translation examples, so... where do those capabilities come from? 🚨We show that incidental bilingualism connects to the machine translation capabilities of PaLM. 📜 arxiv.org/pdf/2305.10266… pic.twitter.com/dK7qF767Sy

posted at 21:08:24

RT @inuro: 珍しく本業ぽい話もすると、最近(去年末)サウジアラビアでは「ショートアドレス」という、アルファベット4文字+数字4文字の新しい住所システムが導入された。アグレッシブ。けどAppleもGoogleもまだ「RRRD2929」とかでは検索できないな。 splonline.com.sa/en/national-ad… pic.twitter.com/ldUyqwhRhb

posted at 21:08:04

RT @yoko_materialDX: 生成モデルのツール紹介の論文。 IBMさんから、材料科学や創薬のための最先端の生成モデルを数行で試せるpythonライブラリが公開されました。 Hugging Face上の事前学習モデルを使用したり、それを微調整したりが簡単にできて便利そう。参入障壁低下で更なる進展が楽しみ。 www.nature.com/articles/s4152…

posted at 21:07:27

脳トレは根拠なし、ゲーム脳はウソ、糖分で情緒不安は間違い…京大名誉教授が「脳の迷信」に警鐘を鳴らすワケ 「脳に効くサプリ」を信じてはいけない #プレジデントオンライン president.jp/articles/-/69636

posted at 20:23:28

アンディ・ウォーホルの作品、写真家の著作権を侵害 米最高裁判断:朝日新聞デジタル www.asahi.com/articles/ASR5M…

posted at 20:21:26

RT @dory111111: #LLMMeetUpTokyo に参加してきました! めちゃくちゃ勉強になった3時間で本当に楽しかった...運営の皆様、参加者の皆様、ありがとうございました! LT資料はこちらです👇 speakerdeck.com/dory/llm-agent… AI Agentミートアップも開催したいな〜。

posted at 20:14:32

RT @yoshi_and_aki: ようやく2年がかりの仕事が公表になった。俯瞰区分を2つ増やしたらページ数が700ページ弱のどすごい冊子になってしまいました。ベクトル検索と大規模言語モデルを組み合わせるなどしてAI-assistで読むのをオススメします(まじで)。www.jst.go.jp/crds/report/CR…

posted at 20:13:36

RT @KONITASeiji: 注文した本が来てた。 www.shogakukan.co.jp/books/09259209 印刷博物館学芸員等監修。噂に違わず、すごい。 大学生のテキストにして良いくらい。 リンク先に目次含む試し読みあり。 pic.twitter.com/MrPChkYRQN

posted at 20:13:18

RT @asonosakan: 「地動説と天動説は互いの座標変換に過ぎないから,太陽と地球のどちらが他方の周りを回転しているかは絶対的には決まらない(座標系選択の問題でしかない)」という主張について.これはいわゆる「Wittenberg解釈」(Melanchthon,Reinhold)に遡る考えだが,最終的にはNewtonによって論駁された.

posted at 20:11:28

記者に特化した音声認識モデル(Whisper)を作った話|朝日新聞社 メディア研究開発センター @asahi_ictrad #note note.com/asahi_ictrad/n…

posted at 18:32:07

RT @pogohopper8: 東北大は本当に対応が早い - 全国大学に先駆けてChatGPTを導入し、業務の高度化・効率化を推進 - 現在進めている業務のDXを更に加速させ、様々な事務分野で活用 - 教育・研究における活用への展開も視野にセキュリティや運用体制を整備 www.tohoku.ac.jp/japanese/2023/…

posted at 17:55:44

RT @yatabe_: 矢田部が企画してその道のプロに書いてもらった ・スプライン関数 ・パソコンの計算誤差 ・数値シミュレーション の解説が無料で読めるようになってます! 学部1年生をターゲットとした「やさしい解説」なので読みやすいし,他にはあまり載ってない情報もあるので,ぜひ読んでもらえると嬉しいです! pic.twitter.com/mSUVMMkQ3T

posted at 17:55:09

RT @icoxfog417: AWSで機械学習を使うときまず見るリポジトリを整理しました!BlackBeltの動画シリーズもこちらから見られるようになっているのでぜひご参考ください。 github.com/aws-samples/aw…

posted at 17:54:35

RT @blankeyelephant: #地理空間と言語処理 の勉強会を5/24(水)昼に開催します。 地理空間と大規模言語モデルの連携について @yuiseki_ さんが実アプリ(TRIDENT GeoAI)のデモを交えて解説! 誰でも参加可能です。 Zoom等の詳細は Geography & Language Slack にあります。 ・Slack参加リンク: join.slack.com/t/geographylan… pic.twitter.com/5MaiCSsAOu

posted at 17:54:31

RT @m_datasci_: 昨日教えてもらったスライド、とてもわかりやすかった。 単語の通時的な意味変化のモデル化 speakerdeck.com/seiichiinoue/m…

posted at 17:53:13

RT @pa_kamienny: Excited to share our #ICML2023 paper on Symbolic Regression! We introduce a method that combines a Transformer mutation model with Monte-Carlo Tree Search. We pre-train our model on synthetic example mutations and fine-tune it from online experience. arxiv.org/abs/2302.11223 (1/4) pic.twitter.com/D6IeLI3w2l

posted at 17:52:30

RT @Tom209736900: 東京アトレ竹芝のイベント呼ばれた時の動画です! 子供にめっちゃウケてましたwww pic.twitter.com/cH463J4qmf

posted at 17:15:56

RT @jaguring1: 【論文紹介】PaLM2の技術報告の紹介スライド 岡崎 直観(東京工業大学 情報理工学院) speakerdeck.com/chokkan/google… 『言語検定試験でPaLM2は初代PaLMを大幅に上回った』 『評価に用いた全ての言語で検定試験に「合格」』 『PaLM2は初代より学習テキストの丸覚えをしない』 『スケーリング則を改めて確認』

posted at 17:13:40

大規模言語モデルの開発者が知っておくと役立つさまざまな数字 - GIGAZINE gigazine.net/news/20230519-…

posted at 17:11:47

RT @kazunori_279: アテンションってどの程度まで係り受け解析できてるの?って思って探したら、この記事がわかりやすかった。他にもいい記事あるかな? ai-scholar.tech/articles/treat… pic.twitter.com/Tr310m9JYC

posted at 17:02:35

RT @hiro_gamo: #LLMMeetupTokyo LT資料「LLMシステムの非機能対応」を公開しました! 地味!でも結構大事。皆様がLLMに集中できることを願って沢山書いたら全然時間足りなかったやつ。 Azure OpenAI ServiceのChatGPTでサービス作るときは特に役に立つ…はず。 speakerdeck.com/hirosatogamo/0… pic.twitter.com/2yJoa9Qxgr

posted at 17:01:30

GPT-4に感動して社内業務を人工知能に置き換えようとしている取引先への報告にGPT-4を使って15分で終えた話|山本一郎(やまもといちろう) #note note.com/kirik/n/nf8ba9…

posted at 16:40:11

RT @hmtd223: cl-tohoku/bert*-v3 はpretrainingデータにcc100の日本語部分が追加されいますね。 huggingface.co/cl-tohoku

posted at 15:13:25

RT @kun1em0n: 1 はAnthropicのデータセット hh-rlhfのうち、Mosaic MLのMPT-7B-Instructの学習に使われているものを抜粋して翻訳したもの。日本語DollyデータとマージすればMPT-7Bの学習データセットになります。 2… twitter.com/i/web/status/1…

posted at 13:12:06

RT @kun1em0n: 新たに日本語翻訳したデータセットを2つ公開しました!これでOpenCALMや新しいrinnaをチューニングしてみて下さい。 1. hh-rlhf-49k-ja huggingface.co/datasets/kunis… 2. cnn_dailymail_27k_ja huggingface.co/datasets/kunis… 説明は以下に。

posted at 13:11:36

役立つ場面がない / 技術士【エンジニアに役立つ資格】 | IIJ Engineers Blog eng-blog.iij.ad.jp/archives/19083

posted at 13:10:02

RT @shu65: さすがにOpenAIのAPIのお値段が馬鹿にならなくなってきたので、安く済ませる方法としてHugging Faceのモデルを使う方法調べてまとめを書きました Hugging FaceのモデルをLangChainで使う方法を調べた | まったり勉強ノート www.mattari-benkyo-note.com/2023/05/19/lan…

posted at 11:58:37

RT @shangbinfeng: Looking for a summarization factuality metric? Are existing ones hard-to-use, require re-training, or not compatible with HuggingFace? Introducing FactKB, an easy-to-use, shenanigan-free, and state-of-the-art summarization factuality metric! arxiv.org/abs/2305.08281

posted at 11:30:24

RT @kmizu: 無理なことやらせたら、Webブラウジングで答え探し始めましたが「It's difficult to find kanji equivalents ... 」はChatGPTの心の叫びに見えますね。 pic.twitter.com/UURqdoNjKl

posted at 11:29:45

RT @fivehints: 東北大 NLP グループ (@NlpTohoku) で公開している日本語 BERT をアップデートし、新たに CC-100 と Wikipedia で訓練した4つのモデルを追加しました。各種コードも TensorFlow v2.11 対応のものに更新しました。研究・教育や開発にお役立ていただければと思います。 github.com/cl-tohoku/bert…

posted at 11:28:37

RT @nobi: #ChatGPT の使い方で、我ながら名案で未だに続けているのがこちら。 どんな書き方でも、ちゃんと予定の件名、時間、場所などを理解してiCalendar形式(.ics)に直してくれる。これをテキストエディタに拡張子.icsでコピペして保存してカレンダーアプリで開くとちゃんと予定の住所まで登録される。 pic.twitter.com/W4dkSKlwZ8

posted at 11:28:04

RT @shangbinfeng: LLMs are adopted in tasks and contexts with implicit graph structures, but ... Are LMs graph reasoners? Can LLMs perform graph-based reasoning in natural language? Introducing NLGraph, a comprehensive testbed of graph-based reasoning designed for LLMs arxiv.org/abs/2305.10037

posted at 10:48:40

RT @johnjnay: Embodied Agent Experiences Enhance LLMs -Deploy LLM agent in simulator of physical world to acquire diverse experience via goal-oriented planning -Finetune LLM on that exp to teach acting in world -Improves over base on 18 downstream tasks by 64% on avg arxiv.org/abs/2305.10626 pic.twitter.com/qKtPeKL77e

posted at 10:47:52

RT @shangbinfeng: Thank you for your time! Read the paper: arxiv.org/abs/2305.09955 MidtermQA dataset: github.com/BunsenFeng/CooK joint work w/ @WeijiaShi2 @Leopold_Bai @vidhisha_b @TianxingH @tsvetshop

posted at 09:07:27

RT @shangbinfeng: With a pool of community-contributed specialized LMs, we propose bottom-up and top-down, two approaches to integrate black-box LLMs and these modular knowledge repos. bottom-up: multi-domain knowledge synthesis top-down: LLM select and activate specialized LMs when necessary pic.twitter.com/DdVogn9tdC

posted at 09:07:04

RT @shangbinfeng: Ever felt hopeless when LLMs make factual mistakes? Always waiting for big companies to release LLMs with improved knowledge abilities? Introducing CooK, a community-driven initiative to empower black-box LLMs with modular and collaborative knowledge arxiv.org/abs/2305.09955

posted at 09:06:28

RT @togethercompute: RedPajama-INCITE-3B, an LLM for everyone: We are excited to share llama.cpp support! Efficiently run RedPajama on commodity CPUs! This, plus new resources to fine-tune the model using LoRA, instruction-tuning tips and more on our blog: www.together.xyz/blog/redpajama… pic.twitter.com/G3hATVdzcs

posted at 08:38:41

RT @taka_aki: 弊社SSA、Yulanによって「手動で作成したDatabricksに関する質問と回答ペアの日本語データセットです」が公開されました! yulanfmy/databricks-qa-ja · Datasets at Hugging Face huggingface.co/datasets/yulan…

posted at 08:38:03

RT @if_004: template周り変更して、とりあえずこれでcalmの方はlora動いた github.com/tloen/alpaca-l…

posted at 08:37:32

RT @umiyuki_ai: 本家OpenAIのGPT-3.5-TurboのAPIって1分あたり9万トークンしか処理できないらしい。つまり、2000トークンの処理を45回やっただけで詰まる。こんなんでAIサービス運用ムリだろ

posted at 08:35:24

RT @awakia: 日経新聞に掲載させていただいたことで、いくつか取材依頼もあり、「他にもChatGPTをちょっと使ってみたというレベルじゃなくてしっかり活用する形で組み込めているプロダクト何か知っていますか?」と聞かれたのですが、何か知ってたりします?自社のプロダクトアピールでも大丈夫です。国内事例であ… twitter.com/i/web/status/1…

posted at 08:10:13


Viewing all articles
Browse latest Browse all 2923

Trending Articles