RT @soraketta: いやー、涙が出るね。 飛行機は夢だけでは飛ばない。産業基盤、すなわち経済が伴わなければ廃れゆくのみ。これは新しい技術を売りにしたベンチャーでも成熟した技術に立脚した完成機メーカーでも同じこと。国としての仕組みを改めなければ、企業努力のみでは「不可能」な段階にきている。 twitter.com/tiinya77/statu…
posted at 13:17:39
RT @mark_riedl: Bigger language models are definitely bigger. Reaching the point of diminishing returns? I find the way all these companies address bias and toxicity in their big models is to vaguely wave their hands and say research is ongoing. developer.nvidia.com/blog/using-dee…
posted at 13:16:00
RT @masa_0083: 科学的な業績ってすぐ「何の役に立つんですか?」って言われるけど、何か役に立つものを作るためには「それ自体は役に立たない」ものを作ってデータを集める必要が絶対にある。 宇宙船を作るためには「宇宙に行けない宇宙船」をまず作る必要がある。科学に興味がない人にはそれがわからない。 pic.twitter.com/q4zzzHn33d
posted at 13:14:30
RT @ak92501: HydraSum -- Disentangling Stylistic Features in Text Summarization using Multi-Decoder Models abs: arxiv.org/abs/2110.04400 pic.twitter.com/7IbttFyLbH
posted at 12:30:40
RT @syakejs: 最近kindleを買うのをやめて、できるだけオライリーや技術評論社など各出版の公式電子書籍ECサイトみたいなところから購入するようにしている。そうすると大抵EPUBとPDFがついてくるので、PDFを適当に読むようにしている。
posted at 12:30:18
RT @kiichiglad1: 月とライカと吸血鬼。ソ連(らしき国)の宇宙開発に一滴のファンタジーが注がれている。吸血鬼として差別される種族を実験体として扱うという重いテーマを抱えながらも、当の本人は屈辱的な扱いを乗り越えてでも叶えたい目的がありそうな。今後の展開が楽しみ。この絵のキャラはウチのオリジナルさん。 pic.twitter.com/lgpReN4uN9
posted at 12:22:58
RT @keiichi_ochiai: この論文面白い。ICLRの論文を著者自身が日本語でQiitaで解説してるのは貴重ですね。本題じゃないけどこの記事でも引用してるポケモンを題材にした因果推論の説明もわかりやすい(子供に因果推論教えるのに使おう) twitter.com/ly9988/status/…
posted at 12:20:54
RT @yearman: 今日は新たなハイフレックス型環境。テーマは軽量化。iPadとスマホでzoomをそれぞれ立ち上げ,iPadの画面を共有し,スマホからMiracastレシーバーで画面受信してHDMIからプロジェクターに出力。なぜかWi-Fiダイレクト接続でも外部Wi-Fiと繋がっていたんだけど,なぜかは分からない(ラッキー) pic.twitter.com/5mq9ghvUje
posted at 12:20:43
RT @ak92501: Unsupervised Neural Machine Translation with Generative Language Models Only abs: arxiv.org/abs/2110.05448 using method to leverage GPT-3’s zero-shot translation capability, achieve sota in unsupervised translation on WMT14 English-French benchmark, attaining a BLEU score of 42.1 pic.twitter.com/i60dn2GM9X
posted at 12:15:25
RT @yoshi_matsumori: 元々は、京都大文学部で数学史を専攻。「現代数学の父」と呼ばれるドイツ人数学者、ダーフィト・ヒルベルトが残した数学のアイデア帳を解読する研究に参加し、「誰も知らない事実」が書かれた歴史史料に興味を持った。 古文書「くずし字」、アマチュア参加で現代の活字に : www.yomiuri.co.jp/culture/202110…
posted at 12:14:12
RT @hidetokazawa: 当時TOEICで900点いっていたのですが、入社したら驚くほど苦労しました。最初の頃、打合せについていけず適当に相槌打ってたら、メンターに呼び出されて「わかったふりするのはやめて何でも質問しろ」と言われてから、覚悟を決めて聞いて回るようにしたら、少しずつよくなった感じです。(続く) twitter.com/kenz_firespeed…
posted at 12:07:00
RT @NOSUKE0607: ある本のAmazonの評価で「中身はネットに出ている情報ばかりだった」というのがあって愕然とした。その本はかなりの専門書で、著者がかなり以前に取材したものなのだ。そこから転載(たぶん無断で)された内容がネットでコピペされているのだが、すさまじい本末転倒でこれが日本の著作物の現状だ。
posted at 12:06:12
RT @jaguring1: マイクロソフトとNVIDIAのAI研究(MT-NLG) パラメータ5300億個の言語モデル(GPT-3の約3倍)。読解、常識推論、自然言語推論、語義の曖昧性解消など幅広い自然言語処理タスクで高い性能(教師データ0個や1個や少数の設定)。算術では演算記号を暗号化しても解ける(× → $^%) developer.nvidia.com/blog/using-dee… pic.twitter.com/orYlwqaNM6
posted at 12:05:21
RT @mph_for_doctors: 冗談ではなく一定の解決策な気がします。 こんな本を出版するなとまで言うつもりはない。 ただ、告げられた病名に我を失なったり、毎日狂ったように泣き叫ぶ子供の育て方に悩み、心が弱ってしまった時にこういう本を心から信じてしまい、数年後に涙が枯れるまで後悔する人が出なければ別にいいです。 twitter.com/q44bh4ad6wzu8p…
posted at 12:04:45
RT @ctnzr: Language models do just keep scaling! Today we’re announcing Megatron-Turing NLG: a 530B parameter language model. Joint work from @NVIDIA and @Microsoft. Trained using Megatron and DeepSpeed on DGX SuperPod. developer.nvidia.com/blog/using-dee…
posted at 12:03:55
RT @TJO_datasci: 因果推論でImbensに行ったのか。Pearlはチューリング賞取ったからノーベル賞はいいよね、ってこと? twitter.com/nobelprize/sta…
posted at 11:56:03
RT @Saegusa61587590: 1/24 [DAICON FILM版 マットジャイロ] 今回『庵野秀明展』展示のため当時と同じ“紙”で製作しました。 アローが、意外と早く出来たので、アローの塗装乾き待ちの間にできるかな…と、 急遽、製作図面を引き造りました。 2021年 9. 19. 製作 pic.twitter.com/kizWYlVKTl
posted at 11:55:06
RT @ak92501: Yuan 1.0: Large-Scale Pre-trained Language Model in Zero-Shot and Few-Shot Learning abs: arxiv.org/abs/2110.04725 singleton language model with 245B parameters, sota results on natural language processing tasks. high-quality Chinese corpus with 5TB high quality texts pic.twitter.com/4p6qxxDm0Y
posted at 11:54:34
RT @octopus_takkong: 「日本沈没」は、「日本が沈没『したらどうする、したらどうなる』?」というテーマであって、「日本の沈没を防げるかどうか」じゃないんだけど、本編小説および昭和の映像化以外はそこを理解してないのが何ともかんとも
posted at 09:55:20
RT @yhkondo: AIと倫理の問題があちこちで語られているが、きちんとやるためには、大学の理系学部で倫理学専攻を作るか、文系学部で機械学習・深層学習のコースを作るか、どちらかが必須だ。米国のように、ダブルメジャーという方式もありうるが、日本では、文系学部ががんばるほうがいいのではないだろうか。
posted at 09:43:29
RT @luminohope: #StyleGAN3 code is out. github.com/NVlabs/stylegan3 Plus, in collaboration with @DARPA, we worked with forensics researchers to ensure the code is well tested and studied before the public release and are reporting the results of StyleGAN3 detection here github.com/NVlabs/stylega…
posted at 09:12:51
RT @izariuo440: そのうちブラウザで高速推論できるようになりそう。 EfficientDetによるドキュメントレイアウトを意識したOCR解析 - OPTiM TECH BLOG tech-blog.optim.co.jp/entry/2021/10/…
posted at 09:12:25
RT @yaminekorider: @Kaoru_Inai お寿司屋で何十貫も食べたけど、財布忘れたからイッカンの終わり。 東大生とクイズ対決したけど、やっぱりキョウダイな相手だった。 京大の勉強、もうおシマイ。 国立大学に行ける確率は、みんなイチリツです 食べ物もそうだけど、日本語ってほんとにすれ違い起きる言葉多いわねw
posted at 09:12:06
RT @J_kaliy: ある特撮戦隊もので、新兵器を作らせるために教授を誘拐したが、教授をだけじゃ何もできなくて、以下、助教授、講師、助手と順番に誘拐するハメになり、戦隊に基地が発見されても新兵器は組み立て中というのがあったな。
posted at 09:09:59
RT @housecat442: 今年のノーベル経済学賞が因果推論関連ということで、白木さん(@mori_kogai)と紹介ブログを書きました! (先程のはリンク間違えてたみたいなので削除します) 2021年ノーベル経済学賞の簡単な紹介 cyberagent.ai/nobelprize2021
posted at 08:37:13
RT @jure: Excited to share that our Open Graph Benchmark Large-Scale Challenge (OGB-LSC) paper has been accepted to NeurIPS! We have updated our datasets and released public leaderboards: ogb.stanford.edu/docs/lsc Paper: openreview.net/pdf?id=qkcLxoC… pic.twitter.com/aQtFjDb7sh
posted at 08:35:38
RT @ozaken_AI: これは必見すぎる。AI白書が「DX白書」になって発刊。しかも、無料でPDF版が見れてしまうという。 一度全部見通すしかないやろ。 www.ipa.go.jp/ikc/publish/dx… pic.twitter.com/ZEdUiM4r7i
posted at 08:23:37
RT @urakkun26: …廃藩置県の話がまだ流れてくるのだが、大名領は私領では無く大公儀からの預かり物だという織豊に始まる領知思想が浸透してた所が西欧とは事情が異なる。当時の西洋人がめんくらったのは無理も無いが、現代の歴史ファンが同じ様に首を傾げてどうする。(領知の経営に行き詰まったら投げ出せる
posted at 07:32:42
RT @CHE_M26_7: アメリカ版ヤフー知恵袋みたいなサイトに「45口径拳銃でグリズリーは倒せますか」という質問が載っていたが、「クマ避けスプレーが良い。銃で応戦した人の50%は死ぬか重傷だったが、クマ避けスプレーを使った人は全てが無傷か軽傷で済んだ」という答えは銃のウンチクより説得力があった。
posted at 07:32:25
RT @sammy_suyama: データサイエンスにおける因果推論、漸近はできるものの本質的には到達不可能な課題であると思っています。ただ、近づけば近づくほど意思決定の役には立ちます。
posted at 06:21:44
RT @hidetokazawa: 驚いたことにGoogleに転職してから15年も経っていた。開発の経験もないのにエンジニアで入社し、英語もあまりわからず大変だったけど、とりあえず2年生き延びたら、クビになっても元Googleの肩書でどこか拾ってくれるだろうと自分に言い聞かせていた日々が懐かしい。月並みだけど挑戦って大事。
posted at 06:21:33