RT @yohei_kikuta: OpenAI の DALL·E の結果が凄い。いくつかの結果が公式ブログで見れる。説明だけ見ると text + image token の GPT-3 モデルとのことでデカいモデルとデータという印象。 a photo of the food of japan とかだと寿司っぽいのが錬成されてたりする。 OpenAI の公式ブログ: openai.com/blog/dall-e/ pic.twitter.com/R5fOCEk8xX
posted at 09:44:19
RT @kawauSOgood: 先行研究を漁って同じような考え方してる学者を見つけたときは、やられた、というより、ああ、私はひとりじゃなかった、と思える。 同じように議論できる人間がいたことの嬉しさと同時に、その人間の孤独さも知る。
posted at 09:43:44
RT @ShinShinohara: 「お父さん、パラドックスって知ってる?」 パラって名前の犬がたくさん? 「ダジャレはもういいよ。『貼り紙禁止』って書いてる貼り紙とかがパラドックス」 ほうほう。 「ソクラテスがプラトンをうそつきだと言い、プラトンがソクラテスを正しい、というのもパラドックス」 息子、キミ小二だよね。
posted at 09:33:05
RT @kenkoooo: 前々職の会社が消滅していた。 www.recruit.co.jp/newsroom/notif…
posted at 09:29:27
RT @hakennohakeko: イオンドライヤーってあるじゃないですか。あれを5年ほど使っています。買い換えた当初『おー髪の毛サラサラ〜✨』とご満悦で今日まで使い続けてきたのですが、今朝になってドライヤーに「ion on/off」というスイッチがあることを発見。 スイッチはオフでした。5年間。 プラセボ効果だったようです。
posted at 09:28:30
RT @arxiv_cscl: NeurIPS 2020 EfficientQA Competition: Systems, Analyses and Lessons Learned arxiv.org/abs/2101.00133
posted at 09:19:45
RT @arxivml: "DISCOS: Bridging the Gap between Discourse Knowledge and Commonsense Knowledge", Tianqing Fang, Hongming Zhang, We… arxiv.org/abs/2101.00154
posted at 08:59:45
RT @jaguring1: うおぉ、、新年早々、超激ヤバなニューラルネットをOpenAIが2つ発表してきた(DALL-EとCLIP)。視覚データとテキストの両方を用いたAIシステムで、DALL-Eは、テキストで説明すると、それっぽい画像を生成。こんなの創造性以外の何者でもない。テキスト+画像版GPT-3っぽい openai.com/blog/tags/mult… pic.twitter.com/wGXT6oN8Mh
posted at 08:58:17
RT @psyth91: OpenAIのDALL-E (GPT3のテキスト→画像版)が凄まじい。複雑な文章入力に対しての高品質でそれっぽい生成画像は、もはやクリエイティブとしか言いようがない。(画像は”犬を散歩させるチュチュを履いた大根”の入力に対する生成結果) openai.com/blog/dall-e/ pic.twitter.com/W7ga5WQ8pM
posted at 08:46:21
RT @hillbig: 自己回帰+Transformer+CE誤差の場合、広いタスクで損失とモデルサイズ、データ量、投入計算量間でべき乗則が成り立ち後続タスク精度も予測可能。学習を長くするより大きなモデルの短い学習が有効、データ量に対し最適モデルサイズはsuper-linearなど興味深い結論が導かれるarxiv.org/abs/2010.14701
posted at 08:45:16
RT @tarookung: 「谷山・志村予想の志村五郎が、いわゆる『かけ算の順序問題』に関して、次のように述べている。これ以上ないくらいの正論。」 twitter.com/beatboard1/sta… pic.twitter.com/RsawxDb5VF
posted at 08:40:02
RT @hirotakanamba: 私の研究室の4年生が、小学校国語・中学校英語・中学校国語の文法用語の異同を調べていますが、校種だけではなく、教科書会社ごとに違いが大きくて、脱力してしまいます。形容詞とか、どうする? で、私が本当に望むのは、英語学研究者や言語学研究者のさらなる参画です。 twitter.com/yhkondo/status…
posted at 08:39:37
RT @hillbig: CLIPは画像認識のゼロショット学習を達成するために、キャプション付き画像を4億ペア作成し、画像から(ランダムなキャプションも含め)どのキャプションかを対比学習する。タスクをキャプションで表せば(A photo of dog等)様々なタスクを実現。教師あり学習に匹敵する。openai.com/blog/clip/
posted at 08:39:17
RT @Jet_Driver_: ガイダンスコンピューター1故障 ガイダンスコンピューター2故障 この時点で自動操縦不可、 手動に切り替え、機長が静かに。。。 「たーか、君、機体コントロールできるか?えっ? あっハイ 「OK You have control」 機長「俺の方のサイドスティック全く反応しない」 ←凄く冷静
posted at 08:35:25
RT @_Ryobot: OpenAIがテキストから画像を生成するモデルを発表したけど,人間の想像力に追いついてきててビビる 「犬を散歩するチュチュを着た大根の赤ちゃんのイラスト」 「OpenAIと書かれた店頭」 「アボカドの形をした肘掛け椅子」 「下のスケッチと全く同じ上の猫」 を入力した例↓ pic.twitter.com/oBueZiWy49
posted at 08:34:55
RT @Jet_Driver_: #航空虎の巻 101 その時あなたはどう決断するか? (BGM:中島みゆき地上の星) エアバス飛ばしてたり整備してる人はこの二枚の写真を見て背筋が凍るかもしれない。。現役エアバス乗りなら LOSS(審査)の練習ですか?と言う事だろう、、 最悪である 何年も前になるが私に起きた事だ pic.twitter.com/NFfM3nw91c
posted at 08:34:47
RT @jm_alexia: Who call the maestro? pic.twitter.com/SSR0c2QMLD
posted at 08:16:56
RT @sasakitoshinao: 10割の人はアーティスト的で6割の人はアルティザン(職人)的。そしてフリーランスのプロというのは、6〜8割の品質を持続的に生み出し続けられる能力だと私は捉えている。/納期ギリギリに10割の質で仕事を提出orかなり早めに6割の質で仕事を提出、どちらを評価しますか? buff.ly/38boznX pic.twitter.com/kvEhFh7cqu
posted at 08:15:39
RT @hillbig: DALL-Eはキャプションに画像を後続したデータを120億パラメータのGPT-3(画像はVQVAEでトークン化)で学習。与えられたキャプションにあった画像をサンプリングできる。属性/合成/幾何など驚くほど広い現象をカバーし高精細な画像を生成できる。この1年で一番驚いた成果openai.com/blog/dall-e/
posted at 08:14:47
RT @_Ryobot: 全部OpenAIが発表したDALL-EというAIがテキストから画像を生成してる.すごい... openai.com/blog/dall-e/ pic.twitter.com/HGrRvQ6muw
posted at 08:13:39
RT @gdb: DALL-E — our new neural network for generating images from text: openai.com/blog/dall-e/ pic.twitter.com/XEnUJOGsc6
posted at 08:13:17
RT @dpkingma: "The images are preprocessed to 256x256 resolution during training. [...] each image is compressed to a 32x32 grid of discrete latent codes using a discrete VAE that we pre-trained using a continuous relaxation." GPT + VAE + scale = impressive results! openai.com/blog/dall-e/
posted at 08:12:00
RT @karpathy: Impressive and surprising openai.com/blog/dall-e/ I use those words sparingly pic.twitter.com/X0TC6h4fh2
posted at 08:11:34
RT @mark_riedl: DALL-E does what GPT-3 does best: a combination of memorization and some generalization. It has clearly memorized a lot of images but it is able to combine them in sensible ways, like putting a (memorized) tutu on a (memorized) daikon.
posted at 08:11:18
RT @mark_riedl: My initial impression: this is like a lot of other text-to-image neural nets I’ve seen in recent years. But with massive scale (in terms of parameters and training data) it is much harder to find a combination of inputs that pushes the neural network out of its “comfort zone”
posted at 08:11:09
RT @mark_riedl: OpenAI’s new DALL-E is GPT-3 but trained on language + images. It can generate pictures from text that blend concepts in interesting ways openai.com/blog/dall-e/ pic.twitter.com/wxDzIExqMX
posted at 08:10:31
RT @yonemura2006: 以前にも紹介したことがありますが、日曜日なのに絶対に今日中にこの仕様変更を対応しろ!と突然言ってきた顧客に私が送ったメールの抜粋です。理不尽な顧客の要望の断り方がわからないという方は良かったら参考にしてください。 pic.twitter.com/nHXDB2E2dd
posted at 07:58:48
RT @designpatterngf: 東京大学 大学院 情報理工学系研究科 CS学ぶのに読む本の一覧、やっぱこれなんかな www.i.u-tokyo.ac.jp/edu/course/cs/…
posted at 07:54:34
RT @ak92501: VisualSparta: Sparse Transformer Fragment-level Matching for Large-scale Text-to-Image Search pdf: arxiv.org/pdf/2101.00265… abs: arxiv.org/abs/2101.00265 pic.twitter.com/apYFcE9pGX
posted at 07:47:11
RT @AkiraTOSEI: arxiv.org/abs/2012.12556 A survey of transformers used in image tasks, starting with a description of the transformer itself and then describing each. The description is rather detailed, especially for ViT and DETR. pic.twitter.com/4Pvd9k4QSO
posted at 07:46:50
RT @ISID_AI_team: 2020年末時点でのサッカーデータに関するデータ分析情報をまとめたサイトです Datasetsにはじまり、 Research papers、 Blog posts、 2020年に開催された関連Events、 学会等でのInvited talks、 Webinar、 関連Newsletters そして Python librariesが紹介されています janvanhaaren.be/2020/12/30/soc…
posted at 07:45:36
RT @hajimekidera: リバティタワー下の「はなまるうどん」が閉店。。コロナ禍以降で駿河台下からリバティまでの僅か100メートル足らずで、タピオカ屋・うどん屋・そば屋・旅行代理店(HIS)が閉店・休業。 pic.twitter.com/X3a1Gnznkv
posted at 07:42:05
RT @jaaanaru: In this new paper we explain how the thalamocortical system generates consciousness. We provide a history of thalamocortical theories of consciousness and give a major update: consciousness depends on coupling between the compartments of pyramidal cells philosophymindscience.org/index.php/phim… pic.twitter.com/PNUMJdHlva
posted at 07:40:29
RT @ML_deep: ディープラーニングはもともと、ハイパラチューニングと札束バトル感が凄かったが、ここに来て、決定的になってしまったか。 早々にディープラーニングのSOTAを追うのはやめて、古典的な統計やベイズの方に軸足移しておいて良かった…。 twitter.com/ImAI_Eruel/sta…
posted at 07:38:28
RT @norik69: 豊橋って、田舎じゃないんだよね。技科大は外れで田舎だけど、駅からバス一本。 本気で音声言語処理、そしてその応用システム作りたい方、まずは3年、やりませんか? 近いうちに、募集出します!!!
posted at 07:36:32
RT @odashi_t: sin/cos使った絶対位置positional embeddingは絶対位置と言いつつ回転行列経由で相対位置は取れるので、「これは絶対位置」と断言するタイプの発言はどうかと思う。
posted at 07:34:24
財布の中身は確認したから、次は人生カレンダーか。
posted at 00:44:03
RT @PeachTjapan2: 【国民の協力】 尾身茂「”具体的な対策”は必要条件。その上で、国や自治体が単に要請するだけでなく、選挙で選ばれたリーダーが【自分達も汗をかく】【難しい事をやる】様々な措置や経済的支援をやる事で汗をかいて『だから一般の人もやって下さい』というメッセージが無いと、4月と違って響かない」 pic.twitter.com/cjORlWFP0c
posted at 00:42:56
RT @PyTorch: [Release] TorchServe 0.3 includes new integrations for: Kubelow/KFServing, Captum for model interpretability, MLflow-torchserve plugin, Google Kubernetes and Azure Kubernetes Engine support, Native Windows support, gPRC interfaces for all APIs, and more. github.com/pytorch/serve/…
posted at 00:41:08
RT @monamour555: /// 「お母さん食堂」が話題ですが、それでは我々が思い浮かべる「お母さん」とはどのように発生したのか?改めて考えてみよう!|丹羽薫のニワカ式note note.com/niwakaha/n/nc9…
posted at 00:40:47
RT @Neko_Ohji: マジか…AGI見えてきたか?⇒"Transformer (言語モデル) の性能はパラメータ数N・データセットサイズD・計算予算Cを変数としたシンプルなべき乗則に従う" / OpenAIが発見したScaling Lawの秘密 - ディープラーニングブログ deeplearning.hatenablog.com/entry/scaling_…
posted at 00:38:24
RT @kaityo256: 昔書いたものが発掘されたので少し修正して上げておきます。 「査読の仕方」 gist.github.com/kaityo256/5654…
posted at 00:35:56
RT @ShinyaMatsuura: 語り口はソフトだが、1)現状の緊急事態宣言は第三波の食い止めに失敗し、現状が固定化する、2)もっと厳しい第一波時なみの対策を打って食い止めるまで2月末までかかる——と言っている。 正しいと思う。 www.buzzfeed.com/jp/naokoiwanag…
posted at 00:34:36
RT @rjp_news: 【注目プレスリリース】新しい学習に必要な脳の情報リプレイを解明 / 東京大学 research-er.jp/articles/view/…
posted at 00:34:24
RT @arxivml: "UnitedQA: A Hybrid Approach for Open Domain Question Answering", Hao Cheng, Yelong Shen, Xiaodong Liu, Pengcheng H… arxiv.org/abs/2101.00178
posted at 00:33:11
RT @naohikoKITAHARA: 1月6日になりました。シャーロック・ホームズの誕生日(とされている日)です。原作に記述はありませんが、シャーロッキアンはこの日をホームズの誕生日として祝っています。というわけで、祝いましょう! pic.twitter.com/xHA0Is6ZAQ
posted at 00:31:27
RT @sayonari: Seiren Voice Demo(AIボイスチェンジャー) これ,変換後の音声の質もさることながら,このwebページの凄さ. こういう,簡単に使えて,表示がかっこいいページが作りたいもんや. あと,僕が喋ってみた音声の動画もつけとくよ. seiren-voice.dmv.nico pic.twitter.com/3o7DElKk9W
posted at 00:26:44
RT @anayuko: 12月某日、諸星大二郎先生が北海道立近代美術館を訪問されました✨ 会場内をじっくりご覧になり、その後なんと、入口の壁に稗田礼二郎を直描き‼️ 入口は撮影OKです✌️ ぜひここで記念写真をどうぞ📷 札幌会場は1月17日まで。 bit.ly/3lMQlf1 ✨公式図録も発売中✨ amzn.to/2TdJWfZ pic.twitter.com/SGdR0Tzd16
posted at 00:26:27
五十嵐先生は25年以上前から。自身の卒研で作ったシステムPegasusの記事がbit誌に載ってた。
posted at 00:25:50