Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

6月10日のツイート

$
0
0

RT @fura_kana: 「三木義一学長は『全国の大学が施設出身者を1人ずつ受け入れれば、600人ほどの子どもの未来が広がる。日本の大学が一丸となって、取り組んでいくことが理想だ』と話す。」 全国で大学は600校なのか……

posted at 13:42:13

RT @fura_kana: 青山学院大は2018年度から、施設出身者に限定した推薦入試制度を学部にかかわらず設けたのが特徴。  合格すると、学費が4年間無料になり、月10万円の奨学金が給付される。(中略)初年度は全国から約10人が応募し、2人が入学。来年度も2人の入学が決まった。 sukusuku.tokyo-np.co.jp/education/9461/

posted at 13:42:06

RT @Ly72JNSu: 子どもが熱出して昨日休んだ同僚が朝礼で「お休みしてすみませんでした。子どもの体調管理気をつけます」と言ったのを聞いて、ランチでみんなに聞こえるように「子どもの体調管理ができるわけないよ!そもそもコントロールできるわけない」と大きい声出す仕事してます

posted at 13:22:03

RT @PhD_sei: Science誌1stの後輩が行った実験を、他の人がやると結果が違ってて再考することになったんだけど、「実験にはセンスが必要だ!」と彼は怒鳴り始めた。再現性が取れない実験になんの価値があるんだろうか。聞いてはいけない言葉を聞いてしまった。

posted at 13:21:41

RT @ak92501: Point Cloud Upsampling via Disentangled Refinement pdf: arxiv.org/pdf/2106.04779… abs: arxiv.org/abs/2106.04779 disentangle the task based on its multi-objective nature and formulate two cascaded sub-networks, a dense generator and a spatial refiner pic.twitter.com/qi5mkwNOm0

posted at 12:38:47

RT @hillbig: CDMは拡散モデルによる画像生成で、低解像度の画像で条件付して高解像度の画像を順に生成する。ADM同様BigGANの生成品質を上回り、得られた表現を使った分類タスクでVQ-VAE2を上回る。超解像の学習時にデータオーグメンテーションするのが重要 cascaded-diffusion.github.io

posted at 12:38:09

RT @arankomatsuzaki: Scaling Vision Transformers Train ViT with 2B parameters, which attains a new SotA on ImageNet of 90.45% top-1 accuracy. Also, achieves 84.86% top-1 acc. on ImageNet with only 10 examples per class. arxiv.org/abs/2106.04560 pic.twitter.com/r33cvHbZep

posted at 12:12:10

RT @JULY_MIRROR: 冷蔵庫マグネットの正しい使い方は、ぬるま湯につけて表の広告面を剥がし、雑誌の付録等のシールを貼って切り抜けば、シールを貼りたいお子さんと二度と剥がせなくなるシールにお悩みの親御さんの双方に優しいマグネットシールが手に入ることである。>RT先 pic.twitter.com/tweFPCys1G

posted at 12:11:44

学習中は操作もしないのだから、一定時間操作がないからといって接続を切らないでほしいよな。

posted at 12:06:45

RT @kentarofukuchi: 周囲で子育て世帯が増えてきて、育児書のお薦めを聞かれることがある。乳児の育児法については自分に合うのを探すしかないと思いますが、幼児以降だったらイアン・レズリー『子どもは40000回質問する あなたの人生を創る「好奇心」の驚くべき力』を強く推します。amzn.to/3zhgY2z

posted at 10:11:10

RT @machelreid: Our new #ACL2021NLP Findings paper "LEWIS: Levenshtein Editing for Unsupervised Text Style Transfer" (w/@hllo_wrld) proposes LEWIS, an edit-based model to transfer style/domains of text in an unsupervised manner. Paper: arxiv.org/abs/2105.08206 Thread: 1/7

posted at 10:10:49

RT @1T0T: 「オンライン授業は家族も一緒に聞いてる」という話はもう新しくありません。こちらでは「家族が先生の説明に…と申してます」というコメントが流れたりしてご家族も授業に参加されていることがありますw

posted at 10:00:41

tqdmの進捗表示がNGなだけ?

posted at 09:50:59

colab pro、実行中にGPUとの接続が切れてしまっている?

posted at 09:42:54

RT @shao1555: iCloud Private Relay、プロバイダにしてみればあらゆる通信がApple宛のQUIC/HTTP3のUDPパケットにしか見えなくなるので「LINE使い放題」とか銘打ってる料金プランは通信を識別する術を失って壊滅しそう。。。 pic.twitter.com/AHjBAxdw2t

posted at 09:25:52

RT @ylecun: Awesome new work by FAIR+ENS+Université Paris-Saclay showing that activations in large language models correlate with fMRI brain activity during language comprehension. twitter.com/jrking0/status…

posted at 09:18:54

RT @arxiv_cscl: Turing: an Accurate and Interpretable Multi-Hypothesis Cross-Domain Natural Language Database Interface arxiv.org/abs/2106.04559

posted at 08:56:22

RT @ylecun: New architectural concepts for (very) large NLP models: - Hash mixture of experts. - Staircase transformers. Allow to disentangle number of parameters from computational complexity. Great performance on standard benchmarks. twitter.com/jaseweston/sta…

posted at 08:54:31

RT @HowaSeiki: 【定期】これを見ると「撃った人は大丈夫だったんですか?」って聞く人いるけど、銃身破裂ってのは射手を守るためにヒューズが発動しただけ。破片が飛び散らないようにこのように銃身は縦に裂けるように作られている。そして銃は(通常は)こうして人から遠いところから壊れるようにできている。 pic.twitter.com/k89IKE8fNi

posted at 08:46:40

RT @hillbig: VisionTransformerを使った画像認識でも、データ、モデルサイズ、計算資源と精度間にべき乗則が成り立つ。30億枚の教師ありデータを使って事前学習。大きなモデルほど学習サンプル効率が高く、良いFewShow学習器になる。20億パラメータのViT-G/14はImageNetのSOTAを更新 arxiv.org/abs/2106.04560

posted at 08:46:13

RT @jaguring1: トランスフォーマーは、自然言語処理(NLP)、コンピュータビジョン(CV)、音声処理、化学、生命科学などの様々な分野で短期間の間に爆発的な広がりを見せた。それに伴って、さまざまな亜種(X-former)が提案されてきた。それらをまとめた論文 A Survey of Transformers arxiv.org/abs/2106.04554 pic.twitter.com/A4hEIIVNXq

posted at 08:40:23

ZOOMもUberもNetflixも、たった3万円で全てのシステム/アプリを作れるノーコードの衝撃 - WirelessWire News(ワイヤレスワイヤーニュース) wirelesswire.jp/2021/06/79959/

posted at 08:26:20

RT @togetter_jp: 「安彦良和先生のこれぞ“神業”! 背景も、メカも、どんな難しい構図も筆1本で自由自在に描き出される超絶技巧 #漫勉neotogetter.com/li/1727700 が伸びてるみたい。こっそりあなたに教えちゃう。 作成者:@kintoki_naruto

posted at 07:47:52

RT @jaguring1: 2021年6月10日 Nature 計算機科学:人工知能がコンピューターチップの設計をスピードアップ www.natureasia.com/ja-jp/research… 『人間のエンジニアによるチップ設計と同等以上の性能を発揮する実行可能なチップ設計が生成され、設計過程の所要時間はこれまでの数か月から数時間まで短縮されることが実証された』

posted at 07:42:51

RT @jaguring1: うおぉ、すご、グーグルの研究者たちがAIを使ってAI用のチップを設計してる(深層強化学習を利用してTPUv5を設計)。消費電力、性能、チップ面積などのすべての主要な指標で人間が作成したもの以上のチップフロアプランを6時間以内に自動的に生成できるそう。数千時間→数時間 www.nature.com/articles/s4158…

posted at 07:42:31

RT @AkiraTOSEI: arxiv.org/abs/2105.14217 画像サイズの4乗のコストがSelf-Attentionではかかるため、初期層ではMLPで局所情報をとり、後半でSelf-Attentionを使うLITを提案。また、Deformable Convのような機構を採用している。物体検知、画像分類で成果。 pic.twitter.com/cvwB8yPyHF

posted at 07:38:40

RT @jaguring1: GPT-3の算術の能力に関しては次の通り。 twitter.com/jaguring1/stat…

posted at 07:37:55

RT @jaguring1: 60億パラメータの言語モデル「GPT-J」をリリースしたとのこと。データセットはPileを使用しており、データセットの特徴からして,おそらくコード生成や数学は同じ規模のGPT-3よりも優れていると予想される twitter.com/arankomatsuzak…

posted at 07:37:03

RT @paya_paya_kun: 陸上自衛隊で学んだ人生訓「痛みは電気信号に過ぎない」「靴下には金をかけろ」「飯は食えるときに食え」「寝れるときに寝ろ」「ヤバいときは笑え」「靴は磨け」「テンションは自分であげろ」「風呂と布団に感謝しろ」「平和に感謝しろ」これらに気がついてから人生一気に充実した。

posted at 00:59:26

RT @ImAI_Eruel: colabベースの,PyTorchを使ったグラフニューラルネットワークのチュートリアル 図とかもしっかりしてて,これは非常によさそう(かなり流行っているにもかかわらず,自分はなにもわからん勢だった) colab.research.google.com/github/phlippe…

posted at 00:59:14

RT @kzykmyzw: 顔認証に不向きな低品質な画像は決定境界付近に散らばるのではなく、ひとつのクラスタを作る。なのでそのクラスタからの距離を測ることでその画像が顔認証に向いているかどうかを判定できる。直感には反するけど面白い現象だな twitter.com/arxiv_cscv/sta… pic.twitter.com/o6e4HKDqjW

posted at 00:58:23

RT @Taguchi2_0_1_6: 経験上これは8割方そうなんですが、心のどこかで「これは確認しといた方が良いかな」って内容の確認を怠った場合、大抵後になってその確認不足が元で爆発します。

posted at 00:57:57

データサイエンティストでもできるサーバーレスなWebフォーム開発|Dentsu Digital Tech Blog #note note.com/dd_techblog/n/…

posted at 00:45:42

機械学習のデータドリフト検知を自動化する方法|Dentsu Digital Tech Blog #note note.com/dd_techblog/n/…

posted at 00:45:18

RT @neilhoulsby: [1/3] Towards big vision. Tips&tricks to squeeze (substantially) more performance and scale out of the classic ViT. Characterization of the scaling properties, and a large (2B) ViT-G trained on tonnes of images (3B) that works pretty well (90+ INet)! arxiv.org/abs/2106.04560 pic.twitter.com/na02hIplUu

posted at 00:37:13

RT @shinmura0: AST: Audio Spectrogram Transformer arxiv.org/abs/2104.01778 ・環境音データセット「ESC50」「audioset」でSOTA達成 ・CNNを一切使わない音版のTransformer ・基本的にはViTと同じ構造(図参照) (続く) pic.twitter.com/pXMmKh9cHK

posted at 00:32:20


Viewing all articles
Browse latest Browse all 2923

Trending Articles