Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

11月27日のツイート

$
0
0

RT @miuraken: 試行錯誤を経て、Tesla V100を積んだGoogle Compute Engine上でLeela-Zero(アルファ碁ゼロのクローン)を、Mac上のLizzieからリモートで叩いて動かせるようになった。高速な推論には感動するけど、Linux初心者でも自在に操れるようにするのはハードル高そう。 pic.twitter.com/DjdOLt1hdv

posted at 08:35:42

RT @jaguring1: 機械学習+ロボットでほぼ「人間の介在なし」 材料科学革命の衝撃 www.technologyreview.jp/s/111984/a-rob… 『人工知能(AI)と ロボット工学を活用して、新しい化合物の設計からテストまでのプロセスを自動化する「自動運転ラボ」を開発した。従来のアルゴリズムより迅速かつ効果的に新素材を見つけられるという』

posted at 08:25:41

RT @ranoiaru: 就職後に機械学習始めて、機械学習歴5年とかでNIPSに2本通すような人が30歳男性平均年収より少し高いくらいの給与で使われてるんですよ。キチガイにもほどがある NTT研究所

posted at 07:48:02

RT @takeoka: 計算機科学が専門でない先生が、学部生にDeep Learningをやらせて、「学習結果がなぜこうなったのか説明しろ」と言ってるらしいのを、まったく違う2箇所で聞いた。にわかAI 使用者、恐るべし(とほほ

posted at 07:40:32

RT @ballforest: Adamすごい→Kingma氏すごい VAEすごい→Kingma氏すごい IAFすごい→Kingma氏すごい Glowすごい→Kingma氏すごい (もちろん共著者も偉大)

posted at 07:29:23

RT @yusuke_shiozawa: 仕事で成功する唯一の方法は「続けること」なのかな?と思う。そこには「一生懸命取り組みながら」と言う条件はつくが。初心者が熟練者になり、やがてはエキスパートと呼ばれる様になる。気付いたらライバルと呼んでいた人たちがいなくなっていたりする。継続は力なり。本気ならともかく続けてみよう。

posted at 07:28:39

RT @mosko_mule: A Convergence Theory for DL via Over-Parameterization arxiv.org/abs/1811.03962 同様に十分なニューロンがあれば適当な更新幅のGDまたはSGDで最適解に到ることを示している。こちらではFFニューラルネットでは多項式時間で収束。学習データでの最適解なので汎化については示せていないけれども。 twitter.com/mosko_mule/sta…

posted at 07:28:09

RT @shibu_jp: マイクロサービスは、開発効率を0%の進捗が出せないものをなんとか30%に上げる程度のもので、多少のムダは犠牲にして匍匐前進する気概でやるものだ、という話をした。組織が100人超えてでかすぎてうまくタスク分割とかできなくて効率が0%に近くなる組織以外ではやってはいけないと。

posted at 01:14:39

RT @CBydbbmpg: ADHDの興味のない情報インプット時に生じる「意識のシャットダウン」みたいな居眠り、 「脳が嫌がっている」ってのは比喩として秀逸だとは思うんだけど、 「好きなことに没頭するときに生じる『思考の枝払い』が起こらずに情報過多で脳がオーバーフローしている状態」と捉えた方が対処しやすいと思う。

posted at 01:14:24

RT @RIKEN_JP: プレスリリース|正信頼度データからの機械学習-負のデータがなくてもAIは未知データを正と負に分類する- www.riken.jp/pr/press/2018/… #理研 #press

posted at 01:13:45

RT @taku910: グループ内でBERTを紹介する機会があった。やってることはすぐ理解できる反面、どうしてこれでうまく行くのか私も含めてまだ腑に落ちない方多数。今に始まった話ではないですが。

posted at 01:13:22

RT @yuma_koizumi: 毎度思うのは、PRML が入門書みたいな扱いを受けているのが信じられない。たった5,6年前まで最先端の教科書だったのに。コレを入門書にしてるんだもの、今の学生さんは超絶優秀に見えるのも納得。

posted at 01:12:22

RT @Yh_Taguchi: ...というようなことをテンソル分解とかPCAでさんざんやったけどVAEじゃないと注目を浴びないという不条理。 twitter.com/ozakilab/statu…

posted at 01:12:06

RT @ozakilab: #VAE を使って5000の遺伝子のRNA-seq発現量を要素にもつ可視層5000次元ベクトルを潜在空間100次元ベクトルに射影すると良い具合に生物学的意味のある潜在空間が学習出来ましたという話です.#生成モデル のゲノム解析への応用はガンガン出てきてます.発表者 @superbradyon pic.twitter.com/CNqzJ0xV7X

posted at 01:09:02

RT @ozakilab: #VAE extracting relevant latent space from RNA-seq expression #deeplearning #genomics #TCGA #PanCanAtlas doi.org/10.1101/174474 @GreeneScientist & @gwaygenomics

posted at 01:08:49

RT @icoxfog417: 会員限定なので先は読めないが、判断根拠を説明するように求めるのはEUでもそうした動きがあるので真新しいことではないです。 arxiv.org/abs/1606.08813 AIの判断、企業に説明責任 ルール作りへ政府7原則:日本経済新聞 www.nikkei.com/article/DGXMZO…

posted at 01:07:33

RT @mosko_mule: Gradient Descent Finds Global Minima of Deep Neural Networks arxiv.org/abs/1811.03804 NNから再帰的に定義されるグラム行列を用いることで十分な幅のあるNNは適当な更新幅のGDで最適解に到ることを示した。Res構造がないと幅は深さの指数オーダー必要だがRes構造により多項式オーダーに。 pic.twitter.com/RRESNZjYj6

posted at 01:07:16

“もはやWi-FiはキャリアのLTE電波網よりも通信スピードが遅いことが浮き彫りに - GIGAZINE” htn.to/4maBNh

posted at 00:21:20


Viewing all articles
Browse latest Browse all 2923

Trending Articles