RT @kazunori_279: パタ先生が入ったばかりの時も肩書きがInternだったからな。。今時の新人はRISC発明するくらいの実績がないと。 twitter.com/eiichiroi/stat…
posted at 23:10:38
RT @issei_sato: ちなみに、量子アニーリングと変分推論の論文を発表したのもこの年で、というかこのICML/UAI/COLTのjoint conferenceで、ちょうど10年。世の中だいぶ変わった。。。
posted at 22:09:53
RT @issei_sato: 私が初めてDeep learningに触れたのは2009年のワークショップで、今振り返るとなるほどというメンバーだし、この時はこんなの実用的に無理ではと思ったけど、10年あると技術は変わるな。当時興味はあったけど、突っ込むほど私に見る目がなかった。www.cs.toronto.edu/~rsalakhu/deep…
posted at 22:08:53
怖さを感じる電車だった。
posted at 22:02:41
RT @asahi: 和暦やめ西暦の原則使用、外務省が検討 読み替え煩雑で t.asahi.com/vg9z
posted at 21:08:20
RT @stomohide: BERTの日本語Pretrainedモデルを公開しました。すでに公開された日本語モデルもありますが、このモデルの特徴としては形態素をsubwordに分割したものを基本単位にしていることです。 モデル、使い方などは以下のページをご参照ください。 nlp.ist.i.kyoto-u.ac.jp/index.php?BERT…
posted at 20:19:46
なんか、おかしい揺れ方をしているぞ。雨で滑ってるから?
posted at 20:13:30
RT @DL_Hacks: 深層生成モデル(特にVAE)を用いた表現学習に関するサーベイ.VAEでは,「良い表現」を学習するために,正則化項を加えたり分布に制約を加えたりする.最近,相互情報量に基づくモデルやmetricベースの手法が数多く提案されており,それらも俯瞰的にまとめている. www.slideshare.net/DeepLearningJP…
posted at 20:06:06
RT @nimono_kuzureta: 明日の私の仕事は、WordとExcelに記載されてる5/1以降の「平成」という記述を全部探して書き換える事なんですが、これを3人で数日かけてやって、という指示。 Excelだと置換ですぐいけるんですが……と話したら、すぐやっちゃうと改元に向けた作業をした感が無いでしょ、ってアホな理由。理解不能。
posted at 19:55:07
RT @Tzawa: 先日の第2回 自然言語処理の中長期研究構想を論じる会(第239回自然言語処理研究会)の講演動画などがアップされています nl-ipsj.or.jp/2019/01/25/nl2…
posted at 19:53:32
RT @jaguring1: 京大の黒橋・河原研究室 nlp.ist.i.kyoto-u.ac.jp 「入力テキストを形態素解析し、形態素をsubwordに分割したものを基本単位とし、日本語テキストのみ(Wikipediaを利用)でpretrainingしました」 研究室名の下「NLPリソース」をクリック →データ・コーパスの「BERT日本語Pretrainedモデル」クリック
posted at 19:49:45
用済宣告がいつかなあ
posted at 19:48:25
RT @kurage313book: これは記憶違いなら申し訳ないのですが、官房長官の記者会見に手話通訳がつくようになったのは東日本大震災の数日後からだったと覚えています。若い聴覚障害者を中心に「政府広報のアカウントなどに「情報保障をつけてほしい!」と声を届けたところ即座に手話通訳がついたのですね。
posted at 19:45:06
RT @disneyfireball: 次の未来へまいりましょう #新元号 pic.twitter.com/MusuWXsYpJ
posted at 19:43:37
RT @odashi_t: 書きました. Googleに入社して1年が経った - 更新しない備忘録改二 odashi.hatenablog.com/entry/2019/04/…
posted at 19:43:31
RT @keikuma: …その場合、新元号を入れてテストじゃ済まなくて、対応方針を決めて(たとえば、U+4EE4に統一する。U+F9A8をはねる)、仕様を確認して実装して、テストする…ってことになるわけで、それなりに大変そう。他の異体字にも影響が出る場合もあるわけですから…
posted at 18:06:02
RT @keikuma: 年号扱うシステムを運用しているところは、これから30日でテスト完了させなきゃいけないわけだけど、U+F9A8 U+548C (令和) のケースと、U+4EE4 U+548C (令和) のケースがあるみたいなのを想定していなかった…って事例はなんかすごくありそう。大丈夫かなぁ…
posted at 18:05:56
RT @ProfMatsuoka: そう、大規模機械学習でGoogle, ソニー、東工大を含め全てをブッチぎる素晴らしい #ABCI での成果。しかも全系でないのでまだ縮める余地があるかも。もう一つの示唆は、これで大規模学習でVoltaとTPU3.0とほぼ性能差が無い事になるので、機械学習だけの専用チップの有用性が疑問視されると。 twitter.com/ogawa/status/1…
posted at 18:05:32
RT @tokyo_ayano: あ、今後は018(れいわ)を足せば西暦になるのか。 例:令和2年(2+018)=西暦 2020年
posted at 17:56:17
RT @kazoo04: 1. 実はちょっと前に起業して、汎用AIに取り組むガルムという会社をやっています(ウサギィも引き続き兼任しています)。 2. 全脳アーキテクチャイニシアティブ(WBAI)が、ドワンゴから弊社内に引っ越してきました。 wba-initiative.org/3454/
posted at 17:55:09
RT @masafumi: え、全部閉じるの? ドワンゴ人工知能研究所 閉所のお知らせ ailab.dwango.co.jp/mission/
posted at 17:53:37
RT @physics303: NNの中間ノード数を無限にするとガウス過程になるとかめちゃくちゃおもしろいだろ。
posted at 17:52:25
ゼロを足す?
posted at 11:58:53
RT @icoxfog417: KaggleでTitanicを試してみたけど、次どうしようかなと考えている方向けへのチュートリアル。提出の方法からチューニングの仕方まで、基本的な手順とTipsがまとめられている。 twitter.com/sylvan5/status…
posted at 11:57:55
RT @icoxfog417: DeepMindにおける、機械学習アルゴリズムのテストに関する取り組みと今後の方針について。Adversarial耐性の検証、出力に対する境界(仕様)設定、テストケースの特定(境界テストなど)などが挙げられている。 twitter.com/janleike/statu…
posted at 11:57:38
RT @icoxfog417: 因果推論に関する基本的な内容がまとめられたチュートリアル。異なる出自のデータを統合して推論を行う過程について、課題と課題解決のための手法がきっちりまとめられている。 www.pnas.org/content/113/27…
posted at 11:57:07
RT @icoxfog417: LightGBM/XGBoostで使われるパラメーターの意味と効果についての解説記事。Optunaを使ったパラメーターチューニングの方法についてまで書かれている。 twitter.com/nyker_goto/sta…
posted at 11:56:40
RT @icoxfog417: Stanfordでの、深層学習を利用した自然言語処理のコース(CS224N)が終了し資料が公開された。構文解析や共参照解析といった細かいトピックも扱っている他、ELMoやマルチタスク、Transformerといった実践では欠かせない近年の話題までカバーしている。 web.stanford.edu/class/cs224n/i…
posted at 11:54:00
年度初日から電車が遅れ
posted at 08:16:46
RT @tdualdir: この度、かねてより執筆を続けて来た本はようやく出版することになりました。出版社の皆さまには私のわがままに付き合って下さって本当に感謝してます。 若い新社会人の人に必要となる本なので是非とも呼んでください。 皆さま、お願いします\\\\٩( 'ω' )و //// pic.twitter.com/Rwp2cVaCpO
posted at 07:28:46