Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

5月19日のツイート

$
0
0

RT @metatetsu: 海外で問題になっている「ロボコール」が日本にも上陸している。 人間では不可能な24時間365日、休みなく総当たりで詐欺電話を行う。「税金が未納だ」など。律儀に応える"詐欺にかかりやすいカモ"のリストを作ることも兼ねている。IP電話と組み合わせた匿名化でアジトに乗り込んでも無人の事が多い twitter.com/hisam_k/status…

posted at 23:57:24

RT @UTRoboTech: 【お知らせ】 本日、5/19の23:30からEテレで放送されるサイエンスZEROにて今年のRoboTechのロボットが紹介されます。 また、弊チームのOBもゲストとして出演いたします。 お時間のある方はぜひご覧ください! #ロボコン #サイエンスZERO www4.nhk.or.jp/zero/x/2019-05…

posted at 23:54:26

RT @shiki_kuroha: 大村のUS-2帰投がまさかの正面。離水後の海水が落下する様子を真下から見るという貴重な経験でした。 pic.twitter.com/SSF0lkDtiT

posted at 23:25:55

RT @sasakitoshinao: これはつらすぎる…高齢者の暴走事故で高校生の娘さんをなくした男性。/「家、ついて行って」衝撃告白SPに反響続々「涙が止まらない…」 bit.ly/2WenDda pic.twitter.com/uncTVUlATO

posted at 23:18:27

RT @komi_edtr_1230: 弱異常検知の論文を今日教えてもらって少しパラパラって読んでたんだけど、推論(?)時は最後のカテゴライズ役の全結合層を削除するというのがイマイチもやもやしつつも、ものすごく汎用性のある技術でめっちゃ面白いなぁって思った。 で、この記事めっちゃよくまとまってる。 qiita.com/shinmura0/item…

posted at 22:53:04

RT @drinami: 昨日高橋宏知先生が仰っていたのだけど、DLで脳波画像をみて、てんかん発症のタイミングを高精度に検出という、とても有用性な高い結果が出た。しかし「ま、DLでやれば出るかもね」ぐらいでスルーされてしまったって、技術のコモディティ化の分脈だと色々考えさせられるものがあるよね。

posted at 22:41:21

RT @ame_das: 先日 大学病院のトイレで並んでいたら 個室を一つ一つノックしている方がいて(随分切羽つまってるのかしら)等とおもっていたら白い杖を持った方だった。そういえばトイレが空いているかどうかは鍵のところの色で判別する仕組みだから視覚障害の方にはとても不親切なのか!と初めて気がついた。

posted at 22:36:40

RT @kotonohaomoi: 大学時代にゼミの一つ上の代で「ピーマンの肉詰め」は「ピーマン」に「肉」が詰まっているが「ピーマンの袋詰め」は「ピーマン」が「袋」に詰まっているのはなぜか、という課題が出たらしく(結論は出せていませんが…) どこかこれと似ているような気がしました twitter.com/49sick89hack/s…

posted at 22:36:31

RT @arxiv_in_review: #ICML2019 IPC: A Benchmark Data Set for Learning with Graph-Structured Data. (arXiv:1905.06393v1 [cs\.LG]) arxiv.org/abs/1905.06393

posted at 22:29:25

RT @Asailuck: ロシア/グルジア料理のツイートがえらくバズってるけど、最近都内の各種エスニック料理によく行くようになって思うのは、今時一番味と量とコスパのバランスがいいのは各種エスニックだということ。それ以外だと美味い店は値段はそれなり(量も少ない)、安い店は味はお察し、という感じになってきた。

posted at 22:28:38

RT @Asailuck: この店、実はグルジア人のご家族がやっていて、話してみたら「ロシア料理は売れるから作っているだけでロシアは嫌い。グルジア料理の方が美味い」ということを言われたので結局ロシア料理は食べずグルジア料理ばかり食べて帰ってきたことがある。グルジア料理は美味かった。rocketnews24.com/2019/05/13/120…

posted at 22:28:25

RT @segnalibro1111: 悲しい事故が続いたことで、保育園でのお散歩のことを気にかけてくださる方が多いので、思い切って言ってみます。わたしは保育士をしていますが、車だけでなく自転車にもとてもヒヤヒヤします。歩道の端に寄って歩く園児たちの横を、減速もせず無言で通り過ぎて行く自転車がとても多いのです。

posted at 22:20:34

RT @hyuki: #今日の圏論 今日までの #圏論の基礎 ツイートはScrapboxにとりあえず入れた。いつのまにか200ページを越えていた。でも昨年の部分はもうかなり忘れてしまったなあ。でもめげずにぼちぼちと行きます。 scrapbox.io/category/

posted at 22:02:19

RT @learn_learning3: Googleの中の人が書いた機械学習製品開発のtips集 「機械学習を使わない手を恐れるな」というそもそもML以前のことから,特徴エンジニアリング,モデルのテスト,一度製品化した後に考えるべきことまで,色々載ってます "Best Practices for ML Engineering" martin.zinkevich.org/rules_of_ml/ru… pic.twitter.com/51UBiwNhX0

posted at 21:59:40

RT @fam_taro: はえーわがりやずいー Google Brainの論文「学習率を落とすな、バッチサイズを増やせ」を読む qiita.com/koshian2/items… #Qiita

posted at 21:48:24

RT @OyamadaIku_PRJ: 5月23日配信開始! 各書店様にて好評発売中! 第15期:2019/5/23(木) 「風の宿」7 「くすのき亭の日々」 「衆楽園」3 「五百羅漢」1 #小山田いく pic.twitter.com/PbHs0QBPSV

posted at 19:38:35

RT @kaifushabooks: 「いまお金がなくて次のお給料が出るまで置いといてもらえませんか」って大学生がレジに持ってきたけど彼はこの本のために今月アルバイトに励むのねさいこう。 pic.twitter.com/gGaiHJv3Y5

posted at 19:37:12

RT @arxiv_cscl: Domain Representation for Knowledge Graph Embedding arxiv.org/abs/1903.10716

posted at 17:56:53

RT @quocleix: Nice blog post titled "The Quiet Semi-Supervised Revolution" by Vincent Vanhoucke. It discusses two related works by the Google Brain team: Unsupervised Data Augmentation and MixMatch. towardsdatascience.com/the-quiet-semi… pic.twitter.com/bbDxaF6vep

posted at 17:43:03

RT @arxiv_cscl: Gated Convolutional Neural Networks for Domain Adaptation arxiv.org/abs/1905.06906

posted at 17:42:54

RT @asam9891: [1905.05901] Learning What and Where to Transfer 転移学習+蒸留において、教師と生徒の対応関係と重要性を自動で学習するメタネットを作り、教師のどの層を重視するか、生徒のどの層に蒸留するかを決めてくれる話。 ICML2019 arxiv.org/abs/1905.05901

posted at 17:42:12

RT @mosko_mule: Excessive Invariance Causes Adversarial Vulnerability arxiv.org/abs/1811.00401 NNの過度な不変さに起因するadversarial exampleは見た目は異なるがロジットは同じ。クロスエントロピー損失に原因があり、それを改良することでadv exampleに対する性能を改善できる。 pic.twitter.com/0APf4dDcbi

posted at 17:40:12

RT @mosko_mule: Self-Supervised GANs via Auxiliary Rotation Loss arxiv.org/abs/1811.11212 conditioningはdiscriminatorが過去の分類境界面を忘れるのを防ぐがラベルのない場合には使えなかった。SSGANsは画像の回転をconditionとして克服、高い性能を発揮する。ダウンストリームのタスクでも評価している。 pic.twitter.com/kmo7FOkSUE

posted at 16:22:45

RT @tma15: 昨年の言語処理学会+αが念願のACL (long) に採択されました。ちょっと前にこの話を使った出展で企業向け展示会の賞も受賞することができて、同じテーマで学生としても民間企業研究者としても成果に繋がったのが非常に嬉しいです。

posted at 15:01:39

RT @rei10830349: スティーブ・ジョブズが常に黒のタートルネックを着てたのは、「仕事以外で決断をしたくない」という理由だけど、これは換言すれば「決断はMPを消費する」という事だと思うんだよな。実際1日に何度も決断を重ねると、回数が増える毎に思考が雑になって神経がガリガリし、ミスも出やすくなってしまうな

posted at 15:01:22

RT @takeda25: ぼくの理想労は電話の来ない電話番(要するに何もしないでお金が欲しい)なので、5億円あったら自明にやらないな…。

posted at 14:21:52

RT @Thom_Wolf: Currently working on the coming NAACL "Transfer Learning in NLP" tutorial with @seb_ruder @mattthemathman and @swabhz. Pretty excited! And I've discovered you can write a Transformer model like GPT-2 in less than 40 lines of code now! 40 lines of code & 40 GB of data... pic.twitter.com/VVABKHNLB7

posted at 13:58:01

RT @f_negibozu: 適当に拾ってきたCIFAR10の学習コード回してるんだけど、training set全部使ってSGD回して、学習過程でtest setでaccuracy最大のモデルを保持する、っていう構成になってる。これって標準的な構成です?

posted at 13:56:55

RT @sei_shinagawa: pytorch-jp slackに#styleganチャンネルを作っていただきました。pytorchのstyleganの実装や応用などについて議論したいと思ってます。興味ある方はwelcomeです。一緒にワイワイ議論しましょう!pytorch-jp自体への参加は@mosko_mule さんへお願いいたします。

posted at 13:56:12

RT @sei_shinagawa: ちょっとエモい(人間がQAシステムをだませるような敵対的な質問を、対話型のシステム使って作成する話らしい、TACL2019らしいがこういうのも通るのか)

posted at 13:55:58

RT @kaitou_ryaku: 今後20年で日本のメーカーが衰退したら、理工系大学の数学カリキュラムも変容すると思う。今は「物理数学」として * 微分方程式 * 複素関数論 * 特殊関数論 あたりが幅を効かせてるけど、今後は * ラムダ計算 * グラフ理論 * 代数・圏論 あたりが覇権を握りそう。科学をやる際の足腰が弱まる気がするな

posted at 13:55:50

RT @hayakawa2600: こんな色だったんだ…白黒でしか見てなかった…南満州鉄道「あじあ号」が中国で公開 新幹線の原型とも:朝日新聞デジタル www.asahi.com/articles/ASM5K…

posted at 13:34:43

RT @yutakashino: [2019年5月版] 機械学習・深層学習を学び、トレンドを追うためのリンク150選 buff.ly/2W5tDoO DNNをブラウズしたければ,基本はseedbank buff.ly/2WEusCoとpaperswithcode buff.ly/2RxMgev があればいいのですが,多すぎて探せないのでこういガイドは良いですね!

posted at 13:34:14

RT @losnuevetoros: 私もオーガナイズさせて頂いているICCV2019のワークショップ「Multi-Discipline Approach for Learning Concepts」の宣伝です。 lsfsl.net/ws/ ・5つのモダリティと5つの学習形態の組み合わせ ・未発表の論文(4~8p)は勿論、発表済みもしくは初期の結果(2p)も投稿可 ・招待講演もあるよ! pic.twitter.com/8YEzOs0OyS

posted at 13:34:07

RT @icoxfog417: 異分野交流会といった趣のワークショップ。画像・自然言語はもちろん動画、センサーデータ(時系列データ)、音声なども対象データとして扱っている。研究としてはZero/Few shot、Multi、Meta Learningなどがテーマになるよう。 twitter.com/losnuevetoros/…

posted at 13:33:32

RT @Cpp_Learning: Pythonで物理シミュレーションを学べる記事を書きました!大変だった!! 物理やプログラミングを学びたい人だけでなく、物理が苦手という人にもオススメしたい記事なので、RTお願いします! 【#Pyxel#Python#物理シミュレーション をしよう! Day 1 -自由落下- cpp-learning.com/pyxel_physical…

posted at 13:33:23

RT @narisan: Ridge-iでは点群解析にかなり力を入れ始めています。まだまだ発展余地が大きい領域ですし、ビジネス化も結構見えてきているので、点群データ解析に興味のある方、どんな実務に使えそうか興味のある方は、ぜひお声がけください。 twitter.com/n_chiba_/statu…

posted at 13:33:10

RT @tomo_makes: 本日時点ではAmazonサイト上の書籍概要の情報が乏しいので、詳細はQiita記事(qiita.com/tomo_makes/ite…)、サポートサイト(github.com/tomo-makes/dl-…)をご覧ください。

posted at 13:24:30

RT @tomo_makes: そんな『図解速習DEEP LEARNING』(amzn.to/2J0QNGF)の概要と目次はこちらです。お近くの書店にもあるかも? ぜひ手に取っていただけると嬉しいです。 pic.twitter.com/Snxt8y5ZfN

posted at 13:12:12

RT @create_clock: ほんとに潜れるDIY潜水艦!200メートルもぐったそうだ! 操縦席に入れてもらう。興奮!! #MFBA19 pic.twitter.com/VCrQldxGOh

posted at 13:09:33

RT @yutakashino: Inside Google’s Shadow Workforce buff.ly/2mGRVC7 この記事にもあるように,例えばGoogleはWork Rules!にあるように正社員なら天国のような労働環境ですが,あのすごいデータ体制を作るのにどれだけの使い捨て労働者を使っているか,というダークな面もみて,政府は意思決定をするべきです.

posted at 12:58:33

RT @54_98554: Su-57のチーフデザイナー、アレキサンダー・ダヴィデンコによると、旧世代機のRCS(例えば、Su-27)は約12m²だが、F-22Aでは0.3〜0.4m²の範囲で変化する。PAK FAのRCSは、"F-22Aの性能を超えることはありませんが、非常に近いものになる"といってるinosmi.ru/military/20100…

posted at 12:58:24

RT @grahamian2317: これはガチで、入社してみたらデータも無いし分析環境もないしエンジニアもいなくてどうしようもないからベンチャーとかに速攻で転職する人は結構みかける。 twitter.com/TJO_datasci/st…

posted at 12:36:06

RT @upura0: scikit-learnのv0.21.0で、HistGradientBoostingClassifier / HistGradientBoostingRegressorというestimatorが追加されたらしい。"This implementation is inspired by LightGBM."とのことで、気になる。 scikit-learn.org/0.21/whats_new pic.twitter.com/w2h5hi0gRV

posted at 12:11:09

RT @data_sciesotist: 機械学習アルゴリズム〜edarfパッケージ : RandomForest For EDA〜 rtokei.tech/machine-learni…

posted at 12:10:13

RT @tadashi_ohta: つまり、その本で利益をあげられるかどうかは、出版社の力量にかかっているのです。何部印刷するか、それをどうやって売るか、それを決めるのは出版社です。著者ではありません。1000部しか売れない本だって出版社は利益をあげられます。100万部売ったって結果的に赤字を出すこともあり得る。

posted at 12:03:31

RT @tadashi_ohta: 「この本〇部刷ったのに△部しか売れなかった」と出版社の人間が公言するのがどれほど愚かなことか、これでわかってもらえると思います。ただ自分の無能を晒しているだけだからです。決して著者への批判にはなり得ません。

posted at 12:03:27


Viewing all articles
Browse latest Browse all 2923

Trending Articles