Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

10月25日のツイート

$
0
0

RT @poly_soft: 僕のキャリアが証明しているように、現在のWeb業界の仕事においては「コンピュータサイエンスの深い知識」とかではなく ・様々なツールやテクノロジーの使い方に関する知見 ・それらを組み合わせて実際のサービスに適用する能力 が一番重要なので、ギークである必要性ってもう無いんですよね(^.^;)

posted at 13:04:11

RT @gigazine: 「涼宮ハルヒの憂鬱」のおかげで25年解けなかった数学の難問が解決されるかもしれない bit.ly/2z07f2C

posted at 12:59:54

RT @kirino_0214: 20歳のころは40歳の人はすごくおじさんに見えました。 でも自分が40歳になったら、20歳の人からおじさんと見られている感覚がそれほどない。 だから20歳の人たちに気軽に同じ目線でアドバイスしてしまう。 それは、私たちが20歳のころ40歳のおじさんから言われた説教なんです。

posted at 12:57:25

RT @sammy_suyama: 特徴量エンジニアリングから構造モデリングにシフトしたこと自体は良いのですが、実験の設定や評価は怪しいものが非常に多い印象です。 twitter.com/arcatdmz/statu…

posted at 12:57:16

RT @siontak: イスラエルでも豆腐食は一般化してたけどあそこの豆腐は予め脱水の進んだやつだった。 そこでの食べ方を教えてもらった。豆腐を棒状に切り分け、パン粉をつけて揚げる。こうすると鶏のささみカツみたいになる。更にこれを酢飯と海苔で巻いたのがスシパーティには欠かせないそう。ウマい。

posted at 12:29:46

RT @ORLandNTD: 池田としえ「ワクチンを打つぐらいなら子宮癌になった方がいい」 いや、あの、正直久々に怒り心頭なんですけど。 全ての癌患者に謝って土下座しておまえが癌になれと言いたい。何という浅慮。「あなたは5年以内に○%の確率で死ぬ」と言われる人間の気持ちを想像しろ。その恐怖よ。 twitter.com/pe27ach1/statu…

posted at 12:28:33

RT @taketo1024: Persistence homology が自然言語処理に使える的な話?🙄 twitter.com/arXiv_math_AT/…

posted at 12:27:36

RT @icoxfog417: 学習データに含まれるノイズの影響を軽減する手法。分類クラスに「不要クラス」を一つ追加し、イメージ的にはモデルがそこにデータを「捨てる(Abstain)」ことを許容する形で学習を行う。既存のsoftmaxに不要クラス確率を組み込んだ式+捨てすぎ抑制の項というlossで学習する openreview.net/forum?id=rJxF7…

posted at 12:26:54

RT @Kyukimasa: 自律車両のAI道徳基準問題、独Spiegelが記事にしている www.spiegel.de/wissenschaft/t… ドイツでは年齢や性別などでヒトの重み付けをしてはならないといった倫理委員会の報告が出ているとか。

posted at 12:25:50

RT @Kyukimasa: AIのトロッコ問題 news.mit.edu/2018/how-auton… ”自律車が事故を避けられない場合、歩行者をはねるか乗員を殺すか”。MITがMoral Machineというサイト作って調査した結果。 世界レベルでアンケート取れてて文化的・地理的な差異がやや見られるという www.nature.com/articles/s4158… pic.twitter.com/m91zKmmprz

posted at 12:25:19

RT @jaguring1: AIによる自動着色が凄まじいことになってる(style2paints V4) pic.twitter.com/tnPE7sKWZx

posted at 12:24:59

RT @mhagiwara_ja: 「実世界自然言語処理」"Real-World Natural Language Processing" という本を執筆・出版することになりました。執筆・出版プロセスについて以下のページで随時シェアしていく予定です。海外で技術書をゼロから執筆・出版する方法 masatohagiwara.net/publishing-a-t…

posted at 12:24:01

RT @pbloemesquire: New preprint! Learning sparse transformations through backpropagation. A new approach to learning with sparsity, with applications to visual attention, differentiable sorting, and hopefully much more. www.peterbloem.nl/publications/l… pic.twitter.com/2A3UrjPBFK

posted at 12:23:21

RT @thomaskipf: Our paper on cardinality estimation in database systems with a Deep Sets-based model got accepted to #CIDR2019! #brotherpaper with @andreaskipf arxiv.org/abs/1809.00677 pic.twitter.com/vIOR1HfV5E

posted at 12:22:25

RT @icoxfog417: SQLを最適化する際はカーディナリティ(戻される行数)を予測して実行計画が立てられるが、その予測をNNで行う手法の提案。SQL内の各要素は離散値で表現し、2層NNで処理したのち種別(テーブル、JOIN方式、条件式)ごとに集計し予測を行う。学習は教師ありだが学習用クエリを生成しデータ数を稼いでいる twitter.com/thomaskipf/sta…

posted at 12:21:47

RT @pacocat: 来週「R2D2: 深層強化学習の分散化・RNN利用の動向」というテーマで発表させていただきます。 Atariで大きな成績の伸長があったものの、その理論的背景などはまだOpenreview等で議論になっており、会場のみなさんと議論しながら理解を深めていけたらなと思っています。#rlarch rlarch.connpass.com/event/106179/

posted at 12:19:22

RT @icoxfog417: これは考えなしにブームに乗って導入した企業の末路であり、Pepper自体に罪はないと思う。扱った立場から言えば、不器用な所もあるけどプログラミング可能なロボットとして出てきた意義は大きいし、契約を更新する15%で有効な活用がされるならそれでよいと思う。 dot.asahi.com/wa/20181024000…

posted at 12:19:17

RT @kaityo256: Googleすごいといえば、ある時期からGoogle翻訳の精度と安定性が劇的に改善したんだよね。安定性っていうのは、同じ文章を日→英→日→英みたいになんども翻訳させて、同じ文章に落ち着くかどうか、みたいな奴。Google翻訳とGrammarlyの組み合わせで、それなりのぱっと英文が作れてしまう・・・

posted at 10:31:31

RT @kazunori_279: 中間層を含めて複数段をひとつのLUTに入れるって発想がユニーク。でかいモデルで精度と消費リソースどうなるか見てみたい。 ryuz.txt-nifty.com/blog/2018/10/b…

posted at 10:30:17

RT @shigekzishihara: 僕はPepperが失敗だったとは全く思わない。ただ、電気店や自動車ディーラーの店頭で相手するものもなく時折 空に向かって話しかけているのを見るのは辛い。結局、話しかける、なにかの愛を伝えるのは店頭ではなくもっとpersonalでintimate な場ではなかったか?そうするとGateboxが正解なのだろうか。 twitter.com/shigekzishihar…

posted at 10:15:28

RT @zolge1: 「ドラえもん」や「鉄腕アトム」に秘められたさりげない気高さ、格調が、何もただ偶然そこにあったわけではないのだ。「マンガなんて」とバカにされ、わかりやすい社会の敵として執拗に叩かれながら「これを読んでくれ、一生懸命描いたんだ」という必死の気迫がこもっている。 pic.twitter.com/OqFrGZK3IX

posted at 09:09:46

RT @Mossie633: だから同時通訳さんの負担を少しでも減らそうと、質問するときはなるべく英語にしやすい構文にして、動詞や形容詞を英語にするときに訳語を絞り込みやすい日本語を選んで、略号はかならず日本語訳とフルの英語を添えて質問するように、なるべくしてます。 twitter.com/otfsx1228/stat…

posted at 08:52:17

RT @rkmt: 東京大学情報学環 ヒューマンオーグメンテーション学(ソニー寄付講座)の活動記録ができました。初年度の講演、セミナーを中心に編集してあります。PDF版もあります ⇒ humanaugmentationblog.files.wordpress.com/2018/10/habook… pic.twitter.com/qLPArok6Zm

posted at 08:28:01

RT @dragoner_JP: 『赤坂に出没したアライグマを殺さないで!』という署名活動のページ見たけど、署名趣旨冒頭に『本来いていい場所である山にいただけで〜』とあったのを見たのをぼく。 「アライグマが本来いていいのは山ではなく、北米か動物園だ」

posted at 08:27:18

RT @NatureJapan: | Collection:人工知能の学際性 | Nature Human Behaviour 「自動運転車の受容を阻む心理的障害」 本稿では、倫理的なジレンマ、事故に対する過剰反応、自動運転車の意志決定アルゴリズムの不透明性の3点について論じ、それらの課題を解決するための工程を提案する。 go.nature.com/2PIP4Fu

posted at 08:06:04

RT @ksasao: 東北新幹線・東海道新幹線のりかえの時間が短かい場合は紙のきっぷにしておくのが正解 pic.twitter.com/rqEPLurCeg

posted at 07:11:32


Viewing all articles
Browse latest Browse all 2923

Trending Articles