RT @YukoMikage: @alex_alex_jp WW2の頃、連合国軍内でまわる文書の英語がひどいのが多くて米軍がキレて「文書にはちゃんとした英語を使え!」って通達をしたら、英国軍にもいっちゃって 英国軍は「中世の頃の思いっきり文語調の英語」で文書を渡してくるようになって米軍が「あ、イギリスさんは普通でいいっす…」なった話好きw
posted at 21:03:56
RT @Kominebunzo: 芝居なのか! あの原作で! 観たい。 観たい。 twitter.com/kissyouji_kait…
posted at 20:56:11
RT @kaetn: たこ焼きロボは見世物的に面白かったけど、でもさらに面白かったのがロボットの雑用を人間がやってること!ロボットに人間が使われるディストピアぽくて良い。 pic.twitter.com/6yvC4yma3r
posted at 20:53:46
RT @rkmt: 機械に対して人間が一番得意なのが「雑用」ですね🤗ぜんぜん皮肉ではなく、仕様が動的に細かく変化する非定型業務は自動化が難しい。馬を使っていた時代も馬の世話は人間がやっていた(餌とか蹄のメンテとか)。 twitter.com/kaetn/status/1…
posted at 20:53:42
RT @yutakakn: WinMergeの本家は長らく開発が停止していて、フォークした日本語版が独自進化していましたが、本家にマージされたんですね。リポジトリやフォーラムを見ると、ほとんどひとりで作業されていて、世界中のユーザを相手にするのは大変そうですが、同じオープンソース開発者として応援したいと思います。
posted at 20:50:45
RT @suikan_blackfin: そういえば非同期ARM7、ひっそりと消えたなあ。外野には期待する声もあったけど。 twitter.com/fcr0842361/sta…
posted at 20:50:08
RT @kou151: 昭和~平成に放送されていた天気の子です pic.twitter.com/0JM7xPUfC4
posted at 20:44:35
RT @matukakAlt: 本当は、シレっと黙ったままオンエアを迎えたかったのですが 来週、8月29日21時のテレビ、NHKダークサイドミステリー『ディアトロフ峠事件』回に専門家――というかバカ役で出演させていただきました。 おれも知らなかった事たくさんありましたので関心ある諸兄は是非是非👍 www4.nhk.or.jp/darkside/x/201…
posted at 20:40:23
RT @ssci: M5Stackからのお知らせの翻訳です。 M5StickV 緊急アップデート:デザインの欠陥とソフトウェアの互換性の問題により、現行バージョンではマイク機能が利用できません。ご不便をおかけし、申し訳ございません。マイク機能はWi-Fiが追加されたM5StickV+にて追加する予定です。 twitter.com/M5Stack/status…
posted at 20:38:27
RT @tks: 僕たぶん19カ国30都市で科学館行ってるのだけど、「世界の科学館をめぐる」みたいな連載やれないかな、、 ミラノのレオナルドダヴィンチ科学館やスペインなどでは20世紀は一気に展示が減るけど、ロンドンだとArmやアルファGoなど今もバリバリ、 とかお国柄も出る
posted at 20:38:17
RT @dragoner_JP: なんと手慣れた…… → 『男の子は車を停めてハザードランプを点灯させ、三角表示板を設置していた。 警察の調べに対しては「ちょっと運転してみたかった」と打ち明け、高速道路を気分良く走れなかったので運転をやめたと話しているという。』 headlines.yahoo.co.jp/hl?a=20190823-…
posted at 20:38:08
言語学の世界でも統計と機械学習という2つの文化が対立 qiita.com/KanNishida/ite… #Qiita
posted at 20:30:10
RT @kissyouji_kaito: 脚本の井上桂さんは古くからのモデグラ読者という事で喫驚! 私を見た井上さんの第一声が「モリナガさんの漫画通りですね♪」w 演出の一色隆司さんには「単行本はバイブルです」と言って頂きました。 演者、舞台装置、演出など僅か5頁の原作をこう膨らますのかと。脚本を読み随所で涙ぐんでおります。 pic.twitter.com/rYme35Hz2C
posted at 20:11:34
RT @kissyouji_kaito: 今日は27日から神奈川県立青少年センターで始まる舞台、 『#最貧前線』の場当たりの見学にお邪魔しています。 原作は宮崎駿の雑想ノートで、 29年前に私が担当したお話なので物凄く楽しみ! poorfront310acm.com pic.twitter.com/8W8pewFR0Y
posted at 20:11:29
RT @icoxfog417: 法律文書に特化したspaCyモデル。法律関係独自の固有表現やクラス分類が学習されている。 github.com/ICLRandD/Black…
posted at 20:11:06
RT @ai_scholar: adversarial exampleを翻訳タスクの学習データに応用する提案 訓練データの単語を入れ替えつつ同じ意味の文章を生成し、それを訓練データに含め学習させることでより誤翻訳が少ない精度の高いモデルを構築 ai-scholar.tech/text-mining/tr…
posted at 20:09:48
RT @icoxfog417: 8/19週のまとめ。Facebook/DeepMindから強化学習環境が公開。GPT-2公開のその後は考えさせられる記事です。 🔥 Hot off the press: “Weekly Machine Learning #138” www.getrevue.co/profile/icoxfo… (via @revue)
posted at 20:09:34
RT @sikano_tu: 科学文明は、ついにこれほどのことを成し遂げられるほど発展したのか。 www.gizmodo.jp/2019/08/bzigo-…
posted at 20:09:27
RT @arxiv_cs_cl: ift.tt/2KOWVRV VL-BERT: Pre-training of Generic Visual-Linguistic Representations. (arXiv:1908.08530v1 [cs.CV]) #NLProc
posted at 14:00:29
RT @uchujin17: 「こういうのでいいんだよ、こういうのがいいんだよ」みんなだいすきダグラスDC-3。結局「正解」は、単体では面白くも何ともない堅実な技術の適切な組み合わせになるという例(´・ω・`) pic.twitter.com/QJPjaaBRD3
posted at 12:34:06
RT @arxiv_cs_cl: ift.tt/2KOX2wP Revisit Semantic Representation and Tree Search for Similar Question Retrieval. (arXiv:1908.08326v1 [cs.CL]) #NLProc
posted at 12:30:17
RT @kyoun: RoBERTaメモ / 3.2: 訓練データ量16GB->160GB / 4.1: マスクを実行時に実施(少し良い) / 4.2: 1seg・NSP無を採用(少し良い) / 4.3: バッチ2K・125K steps(勾配蓄積)が256・1M より良い / 4.4: char BPE 30Kからbyte BPE 50Kに変更(良くはないがUNK出にくい) / 5: step数増やす (バッチ8K, 500K steps)
posted at 12:29:05
RT @pabbeel: Finally got to read this wonderful tutorial on transformers by @pbloemesquire! twitter.com/pbloemesquire/…
posted at 12:28:34
RT @pbloemesquire: New blogpost! Transformers from scratch. Modern transformers are super simple, so we can explain them in a really straightforward manner. Includes pytorch code. www.peterbloem.nl/blog/transform… pic.twitter.com/rTLwur0Gwq
posted at 12:28:09
RT @OpenAI: We're releasing a new method to test for model robustness against adversaries not seen during training, and open-sourcing a new metric, UAR (Unforeseen Attack Robustness), which measures how robust a model is to an unanticipated attack: openai.com/blog/testing-r… pic.twitter.com/8yJdd6oD5T
posted at 12:25:58
RT @icoxfog417: 機械学習モデルのAdversarial耐性を測るスコア(UAR)の提案。現在の防衛方法は未知のAdversarialに対して脆弱なことを実験から指摘。そのため、複数のAdversarialに対してどの程度防衛可能かを、個別に学習した(各Adversarialの防衛に特化した)モデルと比較して性能を検証する。 twitter.com/OpenAI/status/…
posted at 12:25:51
RT @FumiharuKato: 東工大理学院は社会人のための数学教室「すうがくぶんか」と提携して、現代数学を社会に広めるための新しい事業を始めます。その杮落しとして9月29日に「現代数学レクチャーシリーズ」(参加費無料)を開催します。以下の詳細ページからお申し込みください。sugakubunka.com/gendaisugaku/
posted at 12:16:47
RT @NTCIR: The NTCIR-15 task selection committee has selected the following seven tasks: Data Search, DialEval-1, FinNum-2, MART, QA Lab-PoliInfo-2, SHINRA2019-ML, and WWW-3. research.nii.ac.jp/ntcir/ntcir-15…
posted at 12:07:27
RT @hillbig: RoBERTaは言語理解タスクの事前学習のBERTを改善 1)動的なマスク2) 次文の予測を削除 3) 大きなバッチサイズ 4) 走査回数を増やす 5)文字ではなくバイト単位のBPEを使用。多くのタスクでSoTA更新。SuperGLUEタスクでも人の成績に近づいてる arxiv.org/abs/1907.11692 super.gluebenchmark.com/leaderboard
posted at 11:49:49
RT @icoxfog417: 顔認証の精度を図るための指標についての解説記事。本人/本人のペアを誤るケース(FRR)と本人/別人を誤るケース(FAR)の二つがあり、この二つが等しくなるポイント(EER)を取るのが基本。ただ、別人に間違えられたらかなり困るのでFARを優先するのがGOOD twitter.com/yu4u/status/11…
posted at 11:49:32
RT @Daichi__Konno: 「大学院でしてはいけないこと」がNatureで特集されている。 当たり前のことばかりだが、Natureと言われると読んでしまう不思議。 1.他人と比較する 2.データを盲目的に信じる 3.一人で苦しむ 4.ハードワークが良いと思い込む 5.自己流に記録をつける 6.一度の失敗を引きずる go.nature.com/33UOPi8
posted at 11:47:39
RT @sikano_tu: 昨日は横須賀美術館でせなけいこ展見てきた。展示も素晴らしかったし、グッズも可愛いのがいっぱいでとても良かった。ねないこだれだとかの作品は、いやいや期のお子さん達がモデル。わがまま言う妹さんにお兄ちゃんが、そんな風だとまたママに絵本にされちゃうよって言ってたらしいw pic.twitter.com/Fy9l6fgRvh
posted at 10:05:52
RT @icoxfog417: 過去に発表した機械学習の論文について語ろうという試み。実はベースラインを最適化してなくて。。。とか、実は他のデータセットでも試したけど結果が出なかったんだ。。。と言った話題が上がっている。 ml-retrospectives.github.io
posted at 10:05:41
RT @aad34210: SQLって実は覚えるのにすごく簡単な言語で、学習コストすごい低いはずなのになんでディスられるのかがわからん。ディスってる人はきっと良い勉強方法に当たっていないだけかもしれない。
posted at 09:15:30
RT @langstat: 国語研の「日本語話し言葉コーパス」は 今秋から,留学生の学習支援システムにも役立てられます | ニュース | ことば研究館 kotobaken.jp/media/news-190… 「奈良先端科学技術大学院大学(奈良県生駒市)は,講義映像に自動で翻訳字幕を付けるシステムを開発したとのこと」
posted at 09:00:36
RT @langstat: 【プレスリリース】お母さんの語りかけは新生児のコミュニケーション脳回路形成を促す-赤ちゃんは胎児期からお母さんの声で言語学習することを示唆- | 日本の研究.com research-er.jp/articles/view/…
posted at 09:00:04
RT @hashimoto_tokyo: 九州国立博物館に行くのに、太宰府行きの乗り換えを間違えそうだった女性2人を見かけた某紳士が、博物館まで案内し、せっかくですからこの招待券でと渡そうとしたら、「きちんとお金を落としたいので」と丁重に辞退されたと感動してました。大般若目当てのお嬢さん方、その人キューハクの館長です。
posted at 08:55:58
RT @pontamaponko: 幼稚園の時、園長が「皆勤賞は廃止します。インフルエンザなのに頑張って登園する子があとをたちません。元気なときの仕事は幼稚園に来ることですが、病気のときはおやすみがみなさんのしごとです。わかりますね。」と優しく説明してくれて心温まった。 twitter.com/rurouni15967/s…
posted at 08:55:39
RT @musashikosugi: 【武蔵小杉駅南口「喫茶ブラジル」跡地の商業ビル「KFBビルディング」が完成、テレワークオフィス「Solo Time」などが9月以降順次オープン】 #武蔵小杉 musashikosugi.blog.shinobi.jp/Entry/4670/ pic.twitter.com/mOxEckOX5C
posted at 08:55:17
RT @araichuu: 陰謀論者が鉄道オタクにボコボコにされてるの痛快すぎる。 pic.twitter.com/n77SmgqcYi
posted at 08:49:13
RT @aoki818: お!> 『あまちゃん』NHKオンデマンドで配信再開! 連続テレビ小説『あまちゃん』NHKオンデマンドでの配信が再開します! &nbs... www.nhk.or.jp/dramatopics-bl…
posted at 08:45:56
RT @sikano_tu: ホンダがP2発表した時は、二足歩行の輝かしい未来が感じられたものだった。基本、既知の技術を工業生産レベルで精度を高めただけで、当時としては驚くような歩行をしてみせたから。 twitter.com/naotakafujii/s…
posted at 08:39:36
RT @da_masu: 京都の会社と商談していて、「良い時計してますなぁ」と言われ、時計のスペックを語ってしまった。実は本音が「話長えよ」という嫌味だったと気づいたときのおいらの気持ち。
posted at 08:38:11
RT @ped_allergy: 【NEW!】カレーライスを摂取後に全身性のアレルギー症状が起こった22歳女性の原因抗原を検討した報告をご紹介します。 最近、スパイスアレルギーが増えている印象で、その原因として、ヨモギ花粉やシラカバ花粉との交差抗原性から発症する可能性が疑われています。 pediatric-allergy.com/2019/08/22/cur…
posted at 08:33:27
RT @BANF30: 16年前 知人から写真を借りプリントした物。昭和59年頃の撮影と思われるT-1A#812。当時T-1とT-3に迷彩塗装を施し総演に参加していた。塗装は富士重工が請け負ったと思われる。まだ小学生だった自分は入間基地に着陸する迷彩T-3を目撃し零戦だと勘違いしていたw。迷彩T-1入間飛来の話は聞いた記憶がない pic.twitter.com/kbcvZ6cCHl
posted at 08:31:53
RT @jaguring1: "While highly uncertain, near-term AGI should be taken as a serious possibility"
posted at 08:31:20
RT @jaguring1: Ilyaはディープラーニング分野の第一人者。この分野で最も有名な研究の一つとして、画像分類の性能を大幅に引き上げたAlexNetがあるが、この論文の著者の一人でもある。Ilyaはこの6年間の急激な発展を振り返り、汎用人工知能の実現時期について、正式に次のようにコメントした。
posted at 08:31:06
RT @CVpaperChalleng: 2019年9月19日10:30 - 20:00 @日立製作所中央研究所(東京都国分寺市)にて「CVPR 2019 網羅的サーベイ報告会」を開催します!定員は220名ですが先着順で受け付けますのでお早めにご登録ください。プログラムや参加登録については下記のリンクからご確認ください。 cvpr2019-survey.studio.design pic.twitter.com/PvXtaSxrvh
posted at 08:29:43
RT @ichikawakon: twitter.com/ichikawakon/st…
posted at 08:23:33