RT @y8o: 「自然言語処理モデルの出力を意図的に操作できるような、「文章の最適な改変方法」を見つけるためのアルゴリズムを開発することに成功」したそうです。私は言語表現の多様性(と換言処理)は自然言語処理の重要な根幹技術の一つだと認識しています。 gigazine.net/news/20190402-…
posted at 22:12:46
RT @icoxfog417: この無念から約2年と思うと感慨深い。当時はROUGE-BEの評価をするときに係り受けの関係が必要で、cabochaしか選択肢がなかった(選択肢があるだけありがたいというところはもちろんある) twitter.com/icoxfog417/sta…
posted at 22:11:37
RT @icoxfog417: とうとうUD対応のライブラリが登場。これでcabochaから脱することができるか。 twitter.com/hmtd223/status…
posted at 22:11:31
RT @bonotake: 後で講演者と話した感じ、色々まだ改善できる可能性はあるので他の人達の追試が待たれる ただ、彼のいう「XX%程度の精度劣化でXX%の速度向上を達成」なる主張には意味がない、ってのは大いに同意したいところ
posted at 18:13:36
RT @bonotake: 速度と精度の2軸でできる面にパレート最適な境界線があるんだけど、2値化しても3値化してもこの境界を越えられない 要するにやる意味がない ……というMicrosoft からの重要な指摘
posted at 18:13:27
RT @bonotake: MS「2値化も3値化も意味ねえよ」 pic.twitter.com/E0DWz1uLcf
posted at 18:13:25
RT @koukiwf: 運転のオフショア化かw そりゃ安心感あるわなw こういう遠隔仕事も普通になりそう。 //米国スタートアップ企業、自動運転車を遠隔運転するドライバーを募集 www.gizmodo.jp/2019/04/design…
posted at 18:11:45
欧陽詢の字なのか。元は
posted at 18:10:02
RT @Kazeyomimaaya: togetter.com/li/1333750 ←とかでも書かれているけど、万葉集の「令和」の、さらなる引用元なのである。 つまり、「令和」という言葉は蘭亭序を含む中国の古典の系譜に属しており、同時に、この「令和の書」も、蘭亭序を書いた王義之の書法の系譜を受けて構成されている、ということになる。
posted at 18:08:54
RT @hanjidoTKT: まだまだお若いから同情的な目で見てた部分もあるけどこれは…… パクリ銭湯絵師の勝海麻衣さん、プロモの邪魔になる兄弟子の湯島ちょこさんを排除していた事が判明し大炎上 - NAVER まとめ matome.naver.jp/odai/215541734…
posted at 17:50:45
こんな時間な帰ることなんて、まずない。が、帰ってる
posted at 17:45:17
RT @GAKUJIRA: 商業漫画家がなんで商業漫画家でいられるか?は「締め切りがあるから」だ。 個人が「いつでも作画に好きなだけ時間をかけられて、好きな時に出せる」だと、モチベーションはどんどん逃げの方向へ向かう。 年に一冊出せたら大儲け! なんて考えてたら、その一冊分も描けないと思う。
posted at 17:41:51
RT @Kyukimasa: IEEE Spectrum、ハトによるデータ伝送(4月1日ネタ)を改めて記事にしているけど spectrum.ieee.org/tech-talk/comp… 先日発売された1TB SDカードなら1羽で300TB運べる。伝書鳩レースの飛行時間から計算すると28Gbps。たいていのインターネット接続より速い
posted at 17:41:15
RT @ceekz: 手続き的には新規に採用してる扱いなのかな。 pic.twitter.com/bWf3tZP3m1
posted at 17:40:29
RT @sorami: ワークス徳島研&国立国語研から、日本語の単語分散表現が公開されました!約1億のウェブページを含む大規模コーパス「NWJC」を利用し、形態素解析器「Sudachi」の複数粒度分割をもとに、word2vec(gensim)とfastTextで学習。ライセンスはApache2.0。先日の年次大会に詳細有〼 www.worksap.co.jp/nlp-activity/w…
posted at 17:40:12
RT @Vengineer: エヌビディアは現在、3つの大きな研究テーマを探求している。 1)、より専門化したチップの開発、 2)、深層学習に伴う演算処理の削減、 3)、デジタルチップのアーキテクチャではなくアナログチップを使った試み である。 と。 パターソン先生の見解と同じ。。。量子コンピュータはない。 twitter.com/EDAExpress/sta…
posted at 17:40:03
RT @icoxfog417: 形態素解析後にsubword分割して学習した、BERTモデルが公開。実際利用するとき(Fine-Tuningを行う時)はsubword分割をする必要はなく、形態素解析しておけばOKとのこと。 twitter.com/stomohide/stat…
posted at 17:39:50
RT @PreferredNetJP: 【インタビュー記事】この国は技術でよみがえる、武器はハードとAI ―プリファード・ネットワークス社長・西川徹 【平成から令和へ】 - Yahoo! JAPAN heisei.yahoo.co.jp/interview/7.html
posted at 17:39:16
RT @hillbig: Semantic Segmentationの新しいupsampling手法としてJPU (Joint Pyramid Upsampling) を提案。後半の複数の特徴マップをUpSampleして同じサイズにしてconcatし、それに異なるdilation rateのseparable convを適用した結果をconcatする。 計算量1/3で同じ精度を達成できる arxiv.org/abs/1903.11816
posted at 17:39:09
RT @icoxfog417: tf.kerasとTensorFlow 2.0を使用した、モダンなSeq2Seqの書き方のチュートリアル。モデルのパートだけでなく、データの前処理、予測まで含めて書かれている。 twitter.com/chunmlpage/sta…
posted at 17:38:50
RT @chunmlpage: My new blog post is on air. Neural machine translation with Luong attention on @TensorFlow 2.0. Building complicated models is just as easy as stacking up Lego pieces with #Keras. Check it out below: machinetalk.org/2019/03/29/neu…
posted at 15:25:42
RT @Kawade_shobo: 令和に関し「漢籍由来らしい」「国書じゃないんだ…」ツイが流れてきましたが彼らが高い教養があると示す漢籍を踏まえた上で「心を表す古の漢詩と今の歌とで何が違う。この梅で我々の歌を読もう」と宣言し「完全万葉仮名で歌を詠む」と日本文学史的に矢鱈カッコイイ流れがあるとこなんでヨロシクです。
posted at 08:39:52
昨日以上の遅れ
posted at 08:23:28
RT @StatMLPapers: PyTorch-BigGraph: A Large-scale Graph Embedding System. (arXiv:1903.12287v1 [cs.LG]) ift.tt/2CMxLPL
posted at 08:11:09
RT @takeda25: 流れに乗って書いた。 / “ぼくはこうやって(8年前)Googleに入った - アスペ日記” htn.to/7r7xyg
posted at 08:02:22
posted at 07:45:13
RT @shion_honda: GPT-2 [Radford+, 2019] GPT(12層のTransformer)を48層、潜在空間1600次元、パラメータ数15億に拡張し、新たに自作した40GBのコーパス「WebText」で事前学習した。zero-shotでも各データセット・各タスクで効果を発揮。このアプローチでの伸びしろはまだある。 d4mucfpksywv.cloudfront.net/better-languag… #NowReading pic.twitter.com/0cCbPOFnF8
posted at 00:04:39