Quantcast
Channel: Yasuhiro Morioka(@morioka) - Twilog
Viewing all articles
Browse latest Browse all 2923

7月10日のツイート

$
0
0

株式会社ミクシィ | mixi tech note #06 #技術書典 techbookfest.org/product/617502…

posted at 12:52:41

GitHubのソースコードで学習したプログラミングAI「Copilot」は著作権侵害なのか? - GIGAZINE gigazine.net/news/20210709-…

posted at 12:29:10

RT @frontend_ai: 【7/15(木)19時30分〜】 製造業からWeb開発まで。 画像認識、自然言語領域で大きな挑戦を行うスタートアップ4社による初の合同説明会。 #AICAREERNIGHT

posted at 12:23:38

RT @ISID_AI_team: Huggingface transformersのリポジトリを使用して、101本ノックを実施した内容です。 全記事で101本分なので、すごい量の努力と情報量です。ありがたいです qiita.com/keiji_dl/items…

posted at 12:19:39

RT @AIcia_Solid: GPT 系の論文を読んでいます。 これを読んでいると、 task-specific にカスタマイズした複雑なものを作るのではなく、 シンプルで何にでも使えるものを作っていくのが大事なんだなぁと感じます。 実務のデータ分析でも、この発想を活かして生きたいななんて思いました。

posted at 12:19:21

RT @akikankeri: PR TIMES、顧客から発表前情報がSNS投稿されているの指摘されて不正アクセス発覚したのか… てかリリースの公開状態に関わらず、URLがわかればダウンロード可能な仕様ってどういう…それ常時公開と変わらないのでは pic.twitter.com/FTB9krjzyZ

posted at 12:17:15

RT @toyoakinishida: 「記念碑的論文」と銘打たれたのはすばらしいですね twitter.com/miyayou/status…

posted at 12:15:34

PythonとCythonによる自然言語処理ライブラリ「spaCy 3.1」がリリース:CodeZine(コードジン) codezine.jp/article/detail… @codezineから

posted at 12:14:19

RT @keisankionwykip: 数式でひらがなやカタカナや漢字を使う例は実は結構あって面白い。 米田埋め込みを「よ」で表している海外の数学の論文は多いし、KatzはGauss-Manin接続を「兄」で表したし、佐武コンパクト化を「さ」「サ」で表す論文やMumfordコンパクト化を「マ」で表す論文もある。 しかも全部ガチで正式な論文。 pic.twitter.com/FWdCDzsOO0

posted at 09:40:36

RT @odashi_t: LMで伝統的に発生する単語単位のrepetitionが文単位に進化している() twitter.com/uhyo_/status/1…

posted at 09:27:40

RT @odashi_t: the the the ... に始まり because foo bar because foo bar 等のフレーズ単位になり、今は文単位のrepetitionを見ている。LMが一度に記憶できる情報量にそのまま起因していると思われる

posted at 09:27:38

RT @Umaibo_Japan: 私の院生の始めのテーマは 別の院生の仕事(IF約20)をさらに掘り下げるというものだった PIから何の指導もないので、 取り敢えず、その院生の実験ノートを読んで再現性の確認をしたところ 再現性がなかった ノートもそうだが、過去の論文と照らし合わせても整合性があるとは言えなかった 1/

posted at 07:21:14

RT @shima__shima: dataset bias という言葉が使われているな テスト時には利用できない,目的変数の情報を多く含む特徴がデータに含まれているので leakage の問題だと思うのだが データマイニングを名乗る教科書には leakage はのってるけど,機械学習を名乗る教科書ではあまりないんだよな twitter.com/WorldEnder_900…

posted at 07:08:51

RT @tomgoldsteincs: My lab is building neural nets that emulate human “thinking” processes. They increase their intelligence after training by increasing their compute budget. By doing so, a net trained only on “easy” chess puzzles can solve “hard” chess puzzles without having ever seen one… pic.twitter.com/Wh197CzXkC

posted at 02:16:19

RT @Linda_pp: しかし Microsoft Research がポッドキャストやってたの知らなかった.エピソード120話以上あるし,Transcript 完備だし,かなり楽しめそう www.microsoft.com/en-us/research…

posted at 02:14:25

RT @Maxwell_110: SAINT 📝 arxiv.org/abs/2106.01342 Table data の質的・量的特徴量に embedding を適用し,行・列の双方向に attention を適用させた Transformer 系のモデル 行方向へ attention を行っているため,欠損値補完等の機能も備える.CutMix / Mixup を利用したTransformer 同様の事前学習も可能. pic.twitter.com/wYXA8bKVvy

posted at 01:18:02

RT @kuhp: 友達が話題になってた100円ローソンのウインナー弁当買ってたので、薫香とか味とかどうだった?って軽い気持ちで聞いたら「時間の無いなかカーチャンが何とか用意してくれたお弁当感があってたまらない気持ちになる」って予想外の答えが返ってきてダメ泣いちゃうだろ… pic.twitter.com/fZxUnwYuqD

posted at 01:14:46

BERT初の文章要約「BertSum」 by @neil2003tw link.medium.com/VU3zto7RKhb

posted at 01:00:03

日本語BERTで文章要約「要約マン」 by @neil2003tw link.medium.com/KUZaLCZRKhb

posted at 00:54:32


Viewing all articles
Browse latest Browse all 2923

Trending Articles