RT @huggingface: Encoder-Decoder models are going long-range in 🤗Transformers! We just released 🤗Transformers v4.2.0 with Longformer Encoder-Decoder (LED) for long-range summarization from @i_beltagy Summarize up to 16K tokens with 🤗's pipeline or our inference API: tinyurl.com/yxunhaf5 pic.twitter.com/q2sV35V1fS
posted at 01:21:40
RT @icoxfog417: 同じように学習させたBERTは同じような文法知識を学ぶか検証した研究。同じデータセット(MNLI)で学習させたところ精度はほとんど同じだが、文法理解には精度に大きな差異が出た(HANS datasetを使用)。 arxiv.org/abs/1911.02969
posted at 01:17:11
3つ目以降のジョブが勤務時間外にやらざるを得ない
posted at 01:11:54
RT @mikasayoshino: 退役した飛行機がストックしてある場所をgoogleマップで眺めていると無限に時間が潰せるのだが、カリフォルニアのモハヴェ空港でとんでもないものを発見してしまった …ド、ドラケン、なんでこんな所におるんやワレ pic.twitter.com/7qYu0vzN6N
posted at 00:12:06
RT @shion_honda: Let's re-inplement face swapping in 10 minutes! This post shows a naive solution using a pre-trained CNN and OpenCV. Creating a Face Swapping Model in 10 Minutes | Hippocampus's Garden hippocampus-garden.com/face-swap/
posted at 00:09:10