デュオリンゴの株価が下がり続けて、個人的に困ったことになっている。
posted at 23:50:21
RT @futaba_AFB: 共に第一次世界大戦に建造されて近代化改修されて最低限の戦力は持っていつつ、老朽艦なので損耗しても良いという事で馬車馬のように働かされてなんやかんや活躍の機会が多かったという意味では金剛型とクイーンエリザベス級は似た戦艦なのかしらん pic.twitter.com/TFP5sq9eQh
posted at 23:36:35
RT @hikarine3: ネットワーク機器のCiscoも影響可能性ありと調査入り tools.cisco.com/security/cente… Tenable CEO曰く 「事実上全てのサーバが危険」 「過去10年で最も致命的で巨大な脆弱性。歴史上最悪の可能性もある」 あちこちにJava潜んでる為きちんと調査が必要ですね..😰 ↑自分もElasticSearchそうだったと気づく pic.twitter.com/0bObwQCTNj
posted at 21:46:06
DeepMind: Improving Language Models by Retrieving from Trillions of Tokens deepmind.com/research/publi…
posted at 21:41:01
RT @DeepMind: The three studies explore: Gopher - a SOTA 280B parameter transformer, ethical and social risks, & a new retrieval architecture with better training efficiency. 1: dpmd.ai/llm-gopher 2: dpmd.ai/llm-ethics 3: dpmd.ai/llm-retrieval (more dpmd.ai/llm-retro) 2/
posted at 21:34:50
RT @realSharonZhou: One big problem with large language models is that they're not truthful. I'm excited to see Deepmind's RETRO model take a step towards truthfulness! It uses a separate model to look up nearby facts from a (learned) database and "remind" the main model of those facts, as it learns pic.twitter.com/mVaYcJ29N7
posted at 21:31:47
RT @_arohan_: RETRO from DeepMind. Scales up retrieval by 10-100x (in tokens). Results better than GOPHER while being 10x smaller! arxiv.org/pdf/2112.04426… New world and old world collide. 1/n twitter.com/_arohan_/statu… pic.twitter.com/EUtHBCWCXp
posted at 21:30:45
RT @ISID_AI_team: DeepMindからNLPモデル「Gopher」と「RETRO(Retrieval-Enhanced Transformer)」 が発表されました Goherは巨大モデル、RETROは解釈性が高く、パラメータ数も少ないのに高性能なのが特徴です パラメータ数 GPT-3:175 billion Gopher:280 billion RETRO:7 billion deepmind.com/blog/article/l…
posted at 21:30:08
RT @stateofai_ja: またすごいのが出てきたな。 DeepMind が GPT-3 を上回る 280B パラメータの超大規模言語モデル Gopher を発表。多くの自然言語理解タスクで最高性能。一方推論・常識などは改善の余地。 同時に 2兆単語の DB を検索する RETRO も発表。少ないパラメータ数で高性能を達成。 twitter.com/DeepMind/statu…
posted at 21:29:59
ディープマインドが言語モデル「RETRO」発表、訓練コストを大幅削減 www.technologyreview.jp/s/263211/deepm…
posted at 21:26:02
RT @nojiri_h: 当時職場で大受けした記事『本物のプログラマはpascalを使わない』が載った号を買ってみた。198円じゃなくて0円なんだけど?>【電子復刻版】bit 1985年04月号(通巻194号) 電子復刻版bit(月刊誌全巻) (【電子復刻版bit】) | 石田晴久, 竹内郁雄 Kindleストア | Amazon www.amazon.co.jp/dp/B09MLM78HF/
posted at 20:50:35
pyenv virtualenvは動かないわ、Dockerもぶっ壊すわ、散々
posted at 20:40:45
pyenv + venv + poetry による開発環境構築 (Ubuntu 21.10) qiita.com/wak109/items/a… #Qiita
posted at 20:16:03
RT @CVpaperChalleng: タイトル:CV分野メジャー国際会議受賞 / トップジャーナル採択までの道のり 筆者:片岡裕雄 アドベントカレンダー〜研究成果を世に送り出すまでのストーリー〜の12日目、片岡さんの記事です。博士課程の度重なるRejectからの転機とは?またプロジェクト推進の経験からコツ/学びを共有しています。
posted at 13:46:14
RT @arxivml: "Self-attention Does Not Need $O(n^2)$ Memory", Markus N. Rabe, Charles Staats arxiv.org/abs/2112.05682
posted at 13:45:15
日本語は本当に難しい言語だろうか|日本語の大疑問 - 国立国語研究所 #BLOGOS blogos.com/outline/573633/
posted at 13:11:36
RT @jasdf_airpark: F-86ブルーインパルス機仕様のカラーコーンには、インテークの部分も再現されています。そこのくぼみにはある言葉が書かれています。その言葉とはいったい何でしょう。ぜひ訪れた際には覗いて見てください! pic.twitter.com/WNc8UT4uVm
posted at 08:30:35