RT @forasteran: #Hyena がんばえ💪 「画像認識など文章以外の分野でもTFと同じ性能に達する→今後Transformer一辺倒だったものがHyenaに置き換わっていく可能性も」 100万トークンの世界 「今は非常に素朴なやりとりしかできないChatGPT→人生の友と呼べるくらいに長く付き合える可能性が」 www.itmedia.co.jp/news/articles/…
posted at 16:21:40
#DevelopersIO [ChatGPT]OpenAI APIでGPT-3.5系のモデル「gpt-3.5-turbo」と「text-davinci-003」をLambdaで試してみた dev.classmethod.jp/articles/open-…
posted at 16:21:07
RT @h_okumura: いやこれよく調べたら、日本語のサイトに嘘が書いてあるのではなく、Bing AIが誤読してるみたいだ(時間があればあとで検証しよう)
posted at 13:24:57
RT @Morning_wood17: AIを用いたアニメーションのテスト Stable Diffusion( ebsynth utility, LoRA, ControlNet),VRoid, Unity, krita #StableDiffusion #AIイラスト pic.twitter.com/GP8ygHPtL6
posted at 11:47:54
RT @arankomatsuzaki: Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models Visual ChatGPT incorporating different Visual Foundation Modelsto enable the user to interact with ChatGPT. abs: arxiv.org/abs/2303.04671 pic.twitter.com/H5fwZYAwsF
posted at 11:24:44
RT @umiyuki_ai: Googleの新しい論文。GPT-3.5やPaLMとかのデカパラ大規模言語モデルは、インコンテキストラーニングが反転しててもちゃんと従う。例えばテキスト分類をさせる時に、fewショットで「こういう文章はポジティブ、こういうのはネガティブ」って例文書くけど、そのネガポジを逆に示したらどうなる?デカパラ… twitter.com/i/web/status/1…
posted at 11:24:13
2021年の記事だけど、SHAPの可視化ツールが便利そう / 機械学習モデルを「見える化」するShapashを触ってみた|Shinichiro Ohno zenn.dev/shnchr/article… #zenn
posted at 11:14:07
RT @jerryjliu0: How do you easily obtain insights over raw SEC 10-K filings? 📈🤔 - First, clean up the HTML into a semi-structured format with @UnstructuredIO - Then, ingest the data into @gpt_index🦙. Provides capabilities to answer different q's over this data! medium.com/@jerryjliu98/h…
posted at 10:20:39
RT @TM_Quencher: @wakaruhitohawak メンデルの実験に関しては不正や捏造といった批判がされることがありますが、そのような批判は適切ではないという見解もあります。 togetter.com/li/1011756
posted at 10:20:05
RT @wakaruhitohawak: 有意差と言えば、メンデルのかの有名なエンドウマメの実験、あまりにも精度が高すぎるので後世になってから調べたら、どうやら「1:3」という結果が出るまでサンプルを取り続け、その結果になったら実験を止めるといったことをしていたのではないかという話を昔聞いたな
posted at 10:19:52
RT @JerryWeiAI: Big thank you to my collaborators who worked with me on this paper! @_jasonwei @YiTayML @dustinvtran @albertwebson @yifenglou @xinyun_chen_ @Hanxiao_6 @dhuangcn @denny_zhou @tengyuma Thanks @sewon__min for providing super helpful feedback! Paper: arxiv.org/abs/2303.03846 9/
posted at 10:16:08
RT @JerryWeiAI: New @GoogleAI paper: How do language models do in-context learning? arxiv.org/abs/2303.03846 Large language models (GPT-3.5, PaLM) can follow in-context exemplars, even if the labels are flipped or semantically unrelated. This ability wasn’t present in small language models. 1/ pic.twitter.com/TlXRlvbd9d
posted at 10:15:37
RT @mr_bay_area: こちら、ワイが業務委託やってる会社なのですが、電話DXという分野的にもNLPが割とビジネスの肝になりそうな気がするので、興味ある人はお声がけください☺️ note.com/ivry/n/n8e866b…
posted at 10:04:53
RT @npaka123: ChatGPT対応で条件に応じてPromptTemplateを切り替える機能。日本語のPromptTemplateに切り替えるセレクターも作れそう。 LangChain の PromptSeletorの使い方|npaka @npaka123 #note note.com/npaka/n/nf6337…
posted at 08:16:47
RT @kazunori_279: こうして振り返るとやはりCLIPは偉大すぎる。one hotは多くの情報を捨ててたよね。画像と文章という異なるドメインごとにタワーを分けて学習効率を上げるところ、推薦のtwo-towerモデルにも通じる。 speakerdeck.com/kyoun/deim-tut…
posted at 08:13:43