集英社のジャンプ+と一緒に、「AIによって、漫画の制作をサポートする」サービスを作りました。
— けんすう (@kensuu) May 11, 2023
まだまだ発展途上ではありますが、人間の、クリエイティブな活動を拡張するために、AIを使っていくことを促進したいなと思っています。
がんばります!https://t.co/vjZncK7dWx
「私たちの脳には100兆個のつながりがあります」「大規模言語モデルでは最大で5000億から1兆です。しかし、GPT-4は、1人の人間と比べるとその何百倍ものことを知っています。ですから、実は私たちよりもずっと優れた学習アルゴリズムを持っているのかもしれません」 https://t.co/C3wgji7Nrv
— あるふ (@alfredplpl) May 8, 2023
Anthropicのテキスト生成AI「Claude」がOpenAIのGPT-4の約3万2000トークンの3倍近い10万トークンに対応して長文の入力も可能に - GIGAZINE https://t.co/wuLTmhdTTl
— AI 人工知能 ニュース (@ai_news_jp) May 13, 2023
Googleが発表した大規模言語モデル「PaLM2」の情報をまとめました。大きな変化は3つ。①高度な推論能力②多言語翻訳③コーディングの向上。PaLM2では4種類のモデルが提供され、最小のゲッコーから最大のユニコーンまで異なるサイズで登場予定。ゲッコーはオフライン機種で動作する最小モデルです。 pic.twitter.com/sbRsXPAW6x
— きたがわ (@bukuta_3) May 11, 2023
LLM の LoRA / RLHF によるファインチューニング用のツールキットまとめ |npaka @npaka123 #note https://t.co/PmklyZZAP3
— 布留川英一 / Hidekazu Furukawa (@npaka123) May 13, 2023
いよいよ、キタ!@AnthropicAIがトークン数100Kに対応するモデルを発表。ChatGPTの「25倍」の記憶量🤯。「偉大なギャッツビー」の全文をトークンに変えると72K。一冊の本を丸ごと処理しても余る容量です。10K容量の財務資料を分析したときの様子↓。ビジネスアナリストとしても遜色のないレベル👏。 https://t.co/iX3WACz2J0 pic.twitter.com/wVx5d7g20Q
— sangmin.eth @ChoimiraiSchool (@gijigae) May 12, 2023
オープンソースの大規模言語モデル開発プロジェクト「RedPajama」が最初のモデル「RedPajama-INCITE」をリリース、無料で商用利用も可能 - GIGAZINE https://t.co/YL0z294GXz
— AI 人工知能 ニュース (@ai_news_jp) May 11, 2023
なぜ、企業におけるLLM開発は戦略的に正しい方向性なのか、わかりやすく解説しました。とは言ってもゼロから開発することを推奨するのではなく、既に非常に精度が高くなりつつあるオープンソースモデル+チューニングのア... #NewsPicks https://t.co/QTSE3Z0t8a
— シバタアキラ (@madyagi) May 10, 2023
ChatGPTは、予測だけでなく、与えられた文脈に基づいて応答を生成するために言語モデルとして設計され単語の予測はその一部であり、モデルは与えられた文脈を理解しその文脈に応じた適切な応答を生成します。
— ChatGPTが日本の英語学習を変える (@sakuraikeizo) May 8, 2023
ChatGPTは、トレーニングデータセットから学習されその中には単語の予測も含まれています。 https://t.co/bROIJwedfS
お、LLMは画像生成AIを包含するのか?しかも動いてるしbitmapよりもベクターかつ後からの指示で修正できるとなると使い勝手が良さそう https://t.co/62RaAWkiaa
— Masanori Kusunoki / 楠 正憲 (@masanork) May 7, 2023