大規模言語モデル | Large Language Model | LLM
- 膨大な量のテキストデータを使用してトレーニングされた深層学習ニューラルネットワーク。
- これらのモデルは、自然言語処理タスク(文章生成、機械翻訳、質問応答など)において非常に高い性能を発揮。
- 数億から数千億のパラメータを持ち、多くの場合、巨大なコンピューティングリソースと膨大なデータセットを使用してトレーニングされる。
- これにより、モデルは人間の言語理解能力に近いレベルのパフォーマンスを実現することができる。
- 具体例:
GPT-3 | Generative Pre-trained Transformer 3
- OpenAIによって開発された、数千億のパラメータを持つ言語モデル。
GPT-2 | Generative Pre-trained Transformer 2
- OpenAIが開発した、数億のパラメータを持つ言語モデルの前身。