ピラーページ
大規模言語モデル(LLM)
LLMの構造、パラメータ、進化の歴史
25件のクラスター
0件の記事
関連クラスター
LLMのトランスフォーマー
LLMの核心、トランスフォーマーの構造と役割を解説。
アテンション機構
LLMの性能を向上させる、重要なアテンション機構
LLMのトークナイザー
LLMの性能を左右する、トークナイザーの仕組みを解説
事前学習
LLMの基礎。事前学習済みモデルの構造と学習方法
LLMのファインチューニング
LLMを個別最適化。ファインチューニングで精度向上。
RLHF
LLMの性能を向上させる強化学習手法「RLHF」
LLMのRAG
LLMのRAG構築、精度向上と検索効率化を徹底解説。
LLMのハルシネーション
LLMの弱点、ハルシネーションを解説。原因と対策を紹介。
プロンプト工学
LLMの性能を引き出す、プロンプト作成技術
文脈ウィンドウ
LLMの文脈理解範囲。AI性能を左右
LLMのマルチモーダル
LLMの画像・音声処理。マルチモーダルAIで性能向上。
量子化技術
LLMの軽量化!量子化技術でAIモデルを高速化。
パラメータ数
LLMの性能を左右する、モデルのパラメータ数について解説
埋め込みベクトル
LLMの性能を左右する、意味を数値化した埋め込みベクトル。
推論コスト
LLMの推論コスト削減技術。高速化と効率化が重要。
日本語LLM
LLMの日本語特化モデル。性能改善と活用事例。
LLMのオープンソースLLM
LLMのOSSで開発を加速。日本語対応も強化。
LLMのAIエージェント
LLMで進化!AIエージェント開発と活用
インコンテキスト学習
LLMの性能を左右する、文脈学習の技術
ベクトルDB
LLMの性能を向上。ベクトルDBで類似検索を高速化
モデル蒸留
LLMの軽量化、モデル蒸留で推論コストを削減。
トークン消費量
LLMのコストを左右する、トークン消費量の削減と最適化。
LoRA
LLMのLoRA、軽量学習でファインチューニング
スケーリング則
LLMの性能向上を予測する、スケーリング則の解説
混合エキスパート
LLMの性能向上!MoE(混合エキスパート)モデルを解説