概要

このページでは、AI や機械学習の分野でよく使われる基礎的な用語を一覧形式で紹介しています。 アルゴリズム、評価指標、モデリング手法など、初心者が理解すべきキーワードを中心に構成しています。


用語一覧

AI(人工知能)

人間の知的活動をコンピュータで再現する技術の総称。

API(エーピーアイ)

アプリケーション同士が連携するためのインターフェース。

AutoML(オートエムエル)

機械学習モデルの設計・構築・評価を自動化する技術。

Attention(アテンション)

入力データの中で重要な部分に注目するニューラルネットワークの仕組み。

Adaboost(アダブースト)

複数の弱い学習器を組み合わせて精度を高めるアンサンブル学習手法。

Activation Function(活性化関数)

ニューラルネットワークの各ノードで出力を決定する関数。

Augmentation(オーグメンテーション)

データ拡張。画像回転やノイズ付加などで学習データを増やす手法。

Autoencoder(オートエンコーダ)

入力データを圧縮・復元するニューラルネットワーク。

ARIMA(アリマ)

時系列データの予測に用いられる統計モデル。

Accuracy(正解率)

予測が正解した割合。評価指標の一つ。

Bagging(バギング)

複数のモデルを並列に学習し、予測を平均化するアンサンブル学習手法。

Batch Normalization(バッチ正規化)

ニューラルネットワークの学習を安定化させる正規化手法。

Bayes 推定

ベイズの定理を用いて未知の確率を推定する方法。

Bayesian Network(ベイジアンネットワーク)

確率的な因果関係を表現するグラフモデル。

Bias(バイアス)

モデルの予測値に加えられる定数項。過学習や未学習の原因にも。

BigQuery(ビッグクエリ)

Google が提供する大規模データ分析サービス。

Binary Classification(二値分類)

2 つのクラスに分類するタスク。

Boosting(ブースティング)

複数の弱い学習器を逐次的に組み合わせて精度を高める手法。

Batch Size(バッチサイズ)

一度に学習に使うデータの数。

CNN(畳み込みニューラルネットワーク)

画像認識などで使われるニューラルネットワークの一種。

Confusion Matrix(混同行列)

分類モデルの予測結果を表形式で示すもの。

Cross Validation(交差検証)

データを分割して繰り返し学習・評価する手法。

Clustering(クラスタリング)

データを似た特徴ごとにグループ分けする手法。

Cost Function(コスト関数)

モデルの誤差を数値化する関数。損失関数とも呼ばれる。

Curse of Dimensionality(次元の呪い)

次元数が増えるとデータ解析が困難になる現象。

Classification(分類)

データをカテゴリに分けるタスク。

Cloud Computing(クラウドコンピューティング)

インターネット経由で計算資源やサービスを利用する仕組み。

Collaborative Filtering(協調フィルタリング)

ユーザーの行動履歴から好みを推定する推薦システムの手法。

Correlation(相関)

2 つの変数の関係性を示す指標。

Data Augmentation(データ拡張)

学習データを人工的に増やす手法。

Data Cleansing(データクレンジング)

データの誤りや欠損を修正・除去する作業。

Data Mining(データマイニング)

大量データから有用な知識やパターンを発見する技術。

Data Visualization(データ可視化)

データをグラフや図で分かりやすく表現すること。

Decision Tree(決定木)

条件分岐で分類や回帰を行うモデル。

Deep Learning(ディープラーニング)

多層のニューラルネットワークを用いた機械学習の一分野。

Dimensionality Reduction(次元削減)

データの特徴量を減らして解析を容易にする手法。

Dropout(ドロップアウト)

ニューラルネットワークの過学習を防ぐための手法。

Dataset(データセット)

機械学習で使うデータの集合。

Domain Adaptation(ドメイン適応)

異なるデータ分布間で学習モデルを適用する技術。

Early Stopping(アーリーストッピング)

学習の進行を監視し、最適なタイミングで停止する手法。

Embedding(埋め込み表現)

単語やアイテムをベクトル空間に変換する技術。

Ensemble Learning(アンサンブル学習)

複数のモデルを組み合わせて精度を高める手法。

Epoch(エポック)

学習データ全体を 1 回使い切ること。

Evaluation(評価)

モデルの性能を測ること。

Exploratory Data Analysis(探索的データ解析)

データの傾向や特徴を調べる初期分析。

Feature Engineering(特徴量エンジニアリング)

モデルの精度向上のために特徴量を作成・選択する作業。

Feature Selection(特徴量選択)

重要な特徴量のみを選び出す手法。

Fine-tuning(ファインチューニング)

事前学習済みモデルを特定タスク向けに追加学習すること。

F 値(F-measure)

Precision と Recall の調和平均で分類性能を評価する指標。

Forward Propagation(順伝播)

ニューラルネットワークで入力から出力まで信号を伝える計算。

Fully Connected Layer(全結合層)

すべてのノードが接続されたニューラルネットワークの層。

GAN(敵対的生成ネットワーク)

2 つのネットワークが競い合いながら学習する生成モデル。

Gradient Descent(勾配降下法)

損失関数を最小化するための最適化アルゴリズム。

Grid Search(グリッドサーチ)

ハイパーパラメータの最適値を総当たりで探索する手法。

GPU(ジーピーユー)

画像処理や機械学習の高速計算に使われるプロセッサ。

GMM(ガウス混合モデル)

複数の正規分布を組み合わせてデータを表現するモデル。

Hyperparameter(ハイパーパラメータ)

学習前に設定するパラメータ。例:学習率、バッチサイズなど。

He Initialization(He 初期化)

ニューラルネットワークの重み初期化手法の一つ。

Histogram(ヒストグラム)

データの分布を棒グラフで表現したもの。

HOG 特徴量

画像のエッジ方向を特徴量として抽出する手法。

HMM(隠れマルコフモデル)

観測できない状態を持つ確率モデル。

IoT(アイオーティー)

Internet of Things。モノのインターネット。様々な機器がネットワークでつながる仕組み。

Imbalanced Data(不均衡データ)

クラスごとのデータ数に大きな偏りがあるデータセット。

ImageNet(イメージネット)

大規模な画像データセット。画像認識のベンチマーク。

Inference(推論)

学習済みモデルを使って新しいデータの予測や分類を行うこと。

Instance(インスタンス)

データセット内の個々のデータ。

Instance Segmentation(インスタンスセグメンテーション)

画像内の物体ごとに領域を分割するタスク。

Jupyter Notebook(ジュピターノートブック)

対話的にコード実行・可視化・ドキュメント作成ができるツール。

JSON(ジェイソン)

データ交換フォーマット。JavaScript Object Notation。

Java(ジャバ)

汎用プログラミング言語。AI 開発にも利用される。

K-means(ケイミーンズ)

クラスタリングの代表的なアルゴリズム。

KNN(k 近傍法)

近いデータ点を参照して分類や回帰を行う手法。

Keras(ケラス)

Python で使える深層学習フレームワーク。

Kernel Trick(カーネルトリック)

非線形な特徴空間に写像して学習する手法。

Knowledge Graph(ナレッジグラフ)

知識をノードとエッジで表現したグラフ構造。

LSTM(長短期記憶)

時系列データの長期依存関係を学習できる RNN の一種。

Learning Rate(学習率)

重みを更新する際のステップ幅。

Logistic Regression(ロジスティック回帰)

確率的な分類を行う回帰モデル。

Loss Function(損失関数)

モデルの誤差を数値化する関数。

Label Encoding(ラベルエンコーディング)

カテゴリ変数を数値に変換する手法。

Machine Learning(機械学習)

データからパターンを学習し、予測や分類を行う AI の手法。

Mean Squared Error(平均二乗誤差)

回帰モデルの誤差を評価する指標。

Mini-batch(ミニバッチ)

学習時にデータを小分けにして処理する手法。

Model(モデル)

学習によって得られた予測や分類を行う仕組み。

Momentum(モーメンタム)

最適化アルゴリズムで過去の勾配を考慮して学習を加速する手法。

Multi-class Classification(多クラス分類)

3 つ以上のクラスに分類するタスク。

Naive Bayes(ナイーブベイズ)

特徴量の独立性を仮定した確率的分類モデル。

Normalization(正規化)

データの値を一定の範囲に揃える処理。

Node(ノード)

グラフやニューラルネットワークの接点。

Noise(ノイズ)

データに含まれる不要な変動や誤差。

Overfitting(過学習)

訓練データに適合しすぎて汎化性能が低下する現象。

Optimizer(最適化手法)

損失関数を最小化するためのアルゴリズム。

One-hot Encoding(ワンホットエンコーディング)

カテゴリ変数を 0 と 1 のベクトルに変換する手法。

Outlier(外れ値)

他のデータから大きく外れた値。

PCA(主成分分析)

多次元データを少数の主成分に変換する次元削減手法。

Precision(適合率)

予測が正解だった割合。評価指標の一つ。

Preprocessing(前処理)

学習前にデータを整形・加工する作業。

Pruning(剪定)

決定木などで不要な枝を切り落とす処理。

Pooling(プーリング)

画像認識で特徴マップを縮小する処理。

Q-learning(Q ラーニング)

強化学習の代表的なアルゴリズム。

Quantization(量子化)

連続値を離散値に変換する処理。

Random Forest(ランダムフォレスト)

複数の決定木を組み合わせたアンサンブル学習手法。

Recall(再現率)

実際に正解だったもののうち、正しく予測できた割合。

Regression(回帰)

連続値を予測するタスク。

Reinforcement Learning(強化学習)

報酬を最大化するように行動を学習する手法。

Regularization(正則化)

モデルの複雑さを抑えて過学習を防ぐ手法。

ReLU(レルー)

活性化関数の一つ。0 以下を 0、0 より大きい値はそのまま出力。

SVM(サポートベクターマシン)

分類や回帰に使われる機械学習アルゴリズムの一つ。

SGD(確率的勾配降下法)

データをランダムに選んで重みを更新する最適化手法。

Softmax(ソフトマックス)

出力を確率分布に変換する関数。

Supervised Learning(教師あり学習)

正解データを使って学習する機械学習の手法。

Swarm Intelligence(群知能)

複数のエージェントが協調して問題解決する AI 分野。

Tensor(テンソル)

多次元配列。深層学習で使われるデータ構造。

Transfer Learning(転移学習)

既存モデルの知識を新しいタスクに活用する手法。

Training Data(訓練データ)

モデルの学習に使うデータ。

True Positive(真陽性)

実際に正解で、かつ正しく予測できたケース。

Underfitting(未学習)

モデルが十分に学習できていない状態。

Unsupervised Learning(教師なし学習)

正解データを使わず、データの構造やパターンを見つける手法。

Upsampling(アップサンプリング)

データのサンプル数を増やす処理。

Validation(検証)

モデルの性能を評価するためのデータや手法。

Variance(分散)

データのばらつきを示す指標。

Vectorization(ベクトル化)

データや処理をベクトル形式に変換すること。

Word2Vec(ワードツーベック)

単語をベクトル空間に埋め込む手法。

Weight Decay(重み減衰)

正則化の一種で重みの大きさを抑制する手法。

Zero-shot Learning(ゼロショット学習)

学習していないクラスでも推論できる AI 手法。

Adversarial Example(敵対的サンプル)

AI モデルを誤認識させるために意図的に作られた入力データ。

Alignment(アライメント)

AI の出力や行動が人間の意図や倫理に沿うよう調整すること。

Autoregressive Model(自己回帰モデル)

過去の出力を次の入力に利用して系列データを生成するモデル。

Backpropagation Through Time(BPTT)

時系列データの学習で使われる誤差逆伝播法の拡張。

Beam Search(ビームサーチ)

生成 AI で最も有望な複数の候補を同時に探索するアルゴリズム。

BLEU スコア

機械翻訳や生成文の品質を評価する指標。

CLIP

画像とテキストを同じ空間に埋め込む OpenAI のマルチモーダルモデル。

Conditional Generation(条件付き生成)

特定の条件や入力に基づいてデータを生成する AI 手法。

Content Filtering(コンテンツフィルタリング)

生成 AI の出力から不適切な内容を除外する仕組み。

Contrastive Learning(コントラスト学習)

類似・非類似ペアを使って特徴表現を学習する手法。

ControlNet

生成 AI の出力を細かく制御するための追加ネットワーク。

Creative AI(クリエイティブ AI)

芸術やデザインなど創造的分野で活用される AI。

CycleGAN

画像間の変換を教師なしで学習する生成モデル。

DALL·E

テキストから画像を生成する OpenAI のモデル。

Data-to-Text

構造化データから自然言語テキストを生成する技術。

DeepFake(ディープフェイク)

AI で人物映像や音声をリアルに合成する技術。

Diffusion Model(拡散モデル)

ノイズを徐々に除去して画像などを生成する AI モデル。

Discriminator(識別器)

GAN で生成データと本物データを判別するネットワーク。

DreamBooth

少数の画像から特定の被写体を学習し画像生成する技術。

Embedding Space(埋め込み空間)

テキストや画像などをベクトルで表現する多次元空間。

Few-shot Learning(少数ショット学習)

少数の例から新しいタスクを学習する AI 手法。

Fine-tuned LLM(ファインチューニング済み大規模言語モデル)

特定用途向けに追加学習された大規模言語モデル。

Foundation Model(基盤モデル)

多様なタスクに対応できる大規模な事前学習済み AI モデル。

GAN Inversion

既存画像を GAN の潜在空間にマッピングする技術。

Guidance Scale

生成 AI で出力の多様性と忠実性のバランスを調整するパラメータ。

Hallucination(幻覚)

生成 AI が事実と異なる内容を出力する現象。

Human-in-the-loop(HITL)

AI の学習や出力に人間が介在して品質を担保する仕組み。

Image-to-Image

入力画像をもとに新たな画像を生成する AI 技術。

Inpainting(インペインティング)

画像の一部を AI で自然に補完・修復する技術。

Instruction Tuning

指示文に従うよう AI モデルを追加学習する手法。

Latent Space(潜在空間)

生成 AI がデータの特徴を圧縮・表現する多次元空間。

LayerNorm(レイヤーノルム)

Transformer などで使われる正規化手法。

LoRA(Low-Rank Adaptation)

大規模モデルを効率的に微調整するための技術。

Lossless Compression(可逆圧縮)

データを元通りに復元できる圧縮方式。

Lossy Compression(非可逆圧縮)

一部情報を失うが高い圧縮率を実現する方式。

Meta-learning(メタ学習)

新しいタスクへの適応力を高めるための学習手法。

Midjourney

高品質な画像生成が可能な生成 AI サービス。

Mixing(ミキシング)

複数の潜在ベクトルを組み合わせて新しいデータを生成する手法。

Model Card

AI モデルの特性や利用上の注意点をまとめた文書。

Multimodal AI(マルチモーダル AI)

テキスト・画像・音声など複数の情報を統合して処理する AI。

Negative Prompt(ネガティブプロンプト)

生成 AI で出力から除外したい要素を指定する入力。

Noise Schedule

拡散モデルでノイズを加える・除去する過程の制御。

NSFW フィルタ

不適切な画像やテキストを自動で検出・除外する仕組み。

OpenAI

ChatGPT や DALL·E などを開発する AI 研究機関・企業。

Outpainting(アウトペインティング)

画像の外側を AI で自然に拡張する技術。

Parameter Efficient Tuning(PET)

パラメータの一部だけを調整して大規模モデルを効率的に微調整する手法。

Perplexity(パープレキシティ)

言語モデルの予測困難度を示す指標。

Pix2Pix

画像から画像への変換を学習する生成モデル。

Plug and Play(PnP)

追加学習や設定なしで AI モデルを利用できる仕組み。

Prompt(プロンプト)

生成 AI に与える指示文や入力。

Prompt Engineering(プロンプトエンジニアリング)

AI から望ましい出力を得るための指示文設計技術。

Prompt Injection

AI の挙動を意図的に操作するための入力攻撃。

RAG(Retrieval-Augmented Generation)

外部知識を検索して生成 AI の出力に活用する手法。

Reinforcement Learning from Human Feedback(RLHF)

人間のフィードバックを活用して AI を強化学習する手法。

Sampling(サンプリング)

生成 AI で確率的に出力を選択する処理。

Score-based Model

拡散モデルの一種でスコア関数を用いて生成を行う。

Self-Attention

入力系列内の各要素が互いに注目し合う仕組み。

Self-supervised Learning(自己教師あり学習)

ラベルなしデータから特徴を学習する手法。

Semantic Segmentation(セマンティックセグメンテーション)

画像内の各ピクセルを意味ごとに分類するタスク。

Stable Diffusion

高品質な画像生成が可能な拡散モデルベースの AI。

StyleGAN

高解像度画像生成に特化した GAN モデル。

Super-Resolution(超解像)

低解像度画像を高解像度に変換する AI 技術。

Temperature(温度パラメータ)

生成 AI で出力の多様性を調整するパラメータ。

Text-to-Image

テキストから画像を生成する AI 技術。

Text-to-Speech(TTS)

テキストから音声を生成する AI 技術。

Token(トークン)

テキストを分割した最小単位。単語や文字など。

Tokenization(トークナイゼーション)

テキストをトークンに分割する処理。

Top-k Sampling

確率上位 k 個から出力を選択する生成 AI の手法。

Top-p Sampling(Nucleus Sampling)

確率の合計が p 以下になるまで上位から選択する手法。

Transformer

自己注意機構を用いた大規模 AI モデルの基本構造。

Truncation Trick

生成 AI で潜在空間の一部だけを使って出力を安定化する手法。

UnCLIP

CLIP の逆変換を利用した画像生成モデル。

Upscaler(アップスケーラー)

画像や映像の解像度を AI で高める技術。

VAE(変分オートエンコーダ)

確率的にデータを生成するオートエンコーダの一種。

VQ-VAE

離散的な潜在空間を持つ生成モデル。

Vector Database(ベクトルデータベース)

ベクトル検索や類似検索に特化したデータベース。

Visual Prompting

画像や映像を使って生成 AI に指示を与える手法。

Voice Cloning(音声クローン)

特定の人物の声を AI で再現・生成する技術。

WaveNet

音声波形を直接生成する深層学習モデル。

XAI(説明可能 AI)

AI の判断根拠や生成過程を人間が理解できるようにする技術。

Zero-shot Generation(ゼロショット生成)

学習していないタスクやクラスでも生成できる AI 手法。

あいまい検索

完全一致でなく類似した用語も検索できる機能。

イメージキャプション生成

画像の内容を説明するテキストを AI で生成する技術。

エッジ AI 生成

端末や IoT 機器上で生成 AI を動作させる技術。

オーディオ生成 AI

音声や音楽を自動生成する AI 技術。

カスタムモデル

特定用途や企業向けに追加学習・調整された生成 AI モデル。

キャラクター AI

個性や人格を持つ対話・生成 AI。

クオリティスコア

生成物の品質を評価する指標。

コントロールパラメータ

生成 AI の出力を細かく調整するための設定値。

サンプル画像

生成 AI が出力した例として提示される画像。

シード値

生成 AI の出力を再現するための乱数初期値。

ジャンル変換

画像や音声のジャンルを AI で変換する技術。

スタイル転送

画像や映像のスタイルを他の画像に適用する AI 技術。

セーフティガード

不適切な生成を防ぐための AI 内蔵の安全機能。

ダイナミックプロンプト

変数や条件を使って動的に生成 AI へ指示を与える手法。

テキスト生成 AI

文章やストーリーを自動生成する AI。

データ拡張生成

学習データを AI で自動生成して増やす技術。

トークン制限

生成 AI が一度に扱えるトークン数の上限。

ニューラル音声合成

ニューラルネットワークを用いた高品質な音声生成技術。

ノイズ除去 AI

画像や音声からノイズを AI で除去する技術。

パラメータ共有

複数モデル間で重みやパラメータを共有する手法。

ファインチューニング済み生成 AI

特定用途向けに追加学習された生成 AI モデル。

フォトリアリスティック生成

写真のようにリアルな画像を AI で生成する技術。

フレーム補間 AI

動画の中間フレームを AI で生成する技術。

ベクトル検索

生成 AI の出力や特徴をベクトル空間で検索する技術。

ポストプロセッシング

生成 AI の出力に対して行う追加処理。

マルチモーダル生成

複数の情報(例:画像+テキスト)を組み合わせて生成する AI。

ミーム生成 AI

インターネットミーム画像やテキストを自動生成する AI。

メタプロンプト

プロンプト自体を AI で自動生成する仕組み。

モーション生成 AI

アニメーションや動作データを AI で生成する技術。

ユーザーガイドライン

生成 AI の利用時に守るべきルールや指針。

ライセンス管理 AI

生成物の著作権や利用権を AI で管理する仕組み。

リミックス生成

既存のデータや作品を AI で再構成・生成する技術。

レイヤー分離

画像や音声の各要素を AI で分離・抽出する技術。

ローカル生成 AI

クラウドを使わず端末内で動作する生成 AI。

ワークフロー自動化 AI

業務プロセスを AI で自動化・最適化する技術。

MCP サーバ

AI ワークロード(学習・推論)を複数の異なるクラウド環境に分散・統合して運用する基盤です。これにより、企業は特定のベンダーの制約を受けず、最適なリソースや機能を組み合わせて AI の効率とパフォーマンスを最大化できます。

大規模言語モデル(LLM: Large Language Model)

膨大な量のテキストデータで学習された、非常にパラメータ数の多い深層学習モデル。人間のような自然な言語を理解・生成する能力を持つ。

Transformer(トランスフォーマー)

LLM の基盤となるニューラルネットワークのアーキテクチャ。自己注意機構(Self-Attention Mechanism)を導入し、長距離の依存関係を効率的に学習できる。

自己注意機構(Self-Attention Mechanism)

Transformer の中心的な要素。入力シーケンス内の各単語が、他のすべての単語とどの程度関連しているかを学習し、文脈に応じた重み付けを行う仕組み。

エンコーダ・デコーダ(Encoder-Decoder)

Transformer の元々の構造。エンコーダで入力シーケンスを表現し、デコーダで出力シーケンスを生成する。機械翻訳などで用いられる。

デコーダのみ(Decoder-only)

現在の多くの LLM(GPT シリーズなど)が採用しているアーキテクチャ。入力の後に続く単語を予測することで、テキスト生成を行う。

パラメータ(Parameter)

LLM の学習可能な変数(重みとバイアス)。モデルの規模を表す指標の一つで、数億から数兆に及ぶ。

事前学習(Pre-training)

大量の汎用テキストデータ(インターネット上のウェブページ、書籍など)を用いて、モデルが一般的な言語知識とパターンを獲得する段階。教師なし学習に近い形で行われる。

ファインチューニング(Fine-tuning)

事前学習済みモデルを、特定のタスクやデータセットに合わせてさらに学習させること。モデルの性能を向上させたり、特定の目的に特化させたりするために行われる。

プロンプト(Prompt)

LLM に特定のタスクを実行させるために与える入力テキスト。質問、命令、指示、あるいは文の始まりなど、様々な形式がある。

トークン(Token)

LLM がテキストを処理する際の最小単位。単語、単語の一部、句読点、記号などがトークンとして扱われる。

教師なし学習(Unsupervised Learning)

ラベル付けされていないデータからパターンや構造を学習する手法。LLM の事前学習の多くはこの形式で行われる。

自己教師あり学習(Self-supervised Learning)

データ自体から教師信号(ラベル)を生成し、それを用いて学習を行う手法。LLM の事前学習で、例えばマスクされた単語を予測するタスクなどがこれに該当する。

強化学習(Reinforcement Learning)

エージェントが環境と相互作用しながら、報酬を最大化するように行動を学習する手法。LLM においては、人間のフィードバックを用いてモデルの応答を改善する際に用いられる(例: RLHF)。

人間のフィードバックによる強化学習(RLHF: Reinforcement Learning from Human Feedback)

人間がモデルの生成した応答を評価し、その評価を報酬信号として利用してモデルをさらに学習させる手法。LLM がより自然で、意図に沿った応答を生成できるようになる。

生成(Generation)

LLM が与えられたプロンプトに基づいて、新しいテキストを出力すること。

温度(Temperature)

LLM のテキスト生成におけるランダム性(多様性)を調整するパラメータ。値が高いほど多様で予測不能な出力になり、低いほど一貫性があり確率の高い出力になる。

トップ P サンプリング(Top-p Sampling / Nucleus Sampling)

テキスト生成の際に、累積確率が特定の閾値(p)を超えるまでの最上位のトークン群の中から、次のトークンをランダムに選択する手法。予測の多様性をコントロールする。

プロンプトエンジニアリング(Prompt Engineering)

LLM から望む結果を引き出すために、効果的なプロンプト(入力)を設計・最適化する技術。

少数ショット学習(Few-shot Learning)

非常に少ない(数個の)入力例を与えるだけで、モデルが新しいタスクを学習・実行できる能力。LLM の大きな特徴の一つ。

ゼロショット学習(Zero-shot Learning)

学習時に一度も見たことのないタスクやデータに対して、事前の例なしに直接推論・応答できる能力。

幻覚(Hallucination)

LLM が事実とは異なる、あるいは存在しない情報を、あたかも事実であるかのように生成してしまう現象。

バイアス(Bias)

LLM が学習データに含まれる人種、性別、文化などの偏見を反映し、不公平または差別的な出力をする問題。

倫理的 AI(Ethical AI)

AI システムの開発と運用において、公平性、透明性、説明責任、プライバシー保護などの倫理的原則を考慮すること。

コンテキストウィンドウ(Context Window)

LLM が一度に処理できる入力(プロンプト)と出力(応答)の長さの合計。トークン数で表される。長いコンテキストウィンドウを持つモデルほど、より長い文章や対話の文脈を理解できる。

埋め込み(Embedding)

テキストデータ(単語、フレーズ、文書など)を高次元の数値ベクトルに変換したもの。意味的に類似するテキストは、ベクトル空間内で互いに近くに配置される。

ベクトルデータベース(Vector Database)

テキストの埋め込みベクトルを効率的に保存・検索するために最適化されたデータベース。類似度検索(セマンティック検索)などに用いられる。

RAG(Retrieval-Augmented Generation)

LLM が外部の知識ベースから関連情報を検索し、それに基づいて応答を生成する手法。幻覚を抑制し、より正確な情報を提供するために有効。

ファインチューニングの代替(LoRA, QLoRA など)

全てのモデルパラメータを再学習するのではなく、ごく一部のパラメータ(または低ランクの行列)のみを調整することで、効率的にファインチューニングを行う手法。計算資源の節約になる。

推論(Inference)

学習済み LLM にプロンプトを与え、応答を生成させるプロセス。

モデルカード(Model Card)

AI モデルの用途、性能、限界、バイアス、データセットに関する情報などを記述した文書。透明性と説明責任を高める目的で作成される。

MCP サーバ

AI ワークロード(学習・推論)を複数の異なるクラウド環境に分散・統合して運用する基盤です。これにより、企業は特定のベンダーの制約を受けず、最適なリソースや機能を組み合わせて AI の効率とパフォーマンスを最大化できます。

画像生成 AI(Image Generation AI)

テキストプロンプト、既存の画像、またはその他の入力に基づいて、新しい画像を生成する人工知能技術の総称。

拡散モデル(Diffusion Model)

現在主流の画像生成 AI モデルの一つ。ノイズから徐々に画像を再構築するプロセス(拡散過程の逆)を学習することで、高品質な画像を生成する。

生成敵対的ネットワーク(GAN: Generative Adversarial Network)

2 つのニューラルネットワーク(生成器と識別器)が互いに競い合いながら学習することで、リアルな画像を生成するモデル。以前の画像生成 AI の主流だった。

変分オートエンコーダ(VAE: Variational Autoencoder)

入力データを低次元の潜在空間に圧縮し、そこから画像を再構築するモデル。潜在空間のサンプリングにより新しい画像を生成できる。

テキスト・ツー・イメージ(Text-to-Image)

テキストプロンプト(呪文)を入力として、対応する画像を生成するプロセス。Stable Diffusion、DALL-E、Midjourney などがこのタイプ。

プロンプト(Prompt)

画像生成 AI に目的の画像を生成させるために与えるテキスト指示。具体的であるほど、意図に近い画像を生成しやすい。

ネガティブプロンプト(Negative Prompt)

生成したくない要素や避けたい特徴を AI に伝えるためのテキスト指示。画像の品質向上や、不要な要素の排除に用いられる。

シード値(Seed Value)

画像生成におけるランダムな初期ノイズの生成に使用される数値。同じシード値とプロンプトを使用すると、通常は同じような画像を再現できる。

潜在空間(Latent Space / Latent Vector)

画像やデータの抽象的な特徴が数値ベクトルとして表現される低次元の空間。この空間内を探索することで、新しい画像を生成したり、既存の画像を編集したりできる。

ノイズ(Noise)

拡散モデルにおいて、画像生成プロセスを開始する際のランダムなデータ。このノイズから徐々に情報が加えられ、最終的な画像が生成される。

サンプラー(Sampler)

拡散モデルにおいて、ノイズから画像を生成する際の、ノイズ除去ステップのアルゴリズム。DDIM、PNDM、Euler A などが代表的で、生成速度や画質に影響する。

ステップ数(Sampling Steps / Iterations)

画像生成のプロセスにおける、ノイズ除去の反復回数。一般的にステップ数が多いほど高品質な画像になるが、生成時間も長くなる。

CFG スケール(Classifier Free Guidance Scale)

テキストプロンプトへの忠実度を調整するパラメータ。値が高いほどプロンプトに忠実な画像が生成されるが、多様性は失われやすい。

ファインチューニング(Fine-tuning)

事前学習済みモデルを、特定のスタイル、コンセプト、またはオブジェクトに合わせて追加学習させること。特定のキャラクターや画風を再現したい場合などに用いられる。

LoRA(Low-Rank Adaptation)

大規模なモデルを効率的にファインチューニングするための技術。モデルのパラメータ全体を学習するのではなく、ごく一部の追加パラメータ(低ランクの行列)のみを調整することで、GPU メモリを節約し、学習時間を短縮する。

Textual Inversion(テキスト反転)

特定の画像を表現する新しい「概念」(仮想的な単語)を学習し、それをプロンプトで使えるようにする技術。既存の単語と組み合わせて独自のスタイルを生成できる。

DreamBooth(ドリームブース)

数枚の参照画像から特定の被写体(人物、物体など)をモデルに学習させ、さまざまな状況やスタイルでその被写体を生成できるようにする技術。

ControlNet(コントロールネット)

拡散モデルの生成プロセスを、線画、ポーズ、深度マップなどの追加入力で細かく制御するための技術。ポーズを指定して画像を生成したい場合などに非常に有効。

インペインティング(Inpainting)

画像内の特定の部分をマスクし、その部分を AI に新しく生成させる技術。画像の欠損部分を修復したり、不要なオブジェクトを削除したりする際に用いられる。

アウトペインティング(Outpainting)

既存の画像の境界を越えて、周囲のコンテンツを AI に生成させる技術。画像の視野を広げたり、パノラマ画像を作成したりする際に用いられる。

潜在拡散モデル(Latent Diffusion Model)

高解像度の画像空間ではなく、圧縮された低次元の潜在空間で拡散プロセスを行うモデル。これにより、計算コストを大幅に削減し、高速な画像生成を実現する(Stable Diffusion が代表例)。

チェックポイント(Checkpoint)

学習済みモデルの重み(パラメータ)を保存したファイル。異なるモデルやファインチューニングされたモデルをロードする際に使用される。

モデルマージ(Model Merging)

複数のチェックポイント(モデル)の重みを結合し、それぞれのモデルの特性を併せ持つ新しいモデルを作成する手法。

アップスケーラー(Upscaler)

生成された画像の解像度を、AI の技術を使って向上させるツールやモデル。細部を補完しながら高画質化できる。

画像・ツー・画像(Image-to-Image)

入力として画像を与え、その画像に基づいた新しい画像を生成するプロセス。スタイル変換や、画像の修正などに用いられる。

インブッシュ(Inbrush / Masking)

画像編集において、特定の領域をブラシで塗るように選択し、その部分にのみ生成 AI による変更を適用する操作。

プロンプトマトリックス(Prompt Matrix)

複数のプロンプト要素を組み合わせて、その組み合わせが画像生成にどのような影響を与えるかを試す手法。実験的な生成に用いられる。

スタイル転送(Style Transfer)

ある画像の「内容」を維持しつつ、別の画像の「スタイル」(画風や質感)を適用する技術。

VAE ファイル(Variational Autoencoder file)

拡散モデルにおいて、画像をデコードしてより鮮明で正確な色を表現するための追加ファイル。しばしば独立したファイルとして提供され、モデルの画質を向上させる。

LoRA ブロック(LoRA Block)

LoRA で学習された特定の概念(人物、スタイル、オブジェクトなど)を表すファイル。チェックポイントに加えて読み込むことで、その概念を画像生成に適用できる。

MCP サーバ

AI ワークロード(学習・推論)を複数の異なるクラウド環境に分散・統合して運用する基盤です。これにより、企業は特定のベンダーの制約を受けず、最適なリソースや機能を組み合わせて AI の効率とパフォーマンスを最大化できます。

AI 倫理(AI Ethics)

AI の設計、開発、展開、利用において考慮すべき道徳的原則や価値観。公平性、透明性、説明責任、プライバシー保護などが主要な論点。

バイアス(Bias)

AI モデルが特定の集団(人種、性別、年齢など)に対して不当な差別や不公平な扱いをする傾向。学習データに含まれる偏りが原因となることが多い。

アルゴリズム的バイアス(Algorithmic Bias)

AI アルゴリズムそのもの、またはその学習プロセスに内在する偏りによって生じる不公平な結果。

公平性(Fairness)

AI システムが、いかなる個人や集団に対しても、不当な偏見や差別なく、公正な結果をもたらすこと。

説明責任(Accountability)

AI システムの行動や決定に対し、誰が責任を負うべきかを明確にすること。特に、損害や不利益が生じた場合に重要となる。

透明性(Transparency)

AI システムの内部構造、学習データ、決定プロセスなどが、関連するステークホルダー(開発者、利用者、規制当局など)にとって理解可能であること。

説明可能性(Explainability / XAI: Explainable AI)

AI モデルがなぜ特定の決定を下したのか、その理由や根拠を人間が理解できる形で説明できること。特に、自動運転や医療診断などの分野で重要視される。

堅牢性(Robustness)

AI システムが、予期せぬ入力や悪意のある攻撃(例:敵対的サンプル)に対しても、安定して正確な性能を維持できること。

安全性(Safety)

AI システムが、人間の生命、健康、財産、環境に損害を与えないように設計・運用されること。

プライバシー(Privacy)

AI システムが個人情報を取り扱う際に、個人の権利と自由を尊重し、データの収集、利用、共有を適切に管理すること。

雇用への影響(Impact on Employment)

AI や自動化技術の導入により、特定の職種が自動化され、雇用の喪失や質的変化が生じる可能性。

デジタル格差(Digital Divide)

情報技術や AI の恩恵を受ける能力や機会が、経済的、地理的、社会的な要因によって不平等に分配される問題。

ディープフェイク(Deepfake)

AI(特に GAN)を用いて、あたかも本物であるかのように、人物の顔や声を合成・加工した偽の動画や音声。偽情報拡散や名誉毀損のリスクを伴う。

偽情報 / フェイクニュース(Misinformation / Fake News)

AI によって生成・拡散される、意図的に誤解を招く情報や虚偽のニュース。社会の分断や混乱を招く可能性がある。

監視社会(Surveillance Society)

AI を活用した顔認識、行動分析などの技術が広範に導入され、個人の行動が常に監視される社会。プライバシー侵害や自由の制限につながる懸念。

自律型兵器システム(LAWS: Lethal Autonomous Weapon Systems)

人間の最終的な判断を介さずに、標的の選択と攻撃を AI が自律的に行う兵器システム。「キラーロボット」とも呼ばれ、倫理的、法的な議論が活発。

シンギュラリティ(Singularity)

AI が人間の知能を凌駕し、それによって社会や文明が予測不可能な変化を遂げる特異点。

アライメント問題(Alignment Problem)

AI システムの目標や価値観が、人間のそれと一致するように設計・制御することの難しさ。AI が予期せぬ行動を取り、人類に危害を加えるリスクを指す。

データ主権(Data Sovereignty)

データが生成された国や地域の法律、規制に従ってデータを管理・保護する権利。AI の国際的なデータ利用において重要となる。

知的財産権(Intellectual Property Rights)

AI が生成したコンテンツ(画像、文章、音楽など)の著作権の帰属、AI 学習における既存コンテンツの使用など、AI と知的財産に関する問題。

AI ガバナンス(AI Governance)

AI の開発、展開、利用を監督し、その社会的な影響を管理するための枠組み、政策、規制、標準の総称。

AI 規制(AI Regulation)

AI システムの開発・利用を法的に制限または義務付ける規則。EU の AI 規則案(AI Act)などが代表例。

リスクベースアプローチ(Risk-Based Approach)

AI システムがもたらすリスクの度合いに応じて、異なるレベルの規制や管理を適用する考え方。リスクが高い AI ほど厳しく規制される。

サンドボックス(Regulatory Sandbox)

新しい技術やビジネスモデル(AI を含む)について、既存の規制を一時的に緩和し、限定された環境で実験的に導入・評価できる制度。

標準化(Standardization)

AI 技術の安全性、相互運用性、倫理的側面などに関する共通の基準やガイドラインを策定すること。

アカウンタビリティフレームワーク(Accountability Framework)

AI システムにおける意思決定プロセスや結果に対して、組織や個人が責任を負うための具体的な手順や仕組み。

AI 倫理原則(AI Ethics Principles)

AI の望ましい開発・利用を導くための、普遍的な倫理的ガイドライン。OECD AI 原則などが有名。

人による監督(Human Oversight)

AI システムの自律的な意思決定を完全に信頼するのではなく、人間が最終的な判断や介入を行う余地を残すこと。

デュー・デリジェンス(Due Diligence)

AI システムを開発・導入する際に、潜在的なリスク(バイアス、プライバシー侵害など)を事前に特定し、軽減するための適切な調査と措置を行うこと。

マルチステークホルダーアプローチ(Multi-Stakeholder Approach)

AI の倫理的・社会的な課題解決において、政府、企業、学術界、市民社会など、多様な関係者が協力して取り組むべきだという考え方。

MCP サーバ

AI ワークロード(学習・推論)を複数の異なるクラウド環境に分散・統合して運用する基盤です。これにより、企業は特定のベンダーの制約を受けず、最適なリソースや機能を組み合わせて AI の効率とパフォーマンスを最大化できます。

生成 AI(Generative AI)

テキスト、画像、音声、コードなどの新しいコンテンツを、既存のデータから学習して生成する人工知能技術。

大規模言語モデル(LLM: Large Language Model)

膨大なテキストデータで学習され、人間のような自然言語を理解・生成する能力を持つ AI モデル(例: GPT シリーズ、Gemini など)。

基盤モデル(Foundation Model)

大規模なデータで事前学習され、多様な下流タスク(特定の用途)に適用できる汎用性の高い AI モデル。LLM や画像生成モデルなどが含まれる。

マルチモーダル AI(Multimodal AI)

複数の異なるデータ形式(テキスト、画像、音声など)を同時に理解・生成できる AI。

Transformer(トランスフォーマー)

LLM の基盤となるニューラルネットワークのアーキテクチャ。並列処理と長距離依存関係の学習に優れる。

事前学習(Pre-training)

大量の汎用データを用いて、モデルが一般的な知識とパターンを獲得する初期学習段階。

ファインチューニング(Fine-tuning)

事前学習済みモデルを、特定のタスクやデータセットに合わせてさらに学習させること。特定の業務や業界に特化させる。

プロンプト(Prompt)

生成 AI に特定のタスクを実行させるための入力テキスト。AI への指示や質問。

トークン(Token)

LLM がテキストを処理する際の最小単位(単語、単語の一部、記号など)。LLM の入出力の長さを測る基準。

推論(Inference)

学習済み AI モデルに新しいデータを入力し、予測や生成などの出力結果を得るプロセス。

API(Application Programming Interface)

ソフトウェアやアプリケーション間で情報をやり取りするための規約。AI モデルの機能を外部から利用するためのインターフェース。

オープンソースモデル(Open Source Model)

モデルのコードや重みなどが公開され、誰でも利用・改変・再配布できる AI モデル(例: Llama 2、Mistral など)。

商用利用(Commercial Use)

AI サービスや生成物をビジネス目的で利用すること。ライセンス条件の確認が重要。

オンプレミス(On-premise)

自社のサーバーやデータセンター内に AI システムを構築・運用すること。

クラウドサービス(Cloud Service)

インターネット経由で AI モデルや計算リソースを利用するサービス。スケーラビリティや手軽さが利点。

プロンプトエンジニアリング(Prompt Engineering)

LLM から望む結果を引き出すために、効果的なプロンプトを設計・最適化する技術。

少数ショット学習(Few-shot Learning)

非常に少ない入力例を与えるだけで、モデルが新しいタスクを学習・実行できる LLM の能力。

ゼロショット学習(Zero-shot Learning)

事前の例なしに、見たことのないタスクを直接実行できる LLM の能力。

RAG(Retrieval-Augmented Generation)

LLM が外部の知識ベースから関連情報を検索し、それに基づいて応答を生成する手法。幻覚を抑制し、特定の情報源に基づいた回答を生成するのに役立つ。

チャットボット(Chatbot)

AI が人間の言葉を理解し、テキストまたは音声で対話を行うプログラム。顧客対応、情報提供などに活用。

カスタマーサポート(Customer Support)

生成 AI を用いた自動応答、FAQ 作成、問い合わせ内容の要約などによる顧客対応業務の効率化。

コンテンツ生成(Content Generation)

ブログ記事、マーケティングコピー、レポート、メールなど、多様なテキストコンテンツを AI が作成すること。

コード生成(Code Generation)

プログラミングコードの自動生成、補完、デバッグ支援など、開発業務における AI 活用。

画像生成(Image Generation)

テキストプロンプトから新しい画像を生成する AI 技術。マーケティング素材、デザイン案、イラスト作成などに活用。

音声生成(Speech Synthesis / Voice Generation)

テキストから自然な音声を生成する AI 技術。オーディオブック、ナレーション、バーチャルアシスタントに活用。

パーソナライゼーション(Personalization)

ユーザー個人の好みや行動履歴に基づいて、AI がコンテンツや推奨を最適化する。

要約(Summarization)

長い文章やドキュメントから、AI が重要な情報を抽出して簡潔にまとめること。

翻訳(Translation)

AI が異なる言語間でテキストを自動的に変換すること。

アイデア創出(Ideation)

新しい製品、サービス、キャンペーンなどのアイデアを AI が発想支援すること。

データ分析支援(Data Analysis Support)

膨大なデータを AI が分析し、傾向の発見、レポート作成支援、仮説構築などを行うこと。

導入戦略(Implementation Strategy)

生成 AI 技術を組織やビジネスプロセスに組み込むための計画。

PoC(Proof of Concept)

新しいアイデアや技術(生成 AI の活用など)が、実現可能であるかを検証するための小規模な実証実験。

ROI(Return on Investment)

生成 AI への投資によって得られる経済的効果や収益性。

従業員トレーニング(Employee Training)

生成 AI ツールや技術を効果的に利用するために、従業員に実施する教育やスキルアッププログラム。

倫理的ガイドライン(Ethical Guidelines)

AI の公正で責任ある利用を促進するための社内または業界の指針。

情報セキュリティ(Information Security)

生成 AI の利用において、機密情報や個人情報の漏洩、不正利用を防ぐための対策。

プライバシー保護(Privacy Protection)

生成 AI が個人情報を取り扱う際の、データ収集、利用、共有に関する適切な管理と法令遵守。

著作権(Copyright)

AI が生成したコンテンツの著作権の帰属、および AI 学習における既存コンテンツの使用に関する法的問題。

幻覚(Hallucination)

LLM が事実とは異なる、または存在しない情報を、あたかも事実であるかのように生成してしまう現象。ビジネス活用におけるリスク要因。

バイアス(Bias)

AI モデルが学習データに含まれる偏見を反映し、不公平な出力をしてしまう問題。採用や信用評価などでの利用時に注意が必要。

ガバナンス(Governance)

生成 AI の開発、導入、運用を監督し、そのリスクを管理するための組織的な枠組みやプロセス。

規制(Regulation)

生成 AI の利用に関する政府や国際機関による法的制限やルール。

スキルギャップ(Skill Gap)

新しい AI 技術の導入によって生じる、必要なスキルと既存のスキルとの間の差。

チェンジマネジメント(Change Management)

AI 導入に伴う組織の変革を円滑に進めるためのプロセス。

責任ある AI(Responsible AI)

AI システムの開発と運用において、倫理、公平性、透明性、安全性などの原則を遵守すること。

アライメント(Alignment)

AI システムの目標や価値観が、人間の意図や社会の規範と一致するようにすること。特に、安全で倫理的な AI を開発する上で重要。

埋め込み(Embedding)

テキスト、画像、音声などのデータを、意味的な類似性が近いものが空間的に近くに配置される数値ベクトルに変換したもの。検索やレコメンデーションに利用。

ベクトルデータベース(Vector Database)

テキストの埋め込みベクトルを効率的に保存・検索するために最適化されたデータベース。RAG (Retrieval-Augmented Generation) の基盤技術。

ファインチューニングの代替(LoRA, QLoRA など)

大規模なモデル全体を再学習するのではなく、ごく一部のパラメータ(または低ランクの行列)のみを調整することで、効率的にファインチューニングを行う手法。計算資源の節約になる。

プラグイン(Plugin)

LLM に外部ツールやサービス(Web 検索、計算、予約システムなど)の機能を追加するための拡張モジュール。LLM の能力を拡張する。

エージェント(Agent)

LLM が自律的に複数のステップを踏み、ツールを呼び出し、計画を立ててタスクを実行するシステム。より複雑なビジネスプロセスを自動化できる可能性がある。

チェーン(Chain)

LLM の複数のステップやツール、プロンプトなどを連結し、一連のワークフローとして実行する概念。複雑なタスクを分解して処理する際に使用。

プロンプトチェイニング(Prompt Chaining)

複数のプロンプトを連続して LLM に与え、前のプロンプトの出力を次のプロンプトの入力として利用することで、複雑なタスクを実行させる手法。

Few-shot CoT(Chain of Thought)

LLM に推論の過程(思考の連鎖)を明示的に示す少数の例を与えることで、より複雑な問題解決能力を引き出すプロンプト手法。

思考の連鎖(Chain of Thought / CoT)

LLM が複雑な問題を解決する際に、最終的な答えだけでなく、その答えに至るまでの推論のステップ(中間思考)も生成させる手法。精度と説明可能性を向上させる。

関数呼び出し(Function Calling)

LLM が、特定の外部ツールや API の呼び出しに必要な引数を特定し、それらの関数を実行するように促す能力。

生成型検索拡張(Generative Search Augmentation)

従来の検索結果に加えて、生成 AI がその情報を要約・統合し、より自然な言葉で回答を生成する仕組み。

モデルの蒸留(Model Distillation)

大規模で複雑な AI モデル(教師モデル)の知識を、より小さく高速なモデル(生徒モデル)に転移させる学習手法。デプロイコスト削減に貢献。

量子化(Quantization)

AI モデルのパラメータを、より低い精度(例: 32 ビットから 8 ビット)で表現することで、モデルサイズを縮小し、推論速度を向上させる技術。

Llama(ラマ)

Meta が開発したオープンソースの LLM シリーズ。研究や商用利用が可能で、多くの派生モデルの基盤となっている。

Gemini(ジェミニ)

Google が開発したマルチモーダル対応の強力な LLM シリーズ。テキスト、画像、音声、動画など多様な情報を扱える。

GPT(Generative Pre-trained Transformer)

OpenAI が開発した Transformer ベースの LLM シリーズ。ChatGPT の基盤技術であり、テキスト生成能力が非常に高い。

Stable Diffusion(ステーブルディフュージョン)

テキストから画像を生成するオープンソースの拡散モデル。高い汎用性とカスタマイズ性を持つ。

LoRA ブロック(LoRA Block)

LoRA で学習された特定の概念(人物、スタイル、オブジェクトなど)を表すファイル。チェックポイントに加えて読み込むことで、その概念を画像生成に適用できる。

ControlNet(コントロールネット)

拡散モデルの生成プロセスを、線画、ポーズ、深度マップなどの追加入力で細かく制御するための技術。ポーズを指定して画像を生成したい場合などに非常に有効。

MCP サーバ

AI ワークロード(学習・推論)を複数の異なるクラウド環境に分散・統合して運用する基盤です。これにより、企業は特定のベンダーの制約を受けず、最適なリソースや機能を組み合わせて AI の効率とパフォーマンスを最大化できます。

生成 AI(Generative AI)

テキスト、画像、音声、コードなどの新しいコンテンツを、既存のデータから学習して生成する人工知能技術。

大規模言語モデル(LLM: Large Language Model)

膨大なテキストデータで学習され、人間のような自然言語を理解・生成する能力を持つ AI モデル(例: GPT シリーズ、Gemini など)。

基盤モデル(Foundation Model)

大規模なデータで事前学習され、多様な下流タスク(特定の用途)に適用できる汎用性の高い AI モデル。LLM や画像生成モデルなどが含まれる。

マルチモーダル AI(Multimodal AI)

複数の異なるデータ形式(テキスト、画像、音声など)を同時に理解・生成できる AI。

Transformer(トランスフォーマー)

LLM の基盤となるニューラルネットワークのアーキテクチャ。並列処理と長距離依存関係の学習に優れる。

事前学習(Pre-training)

大量の汎用データを用いて、モデルが一般的な知識とパターンを獲得する初期学習段階。

ファインチューニング(Fine-tuning)

事前学習済みモデルを、特定のタスクやデータセットに合わせてさらに学習させること。特定の業務や業界に特化させる。

プロンプト(Prompt)

生成 AI に特定のタスクを実行させるための入力テキスト。AI への指示や質問。

トークン(Token)

LLM がテキストを処理する際の最小単位(単語、単語の一部、記号など)。LLM の入出力の長さを測る基準。

推論(Inference)

学習済み AI モデルに新しいデータを入力し、予測や生成などの出力結果を得るプロセス。

API(Application Programming Interface)

ソフトウェアやアプリケーション間で情報をやり取りするための規約。AI モデルの機能を外部から利用するためのインターフェース。

オープンソースモデル(Open Source Model)

モデルのコードや重みなどが公開され、誰でも利用・改変・再配布できる AI モデル(例: Llama 2、Mistral など)。

商用利用(Commercial Use)

AI サービスや生成物をビジネス目的で利用すること。ライセンス条件の確認が重要。

オンプレミス(On-premise)

自社のサーバーやデータセンター内に AI システムを構築・運用すること。

クラウドサービス(Cloud Service)

インターネット経由で AI モデルや計算リソースを利用するサービス。スケーラビリティや手軽さが利点。

プロンプトエンジニアリング(Prompt Engineering)

LLM から望む結果を引き出すために、効果的なプロンプトを設計・最適化する技術。

少数ショット学習(Few-shot Learning)

非常に少ない入力例を与えるだけで、モデルが新しいタスクを学習・実行できる LLM の能力。

ゼロショット学習(Zero-shot Learning)

事前の例なしに、見たことのないタスクを直接実行できる LLM の能力。

RAG(Retrieval-Augmented Generation)

LLM が外部の知識ベースから関連情報を検索し、それに基づいて応答を生成する手法。幻覚を抑制し、特定の情報源に基づいた回答を生成するのに役立つ。

チャットボット(Chatbot)

AI が人間の言葉を理解し、テキストまたは音声で対話を行うプログラム。顧客対応、情報提供などに活用。

カスタマーサポート(Customer Support)

生成 AI を用いた自動応答、FAQ 作成、問い合わせ内容の要約などによる顧客対応業務の効率化。

コンテンツ生成(Content Generation)

ブログ記事、マーケティングコピー、レポート、メールなど、多様なテキストコンテンツを AI が作成すること。

コード生成(Code Generation)

テキストプロンプトや既存のコードスニペットに基づいて、プログラミングコードを自動的に生成する AI の機能。

コード補完(Code Completion)

開発者がコードを入力する際に、次に入力される可能性のあるコードや関数名を AI が予測し、自動的に提案する機能。

コード変換(Code Transformation)

あるプログラミング言語のコードを別の言語に変換したり、特定のパターンでコードをリファクタリングしたりする AI の機能。

デバッグ支援(Debugging Assistance)

コード内のバグやエラーを特定し、修正案を提示する AI の機能。エラーメッセージの解析や、潜在的な問題箇所の指摘を行う。

テストケース生成(Test Case Generation)

既存のコードや機能仕様に基づいて、テストケース(テストコードやテストデータ)を AI が自動的に作成する機能。

コメント生成(Comment Generation)

コードの機能や意図を説明するコメントを AI が自動的に生成する機能。

ドキュメント生成(Documentation Generation)

コードベースや API 仕様から、開発者向けのドキュメントを AI が自動的に作成する機能。

GitHub Copilot(ギットハブ コパイロット)

GitHub と OpenAI が共同で開発した、AI によるコード補完・生成ツール。様々な IDE と統合され、開発を支援する。

IDE(Integrated Development Environment)

コードの編集、コンパイル、デバッグなどを統合的に行えるソフトウェア開発環境。生成 AI ツールがプラグインとして統合されることが多い。

スニペット(Snippet)

再利用可能な小さなコード片。生成 AI は、指示に基づいて適切なスニペットを生成したり、既存のスニペットを拡張したりできる。

API(Application Programming Interface)

AI モデルの機能を外部から呼び出して利用するための規約。開発者は API を介して、モデルにリクエストを送信し、結果を受け取る。

SDK(Software Development Kit)

特定のプラットフォームやサービス(AI モデルの API など)を利用してアプリケーションを開発するためのツールキット。ライブラリやサンプルコードを含む。

モデルのデプロイ(Model Deployment)

学習済み AI モデルを、実際のアプリケーションやサービスで利用可能な状態にすること。

推論エンドポイント(Inference Endpoint)

デプロイされた AI モデルにリクエストを送信し、推論結果を受け取るためのネットワーク上のアドレス。

トークン制限(Token Limit)

LLM が一度に処理できる入力(プロンプト)と出力(応答)の最大トークン数。コード生成時には、コードの長さがこの制限を超えることがある。

プロンプトエンジニアリング(Prompt Engineering)

AI から望むコードや出力を得るために、効果的な指示文(プロンプト)を設計する技術。

ファインチューニング(Fine-tuning)

特定のプログラミング言語、フレームワーク、コーディングスタイル、または社内コードベースに合わせて、基盤モデルを追加学習させること。

埋め込み(Embedding)

コードやテキストを高次元の数値ベクトルに変換したもの。コードの類似度検索や、意味に基づいたコード提案に利用できる。

ベクトルデータベース(Vector Database)

コードの埋め込みベクトルを効率的に保存・検索するためのデータベース。大規模なコードベースから関連コードを検索する際に役立つ。

RAG(Retrieval-Augmented Generation)

既存のコードベースやドキュメントから関連情報を検索し、それに基づいてコードを生成する手法。AI が最新の情報や社内ルールを考慮したコードを生成できる。

CI/CD(Continuous Integration/Continuous Delivery)

コードの統合とデリバリーを自動化する開発プラクティス。AI 生成コードの品質チェックやデプロイに適用できる。

コードレビュー(Code Review)

他のエンジニアが生成されたコードや修正されたコードを検証するプロセス。AI 生成コードの品質保証に不可欠。

リファクタリング(Refactoring)

コードの外部的な振る舞いを変えずに、内部構造を改善すること。AI がリファクタリングの提案や実行を支援できる。

セキュリティスキャン(Security Scanning)

コード内の潜在的なセキュリティ脆弱性を自動的に検出するツール。AI 生成コードのセキュリティチェックに適用。

静的コード解析(Static Code Analysis)

コードを実行せずに、その構造やパターンを分析し、潜在的なエラーや規約違反を検出する手法。AI 生成コードの品質保証に利用。

ローコード/ノーコード(Low-Code/No-Code)

コーディングを最小限に抑えるか、全く行わずにアプリケーションを開発できるプラットフォーム。生成 AI との組み合わせで開発効率がさらに向上。

API 設計(API Design)

他のシステムや開発者が利用しやすいように、API の構造や振る舞いを設計すること。AI が API の仕様を生成したり、利用例を提案したりできる。

マイクロサービス(Microservices)

アプリケーションを小さな独立したサービスに分割して開発するアーキテクチャ。各サービスのコード生成や連携に AI が役立つ。

コンテナ(Container)

アプリケーションとその実行環境をパッケージ化し、どの環境でも一貫して動作するようにする技術(例: Docker)。AI モデルのデプロイにも利用。

DevOps(デブオプス)

開発(Development)と運用(Operations)を統合し、ソフトウェアの迅速なリリースと品質向上を目指す文化・プラクティス。AI ツールが DevOps プロセスを自動化・最適化できる。

プロンプトテンプレート(Prompt Template)

特定のタスクや情報抽出のために、変数やプレースホルダーを含む再利用可能なプロンプトのひな形。効率的なプロンプトエンジニアリングに利用。

インコンテキスト学習(In-context Learning)

LLM が、プロンプト内に含まれる少数の例(Few-shot)や指示(Zero-shot)から、追加の学習なしに新しいタスクのパターンを推論・実行する能力。

セマンティック検索(Semantic Search)

キーワード一致だけでなく、検索クエリとコンテンツの意味的な類似性に基づいて情報を検索する手法。コードベースやドキュメント検索に利用。

チャットインターフェース(Chat Interface)

自然言語での対話を通じて AI とやり取りできるユーザーインターフェース。開発者が質問したり、コードを依頼したりするのに利用。

コーディングアシスタント(Coding Assistant)

コード生成、補完、デバッグ支援など、プログラミング作業を AI で補助するツールや機能の総称。

リポジトリ(Repository)

プロジェクトのコードや関連ファイルを格納・管理する場所(例: Git リポジトリ)。AI がリポジトリ内のコードを理解・分析し、生成に利用することがある。

コミットメッセージ生成(Commit Message Generation)

コードの変更内容に基づいて、バージョン管理システム(Git など)のコミットメッセージを AI が自動生成する機能。

プルリクエスト要約(Pull Request Summarization)

開発者が行ったコード変更を含むプルリクエストの内容を、AI が自動的に要約する機能。コードレビューの効率化に貢献。

テスト駆動開発(TDD: Test-Driven Development)

テストコードを先に書き、そのテストが通るようにコードを実装していく開発手法。AI がテストコードの生成を支援できる。

ペアプログラミング(Pair Programming)

二人の開発者が一台のコンピューターで共同でプログラミングを行う手法。AI コーディングアシスタントが「仮想のペアプログラマー」として機能することがある。

リバースエンジニアリング支援(Reverse Engineering Assistance)

既存のコンパイル済みプログラムや不透明なコードの動作を分析し、その構造や機能を理解するプロセスを AI が支援すること。

脆弱性検出(Vulnerability Detection)

コード内のセキュリティ上の弱点や脆弱性を AI が自動的に識別する機能。

モデルドリフト(Model Drift)

デプロイされた AI モデルの予測性能が、時間経過とともに低下する現象。AI アシスタントの性能維持のために監視が必要。

インフラストラクチャ・アズ・コード(IaC: Infrastructure as Code)

サーバーやネットワークなどのインフラ設定をコードとして管理する手法。生成 AI が IaC のコード生成を支援できる。

コンテナオーケストレーション(Container Orchestration)

多数のコンテナ化されたアプリケーションのデプロイ、スケーリング、管理を自動化する技術(例: Kubernetes)。AI モデルの運用に利用。

マイクロサービスアーキテクチャ(Microservices Architecture)

アプリケーションを小さな独立したサービス群として構築する設計思想。AI が各サービスのコード生成や API 連携を支援できる。

サーバーレスコンピューティング(Serverless Computing)

開発者がサーバーの管理を意識せずに、コードを実行できるクラウドサービス。AI 機能の一部をサーバーレス関数としてデプロイすることが可能。

CI/CD パイプライン(CI/CD Pipeline)

コードの変更からテスト、デプロイまでを自動化する一連のプロセス。AI 生成コードの品質保証や自動デプロイに不可欠。

データパイプライン(Data Pipeline)

データの収集、変換、処理、格納を自動化する一連のプロセス。AI モデルの学習データ準備や推論データ供給に重要。

MLOps(Machine Learning Operations)

機械学習モデルの開発から運用までを自動化・効率化するプラクティス。AI を活用した開発環境全体の管理に適用。

レイテンシー(Latency)

AI モデルへのリクエストから応答が返ってくるまでの時間遅延。リアルタイム性を要求されるアプリケーションで重要な指標。

スループット(Throughput)

単位時間あたりに AI モデルが処理できるリクエスト量やデータ量。AI サービスの処理能力を示す。

計算資源(Compute Resources)

AI モデルの学習や推論に必要な CPU、GPU、メモリなどのハードウェアリソース。

GPU(Graphics Processing Unit)

並列計算に特化したプロセッサ。AI モデルの学習や大規模な推論に不可欠。

TPU(Tensor Processing Unit)

Google が開発した、機械学習に特化した専用プロセッサ。

エッジ AI(Edge AI)

AI モデルをクラウドではなく、デバイスの近く(エッジデバイス)で直接実行する技術。レイテンシー削減やプライバシー保護に有利。

量子化(Quantization)

AI モデルのパラメータを、より低い精度で表現することで、モデルサイズを縮小し、推論速度を向上させる技術。特にエッジデバイスでの実行に有効。

モデルの剪定(Model Pruning)

AI モデルの性能を大きく損なうことなく、冗長な接続や重みを削除することで、モデルサイズを小さくし、高速化する技術。

知識蒸留(Knowledge Distillation)

大規模な教師モデルの知識を、より小さく高速な生徒モデルに転移させる学習手法。軽量なモデルで高性能を実現。

推論最適化(Inference Optimization)

デプロイされた AI モデルの推論速度と効率を向上させるための各種技術(量子化、剪定など)。

LangChain(ラングチェーン)

LLM アプリケーションの開発を支援する Python/JavaScript ライブラリ。プロンプト管理、チェーン、エージェント、RAG などの機能を提供する。

LlamaIndex(ラマインデックス)

LLM アプリケーションに外部データソースを接続し、RAG の実装を容易にする Python ライブラリ。

Hugging Face(ハギングフェイス)

オープンソースの機械学習モデルやデータセットを共有・利用できるプラットフォーム。Transformer ライブラリが有名で、多くの LLM が利用可能。

Transformers(トランスフォーマーズ)

Hugging Face が提供する、Transformer モデル(BERT, GPT, Llama など)を簡単に利用できる Python ライブラリ。

PyTorch(パイソンチ)

Facebook(Meta)が開発した、Python ベースのオープンソース機械学習ライブラリ。柔軟性が高く、研究開発で広く利用される。

TensorFlow(テンソルフロー)

Google が開発したオープンソースの機械学習ライブラリ。大規模なプロダクションシステムでの利用に適している。

Keras(ケラス)

TensorFlow 上で動作する、高レベルで使いやすいニューラルネットワーク API。迅速なプロトタイピングに適している。

ONNX(Open Neural Network Exchange)

異なるフレームワークで学習された AI モデルを、他のフレームワークやランタイムで実行するためのオープンな形式。モデルの移植性を高める。

Jupyter Notebook(ジュピターノートブック)

コード、実行結果、説明テキスト、画像をまとめて記述できるウェブベースの対話型実行環境。AI 開発で広く利用される。

Google Colaboratory(Google Colab)

Google が提供する Jupyter Notebook 環境。クラウド上で GPU を利用でき、手軽に AI の学習や実験が可能。

オープンソースソフトウェア(OSS: Open Source Software)

ソースコードが公開され、自由に利用、改変、再配布が可能なソフトウェア。多くの生成 AI モデルやツールが OSS として提供されている。

ライセンス(License)

ソフトウェアや AI モデルの使用、配布、改変に関する許諾条件。商用利用の可否などを規定する。

コミュニティ(Community)

特定の技術やツールに関する開発者やユーザーの集まり。情報交換、課題解決、共同開発が行われる。

ハッカソン(Hackathon)

短期間で集中的にソフトウェアや AI アプリケーションを開発するイベント。アイデアの創出やプロトタイプの作成に利用される。

プロトタイピング(Prototyping)

アイデアや機能の検証のために、初期段階のモデルやシステムを迅速に構築すること。生成 AI で効率化される。

ユーザー体験(UX: User Experience)

ユーザーが製品やサービスを利用する際に感じる体験。AI 生成ツールは UX を向上させる可能性を持つ。

ユーザーインターフェース(UI: User Interface)

ユーザーとシステムが情報をやり取りするための接点。AI ツールの UI デザインも重要。

バージョン管理システム(VCS: Version Control System)

ソースコードやファイルの変更履歴を管理するシステム(例: Git)。AI 生成コードもここで管理される。

技術負債(Technical Debt)

短期的な解決策を優先したために、将来的に発生する技術的な問題や追加コスト。AI 生成コードの品質管理が重要。

AI ドリブン開発(AI-Driven Development)

ソフトウェア開発プロセス全体で AI の能力を積極的に活用し、効率化や品質向上を目指すアプローチ。

モデルアーキテクチャ(Model Architecture)

AI モデルの設計図。どの層(レイヤー)をどのように組み合わせるか、どのような種類のニューラルネットワークを使用するかなど、モデルの構造。

トレーニングデータ(Training Data)

AI モデルが学習するために使用されるデータ。コード生成モデルの場合は、大量のソースコードなどがこれに該当。

検証データ(Validation Data)

モデル学習中に、その性能を評価し、過学習を防ぐために使用されるデータセット。トレーニングデータとは別に用意される。

テストデータ(Test Data)

モデルの最終的な性能を評価するために使用される、モデルが一度も見たことのないデータセット。

ハイパーパラメータ(Hyperparameter)

AI モデルの学習プロセスを制御する設定値。学習率、バッチサイズ、エポック数などがあり、モデルの性能に大きく影響する。

損失関数(Loss Function / Cost Function)

モデルの予測値と正解値との間の誤差を数値化する関数。学習中にこの損失を最小化するようにモデルのパラメータが調整される。

最適化アルゴリズム(Optimization Algorithm / Optimizer)

損失関数を最小化するために、モデルのパラメータをどのように更新していくかを決定するアルゴリズム(例: Adam, SGD)。

勾配降下法(Gradient Descent)

損失関数の勾配(傾き)を利用して、損失が最も減少する方向にモデルのパラメータを少しずつ更新していく最適化手法。

学習率(Learning Rate)

最適化アルゴリズムにおいて、モデルのパラメータを更新する際のステップの大きさ。大きすぎると発散し、小さすぎると学習が遅い。

エポック(Epoch)

トレーニングデータセット全体を、AI モデルが一度学習するサイクル。

Python(パイソン)

AI 開発において最も広く利用されているプログラミング言語。豊富なライブラリとフレームワークが提供されている。

JavaScript(ジャバスクリプト)

Web フロントエンド開発で主流の言語だが、Node.js でバックエンドでも使われ、AI 関連ライブラリも増えている。

TypeScript(タイプスクリプト)

JavaScript に静的型付けを追加した言語。大規模な AI アプリケーション開発でのコード品質と保守性向上に貢献。

Java(ジャバ)

大規模システム開発で実績のある言語。エンタープライズ領域での AI システム構築に利用されることがある。

Go(ゴー)

Google が開発した、高速性と並列処理に優れるプログラミング言語。AI 関連サービスのバックエンドやインフラ構築に利用される。

Rust(ラスト)

安全性とパフォーマンスに優れるシステムプログラミング言語。AI 推論エンジンの開発や、計算量の多い処理で注目されている。

C++(シープラスプラス)

高性能が求められる AI ライブラリやランタイム(例: TensorFlow, PyTorch のバックエンド)の開発に用いられる言語。

VS Code(Visual Studio Code)

Microsoft が提供する軽量で多機能なコードエディタ。AI 開発のための豊富な拡張機能(Copilot など)が利用できる。

JupyterLab(ジュピターラボ)

Jupyter Notebook の次世代版。より多機能で統合された開発環境を提供し、データサイエンスや AI 実験で利用される。

Google Cloud(グーグルクラウド)

Google が提供するクラウドコンピューティングサービス。AI/ML プラットフォームや GPU リソースを提供。

生成対話システム(Generative Conversational System)

自然な対話文を生成できる AI システム。チャットボットやバーチャルアシスタントの基盤となる。

プロンプトチューニング(Prompt Tuning)

モデルのパラメータを直接変更するのではなく、プロンプトの一部を学習可能な小さな「ソフトプロンプト」として最適化する手法。効率的なモデル適応に利用。

多段階推論(Multi-step Reasoning)

AI が複雑な問題を解決するために、複数の論理的なステップを踏んで推論を行う能力。CoT (Chain of Thought) などで実現される。

エージェンシー(Agency)

AI システムが自律的に目標を設定し、それを達成するために行動を選択・実行する能力。より高度な AI エージェントの概念。

AI ネイティブ(AI-Native)

AI を核として設計・構築されたソフトウェアやシステム。従来のシステムに AI を組み込むのではなく、AI の能力を最大限に引き出すように設計される。

合成データ(Synthetic Data)

実際のデータではなく、AI やシミュレーションによって人工的に生成されたデータ。プライバシー保護やデータ不足の解消に役立つ。

AI アジャイル(AI Agile)

AI プロジェクトの特性(データの不確実性、モデルの進化など)に対応し、アジャイル開発手法を適用すること。

人間に優しい AI(Human-Friendly AI)

人間が理解しやすく、安全で、協調的に動作するように設計された AI システム。

知識グラフ(Knowledge Graph)

エンティティ(人、場所、概念など)とその間の関係性を構造化したデータベース。LLM がより正確で一貫性のある情報を提供するのに役立つ。

因果推論(Causal Inference)

統計的な相関関係だけでなく、原因と結果の関係を特定する AI の能力。ビジネス上の意思決定に深みを与える。

オープン API(Open API)

外部の開発者が利用できるように公開された API。生成 AI サービスが広く提供される形態。

クローズド AI(Closed AI)

モデルの内部構造や学習データが非公開であり、特定の企業によって開発・管理されている AI モデル(例: GPT-4)。

エコシステム(Ecosystem)

AI モデル、開発ツール、データプロバイダー、ユーザーなどが相互に作用し合う複合的な環境。

開発者コミュニティ(Developer Community)

AI 技術や特定のツールに関する開発者たちの集まり。情報共有、共同開発、問題解決が行われる。

技術スタック(Technology Stack)

特定のアプリケーションやサービスを構築するために使用される、プログラミング言語、フレームワーク、データベース、ツールなどの組み合わせ。

コンテナイメージ(Container Image)

アプリケーションとその実行に必要なすべての要素(コード、ランタイム、システムツール、ライブラリなど)をパッケージ化したもの。

オーケストレーション(Orchestration)

複数のコンテナやサービス、プロセスを連携させ、効率的に管理・実行する技術。

クラウドネイティブ開発(Cloud-Native Development)

クラウド環境の特性(スケーラビリティ、可用性など)を最大限に活用して設計・構築されるソフトウェア開発アプローチ。

モノリシックアーキテクチャ(Monolithic Architecture)

アプリケーションのすべての機能が単一の巨大なコードベースにまとめられている構造。マイクロサービスと対比される。

自然言語プログラミング(Natural Language Programming / NLP-as-Code)

従来のプログラミング言語ではなく、自然言語(人間の言葉)で直接コードの生成やシステムの制御を行うアプローチ。

ローカル LLM(Local LLM)

クラウド上の API を介さず、開発者のローカルマシンやプライベートサーバーで動作する LLM。プライバシーやコスト面で利点がある。

コード LMM(Code LMM / Large Multimodal Model for Code)

テキストだけでなく、コードスニペット、エラーログ、UI スクリーンショットなど、複数のモダリティ(形式)を理解し、コード生成や分析を行うモデル。

モデルベース開発(Model-Based Development)

抽象的なモデル(設計図)から直接コードを生成する開発手法。生成 AI によりこのプロセスが加速される。

ソフトウェア 2.0(Software 2.0)

従来の人間がコードを記述するパラダイムに対し、データと AI モデルがソフトウェアの振る舞いを決定する新しいパラダイム。

ニューラルネットワークのインタープリテーション(Neural Network Interpretation)

ニューラルネットワークがどのように意思決定を行っているかを人間が理解できるようにする技術。AI 生成コードの信頼性向上に貢献。

AI 倫理原則の組み込み(Embedding AI Ethics Principles)

開発段階から AI 倫理(公平性、透明性など)をコードやシステム設計に組み込むこと。

セキュリティ・バイ・デザイン(Security by Design)

システム設計の初期段階からセキュリティ対策を組み込むアプローチ。AI 生成コードにも適用されるべき。

テスト自動化(Test Automation)

ソフトウェアテストのプロセスを自動化すること。AI がテストシナリオの生成や実行、結果分析を支援できる。

継続的学習(Continuous Learning)

デプロイされた AI モデルが、運用中に得られる新しいデータから継続的に学習し、性能を改善していくプロセス。

MCP サーバ

AI ワークロード(学習・推論)を複数の異なるクラウド環境に分散・統合して運用する基盤です。これにより、企業は特定のベンダーの制約を受けず、最適なリソースや機能を組み合わせて AI の効率とパフォーマンスを最大化できます。