AIの用語集: 知っておくべき45の重要な用語
AIの進化とともに、新しい用語が次々と登場しています。
- 人工知能: 人間よりもはるかに優れたタスクをこなしながら、自らの能力を教育し進化させることができる、現在よりもさらに進化したAIの姿を示唆する概念。
- AI倫理: AIが人間に危害を加えることを防ぐことを目的とした原則で、AIシステムがどのようにデータを収集すべきか、あるいは偏見に対処すべきかを決定するなどの手段を通じて達成されるもの。
- AIの安全性: AIの長期的な影響や、AIが突然、人間と敵対するような超知能へと進化する可能性を懸念する学際的な分野。
- アルゴリズム: コンピュータ・プログラムがパターンを認識するなど特定の方法でデータを学習・分析し、そこから学習して自らタスクを達成できるようにする一連の命令。
- アライメント: AIに手を加えて、より望ましい結果を生み出すこと。これは、コンテンツを適度に調整することから、人間に対する肯定的な相互作用を維持することまで、あらゆることを指します。
- 擬人化: 人間が人間以外のものに人間のような特徴を与えること。AIでは、チャットボットが実際よりも人間らしく、意識的であると信じること。
- 人工知能(AI):コンピュータ・プログラムやロボット工学において、人間の知能をシミュレートする技術のこと。人間のタスクを実行できるシステムの構築を目指すコンピュータ・サイエンスの分野。
- 自律エージェント: 特定のタスクを遂行するための能力、プログラミング、その他のツールを備えたAIモデル。例えば、自動運転車は、感覚入力、GPS、道路を自力でナビゲートする運転アルゴリズムを備えているため、自律エージェント。スタンフォード大学の研究者は、自律エージェントが独自の文化、伝統、共有言語を発展させることができることを示しています。
- バイアス:大規模な言語モデルに関しては、学習データに起因するエラー。ステレオタイプに基づき、特定の人種やグループに特定の特徴を誤って帰属させてしまう可能性があります。
- チャットボット: 人間の言葉をシミュレートしたテキストを通じて人間とコミュニケーションするプログラム。
- ChatGPT: OpenAIが開発した大規模言語モデル技術を使用したAIチャットボット。
- コグニティブ・コンピューティング: 人工知能の別称。
- データ拡張: AIを学習させるために、既存のデータをリミックスしたり、より多様なデータセットを追加したりすること。
- ディープラーニング(深層学習): 画像、音声、テキストの複雑なパターンを認識するために複数のパラメータを使用するAIの手法で、機械学習の一分野。このプロセスは人間の脳から着想を得ており、人工ニューラルネットワークを使用してパターンを作成します。
- 拡散: 写真のような既存のデータにランダムなノイズを加える機械学習の手法。拡散モデルは、その写真を再構築または復元するためにネットワークを訓練します。
- 創発的行動: AIモデルが意図しない能力を発揮すること。
- エンドツーエンド学習(E2E):ディープラーニングのプロセスのひとつで、モデルが最初から最後までタスクを実行するよう指示されること。タスクを逐次達成するように学習するのではなく、入力から学習し、一度に解決します。
- 倫理的考察: AIの倫理的な意味合いや、プライバシー、データ使用、公平性、悪用、その他の安全性に関する問題に対する認識。
- フーム: 高速離陸、ハード離陸とも。誰かがAGIを作ったとしても、人類を救うには時すでに遅しかもしれないという考え方。
- Generative Adversarial Network(GAN): 新しいデータを生成する2つのニューラルネットワーク(ジェネレーターとディシミネーター)で構成される生成AIモデル。ジェネレーターが新しいコンテンツを生成し、ディスクリミネーターがそれが本物かどうかをチェック。
- ジェネレーティブAI:AIを使ってテキスト、ビデオ、コンピュータコード、画像を生成するコンテンツ生成技術。AIは大量の学習データを与えられ、パターンを見つけて独自の斬新な反応を生成。
- Google Gemini: GoogleによるAIチャットボット。ChatGPTと同様の機能を持つが、ChatGPTが2021年までのデータに限定され、インターネットに接続されていないのに対し、現在のウェブから情報を取得。
- ガードレール: データが責任を持って扱われ、モデルが不穏なコンテンツを作成しないよう、AIモデルに課されるポリシーや制限。
- 幻覚: AIによる誤った回答。生成AIが不正解であるにもかかわらず、あたかも正解であるかのように自信たっぷりに答えることも含まれます。その理由は完全には分かっていません。例えば、AIチャットボットに「レオナルド・ダ・ヴィンチがモナリザを描いたのはいつですか」と尋ねると、「レオナルド・ダ・ヴィンチがモナリザを描いたのは1815年です」と誤った回答をすることがあります。
- 大規模言語モデル(LLM): 言語を理解し、人間のような言語で新しいコンテンツを生成するために、大量のテキストデータで訓練されたAIモデル。
- 機械学習(ML): 明示的なプログラミングを行うことなく、コンピュータが学習し、より優れた予測結果を導き出すことを可能にするAIのコンポーネント。トレーニングセットと組み合わせることで、新しいコンテンツを生成することが可能。
- Microsoft Bing: マイクロソフトが提供する検索エンジンで、ChatGPTの技術を利用してAIを活用した検索結果を提供。インターネットに接続されているという点ではGoogle Geminiに似ています。
- マルチモーダルAI:テキスト、画像、動画、音声など、複数の種類の入力を処理できるAIの一種。
- 自然言語処理: 機械学習とディープラーニングを利用して、人間の言語を理解する能力をコンピューターに与えるAIの一分野。多くの場合、学習アルゴリズム、統計モデル、言語規則を使用。
- ニューラルネットワーク: 人間の脳の構造に似ており、データのパターンを認識するための計算モデル。相互に接続されたノード(ニューロン)で構成され、パターンを認識し、時間をかけて学習することが可能。
- オーバーフィッティング: 機械学習において、学習データに忠実に機能しすぎて、新しいデータではなく、そのデータに含まれる特定の例しか識別できない可能性のあるエラー。
- ペーパークリップ: オックスフォード大学の哲学者ニック・ボストレム(Nick Boström)が提唱したペーパークリップ最大化理論(Paperclip Maximiser)。最大量のペーパークリップを生産することを目標に、AIシステムはその目標を達成するために、あらゆる材料を消費または変換すると仮定します。これには、より多くのペーパークリップを生産するために他の機械を解体することや、人間にとって有益な機械を解体することも含まれます。このAIシステムの意図しない結果は、ペーパークリップを作るという目標のために人類を滅ぼすかもしれないということです。
- パラメータ: LLMに構造と動作を与え、予測を可能にする数値。
- プロンプト: AIチャットボットに入力し、応答を得るための提案や質問。
- プロンプト・チェイニング: AIが以前のインタラクションから得た情報を使って、将来の応答を彩る機能。
- 確率的オウム返し: LLMの例えで、その出力がいかに説得力があるように聞こえるかにかかわらず、ソフトウェアが言語やそれを取り巻く世界の背後にある意味についてより大きな理解を持っていないことを示すもの。このフレーズは、オウムがその背後にある意味を理解することなく、人間の言葉を模倣することができることを指します。
- スタイル・トランスファー: AIがある画像の視覚的属性を解釈して別の画像に使用することを可能にする、ある画像のスタイルを別の画像のコンテンツに適応させる能力。例えば、レンブラントの自画像をピカソのスタイルで再現するなど。
- 温度: 言語モデルの出力がどの程度ランダムかを制御するために設定されるパラメータ。温度が高いほど、モデルはより多くのリスクを負うことになります。
- text-to-image生成: テキスト記述に基づいて画像を作成します。
- トークン: AI言語モデルがプロンプトに対する応答を作成するために処理する、書かれたテキストの小さな断片。トークンは英語の4文字、または単語の約4分の3に相当します。
- トレーニングデータ: テキスト、画像、コード、データなど、AIモデルの学習に使用されるデータセット。
- トランスフォーマーモデル: 文章や画像の一部など、データ内の関係を追跡することで文脈を学習するニューラルネットワークアーキテクチャとディープラーニングモデル。そのため、文章を1単語ずつ分析する代わりに、文章全体を見て文脈を理解することができます。
- チューリングテスト: 有名な数学者でありコンピューター科学者でもあるアラン・チューリングにちなんで名付けられたこのテストは、機械が人間のように振る舞う能力をテストします。人間が機械の反応を他の人間と区別できなければ合格。
- 弱いAI、別名狭いAI:特定のタスクに集中し、そのスキルセット以上の学習ができないAI。現在のAIのほとんどは弱いAI。
- ゼロショット学習: 必要な学習データを与えずに、モデルがタスクを完了させるテスト。例えば、トラについてのみトレーニングを受けている状態でライオンを認識するような場合。