AI用語集
AIの戦略言語
AIが実験から企業規模の実行に移行するにつれ、その語彙を理解することが不可欠になる。この用語集では、核となる概念から進化するインテリジェント・システム用語まで、重要な用語を定義している。
AI用語集
AIが実験から企業規模の実行に移行するにつれ、その語彙を理解することが不可欠になる。この用語集では、核となる概念から進化するインテリジェント・システム用語まで、重要な用語を定義している。
AIエージェントは、高度な目標を小さなタスクに分解し、ツールやAPIを使用して実行し、最小限の人間の入力で結果を出すことができるインテリジェントなソフトウェア・エンティティである。エージェントは意図を持って行動し、リアルタイムのデータに適応し、複雑なワークフローを完了するためにシステム間で機能することができます。
エージェント型AIとは、推論、計画、記憶、適応性などの機能を組み合わせることで、特定の目標に向かって自律的に動作するように設計されたAIシステムを指す。これらのシステムは、意思決定を行い、複雑なタスクを分解し、人間の入力を最小限に抑えながら、ツールやシステムにまたがって行動することができる。単一のエージェントであれ、専門化されたエージェントのネットワークであれ、エージェント型AIはAIを反応的な対応から、プロアクティブで目標指向の問題解決へとシフトさせ、ダイナミックでマルチステップなワークフローに理想的なものとする。
マッキンゼーによる造語で、Agentic Mesh(エージェンティック・メッシュ)とは、複数の自律エージェントが異なるツール、システム、言語モデルを横断して協働する、柔軟でスケーラブルなAIアーキテクチャを指す。このアーキテクチャはベンダーにとらわれず、分散型に設計されており、エージェントは安全かつ企業規模でリアルタイムに共同作業、意思決定、適応を行うことができる。
エージェンティック・アプリケーションは、エージェンティックAIを利用したソフトウェア・システムであり、自律的なエージェントが、変化する入力に基づいてリアルタイムで行動、意思決定、適応を行うことができる。このようなアプリケーションでは、大規模言語モデル(LLM)、コンピュータ・ビジョン、強化学習などの技術が使用され、人間の指導を最小限に抑えて複雑なタスクを処理します。
エージェントワークフローとは、AIエージェントが計画し、最小限の人間の入力で実行するタスクシーケンスである。これらのワークフローは動的であり、エージェントはコンテキスト、結果、または状況の変化に基づいてリアルタイムで適応し、効率的かつ自律的に特定の目標を達成することができます。
自律型エージェントは、人間が常に指示しなくても、特定の目標を達成するために独自に計画を立て、行動し、学習することができるAIシステムである。タスクを分解し、リアルタイムで意思決定を行い、変化する状況に適応し、経験を通じて改善するため、ダイナミックな環境における複雑なマルチステッププロセスの自動化に重宝される。
A2Aは、自律的なAIエージェントが互いに直接対話し、タスクを委任したり、知識を共有したり、共同で問題を解決したりするコミュニケーションや調整のメカニズムである。A2Aは、マルチエージェントエコシステムのバックボーンを形成し、人間の常時入力を必要としない分散型の意思決定とワークフローの実行を可能にする。
Agent Platfromは、洗練されたエージェントアプリケーションを大規模に開発、デプロイ、管理するためのエンタープライズグレードのマルチエージェントオーケストレーションインフラストラクチャです。10年にわたるAIのイノベーションに基づいて構築されたこのプラットフォームにより、企業は特定のビジネスニーズに合わせて、ガイド付きアシスタントから完全に独立したシステムまで、さまざまなレベルの自律性を持つAIエージェントを設計し、オーケストレーションすることができます。これは、ワークフロー全体で考え、学習し、行動できる脳を企業に与えるようなものです。
AI for Workは、企業の生産性を向上させるAIフレームワークであり、コンテキストを認識するAIエージェントを活用して、企業の知識検索、タスク実行の自動化、ワークフローの最適化を行うことで、従業員の作業効率を向上させます。セマンティック推論、クロスアプリケーション・オーケストレーション、ビジネス機能全体にわたる構造化された意思決定インテリジェンスを可能にします。
AI for Processは、AIによるプロセスマイニング、認知タスクモデリング、強化学習を活用し、実行パスの最適化、動的例外の管理、コンプライアンス主導のプロセス自動化を実現するプロセスインテリジェンスおよびワークフロー自動化スイートです。AIエージェントは、リアルタイムのデータと予測分析に基づいてワークフローの実行を自律的に適応させることができます。
AI for Serviceは、エージェントAI、マルチモーダルNLP、リアルタイム適応推論を統合し、同期または非同期で複数の音声チャネルやデジタルチャネルにおける顧客との対話を処理する、会話とサービスの自動化フレームワークです。インテント・ドリブン・オートメーション、リアルタイムAIエージェント増強、階層的タスク委任をサポートし、スケーラブルなオムニチャネル・セルフサービス体験を保証します。
複数のAIエージェントがどのように連携するかを管理するコーディネーションエンジン。目標、コンテキスト、システムの状態に基づいて、適切なエージェントにタスクを動的に割り当て、エージェントがスムーズに相互作用し、競合を回避し、複雑なワークフローを効率的に完了することを保証します。すべてのエージェントが適切なタイミングで役割を果たせるようにする、AIオーケストラの指揮者と考えてください。
高レベルの目標を実行可能なステップに分解する推論コア。ユーザーの意図、コンテキスト、利用可能なツールやエージェントに基づいて、マルチステップのアクションプランを生成します。プランナーは、AIエージェントが先見性を持って行動し、自律的にタスクを遂行するために何を、いつ、どのように行うかを決定し、状況の変化に応じて適応することを可能にします。
エージェントエンベッディングは、エージェントの役割、スキル、コンテキスト、またはタスク履歴をキャプチャするベクトルベースの意味表現です。どのエージェントが特定の目標や状況に最も適しているかをシステムが理解できるようにすることで、大規模なエージェントプール内でのインテリジェントなマッチメイキング、タスクルーティング、専門化を可能にします。
エージェンティック・メモリーは、AIエージェントが短期と長期の両方の情報を記憶し、呼び出し、推論することを可能にする構造化されたシステムである。短期メモリは、タスクや会話の即時的なコンテキストをキャプチャし、長期メモリは、過去のやりとり、学習した知識、目標、および決定を保持します。この複合的な記憶により、エージェントは文脈を失うことなく、継続性を維持し、応答をパーソナライズし、情報に基づいた意思決定を行い、複雑なワークフローを処理することができる。
オーグメンテーションとは、AIモデルのパフォーマンスを向上させるために、外部ソースからの追加的なコンテキストや知識でAIモデルを強化することである。モデルが訓練されたものだけに頼るのではなく、リアルタイムのデータ、ドキュメント、ツールを取り込むことで、より正確で、適切で、根拠のある出力を生成する。再トレーニングを行うことなく、汎用モデルをドメインを認識したタスクに特化したアシスタントに変えます。
Agentic RAGは、Retrieval-Augmented Generationのパワーとインテリジェントエージェントの自律性を融合させたものである。単に関連する情報を検索し、応答を生成する従来のRAGとは異なり、エージェントRAGは、エージェントが何を検索し、どのように解釈し、いつ行動するかを、彼らが達成しようとしている幅広い目標に基づいて能動的に決定することを可能にする。これは、検索、記憶、推論、意思決定を織り交ぜ、エージェントがマルチステップワークフローにおいて、より文脈を意識し、目的意識を持ち、適応的に動作することを可能にします。
エージェント推論とは、AIエージェントが自ら問題を考え、決断し、適応するための中核的な能力である。エージェントが複雑な目標をより小さなステップに分解し、文脈を利用して行動を導き、結果から学び、途中で自己修正することを可能にします。これによりエージェントは、単純で反応的なツールから、曖昧さを扱い、十分な情報に基づいた選択を行い、真の自律性を持って活動できる、プロアクティブで目標志向の問題解決能力へと変貌を遂げる。
AIアナリティクスとは、AIシステムのパフォーマンスを監視、測定、改善するために使用される一連のツールとダッシュボードを指します。AIアナリティクスは、ユーザーとの対話、モデルの動作、意図の検出、解決結果など、さまざまなインサイトを把握します。このデータを分析することで、企業は精度を評価し、ボトルネックを特定し、A/Bテストを実行し、プロンプトやワークフローを微調整し、AIがビジネス目標と一致していることを確認することができます。これは、生のAIアクティビティを実行可能な改善に変えるインテリジェンス層です。
エージェントのトレーサビリティとは、AIエージェントがどのように意思決定を行うかを追跡、監査、可視化する機能のことで、モデルの呼び出し、使用したツール、関連するコンテキスト入力を含みます。エージェントの行動に透明性を与え、ガバナンスとコンプライアンスをサポートし、エラーや意図しない行動を特定して解決するのに役立ちます。
AIの安全性とは、AIシステムが安全かつ倫理的に、人間の価値観に沿って動作するように設計することである。これは、バイアス、データの誤用、敵対的な攻撃、または意図しない行動のような有害な結果を防ぐことに焦点を当てています。これには、強力なガバナンス、継続的なモニタリング、人間の監視を備えた堅牢で透明性の高いモデルを構築し、AI利用の全段階にわたって責任ある展開を確保することが含まれる。
ガートナー社の造語であるAI TRiSMは、Artificial Intelligence Trust, Risk, and Security Managementの略で、AIのライフサイクルを通じてAIモデルのガバナンス、信頼性、公平性、信頼性、堅牢性、有効性、データ保護を確保するために設計されたフレームワークである。
ガートナー社によると、真の自律性、推論、オーケストレーションを提供することなく、単純なAIツールやルールベースのボットを「Agentic AI」としてブランド化し、ハイプの波に乗ろうとする行為。
AIウォッシングと同様、これは、実際には思考、計画、または目標に向かって行動しないシステムに「エージェント」というラベルを貼ることで、購入者を惑わせる。本当のエージェント型AIは、スクリプトやワークフローだけでなく、記憶、意図、適応性を使って動作する。
AIシミュレーションとは、制御されたリスクのない環境でAIモデルを訓練およびテストするために、合成環境を使用することです。このようなシミュレートされた世界では、エージェントは試行錯誤を通じて学習し、複雑なシナリオを探索し、実世界に影響を及ぼすことなく行動を洗練させることができるため、安全な実験、継続的な学習、パフォーマンスチューニングに理想的です。
AI Copilotは、生産性を高めるためにあなたと一緒に働く、スマートでコンテキストを認識するアシスタントです。リアルタイムの提案を行い、繰り返しの手順を自動化し、最も必要なときに関連する洞察を表示します。単なる受動的なヘルパーではなく、あなたの目標を理解するためにあなたと協力し、ワークフローに適応し、物事をより迅速かつ効率的に完了できるよう支援します。
アクションタスクは、通知の送信、レコードの更新、ワークフローの起動など、特定の条件がトリガーされたときに自動的に実行される定義済みのAI主導タスクです。日常的なアクションを即座に処理することで、手作業なしで業務を進めることができます。
APIとは、AIシステムが他のソフトウェア、アプリ、データベースと通信するためのルールとプロトコルのセットである。ブリッジのような役割を果たし、データやアクションをツール間でフローさせることで、手動介入なしでスマートな自動ワークフローを可能にする。
アラートタスクは、不審なアクティビティ、システムエラー、パフォーマンス低下などのフラグを立てるなど、異常、しきい値、または予期しないイベントに対するAIトリガーの応答です。適切な担当者やシステムに即座に通知されるため、手動で監視や調査を行うことなく、迅速な対応が可能になります。
Auto-NLPは、テキスト分類、センチメント分析、インテント検出などの主要な自然言語処理タスクを最小限の手動設定で自動化するツールキットです。カスタムパイプラインをゼロから構築することなく、高速で信頼性の高い自然言語処理結果を必要とするチームに最適です。
ASRは、話し言葉をリアルタイムで文字に変換する技術です。ASRは、アプリ、IVRシステム、バーチャルアシスタントにおける音声入力を強化するもので、機械が人間の話し言葉を理解し、反応することを可能にする。
自動回帰モデルは、一度に1つの単語またはトークンを予測することによってテキストを生成する。段階的に応答を構築し、すでに生成されたものに基づいて各予測を行う。GPTモデルはこのアプローチの一般的な例である。
エージェンティックXは、推論、計画、自律性などのエージェント機能をあらゆるアプリケーションやドメインにもたらすパラダイムである。これによりシステムは、複雑なタスクを分解し、その場で適応し、常に監視することなく行動を調整することで、独立して管理できるようになる。
AIスーパーコンピューティングは、今日の最先端のAIシステムを支える高性能インフラストラクチャです。これらの大規模なコンピュート・クラスタは、大規模な言語モデルや生成AIワークロードをトレーニングして実行するために構築されており、複雑な推論、ディープラーニング、エンタープライズ・アプリケーション全体のリアルタイム推論に必要な速度と容量を提供します。
擬人化とは、感情や意図、意識といった人間の特徴を機械やAIシステムに帰属させる傾向のことである。これは、インタラクションをより自然で魅力的なものにする一方で、AIが行うように見えることとAIが理解することの境界線を曖昧にすることで、しばしば誤った期待を生み出す。
人工知能は、人間の知性、推論、学習、意思決定、問題解決を模倣することができるマシンを作ることに焦点を当てたコンピュータサイエンスの一分野である。その核心は、時間とともに適応し、改善することができる自動化である。
人工知能(Artificial General Intelligence)とは、人間のように幅広いタスクを理解し、学習し、知識を適用できるAIのことである。今日の特殊化されたAIシステムとは異なり、AGIは一般的な推論、創造性、適応性を持つことができるだろう。これはまだ理論的なものだが、AI分野の多くにとって長期的な目標となっている。
基本的なRAG(Retrieval-Augmented Generation)は、外部ソースから関連情報を取得し、より正確で根拠のある応答を生成するために使用することで、言語モデルを強化する手法である。事前に訓練されたデータだけに頼るのではなく、リアルタイムまたはドメイン固有の知識で補完することで、モデルの出力を向上させる。
ベンチマークとは、推論、言語理解、意思決定などの特定のタスクにおいて、AIモデルがどの程度優れているかを評価するために使用される標準化された評価である。モデルを比較し、進歩を追跡し、実世界のアプリケーションにおける長所や短所を特定するための信頼できる基準を提供します。AIシステムがより複雑になるにつれ、ベンチマークは、進化する能力全体にわたって一貫した透明性のある測定を保証するのに役立ちます。
BM25は伝統的なキーワードベースの検索アルゴリズムで、検索クエリとの一致度に基づいて文書をランク付けするのに使われる。用語の頻度と文書の長さを用いて文書をスコアリングするため、正確なキーワードマッチが鍵となる古典的な情報検索タスクにおいて、高速かつ効果的な選択肢となる。
コンテクスチュアル・インテリジェンス・エンジンは、AIシステムがコンテキストを理解するための頭脳である。ユーザーの役割、会話履歴、ビジネスルール、外部データなどのシグナルを収集・分析し、エージェントがより賢い判断を下せるようにします。AIに記憶力、認識力、そして今起きていることに適応する能力を与えるレイヤーとお考えください。
コンテキスト・エンジニアリングとは、実世界のコンテキストを理解し、効果的に利用するためにAIシステムを設計することである。これには、ユーザーが誰なのか、何をしようとしているのか、過去のやりとり、周囲のビジネス環境などが含まれる。このコンテキストをどのように捉え、保存し、適用するかをエンジニアリングすることで、AIエージェントはよりインテリジェントに応答し、行動をパーソナライズし、複雑なワークフローをより正確に処理することができる。
コンテキスト・ルーターは、その瞬間に起きていることに基づいて、リクエストやタスクを適切なエージェント、モデル、ワークフローに誘導する。ユーザーが何を言ったか、どのシステムにいるか、AIがどの程度自信を持っているか、といった文脈的なシグナルを利用して自動的にルーティングを決定します。これにより、ユーザーがあちこちをたらい回しにされることなく、最も適切で正確なヘルプを受けられるようになります。
制御可能性とは、AIの行動をどの程度制御できるかということです。システムがビジネス・ルール、コンプライアンス基準、または望ましいトーンに沿うようにします。これには、AIが発言できる内容、使用できるツール、危険な状況での対応方法などの境界を設定することが含まれ、企業環境においてAIをより安全で予測可能なものにします。
チャンキングとは、AIがより効率的に理解し検索できるように、大きな文書やデータセットをチャンクと呼ばれる意味のある小さな断片に分割するプロセスのことである。これは、RAG(Retrieval-Augmented Generation)やエンタープライズサーチをよりスマートで高速なものにするために不可欠である。
Chain of Thought Promptingは、AIモデルが最終的な答えを出す前に「声に出して考える」ことを促すテクニックだ。これは、結果に直行するのではなく、数学の問題やトラブルシューティングのタスクのように、各ステップを通して推論するように誘導する。これにより、より正確で説明しやすいアウトプットが得られることが多い。
コンテキスト・ウィンドウとは、言語モデルが応答を生成する際に一度に「見る」ことができる情報量のことです。トークンで測定され、より大きなコンテキストウィンドウは、モデルがより多くの履歴や背景を考慮することを可能にし、より首尾一貫した、情報に基づいた、コンテキストを考慮した出力につながります。これは、長い会話、ドキュメントの要約、複数ターンの推論などのタスクに不可欠です。
コンポーネントの再利用性とは、異なるエージェントやアプリケーション間で再利用できるように、インテント、プロンプト、コネクタのようなAI要素を構築することを意味します。これは、開発をスピードアップし、一貫性を維持し、チームや部門をまたいでAIを拡張する際の重複作業を回避します。
コンポーザブルAIは、AI機能をモジュールブロックのように構築するアプローチであり、各コンポーネント(エージェント、ツール、ワークフローなど)は再利用、再配置、拡張が可能である。これにより、企業はAIを迅速に拡張し、さまざまなユースケースに合わせてカスタマイズし、ゼロから始めることなく変化に対応することができる。
Contextual Embeddingは、単語、フレーズ、またはデータを、それらが使用されているコンテキストに特有の意味を伝える高密度の数値ベクトルに変換する方法です。すべての単語を同じように扱うのではなく、周囲の文脈に基づいて、「銀行」が金融機関なのか河岸なのかの違いのようなニュアンスをAIモデルが理解できるようにする。これにより、AIが情報を検索し、ランク付けし、理由付けする方法が改善される。
Confidence Score(確信度スコア)は、AIが予測や対応についてどの程度確信を持っているかを示すもので、例えば、ユーザーがパスワードのリセットを望んでいることをどの程度確信しているかを示すものです。これは通常パーセンテージで表示され、次に何をすべきかを判断するのに役立ちます。
クラウドコネクターは、AIシステムをCRM、発券ツール、データベースなどのサードパーティのクラウドアプリやサービスと連携させるプラグアンドプレイの統合です。シームレスなデータ交換を可能にし、エージェントがカスタムコードやミドルウェアなしでリアルタイムのアクションを実行できるようにします。
会話型AIは、機械がテキスト、音声、またはメッセージングを介して自然言語を使用して人間と対話することを可能にします。バーチャルアシスタント、チャットボット、IVRなどに力を与え、サポートの自動化、ユーザーの誘導、タスクの実行を支援する。その中核は、言語理解、意図認識、対話管理を組み合わせて実際の会話を行うことです。
カンバセーショナルUIとは、ボタンやフォーム、メニューの代わりに自然言語で対話するためにデザインされたユーザーインターフェースのことだ。サポート・ウィンドウでボットとチャットしたり、スマート・アシスタントに音声コマンドを与えたりするときに表示されるものだ。特に複雑なタスクや動的なタスクにおいて、ユーザー体験をより直感的なものにします。
コグニティブ・サービスは、音声認識、画像分析、言語翻訳、感情検出などの特定のタスクを処理する、あらかじめ構築されたAI機能です。ゼロからモデルを構築する代わりに、チームはこれらのサービスをプラグインすることで、よりスマートで人間のような能力を即座にアプリケーションに与えることができる。
Dialog GPTはインテリジェントなオーケストレーションエンジンです。インテント検出からタスク実行までのフローを自律的に管理し、構造化されたビジネスロジックと会話の柔軟性のバランスを取ります。埋め込みベースの検索、生成モデル、およびドメイン知識を組み合わせることで、ゼロショットのインテント検出を実行し、明確な質問によってあいまいさを解決し、大規模な学習データを必要とせずに単一のクエリ内で複数のインテントを処理します。
DSLMは、医療、銀行、通信などの特定の業界向けに微調整された言語モデルです。つまり、専門用語や文脈、その業界で本当に重要なことを理解しているため、よりスマートで適切な応答ができるのです。
デリベレーションエンジンは、エージェントが行動する前に一時停止し、選択肢を検討する力を与えます。最初に利用可能なパスを取る代わりに、選択肢を考え、最も効果的な次の行動を選択することができます。
ダイアログ・タスクとは、例えば会議のスケジュールや注文の確認など、特定の仕事を完了するために構築されたガイド付き会話パスのようなものです。論理的なステップを通じてユーザーの入力をバックエンドシステムにつなげ、AIがチャットだけでなくアクションを起こせるようにします。
ダイアログビルダーは会話をデザインするためのビジュアルワークスペースです。コードを記述することなく、ドラッグ、ドロップ、ダイアログフローの設定を行うことができるため、開発者がすべてのステップに関与することなく、スマートで機能的なボットを立ち上げることができます。
Data Augmentation(データ拡張)とは、新しい例を微調整したり生成したりすることで、学習データを拡張する方法である。ロバスト性を向上させるために、文章を言い換えたり、ノイズを追加したりすることができる。これは、大量の新しいデータを収集することなく、モデルをより良くするための賢い近道だ。
データをAIモデルで使用する前に、データをクリーンアップし、フォーマットする必要がある。データの前処理は、エラーを除去し、テキストを標準化し、AIが実際にそこから有用なことを学習できるように、すべてを整えるステップである。
データ保持とは、ユーザーやシステムのデータをいつまで保存し、いつ削除するかということです。GDPRやHIPAAのような個人情報保護法に準拠し、機密情報が必要以上に長引かないようにするための重要な部分です。
デプロイメントとは、AIシステムがテストラボを出て本番稼働することです。チャットボット、音声アシスタント、社内ツールのいずれに統合されるにせよ、実際のユーザーがモデルと対話を始めるときであり、パフォーマンスが本当に重要になるときです。
Dense Retrievalは、よりスマートな検索方法である。単にキーワードをマッチングさせるのではなく、ベクトル埋め込みを使って、表現が異なっていても意味的に類似した情報を見つける。これにより、RAGや検索システムにおいて、より関連性の高い結果を得ることができる。
決定論的モデルとは、同じ入力に対して常に同じ出力を与えるモデルです。法律、金融、セーフティクリティカルなワークフローのように、一貫性とトレーサビリティが創造性よりも重要な場合に有用です。
エンタープライズAIは、チャットのためだけでなく、ビジネスのために構築されたAIです。部門、ツール、ユーザーを超えて、安全、確実、かつ大規模に動作するように設計されています。実際のビジネスロジックを処理し、複雑なシステムと統合し、コンプライアンスと説明責任を維持します。
エンタープライズRAGは、スマートサーチ(検索)とスマートジェネレーション(LLM)を組み合わせたものですが、エンタープライズガードレールを備えています。ナレッジベースやドキュメントなどの内部ソースから回答を引き出し、正確でブランド通りの回答を安全かつ完全なトレーサビリティで生成します。
説明可能なAIとは、謎のままにしておくのではなく、AIがなぜその判断を下したのかを明確に示すことである。特に金融、ヘルスケア、カスタマーサポートのような、「AIがそう言ったから」では不十分な業界では、信頼が必要な場合に不可欠です。
エンベッディングとは、言葉やデータのデジタル指紋のようなものだ。フレーズ、文章、ドキュメントの意味をAIが理解できる方法でキャプチャすることで、類似コンテンツの検索、検索結果のランク付け、ステップ間のコンテキストの保持が可能になります。
これらのツールはエンベッディングを作成し、日常的な言語をAIが扱うことのできる数学に変える。キーワードだけでなく、意味に基づいてつながりを作ることで、よりスマートな検索、取得、推論を可能にする。
エンティティとは、AIが引き出そうとしている、人名、日付、口座番号などの具体的な情報のことである。漠然としたリクエストを実行可能なものにする、重要な詳細情報だと考えてください。
これは、AIが誰かの発言や入力から有用な詳細を引き出す方法である。例えば、ユーザーが「3月の請求書について手伝ってほしい」と言った場合、エンティティ抽出によって「3月」と「請求書」が抽出され、タスクが正しくルーティングされる。
倫理的なAIとは、公正で尊重され、責任あるシステムを構築することを意味する。有害なバイアスを避け、プライバシーを保護し、ビジネス目標だけでなく人間の価値観に沿った方法でAIが使用されるようにすることだ。
暗号化は、適切な人(またはシステム)だけが解除できるようにデータをスクランブルすることで、データの安全を保ちます。パスワード、個人情報、ビジネス・データなどをAIシステムが移動したり保存したりする際に保護するものです。
エッジAIは、クラウドではなく、電話やキオスク端末、ローカルサーバーなど、データがある場所で実行される。高速でプライベートなため、即座の判断が必要なユースケースや接続が限られた場所での作業に最適です。
AIの世界では、FAQは通常、バーチャルアシスタントやナレッジボットが使用する、事前に訓練された質問と回答のペアのセットを指します。これは、完全な会話やワークフローを必要とすることなく、一般的なクエリに対する迅速で正確な回答をユーザーに提供する最もシンプルな方法だ。
数少ない例で学習することで、モデルは新しいタスクを理解することができる。システム全体を再トレーニングする代わりに、プロンプトでいくつかのサンプルを見せると、その場で物事を理解する。スピードと柔軟性が重要な場合には、大きな意味を持つ。
ファウンデーション・モデルとは、膨大なデータセットで訓練された大規模で汎用的なAIモデルである。ファウンデーション」と呼ばれるのは、微調整やプロンプトのようなテクニックを使って、要約、質問への回答、分類といった多くのタスクに適応させることができるからだ。
ファインチューニングとは、大規模で一般的なAIモデルを、特定のデータでトレーニングすることです。これは、モデルをお客様のトーン、語彙、ワークフロー、または業界固有のニーズに合わせるのに役立ちます。
フロンティア・モデルとは、AIにできることの限界を押し広げるモデルとして開発されている最先端のAIシステムである。これらは通常、巨大で、マルチモーダルであり、推論、計画、あるいは自律的な行動が可能である。多くの場合、まだ研究中か、厳しく管理されたリリースにとどまっている。
フロンティア・モデルとは、AIにできることの限界を押し広げるモデルとして開発されている最先端のAIシステムである。これらは通常、巨大で、マルチモーダルであり、推論、計画、あるいは自律的な行動が可能である。多くの場合、まだ研究中か、厳しく管理されたリリースにとどまっている。
Graph-RAGは、検索によって拡張された生成と知識グラフを組み合わせている。単に孤立した情報のかたまりを取り出すのではなく、データポイント間の関係を理解し、生成される答えの推論、文脈、関連性を向上させる。
グラウンディングとは、AIエージェントのアウトプットが、当て推量ではなく、企業文書、データベース、リアルタイムのコンテキストなどの信頼できる情報に基づいていることを確認することである。これにより、エージェントは推論するための信頼できる基盤を得ることができ、その行動、意思決定、応答は事実に基づき、適切で、企業で安全に使用することができます。
ガードレールフレームワークは、GenAIの言動に境界線を設けます。特定のフレーズのブロック、トーンのガイド、ツールへのアクセス制限など、安全で適切、ブランド準拠のアウトプットを保証します。
ジェネレーティブAIとは、データから学習したパターンに基づいて、テキスト、画像、コード、あるいは会話などのコンテンツを作成できるAIシステムを指す。あらかじめ設定された選択肢から選ぶのではなく、リアルタイムで新しい動的な出力を生成することで、インタラクションを自然でインテリジェントなものにする。
GPTは、人間のようなテキストを理解し、生成する強力な生成言語モデルのファミリーです。膨大なデータで "事前訓練 "されており、チャットボットから要約ツール、エージェントに至るまで、あらゆるものに適応させることができる。
ハイブリッド検索は、キーワードベースの検索と、埋め込み検索によるセマンティック検索を組み合わせたものです。これは、システムが完全一致と意味に基づく結果の両方を検索できることを意味し、特にクエリがオープンエンドまたは複雑な場合、より関連性の高い完全な回答につながります。
幻覚は、AIが正しく聞こえるが真実ではない何かを生成するときに起こる。特にAIが複雑で繊細なタスクを処理している場合、誤解を招く回答や誤った行動につながる可能性がある。出力の正確性と信頼性を保つには、接地と検証が鍵となる。
Human in the Loop(ヒューマン・イン・ループ)とは、AIによる意思決定プロセスにおいて、監視、承認、介入のいずれかに人が関与し続けることを指す。特に正確性、判断、コンプライアンスが重要なワークフローにおいて、自動化とコントロールのバランスをとる方法だ。
ハイパーパラメータチューニングとは、AIモデルの学習と実行方法を制御する設定を微調整するプロセスです。学習率、モデルサイズ、トークン制限などの要素を最適化することで、精度、スピード、信頼性を向上させることができます。
インコンテキスト学習とは、AIモデルが再学習を受けることなく、プロンプト内の例を読み取ることで、タスクを処理する方法をその場で学習することである。これは、モデルにいくつかのデモを与え、即座にパターンを理解させるようなもので、カスタムタスクや動的なユースケースに特に有効です。
インテントとは、"パスワードのリセット "や "残高の確認 "など、ユーザーが何をしたいのかということだ。適切なインテントを検出することは、AIがどのように対応すべきか、どのようなアクションを取るべきか、どのワークフローをトリガーすべきかを把握するための第一歩となる。
インジェスチョンとは、ドキュメント、FAQ、PDF、ナレッジベース記事などの外部データをAIシステムに取り込むプロセスのことです。これは、コンテンツを検索、取得可能にし、会話やワークフローで使用できるようにするための最初のステップである。
インデックス作成とは、データを整理して保存し、AIが素早く検索できるようにするプロセスです。文書であれ、原稿であれ、知識記事であれ、インデックスを作成することで、システムが正しい情報を素早く見つけられるようになる。
インストラクション・チューニングとは、AIモデルを人間の指示によりよく従うように訓練する手法である。単に次に何が起こるかを予測するのではなく、明確に答えたり、簡潔にまとめたり、質問されたときに行動を起こしたりなど、ユーザーが期待するような反応をするように学習する。
共同学習は、複数のAIタスクやモデルを別々に学習するのではなく、一緒に学習する学習アプローチである。インテント検出やエンティティ認識のように、タスク間で知識を共有することで、モデルは全体的な精度と汎化を向上させることができる。これは、さまざまなユーザーの要求に対応するバーチャル・アシスタントのように、異なる機能が同期して動作する必要がある複雑なシステムで特に有用です。
ナレッジ・グラフは、概念、エンティティ、データ・ポイントが互いにどのように関連しているかを示すマップのように、情報を接続されたノードと関係に整理する。これにより、AIはよりインテリジェントに推論できるようになり、事実を単独で扱うのではなく、それらがどのようにつながっているかを理解できるようになる。
ナレッジ・タスクとは、AIが情報を見つけ、理解し、提供する責任を負うタスクのことで、例えば、政策に関する質問への回答や文書の要約などがある。これらのタスクは、適切な知識ソースに接続し、関連するコンテンツを取得し、役立つ方法でそれを提示することに依存します。
ナレッジベースとは、FAQ、ハウツー記事、ドキュメント、社内ガイドなどの情報を一元管理したリポジトリのことで、AIが質問やサポートタスクに回答するために使用できます。AIの内部ライブラリーのようなもので、一貫性のある承認された情報で対応できるようにします。
大規模言語モデル(LLM)は、人間の言語を理解し、処理し、生成するために、膨大なテキストデータセットで訓練された高度なAIモデルです。LLMは、クエリの分析、情報の要約、タスクの完了、言語駆動型アプリケーションの広い範囲にわたる推論のサポートを行うことができる。その強みは、複雑さを処理し、さまざまなコンテキストに適応し、一貫性のある、コンテキストを意識した出力を大規模に提供することにあります。
LLMオーケストレーションは、大規模な言語モデルがツール、メモリ、API、および他のエージェントとどのように相互作用するかを管理するプロセスです。LLMが単にテキストを生成するだけでなく、ワークフロー全体で推論、検索、行動、適応ができるより大きなシステムの一部として動作することを保証します。
長期記憶により、AIエージェントは、ユーザーの好み、過去の行動、以前の回答など、インタラクションにまたがる情報を記憶することができる。長期記憶によって、よりパーソナライズされた、一貫性のある、ゴールを意識した応答が可能になります。
ローコードプラットフォームは、ユーザーが従来のコーディングの代わりにビジュアルインターフェースを使用してAIを搭載したアプリケーションや自動化を構築できるようにします。これは、ビジネスユーザーや非エンジニアがワークフロー、ボット、または統合を迅速かつ安全に作成するのに役立ちます。
LangOps(言語運用)とは、言語モデルが企業全体でどのようにデプロイされ、使用されるかを管理し、最適化することです。これには、パフォーマンスチューニング、ガバナンス、トレーニングデータ管理、モデルのバージョニングが含まれ、本質的にLLMのためのDevOpsです。
LoRAは、全体を再トレーニングすることなく、大規模なモデルを効率的に微調整する技術です。アップデートをより軽く、より安く、より簡単に行うことができるため、企業における基礎モデルのカスタマイズに最適です。
マルチエージェント・オーケストレーションとは、複雑なタスクを完了させるために、複数の特化したAIエージェントが協調して働くことである。各エージェントは、データの取得、アクションの実行、推論など、それぞれのパートに集中し、オーケストレーションレイヤーは、すべてがスムーズに流れるようにする。
マルチエージェントシステムとは、複数の自律的なAIエージェントが協力し、コミュニケーションし、より広い目標を解決するためにコンテキストを共有するセットアップである。それはデジタルチームのようなもので、各エージェントはそれぞれの役割を持ち、同じ目的に向かって働く。
メモリーによって、AIシステムは過去のやりとりやユーザーの好み、タスクの履歴などの情報を長期にわたって保持し、再利用することができる。AIがコンテキストを認識し、より良い判断を下し、会話やワークフローをまたいで継続性を維持するのに役立ちます。
マルチモーダルAIとは、テキスト、画像、音声、動画など、複数のタイプの入力を理解し、処理できるシステムを指す。これにより、より幅広いタスクやチャネルにおいて、より豊かで柔軟なインタラクションが可能になる。
マルチベクトル検索は、関連する情報を見つけるために複数の意味表現を使用することにより、検索を向上させる。1つのクエリの背後にある異なる意味や視点を捉えることで、より良い結果を導き出すことができる。
ModelOpsとは、AIモデルのトレーニングやテストから、デプロイ、モニタリング、リタイアメントまで、AIモデルのライフサイクル全体を管理することです。モデルの安全性、更新、ビジネスニーズとの整合性を長期にわたって維持するために不可欠です。
モデル・ルーターは、特定のタスクにどのAIモデルを使用するかを決定する。プロンプトのタイプ、信頼度スコア、ドメインなどの要素に基づき、システムが効率的で正確かつスケーラブルであることを保証する最適なモデルにリクエストを誘導する。
自然言語処理とは、機械が人間の言葉を理解し、解釈し、扱うのを助けるAIの幅広い分野である。テキストの分析から意味の抽出まですべてをカバーし、システムがメッセージ、電子メール、音声コマンドのような非構造化入力を処理できるようにする。
NLUは、NLPのサブセットで、誰かの発言や入力の背後にある意味や意図を解釈することに重点を置いている。AIシステムが、たとえその言い回しが曖昧であったり、構造化されていないものであったとしても、ユーザーが何を望んでいるのかを把握するのに役立ちます。
NLGは、構造化されたデータや内部の知識を、明確で人間に聞こえる言語に変えるプロセスです。レポートの要約であれ、ユーザーからの質問への回答であれ、NLGはAIシステムがリアルタイムで自然かつインテリジェントに応答できるよう支援します。
ノーコード・プラットフォームでは、ユーザーはコードを書くことなくAIアプリケーション、ワークフロー、自動化を構築できる。ユーザーはプログラミングの代わりに、ドラッグ・アンド・ドロップ・ツールやフォームベースのロジックのようなビジュアル・インターフェースを通じて作業を行う。これにより、ビジネスチームは、深い技術的スキルを必要とせずに、AIソリューションを迅速に立ち上げ、管理することが可能になる。
オントロジーとは、知識を組織化するための構造化された方法である。特定のドメイン内の概念、エンティティ、カテゴリー間の関係を定義する。AIシステムでは、エージェントが物事のつながりを理解するのに役立ち、より正確に推論し、文脈を考慮した方法で応答できるようになる。
オムニチャネルとは、チャット、音声、Eメール、ウェブ、モバイルアプリなど複数のチャネルで、コンテキストと継続性を維持しながら、シームレスなAI体験を提供することを意味する。ユーザーが一貫したサポートを受けられるようにし、どこでどのようにやりとりしても、中断したところから再開できるようにします。
オープンソースのLLMは、誰でも自由に使用、カスタマイズ、デプロイできる大規模な言語モデルです。柔軟性と透明性を提供するため、モデルの動作、コスト、展開環境をコントロールしたい企業にとって強力な選択肢となります。
プロンプト・エンジニアリングとは、AIモデルの行動を導く指示を作成する技術である。プロンプトの書き方は、応答のトーン、形式、正確さを形作ることができ、モデルを再教育することなく結果を改善するための強力なツールとなります。
プロンプト連鎖とは、複数のプロンプトを連鎖させる技法で、1つのプロンプトの出力を次のプロンプトの入力として使用し、モデルを多段階の推論やタスクに導くものです。これは、複雑な問題を管理しやすいステップに分解し、より信頼性の高い結果を得るのに役立ちます。
プロンプト・パイプラインは、プロンプト、ロジック、および決定ステップの構造化されたシーケンスであり、これらは一緒になってより大きなタスクを推進します。パイプラインは再利用可能なフローであり、各ステップは最後のステップの上に構築され、AIシステムがエンドツーエンドのアクションをより確実に完了できるようにします。
訓練済みモデルとは、すでに大規模なデータセットで訓練されたAIモデルであり、微調整したり、特定のタスクに直接使用したりすることができる。新しいユースケースに素早く適応できる強固な基盤を提供することで、時間とリソースを節約できます。
パラメータは、言語モデルがトレーニング中に学習する内部値である。モデルがどのように言語を解釈し、関連付けを形成し、応答を生成するかを制御します。簡単に言えば、パラメータが多ければ多いほど、モデルはより複雑な内容を理解することができますが、計算量も多くなります。
確率モデルは、さまざまな結果の可能性に基づいて判断や予測を行う。一つの「正しい」答えを出すのではなく、可能性を考慮し、最も可能性の高いものを選択するため、言語、推論、不確実なシナリオに有用である。
クエリの最適化とは、クエリをより効率的に、より正確に、あるいは文脈を意識して改良することで、AIが可能な限り最良の答えをより速く検索できるようにすることである。これには、言い換えたり、優先順位をつけたり、入力に含まれる不要なノイズを除去してから処理したりすることも含まれる。
RAGは、より正確で文脈を考慮した応答を生成するために、検索、補強、生成という3つの要素を組み合わせたAI技術である。まず、文書やデータベースなどの信頼できる外部ソースから関連情報を検索する。次に、ユーザーのクエリーと検索されたデータを組み合わせて入力を補強し、モデルに豊富なコンテキストを与えます。最後に、その組み合わされた入力に基づいて応答を生成する。このアプローチは、幻覚を減らし、実際の知識に基づいた回答を維持し、特に正確さとトレーサビリティが不可欠な企業ユースケースにおいて、システムの信頼性を高めます。
推論とは、問題を通して考え、ステップに分け、情報に基づいた決定を下すAIの能力である。これは、反応的なボットと、曖昧さを処理し、目標に従い、リアルタイムで適応できるインテリジェントなエージェントを分けるものだ。
責任あるAIとは、倫理的で、透明性があり、公正で、人間の価値観に沿ったAIシステムを構築し、展開することを意味する。偏見を避け、プライバシーを尊重し、決定を説明し信頼できるようにすることなどが含まれる。
RBACは、管理者、エージェント、エンドユーザーなど、ユーザーの役割に基づいて機能やデータへのアクセスを制限します。RBACは、機密情報を保護し、チーム全体でセキュリティ・ポリシーを実施するために、エンタープライズAIプラットフォームに不可欠です。
強化学習は、AIが試行錯誤によって学習し、良い結果には報酬を与え、悪い結果にはペナルティを与える手法である。強化学習は、動的または目標主導型の環境において、時間の経過とともに改善されるようにエージェントを訓練するのに役立つ。
RLHFは強化学習と人間の指導を組み合わせたものだ。AIは単にルールから学習するのではなく、その出力を人間がどのように評価し、修正するかを観察することで改善し、より期待値や価値観にマッチした回答を導き出す。
RPAは、ボタンをクリックしたり、システム間でデータをコピーするなど、人間の動作を模倣したボットを使って繰り返し作業を自動化する。ルールベースのタスクでは強力だが、目標やコンテキストの変化に適応できるエージェント型AIの推論力や柔軟性には欠ける。
スモール・ランゲージ・モデルは、特定のタスクやドメインのためにトレーニングされたコンパクトなAIモデルです。大規模なモデルよりも高速で、費用対効果が高く、制御が容易なため、スピード、プライバシー、ドメイン精度が求められるユースケースに最適です。
検索とデータAIは、企業の知識発見のためのKore.aiのインテリジェントなフレームワークです。エージェント型RAG、セマンティック理解、マルチソースコネクター、ハイブリッドベクター検索を統合し、ドキュメント、データベース、FAQ、ウェブコンテンツのような散在する社内データを、正確でコンテキストに富んだ回答に変えます。システムはインテリジェントに情報を取り込み、インデックスを作成し、セマンティック検索とキーワード検索を適用し、会話型AIですべてを包み込みます。
セマンティック検索は、キーワードだけでなく、クエリの背後にある意味を理解する。これは、AIシステムが、意図、文脈、概念間の関係を見ることによって、表現が完全に一致しなくても、関連するコンテンツを見つけるのを助ける。
短期記憶は、エージェントがアクティブなセッション中に使用する最近の入力、決定、または会話の文脈を保存します。これは、長期的なデータや無関係な過去のインタラクションと混同することなく、システムがタスク内で一貫性と関連性を保つのに役立ちます。
教師あり学習とは、AIモデルがラベル付きデータ(入力と正しい出力がわかっている例)を使って学習されることである。分類、予測、意図認識などのタスクに広く使われている。
SDKは、開発者がAIアプリケーションを構築または拡張するのに役立つツール、ライブラリ、ドキュメントの集合体である。APIとの統合、カスタム機能の構築、企業のワークフローへのAIの組み込みに必要なすべてを提供します。
センチメント分析は、肯定的、否定的、中立的など、テキストの背後にある感情をAIが理解するのに役立ちます。サポート、マーケティング、フィードバック・システムにおいて、顧客のトーンや緊急度を評価するのに役立つ。
スパース検索は、コンテンツを検索するために伝統的なキーワードマッチング手法に頼っている。完全一致の場合は高速で効果的だが、クエリが曖昧だったり多様だったりする場合は、セマンティック検索よりも柔軟性に欠けることが多い。
スキャフォールディングとは、複雑なタスクを、AIが推論できるような小さなステップに分割する手法であり、多くの場合、中間的なプロンプト、モデル、エージェントを使用する。多段階の推論、計画、意思決定に役立つ。
シーケンスモデリングとは、文章、クリックストリーム、時系列イベントなど、順序付けられたデータのパターンを分析または予測するプロセスです。言語処理や行動予測など、情報の順序が結果に影響するタスクには不可欠です。
合成データ生成は、AIモデルを訓練またはテストするために、テキスト、画像、記録などの人工データを作成することを含む。実際のデータが限られていたり、機密性が高かったり、公平性を保つためにバランスを取る必要がある場合に特に有効だ。
学習データとは、AIシステムが学習するデータのことだ。テキスト、文書、会話など、言語がどのように機能し、何を期待すべきかをモデルに教えるものであれば何でもよい。学習データが優れていればいるほど、AIはより賢く、より正確になる。
トランスフォーマーは、今日の強力な言語モデルを可能にしたAIモデル・アーキテクチャーの一種である。AIが文中の単語と単語の関係を理解し、意味のある応答を生成できるようにする。
トークンとは、AIモデルが読み書きするテキストの塊のことで、単語や単語の一部のようなものだ。モデルに与えるトークンの数が多ければ多いほど、より多くの文脈を扱うことができる。しかし常に限度があるので、何を入れるかは本当に重要だ。
透明性とは、AIシステムがどのようにしてその答えを導き出したかを見て理解できることを意味する。特にビジネスシーンでは、意思決定を説明し、追跡し、時間をかけて改善する必要がある。
温度は、AIがどれだけ "創造的 "になるかをコントロールする設定だ。温度が低いと、回答は集中し、予測しやすくなる。温度を高くすると、回答はより多様になるが、正確さを欠くこともある。AIに許される大胆さを調整するようなものだ。
テストは、AIが本稼働前に期待通りに機能することを確認する方法です。精度、動作、エッジケースのチェックが含まれるため、顧客やチームがAIを使い始めたときに驚くことはありません。
タクソノミー(分類法)とは、よく整理されたカテゴリのリストのことである。これは、AIが顧客の問題の種類、製品カテゴリー、または部署など、意味のある方法で物事を整理するのに役立ちます。
転移学習とは、AIがあるタスクから学んだことを別のタスクに利用することだ。これは知識を再利用するようなもので、時間と労力を節約し、モデルをより賢く、より速くする。
毒性とは、AIが有害、不快、不適切なことを言うことだ。必ずしも意図的ではなく、見たことのあるパターンを繰り返しているだけだ。そのため、フィルターやセーフガードを使用して、有害な発言がレスポンスに表示されないようにします。
非構造化データとは、電子メール、チャットログ、PDF、画像、音声ファイルなど、決まったフォーマットに従わない情報のこと。AIシステムは、意味、文脈、意図を抽出することで、その意味を理解するように設計されている。
教師なし学習とは、AIがラベルのないデータで学習することである。パターンやクラスター、関係性を自ら発見して学習するため、手動で設定することなくデータを整理したり、隠れた洞察を発見したりするのに役立つ。
ベクトル検索は、キーワードだけでなく、意味に基づいて情報を見つける。エンベッディング」と呼ばれるコンテンツの数値表現を比較し、ユーザーの言葉が文書と完全に一致しない場合でも、最も関連性の高い結果を返します。
ベクトル・データベースは、これらの埋め込みが保存され、検索される場所である。テキストを直接マッチングさせるのではなく、異なるコンテンツの背後にあるアイデアがどれだけ似ているかを比較することで、特にオープンエンドのクエリに対して、より正確な検索を可能にする。
ゼロショット学習は、AIが指示を理解するだけで、明示的に訓練されていないタスクを処理できるようにする。これは、モデルにプロンプトを与え、例や再トレーニングを必要とせずに物事を理解させるようなものだ。