アクセスレベル
コアモデル
このモデルは、Box AIに組み込まれており、デフォルトですべてのお客様が利用できます。構成は必要ありません。顧客希望で有効化できるモデル
このモデルは、Box管理者が管理コンソールで有効にするか、Boxに有効にするようリクエストする必要があります。一部のモデルは、追加の条件や料金の対象になる場合があります。機能レベル
標準モデル
基本的な要約、Q&A、短いまたはシンプルなドキュメントからの構造化データの抽出など、高速でコスト効率のよいタスク向けに設計されており、大量のあまり複雑でないユースケースに最適です。プレミアムモデル
より高度な推論、大きなコンテキストウィンドウ、長いコンテンツ、複雑なコンテンツ、またはドメイン固有のコンテンツに対する優れたパフォーマンスを提供します。マルチステップ推論、大規模なメタデータ階層の理解、長いドキュメントや非構造化ドキュメントの分析などの高度なタスクに適しています。モデルは、顧客希望で有効化できるモデルかつプレミアムモデルにすることも、コアモデルかつ標準モデルにすることもできます。つまり、アクセルレベルと機能レベルは、それぞれ独立した分類です (たとえば、モデルは、アクセスレベルに関係なくどちらの機能レベルにもなる可能性があります)。この2つの分類は相互に補完します。
モデルの使用
サポートされているAIモデルの使用方法を以下に示します。- AIエージェントのデフォルト構成を取得する
POST 2.0/ai/ask、POST 2.0/ai/text_gen、POST 2.0/ai/extract、POST 2.0/ai/extract_structuredの各エンドポイントで使用されるAIエージェントの構成を上書きする
modelパラメータを使用する際は、各タイルおよびモデルカードに表示されているAPI名を使用します。
たとえば、特定のモデルのAIエージェントの構成を取得するには、modelパラメータを使用して、API名azure__openai__gpt_4o_miniを指定します。プロバイダ名の後に2つのアンダースコアを使用していることを確認してください。
このリストはモデルの提供状況により変更される可能性があります。ベータモードで提供されているモデルはパフォーマンスが大規模にテストされておらず、現状のままでの利用となるため、モデル/出力の品質、可用性、精度にはばらつきがある可能性があります。
Box AIのコアモデル
Box AIには以下のモデルが搭載されています。Box AIと統合されているこれらのモデルは、エンタープライズグレードの標準に準拠しながら、さまざまなユースケースを支援します。各モデルの機能、対象のアプリケーション、利用に関して該当するガイドラインなどの情報については、以下をご確認ください。openai__gpt_5_1
エンタープライズグレードのパフォーマンスと適応的推論を備えたマルチモーダルモデル。
openai__gpt_5_1
エンタープライズグレードのパフォーマンスと適応的推論を備えたマルチモーダルモデル。
openai__gpt_5
高度な推論機能と長いコンテキストの理解を備えたマルチモーダルモデル。
openai__gpt_5_mini
明確に定義されたタスクや正確なプロンプト向けに設計されたモデル。
azure__openai__gpt_4_1
複雑なマルチステップタスクの処理で非常に効率的なマルチモーダルモデル。
azure__openai__gpt_4_1_mini
軽量のタスクを処理するように設計されたマルチモーダルモデル。
azure__openai__gpt_4o
複雑なマルチステップタスクの処理で非常に効率的なマルチモーダルモデル。
azure__openai__gpt_4o_mini
軽量のタスクを処理するように設計されたマルチモーダルモデル。
azure__openai__text_embedding_ada_002
最も優れた第2世代のテキスト埋め込みモデル。テキスト検索、コード検索、文の類似性判定に優れています。
google__gemini_2_5_pro
100万トークンのコンテキストウィンドウと高度な推論機能が備わっている、Geminiマルチモーダルモデル。
google__gemini_2_5_flash
思考機能などの豊富な機能が備わっている、Geminiマルチモーダルモデル。
google__gemini_2_0_flash_001
大規模で大量かつ高頻度のタスクに最適になるよう設計されたGeminiマルチモーダルモデル。
google__gemini_2_0_flash_lite_preview
軽量のタスクを処理するように設計されたGeminiマルチモーダルモデル。
aws__claude_4_5_sonnet
複雑なエージェント、コーディング、自律的なマルチステップワークフローに優れているモデル。
aws__claude_4_5_haiku
ほぼ最先端のインテリジェンスを備えた高速モデル。
aws__claude_4_sonnet
日常的なユースケースに最先端のパフォーマンスをもたらすモデル。
aws__claude_4_opus
コーディングや複雑な問題解決に優れており、最先端のエージェント製品を支えるモデル。
aws__claude_3_7_sonnet
言語の理解と生成のタスクを強化するよう設計されたモデル
aws__claude_3_5_sonnet
言語の理解と生成のタスクを強化するよう設計されたモデル。
aws__claude_3_sonnet
高度な言語タスク向けに設計されており、理解とコンテキスト処理に重点が置かれているモデル。
aws__claude_3_haiku
創造性豊かな文章作成AIや会話AIなど、さまざまな言語タスク向けにカスタマイズされたモデル。
aws__titan_text_lite
高度な言語処理が可能なモデル。幅広いコンテキストを処理できるため、複雑なタスクに適しています。
ibm__llama_4_maverick
リソース使用の最適化のために混合専門家アーキテクチャを使用する、ネイティブのマルチモーダルモデル。
ibm__llama_4_scout
テキストとマルチモーダルのエクスペリエンスを可能にする、ネイティブのマルチモーダルAIモデル。
ibm__llama_3_2_90b_vision_instruct
ドキュメントレベルの理解、図表やグラフの解釈、画像の見出し作成向けに構築されたモデルです。
ibm__mistral_medium_2505
コーディングや高度な推論に対応した、高性能のエンタープライズモデル。
ibm__mistral_small_3_1_24b_instruct_2503
低レイテンシで処理の速いオープンソースのマルチモーダルモデル。
