このページは、まだ日本語ではご利用いただけません。翻訳中です。
構成
このプラグインはDBレスモードに対応しています。
互換性のあるプロトコル
AI Proxyプラグインは以下のプロトコルに対応しています:
grpc
, grpcs
, http
, https
パラメータ
このプラグインの設定で使用できるすべてのパラメータのリストは次のとおりです。
-
string required
プラグイン名。この場合は
ai-proxy
。- Kong Admin API、Kong Konnect API、宣言型構成、または decK ファイルを使用する場合、フィールドは
name
です。 - Kubernetes で KongPlugin オブジェクトを使用する場合、フィールドは
plugin
です。
- Kong Admin API、Kong Konnect API、宣言型構成、または decK ファイルを使用する場合、フィールドは
-
string
プラグインのインスタンスを識別するための任意のカスタム名 (例:
ai-proxy_my-service
。インスタンス名はKong ManagerとKonnectに表示されるので、 例えば複数のサービスで同じプラグインを複数のコンテキストで実行する場合に便利です。また、Kong Admin API経由で特定のプラグインインスタンスに アクセスするためにも使用できます。
インスタンス名は、次のコンテキスト内で一意である必要があります。
- Kong Gateway Enterpriseのワークスペース内
- Konnectのコントロールプレーン(CP)またはコントロールプレーン(CP)グループ内
- Kong Gateway (OSS)の全世界
-
string
プラグインが対象とするサービス名または ID。最上位の
/plugins
エンドポイント. からプラグインをサービスに追加する場合は、これらのパラメータのいずれかを設定してください/services/{serviceName|Id}/plugins
を使用する場合は必要ありません。 -
string
プラグインがターゲットとするルート名または ID。最上位の
/plugins
エンドポイント. を通るルートにプラグインを追加する場合は、これらのパラメータのいずれかを設定してください/routes/{routeName|Id}/plugins
を使用する場合は必要ありません。 -
string
プラグインがターゲットとするコンシューマーの名前または ID。 最上位の
/plugins
エンドポイント. からコンシューマーにプラグインを追加する場合は、これらのパラメーターのいずれかを設定してください/consumers/{consumerName|Id}/plugins
を使用する場合は必要ありません。 -
string
プラグインが対象とするコンシューマグループの名前または ID。 設定されている場合、プラグインは指定されたグループが認証されているリクエストに対してのみアクティブになります
/plugins
エンドポイント./consumer_groups/{consumerGroupName|Id}/plugins
を使用する場合は必要ありません。 -
boolean default:
true
このプラグインが適用されるかどうか。
-
record required
-
string required Must be one of:
llm/v1/chat
,llm/v1/completions
,preserve
The model’s operation implementation, for this provider. Set to
preserve
to pass through without transformation.
-
record
-
string referenceable
If AI model requires authentication via Authorization or API key header, specify its name here.
-
string referenceable encrypted
Specify the full auth header value for ‘header_name’, for example ‘Bearer key’ or just ‘key’.
-
string referenceable
If AI model requires authentication via query parameter, specify its name here.
-
string referenceable encrypted
Specify the full parameter value for ‘param_name’.
-
string Must be one of:
query
,body
Specify whether the ‘param_name’ and ‘param_value’ options go in a query string, or the POST form/JSON body.
-
boolean default:
false
Set true to use the Azure Cloud Managed Identity (or user-assigned identity) to authenticate with Azure-provider models.
-
string referenceable
If azure_use_managed_identity is set to true, and you need to use a different user-assigned identity for this LLM instance, set the client ID.
-
string referenceable encrypted
If azure_use_managed_identity is set to true, and you need to use a different user-assigned identity for this LLM instance, set the client secret.
-
string referenceable
If azure_use_managed_identity is set to true, and you need to use a different user-assigned identity for this LLM instance, set the tenant ID.
-
boolean default:
false
Use service account auth for GCP-based providers and models.
-
string referenceable encrypted
Set this field to the full JSON of the GCP service account to authenticate, if required. If null (and gcp_use_service_account is true), Kong will attempt to read from environment variable
GCP_SERVICE_ACCOUNT
.
-
string referenceable encrypted
Set this if you are using an AWS provider (Bedrock) and you are authenticating using static IAM User credentials. Setting this will override the AWS_ACCESS_KEY_ID environment variable for this plugin instance.
-
string referenceable encrypted
Set this if you are using an AWS provider (Bedrock) and you are authenticating using static IAM User credentials. Setting this will override the AWS_SECRET_ACCESS_KEY environment variable for this plugin instance.
-
boolean default:
false
If enabled, the authorization header or parameter can be overridden in the request by the value configured in the plugin.
-
-
record required
-
string required Must be one of:
openai
,azure
,anthropic
,cohere
,mistral
,llama2
,gemini
,bedrock
,huggingface
AI provider request format - Kong translates requests to and from the specified backend compatible formats.
-
string
Model name to execute.
-
record
Key/value settings for the model
-
integer default:
256
Defines the max_tokens, if using chat or completion models.
-
number
Defines the cost per 1M tokens in your prompt.
-
number
Defines the cost per 1M tokens in the output of the AI.
-
number between:
0
5
Defines the matching temperature, if using chat or completion models.
-
number between:
0
1
Defines the top-p probability mass, if supported.
-
integer between:
0
500
Defines the top-k most likely tokens, if supported.
-
string
Defines the schema/API version, if using Anthropic provider.
-
string
Instance name for Azure OpenAI hosted models.
-
string default:
2023-05-15
‘api-version’ for Azure OpenAI instances.
-
string
Deployment ID for Azure OpenAI instances.
-
string Must be one of:
raw
,openai
,ollama
If using llama2 provider, select the upstream message format.
-
string Must be one of:
openai
,ollama
If using mistral provider, select the upstream message format.
-
string
Manually specify or override the full URL to the AI operation endpoints, when calling (self-)hosted models, or for running via a private endpoint.
-
string
Manually specify or override the AI operation path, used when e.g. using the ‘preserve’ route_type.
-
record
-
record
-
record
-
-
-
record required
-
string default:
allow
Must be one of:allow
,deny
,always
Whether to ‘optionally allow’, ‘deny’, or ‘always’ (force) the streaming of answers via server sent events.
-
integer default:
8192
max allowed body size allowed to be introspected
-
boolean default:
true
Display the model name selected in the X-Kong-LLM-Model response header
-