このページは、まだ日本語ではご利用いただけません。翻訳中です。
基本構成例
以下の例では、ai-request-transformer
プラグインをserviceで有効にするための一般的な設定をご紹介します。
次のリクエストを行います。
curl -X POST http://localhost:8001/services/{serviceName|Id}/plugins \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--data '
{
"name": "ai-request-transformer",
"config": {
"prompt": "Mask any credit card numbers in my JSON message. Reply with only the JSON result.",
"transformation_extract_pattern": "\\\\{((.|\\n)*)\\\\}",
"llm": {
"route_type": "llm/v1/chat",
"auth": {
"header_name": "Authorization",
"header_value": "Bearer <OPENAI_API_TOKEN>"
},
"logging": {
"log_statistics": true,
"log_payloads": false
},
"model": {
"provider": "openai",
"name": "gpt-4",
"options": {
"max_tokens": 1024,
"temperature": 1.0
}
}
}
}
}
'
SERVICE_NAME | IDを、このプラグイン構成の対象となるサービスの idまたはnameに置き換えてください。 |
独自のアクセストークン、リージョン、コントロールプレーンID、サービスIDを代入して、次のリクエストを行ってください。
curl -X POST \
https://{us|eu}.api.konghq.com/v2/control-planes/{controlPlaneId}/core-entities/services/{serviceId}/plugins \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--header "Authorization: Bearer TOKEN" \
--data '{"name":"ai-request-transformer","config":{"prompt":"Mask any credit card numbers in my JSON message. Reply with only the JSON result.","transformation_extract_pattern":"\\\\{((.|\\n)*)\\\\}","llm":{"route_type":"llm/v1/chat","auth":{"header_name":"Authorization","header_value":"Bearer <OPENAI_API_TOKEN>"},"logging":{"log_statistics":true,"log_payloads":false},"model":{"provider":"openai","name":"gpt-4","options":{"max_tokens":1024,"temperature":1.0}}}}}'
地域固有のURLと個人アクセストークンの詳細については、 Konnect API referenceをご参照ください。
まず、KongPlugin リソースを作成します:
echo "
apiVersion: configuration.konghq.com/v1
kind: KongPlugin
metadata:
name: ai-request-transformer-example
plugin: ai-request-transformer
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
" | kubectl apply -f -
次に、次のようにserviceに注釈を付けて、KongPluginリソースをイングレスに適用します。
kubectl annotate service SERVICE_NAME konghq.com/plugins=ai-request-transformer-example
SERVICE_NAMEを、このプラグイン構成が対象とするサービスの名前に置き換えます。 kubectl get serviceを実行すると、利用可能なイングレスを確認できます。
注: KongPluginリソースは一度だけ定義するだけで、ネームスペース内の任意のサービス、コンシューマー、またはルートに適用できます。プラグインをクラスター全体で利用可能にしたい場合は、KongPlugin
の代わりにKongClusterPlugin
としてリソースを作成してください。
このセクションを宣言型構成ファイルに追加します。
plugins:
- name: ai-request-transformer
service: SERVICE_NAME|ID
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
SERVICE_NAME | IDを、このプラグイン構成の対象となるサービスの idまたはnameに置き換えてください。 |
前提条件: パーソナルアクセストークンの設定
terraform {
required_providers {
konnect = {
source = "kong/konnect"
}
}
}
provider "konnect" {
personal_access_token = "kpat_YOUR_TOKEN"
server_url = "https://us.api.konghq.com/"
}
Kong Konnectゲートウェイプラグインを作成するには、Terraform 構成に以下を追加します。
resource "konnect_gateway_plugin_ai_request_transformer" "my_ai_request_transformer" {
enabled = true
config = {
prompt = "Mask any credit card numbers in my JSON message. Reply with only the JSON result."
transformation_extract_pattern = "\\{((.|\n)*)\\}"
llm = {
route_type = "llm/v1/chat"
auth = {
header_name = "Authorization"
header_value = "Bearer <OPENAI_API_TOKEN>"
}
logging = {
log_statistics = true
log_payloads = false
}
model = {
provider = "openai"
name = "gpt-4"
options = {
max_tokens = 1024
temperature = 1.0
}
}
}
}
control_plane_id = konnect_gateway_control_plane.my_konnect_cp.id
service = {
id = konnect_gateway_service.my_service.id
}
}
以下の例では、ai-request-transformer
プラグインをrouteで有効にするための一般的な設定をご紹介します。
次のリクエストを行います。
curl -X POST http://localhost:8001/routes/{routeName|Id}/plugins \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--data '
{
"name": "ai-request-transformer",
"config": {
"prompt": "Mask any credit card numbers in my JSON message. Reply with only the JSON result.",
"transformation_extract_pattern": "\\\\{((.|\\n)*)\\\\}",
"llm": {
"route_type": "llm/v1/chat",
"auth": {
"header_name": "Authorization",
"header_value": "Bearer <OPENAI_API_TOKEN>"
},
"logging": {
"log_statistics": true,
"log_payloads": false
},
"model": {
"provider": "openai",
"name": "gpt-4",
"options": {
"max_tokens": 1024,
"temperature": 1.0
}
}
}
}
}
'
ROUTE_NAME | IDを、このプラグイン構成が対象とするルートのid またはnameに置き換えてください。 |
独自のアクセストークン、リージョン、コントロールプレーン(CP)ID、ルートIDを代入して、次のリクエストをしてください。
curl -X POST \
https://{us|eu}.api.konghq.com/v2/control-planes/{controlPlaneId}/core-entities/routes/{routeId}/plugins \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--header "Authorization: Bearer TOKEN" \
--data '{"name":"ai-request-transformer","config":{"prompt":"Mask any credit card numbers in my JSON message. Reply with only the JSON result.","transformation_extract_pattern":"\\\\{((.|\\n)*)\\\\}","llm":{"route_type":"llm/v1/chat","auth":{"header_name":"Authorization","header_value":"Bearer <OPENAI_API_TOKEN>"},"logging":{"log_statistics":true,"log_payloads":false},"model":{"provider":"openai","name":"gpt-4","options":{"max_tokens":1024,"temperature":1.0}}}}}'
地域固有のURLと個人アクセストークンの詳細については、 Konnect API referenceをご参照ください。
まず、KongPlugin リソースを作成します:
echo "
apiVersion: configuration.konghq.com/v1
kind: KongPlugin
metadata:
name: ai-request-transformer-example
plugin: ai-request-transformer
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
" | kubectl apply -f -
次に、次のようにingressに注釈を付けて、KongPluginリソースをイングレスに適用します。
kubectl annotate ingress INGRESS_NAME konghq.com/plugins=ai-request-transformer-example
INGRESS_NAMEを、このプラグイン構成がターゲットとするイングレス名に置き換えます。 kubectl get ingressを実行すると、利用可能なイングレスを確認できます。
注: KongPluginリソースは一度だけ定義するだけで、ネームスペース内の任意のサービス、コンシューマー、またはルートに適用できます。プラグインをクラスター全体で利用可能にしたい場合は、KongPlugin
の代わりにKongClusterPlugin
としてリソースを作成してください。
このセクションを宣言型構成ファイルに追加します。
plugins:
- name: ai-request-transformer
route: ROUTE_NAME|ID
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
ROUTE_NAME | IDを、このプラグイン構成が対象とするルートのid またはnameに置き換えてください。 |
前提条件: パーソナルアクセストークンの設定
terraform {
required_providers {
konnect = {
source = "kong/konnect"
}
}
}
provider "konnect" {
personal_access_token = "kpat_YOUR_TOKEN"
server_url = "https://us.api.konghq.com/"
}
Kong Konnectゲートウェイプラグインを作成するには、Terraform 構成に以下を追加します。
resource "konnect_gateway_plugin_ai_request_transformer" "my_ai_request_transformer" {
enabled = true
config = {
prompt = "Mask any credit card numbers in my JSON message. Reply with only the JSON result."
transformation_extract_pattern = "\\{((.|\n)*)\\}"
llm = {
route_type = "llm/v1/chat"
auth = {
header_name = "Authorization"
header_value = "Bearer <OPENAI_API_TOKEN>"
}
logging = {
log_statistics = true
log_payloads = false
}
model = {
provider = "openai"
name = "gpt-4"
options = {
max_tokens = 1024
temperature = 1.0
}
}
}
}
control_plane_id = konnect_gateway_control_plane.my_konnect_cp.id
route = {
id = konnect_gateway_route.my_route.id
}
}
以下の例では、ai-request-transformer
プラグインをconsumer groupで有効にするための一般的な設定をご紹介します。
次のリクエストを行います。
curl -X POST http://localhost:8001/consumer_groups/{consumerGroupName|Id}/plugins \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--data '
{
"name": "ai-request-transformer",
"config": {
"prompt": "Mask any credit card numbers in my JSON message. Reply with only the JSON result.",
"transformation_extract_pattern": "\\\\{((.|\\n)*)\\\\}",
"llm": {
"route_type": "llm/v1/chat",
"auth": {
"header_name": "Authorization",
"header_value": "Bearer <OPENAI_API_TOKEN>"
},
"logging": {
"log_statistics": true,
"log_payloads": false
},
"model": {
"provider": "openai",
"name": "gpt-4",
"options": {
"max_tokens": 1024,
"temperature": 1.0
}
}
}
}
}
'
CONSUMER_GROUP_NAME | IDを、このプラグイン構成の対象となるコンシューマグループのidまたはnameに置き換えてください。 |
独自のアクセストークン、リージョン、コントロールプレーンID、コンシューマーグループIDを代入して、次のリクエストをします:
curl -X POST \
https://{us|eu}.api.konghq.com/v2/control-planes/{controlPlaneId}/core-entities/consumer_groups/{consumerGroupId}/plugins \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--header "Authorization: Bearer TOKEN" \
--data '{"name":"ai-request-transformer","config":{"prompt":"Mask any credit card numbers in my JSON message. Reply with only the JSON result.","transformation_extract_pattern":"\\\\{((.|\\n)*)\\\\}","llm":{"route_type":"llm/v1/chat","auth":{"header_name":"Authorization","header_value":"Bearer <OPENAI_API_TOKEN>"},"logging":{"log_statistics":true,"log_payloads":false},"model":{"provider":"openai","name":"gpt-4","options":{"max_tokens":1024,"temperature":1.0}}}}}'
地域固有のURLと個人アクセストークンの詳細については、 Konnect API referenceをご参照ください。
まず、KongPlugin リソースを作成します:
echo "
apiVersion: configuration.konghq.com/v1
kind: KongPlugin
metadata:
name: ai-request-transformer-example
plugin: ai-request-transformer
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
" | kubectl apply -f -
次に、次のようにKongConsumerGroupオブジェクトに注釈を付けて、KongPluginリソースをイングレスに適用します。
kubectl annotate KongConsumerGroup CONSUMER_GROUP_NAME konghq.com/plugins=ai-request-transformer-example
CONSUMER_GROUP_NAMEを、このプラグイン構成が対象とするコンシューマグループの名前に置き換えます。 kubectl get KongConsumerGroupを実行すると、利用可能なコンシューマグループを確認できます。
注: KongPluginリソースは一度だけ定義する必要があり、 名前空間内の任意のサービス、コンシューマ、コンシューマグループ、またはルートに適用できます。プラグインをクラスタ全体で利用できるようにする場合は、KongPlugin
の代わりにKongClusterPlugin
リソースを作成します。
このセクションを宣言型構成ファイルに追加します。
plugins:
- name: ai-request-transformer
consumer_group: CONSUMER_GROUP_NAME|ID
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
CONSUMER_GROUP_NAME | IDを、このプラグイン構成の対象となるコンシューマグループのidまたはnameに置き換えてください。 |
前提条件: パーソナルアクセストークンの設定
terraform {
required_providers {
konnect = {
source = "kong/konnect"
}
}
}
provider "konnect" {
personal_access_token = "kpat_YOUR_TOKEN"
server_url = "https://us.api.konghq.com/"
}
Kong Konnectゲートウェイプラグインを作成するには、Terraform 構成に以下を追加します。
resource "konnect_gateway_plugin_ai_request_transformer" "my_ai_request_transformer" {
enabled = true
config = {
prompt = "Mask any credit card numbers in my JSON message. Reply with only the JSON result."
transformation_extract_pattern = "\\{((.|\n)*)\\}"
llm = {
route_type = "llm/v1/chat"
auth = {
header_name = "Authorization"
header_value = "Bearer <OPENAI_API_TOKEN>"
}
logging = {
log_statistics = true
log_payloads = false
}
model = {
provider = "openai"
name = "gpt-4"
options = {
max_tokens = 1024
temperature = 1.0
}
}
}
}
control_plane_id = konnect_gateway_control_plane.my_konnect_cp.id
consumer_group = {
id = konnect_gateway_consumer_group.my_consumer_group.id
}
}
どのサービス、ルート、コンシューマー、コンシューマーグループにも関連しないプラグインは_global_とみなされ、 すべてのリクエストで実行されます。
- 自己管理型のKong Gateway Enterpriseでは、プラグインは特定のワークスペース内のすべてのエンティティに適用されます。
- セルフマネージドKong Gateway (OSS)では、プラグインは環境全体に適用されます。
- Konnectでは、プラグインは特定のコントロールプレーン(CP)内のすべてのエンティティに適用されます。
詳しくはプラグインリファレンスとプラグインの優先順位の セクションをご覧ください。
以下の例では、AI Request Transformer
プラグインをグローバルに有効にするための典型的な設定をいくつかご紹介します。
次のリクエストを行います。
curl -X POST http://localhost:8001/plugins/ \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--data '
{
"name": "ai-request-transformer",
"config": {
"prompt": "Mask any credit card numbers in my JSON message. Reply with only the JSON result.",
"transformation_extract_pattern": "\\\\{((.|\\n)*)\\\\}",
"llm": {
"route_type": "llm/v1/chat",
"auth": {
"header_name": "Authorization",
"header_value": "Bearer <OPENAI_API_TOKEN>"
},
"logging": {
"log_statistics": true,
"log_payloads": false
},
"model": {
"provider": "openai",
"name": "gpt-4",
"options": {
"max_tokens": 1024,
"temperature": 1.0
}
}
}
}
}
'
独自のアクセストークン、リージョン、コントロールプレーン(CP)IDを代入して、次のリクエストをしてください。
curl -X POST \
https://{us|eu}.api.konghq.com/v2/control-planes/{controlPlaneId}/core-entities/plugins/ \
--header "accept: application/json" \
--header "Content-Type: application/json" \
--header "Authorization: Bearer TOKEN" \
--data '{"name":"ai-request-transformer","config":{"prompt":"Mask any credit card numbers in my JSON message. Reply with only the JSON result.","transformation_extract_pattern":"\\\\{((.|\\n)*)\\\\}","llm":{"route_type":"llm/v1/chat","auth":{"header_name":"Authorization","header_value":"Bearer <OPENAI_API_TOKEN>"},"logging":{"log_statistics":true,"log_payloads":false},"model":{"provider":"openai","name":"gpt-4","options":{"max_tokens":1024,"temperature":1.0}}}}}'
地域固有のURLと個人アクセストークンの詳細については、 Konnect API referenceをご参照ください。
KongClusterPlugin作成する リソースを作成し、グローバルとしてラベル付けします。
apiVersion: configuration.konghq.com/v1
kind: KongClusterPlugin
metadata:
name: <global-ai-request-transformer>
annotations:
kubernetes.io/ingress.class: kong
labels:
global: "true"
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
plugin: ai-request-transformer
宣言型構成ファイルにplugins
エントリを追加します。
plugins:
- name: ai-request-transformer
config:
prompt: Mask any credit card numbers in my JSON message. Reply with only the JSON
result.
transformation_extract_pattern: "\\\\{((.|\\n)*)\\\\}"
llm:
route_type: llm/v1/chat
auth:
header_name: Authorization
header_value: Bearer <OPENAI_API_TOKEN>
logging:
log_statistics: true
log_payloads: false
model:
provider: openai
name: gpt-4
options:
max_tokens: 1024
temperature: 1.0
前提条件: パーソナルアクセストークンの設定
terraform {
required_providers {
konnect = {
source = "kong/konnect"
}
}
}
provider "konnect" {
personal_access_token = "kpat_YOUR_TOKEN"
server_url = "https://us.api.konghq.com/"
}
Kong Konnectゲートウェイプラグインを作成するには、Terraform 構成に以下を追加します。
resource "konnect_gateway_plugin_ai_request_transformer" "my_ai_request_transformer" {
enabled = true
config = {
prompt = "Mask any credit card numbers in my JSON message. Reply with only the JSON result."
transformation_extract_pattern = "\\{((.|\n)*)\\}"
llm = {
route_type = "llm/v1/chat"
auth = {
header_name = "Authorization"
header_value = "Bearer <OPENAI_API_TOKEN>"
}
logging = {
log_statistics = true
log_payloads = false
}
model = {
provider = "openai"
name = "gpt-4"
options = {
max_tokens = 1024
temperature = 1.0
}
}
}
}
control_plane_id = konnect_gateway_control_plane.my_konnect_cp.id
}