CData Cloud は、クラウドホスト型のソリューションで、複数の標準サービスやプロトコルにまたがるElasticsearch へのアクセスを実現します。SQL Server データベースに接続できるアプリケーションであれば、CData Cloud を介してElasticsearch に接続できます。
CData Cloud により、他のOData エンドポイントや標準SQL Server と同じように、Elasticsearch への接続を標準化し、構成することができます。
このページでは、CData Cloud でのElasticsearch への接続の確立 のガイド、利用可能なリソースに関する情報、および使用可能な接続プロパティのリファレンスについて説明します。
接続の確立 は、CData Cloud にデータベースを作成するためのElasticsearch への認証方法と必要な接続プロパティの設定方法について示します。
利用可能な標準サービスを経由してElasticsearch からデータにアクセスする方法と、CData Cloud の管理については、CData Cloud ドキュメント で詳しく説明します。
Database タブで対応するアイコンを選択して、Elasticsearch に接続します。必須プロパティはSettings にリストされています。Advanced タブには、通常は必要ない接続プロパティが表示されます。
データに接続するには以下を設定します。
Server=01.02.03.04
OR
Server=01.01.01.01:1234,02.02.02.02:5678
Cloud は、認証とTLS/SSL 暗号化にX-Pack Security を使用しています。サーバーの値の前に"https://" を付けると、TLS/SSL で接続できます。
データに接続するには以下を設定します。
Cloud は、認証とTLS/SSL 暗号化にX-Pack Security を使用しています。
Note: リクエストはAWS 署名バージョン 4 を使用して署名されています。
AuthScheme をBasic に設定し、User とPassword プロパティを設定して、オプションでPKI(公開鍵暗号基盤)を使用して認証します。Cloud が接続されると、X-Pack では、設定したレルムをベースにユーザー認証およびロールの許可が実施されます。
PKI を使用するには、SSLClientCert、SSLClientCertType、SSLClientCertSubject、およびSSLClientCertPassword プロパティを設定します。
Note: PKI を使用するためには、TLS/SSL およびクライアント認証はX-Pack 上で有効化されていなければなりません。
Cloud においてTLS/SSL を有効化するには、UseSSL をtrue に設定します。
アカウントのルートクレデンシャルで認証するには、次のパラメータを設定します。
Note:Amazon は、単純なテスト以外にはこの認証スキームの使用を推奨していません。アカウントのルート認証情報はユーザーの完全な権限を持つため、これが最も安全性の低い認証方法になります。
多要素認証が必要な場合は、以下を指定します。
Note: 一時的な認証情報の有効期間(デフォルトは3600秒)を制御するには、TemporaryTokenDuration プロパティを設定します。
一時クレデンシャルで認証するには、次を設定します。
Cloud は、一時クレデンシャルの有効期間中、長期的な認証情報(IAM ユーザー認証情報など)によって提供されるものと同じ権限を使用してリソースをリクエストできるようになりました。
一時クレデンシャルおよびIAM ロールの両方を使用して認証するには、上記のすべてのパラメータを設定し、さらに以下のパラメータを指定します。
多要素認証が必要な場合は、以下を指定します。
Note: 一時的な認証情報の有効期間(デフォルトは3600秒)を制御するには、TemporaryTokenDuration プロパティを設定します。
AuthScheme をAwsEC2Roles に設定します。
EC2 インスタンスからCloud を使用していて、そのインスタンスにIAM ロールが割り当てられている場合は、 認証にIAM ロールを使用できます。Cloud は自動的にIAM ロールの認証情報を取得し、それらを使って認証するため、AWSAccessKey およびAWSSecretKey を指定する必要はありません。
認証にIAM ロールも使用している場合は、さらに以下を指定する必要があります。
Elasticsearch Cloud は、IMDSv2 をサポートしています。IMDSv1 とは異なり、新バージョンでは認証トークンが必須です。エンドポイントおよびレスポンスは、両バージョンで同じです。
IMDSv2 では、Elasticsearch Cloud はまずIMDSv2 メタデータトークンの取得を試み、それを使用してAWS メタデータエンドポイントを呼び出します。トークンを取得できない場合、Cloud はIMDSv1 を使用します。
この認証方法はOpensearch Service でのみ可能であり、Elasticsearch では利用できないことに注意してください。
AWS ロールとして認証するには、次のプロパティを設定します。
多要素認証が必要な場合は、以下を指定します。
Note: 一時的な認証情報の有効期間(デフォルトは3600秒)を制御するには、TemporaryTokenDuration プロパティを設定します。
Note:状況によっては、AWS ルートユーザーのダイレクトなセキュリティ認証情報よりも、IAM ロールを使用して認証する方が望ましい場合があります。AWS ルートユーザーのAWSAccessKey およびAWSSecretKey を指定している場合、ロールは使用できません。
Kerberos で認証する方法についての詳細は、Kerberos の使用 を参照してください。
APIKey を使用して認証するには、次を設定します。
次のプロパティを使って、Elasticsearch API 機能およびCloud のストラテジーをさらに制御できます。
Multiple indices can be queried by executing a query using one of the following formats:
Query all indices via the _all view: SELECT * FROM [_all]
Query a list of indices: SELECT * FROM [index1,index2,index3]
Query indices matching a wildcard pattern: SELECT * FROM [index*]
Note, index lists can contain wildcards and indices can be excluded by prefixing an index with '-'. For example: SELECT * FROM [index*,-index3]
If you are using the Scroll API, set ScrollDuration instead.
Elasticsearch はdocument-oriented なデータベースで、高パフォーマンスな検索、フレキシビリティ、およびスケーラビリティを提供します。これらの機能は、必ずしもSQL-92 のような標準準拠のクエリ言語と互換しないわけではありません。 このセクションでは、Cloud が複数のやり方によって、リレーショナルSQL とデータベースのギャップの橋渡しをいかに行うかを説明します。
Cloud では、Elasticsearch オブジェクトをリレーショナルテーブルにモデル化し、SQL クエリをElasticsearch クエリに読み替えることで、要求されたデータを取得します。 スキーマ生成のためにElasticsearch オブジェクトがどのようにテーブルにマッピングされているかについての詳細は、スキーママッピング を参照してください。 Elasticsearch のさまざまな処理がSQL で表される方法についての詳細は、クエリマッピング を参照してください。
自動スキーマ検出 スキーマは、Elasticsearch タイプのマッピングを取得することにより自動的にデータ型を検出します。Elasticsearch コレクションのリレーショナル表現をコントロールするためにRowScanDepth、FlattenArrays、およびFlattenObjects を使うことができます。
CData Cloud はElasticsearch REST API を、標準SQL でアクセス可能なリレーショナルテーブルおよびストアドプロシージャとしてモデル化します。これにより、標準ベースのツールからのアクセスが可能になります。
テーブル定義は動的に取得されます。接続すると、Cloud はElasticsearch に接続し、スキーマ、テーブルのリストおよびテーブルのメタデータをElasticsearch REST サーバーをクエリすることで取得します。 リモートデータへのあらゆる変更はクエリに即時に反映されます。
次のテーブルはElasticsearch コンセプトをリレーショナルなものにマップします。
Elasticsearch バージョン6以上:
| Elasticsearch Concept | SQL Concept |
| Index | Table |
| Alias | View |
| Document | Row (それぞれのドキュメントは行、ドキュメントのJSON 構造はカラムとして表示されます) |
| Field | Column |
Note:Starting in Elasticsearch 6, indices are limited to a single type.Therefore the type is no longer treated as a table, since an index and type have a one-to-one relation. Types are hidden and used internally where necessary to issue the proper request to Elasticsearch.
Elasticsearch バージョン6より前:
| Elasticsearch Concept | SQL Concept |
| Index | Schema |
| Type | Table |
| Alias | View |
| Document | Row (それぞれのドキュメントは行、ドキュメントのJSON 構造はカラムとして表示されます) |
| Field | Column |
Elasticsearch contains the ability to establish parent-child relationships. This relationship maps closely to SQL JOIN functionality. The Cloud models these parent-child relationships in a way to enable the ability to perform JOIN queries.
Elasticsearch Versions 6 and Above:
In version 6 and above of Elasticsearch, relationships are established by using the join datatype. Included in this functionality is the ability to define multiple children for a single parent and to create multiple levels of relations.
The Cloud supports all of these relationships and will generate a separate table for each relation in Elasticsearch. The table name will be in the form: [index]_[relation].
All child tables will have an additional column containing the parent table id. The column name will be in the form: _[parent_table]_id. This column is a foreign key to the _id column of the parent table and can be used to perform SQL JOIN queries.
When querying these tables individually, filtering logic is pushed to the server to improve performance by only returning the data relevant to the table selected.
Elasticsearch Versions Prior to Version 6:
In versions prior to 6, a relationship is established between two types via a _parent field. This creates a single parent-child relationship.
The tables identified in this parent-child relationship do not change (they are still based on the Elasticsearch type). However the child table will have an additional column containing the parent id. The column name will be in the form: _[parent_table]_id. This column is a foreign key to the _id column of the parent table and can be used to perform SQL JOIN queries.
この章で使用されている生データを示します。以下は、"insured" テーブル(インデックス)のマッピングです。
{
"insured": {
"mappings": {
"properties": {
"name": { "type":"string" },
"address": {
"street": { "type":"string" },
"city": { "type":"string" },
"state": { "type":"string" }
},
"insured_ages": { "type": "integer" },
"vehicles": {
"type": "nested",
"properties": {
"year": { "type":"integer" },
"make": { "type":"string" },
"model": { "type":"string" },
"body_style" { "type": "string" }
}
}
}
}
}
}
以下は、"insured" テーブル(インデックス)のサンプルデータセットです。
{
"hits": {
"total": 2,
"max_score": 1,
"hits": [
{
"_index": "insured",
"_type": "_doc",
"_id": "1",
"_score": 1,
"_source": {
"name": "John Smith",
"address": {
"street": "Main Street",
"city": "Chapel Hill",
"state": "NC"
},
"insured_ages": [ 17, 43, 45 ],
"vehicles": [
{
"year": 2015,
"make": "Dodge",
"model": "RAM 1500",
"body_style": "TK"
},
{
"year": 2015,
"make": "Suzuki",
"model": "V-Strom 650 XT",
"body_style": "MC"
},
{
"year": 1992,
"make": "Harley Davidson",
"model": "FXR",
"body_style": "MC"
}
]
}
},
{
"_index": "insured",
"_type": "_doc",
"_id": "2",
"_score": 1,
"_source": {
"name": "Joseph Newman",
"address": {
"street": "Oak Street",
"city": "Raleigh",
"state": "NC"
},
"insured_ages": [ 23, 25 ],
"vehicles": [
{
"year": 2010,
"make": "Honda",
"model": "Accord",
"body_style": "SD"
},
{
"year": 2008,
"make": "Honda",
"model": "Civic",
"body_style": "CP"
}
]
}
}
]
}
}
Cloud は、Elasticsearch タイプのマッピングを取得することで、リレーショナルスキーマを自動的に推測します。カラムおよびデータ型は取得されたマッピングから生成されます。
Elasticsearch のあらゆるフィールドは、値の配列となることができますが、これはマッピング中では明示的に定義されてはいません。これに対応するため、Cloud はデータをクエリして、配列を含むフィールドがあるかどうかを調べます。 この配列スキャンのために取得するElasticsearch ドキュメントの数はRowScanDepth プロパティで設定されます。
Elasticsearch のネストされたタイプは、オブジェクトの配列を表す特別なタイプであり、そのためメタデータの生成ではそのように扱われます。
検出プロセスで特定されるカラムはFlattenArrays およびFlattenObjects によります。
これらのオプションがどう動作するかの例として、次のマッピングを考えます(テーブル名は'insured' です)。
{
"insured": {
"properties": {
"name": { "type":"string" },
"address": {
"street": { "type":"string" },
"city": { "type":"string" },
"state": { "type":"string" }
},
"insured_ages": { "type": "integer" },
"vehicles": {
"type": "nested",
"properties": {
"year": { "type":"integer" },
"make": { "type":"string" },
"model": { "type":"string" },
"body_style" { "type": "string" }
}
}
}
}
}
また、上の例において、次のサンプルデータを考えてください:
{
"_source": {
"name": "John Smith",
"address": {
"street": "Main Street",
"city": "Chapel Hill",
"state": "NC"
},
"insured_ages": [ 17, 43, 45 ],
"vehicles": [
{
"year": 2015,
"make": "Dodge",
"model": "RAM 1500",
"body_style": "TK"
},
{
"year": 2015,
"make": "Suzuki",
"model": "V-Strom 650 XT",
"body_style": "MC"
},
{
"year": 2012,
"make": "Honda",
"model": "Accord",
"body_style": "4D"
}
]
}
}
FlattenObjects が設定されている場合、すべてのネストされたオブジェクトは連続したカラムにフラット化されます。上記の例は、次のカラムとして表示されます:
| カラム名 | データ型 | サンプル値 |
| name | String | John Smith |
| address.street | String | Main Street |
| address.city | String | Chapel Hill |
| address.state | String | NC |
| insured_ages | String | [ 17, 43, 45 ] |
| vehicles | String | [ { "year":"2015", "make":"Dodge", ... }, { "year":"2015", "make":"Suzuki", ... }, { "year":"2012", "make":"Honda", ... } ] |
FlattenObjects が設定されていない場合、address.street、address.city、およびaddress.state カラムは別々にはなりません。文字列型の住所カラムは一つのオブジェクトとして表されます。
値は次のようになります:
{street: "Main Street", city: "Chapel Hill", state: "NC"} JSON アグリゲートの詳細についてはJSON 関数 を参照してください。
FlattenArrays プロパティは配列の値をフラット化してそれぞれのカラムとするために使われます。これは配列が短い場合にのみ推奨されます。アンバウンドの配列をそのままにしておき、必要な際にJSON 関数 を使ってデータを取り出すことをお勧めします。
Note:一番上の配列のみがフラット化されます。サブ配列は、配列全体として表示されます。
FlattenArrays プロパティは3に設定して上の例の配列を次のように表すことができます(この例ではFlattenObjects は設定されていません):
| カラム名 | データ型 | サンプル値 |
| insured_ages | String | [ 17, 43, 45 ] |
| insured_ages.0 | Integer | 17 |
| insured_ages.1 | Integer | 43 |
| insured_ages.2 | Integer | 45 |
| vehicles | String | [ { "year":"2015", "make":"Dodge", ... }, { "year":"2015", "make":"Suzuki", ... }, { "year":"2012", "make":"Honda", ... } ] |
| vehicles.0 | String | { "year":"2015", "make":"Dodge", "model":"RAM 1500", "body_style":"TK" } |
| vehicles.1 | String | { "year":"2015", "make":"Suzuki", "model":"V-Strom 650 XT", "body_style":"MC" } |
| vehicles.2 | String | { "year":"2012", "make":"Honda", "model":"Accord", "body_style":"4D" } |
FlattenObjects とFlattenArrays が同時に設定されている(brevity は1)場合、vehicle フィールドは次のように表されます:
| カラム名 | データ型 | サンプル値 |
| vehicles | String | [ { "year":"2015", "make":"Dodge", ... }, { "year":"2015", "make":"Suzuki", ... }, { "year":"2012", "make":"Honda", ... } ] |
| vehicles.0.year | String | 2015 |
| vehicles.0.make | String | Dodge |
| vehicles.0.model | String | RAM 1500 |
| vehicles.0.body_style | String | TK |
Cloud には、ドキュメントをテーブルとしてモデル化するための3つの基本的な設定があり、次のセクションで説明します。 Cloud はElasticsearch ドキュメントを解析してネストされたドキュメントを識別します。
ネストされたElasticsearch のデータ全体にアクセスする必要があるユーザーにとっては、データを単一テーブルにフラット化することは最善のオプションです。このモードでは、Cloud はストリーミングを使用し、クエリごとにElasticsearch のデータを1回だけパースします。
DataModel を"FlattenedDocuments" に設定すると、ネストされたドキュメントは別々のテーブルとして振る舞い、SQL JOIN と同じ方法で動作します。同じ高さのネストされたドキュメント(例えば兄弟ドキュメント)は、SQL CROSS JOIN として扱われます。
以下は、Raw データ のサンプルドキュメントに基づいたサンプルクエリとその結果です。これにより、insured ドキュメントとネストされたvehicles ドキュメントが暗黙のうちにJOIN されます。
次のクエリは、各insured ドキュメントのネストされたドキュメントをドリルします。
SELECT
[_id],
[name],
[address.street] AS address_street,
[address.city.first] AS address_city,
[address.state.last] AS address_state,
[insured_ages],
[year],
[make],
[model],
[body_style],
[_insured_id],
[_vehicles_c_id]
FROM
[insured]
| _id | name | address_street | address_city | address_state | insured_ages | year | make | model | body_style | _insured_id | _vehicles_c_id | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | 2015 | Dodge | RAM 1500 | TK | 1 | 1 | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | 2015 | Suzuki | V-Strom 650 XT | MC | 1 | 2 | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | 1992 | Harley Davidson | FXR | MC | 1 | 3 | |
| 2 | Joseph Newman | Oak Street | Raleigh | NC | [ 23, 25 ] | 2010 | Honda | Accord | SD | 2 | 4 | |
| 2 | Joseph Newman | Oak Street | Raleigh | NC | [ 23, 25 ] | 2008 | Honda | Civic | CP | 2 | 5 |
Elasticsearch データのトップレベルドキュメントビューを使用すると、トップレベルの要素にすぐにアクセスできます。Cloud は、集計にネストされた要素を単一のカラムとして返します。
考慮すべき一つの側面はパフォーマンスです。ネストされたエレメントを処理してパースする時間とリソースを控えます。Cloud は、JSON データを読み込むためにストリーミングを使用して、返されたデータを一度パースします。もう一つ考慮すべきは、ネストされた親エレメントに格納されているデータにアクセスする必要があることと、ツールやアプリケーションがJSON を処理する能力です。
DataModel が"Document"(デフォルト)に設定されている場合、Cloud はデフォルトでトップレベルのオブジェクトのみをスキャンします。デフォルトのオブジェクトフラット化により、トップレベルのオブジェクトエレメントはカラムとして利用可能です。ネストされたオブジェクトは、集計されたJSON として返されます。
以下は、Raw データ のサンプルドキュメントに基づいたサンプルクエリとその結果です。クエリの結果、単一の"insured" テーブルが作成されます。
次のクエリは、トップレベルのオブジェクトエレメントと車両配列を結果にプルします。
SELECT
[_id],
[name],
[address.street] AS address_street,
[address.city] AS address_city,
[address.state] AS address_state,
[insured_ages],
[vehicles]
FROM
[insured]
データのドキュメントビューでは、(FlattenObjects をtrue に設定するとき)address オブジェクトが3カラムにフラット化され、_id, name、insured_ages 、およびvehicles エレメントが個別のカラムとして返され、結果として7カラムのテーブルが作成されます。
| _id | name | address_street | address_city | address_state | insured_ages | vehicles | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | [{"year":2015,"make":"Dodge","model":"RAM 1500","body_style":"TK"},{"year":2015,"make":"Suzuki","model":"V-Strom 650 XT","body_style":"MC"},{"year":1992,"make":"Harley Davidson","model":"FXR","body_style":"MC"}]
| |
| 2 | Joseph Newman | Oak Street | Raleigh | NC | [ 23, 25 ] | [{"year":2010,"make":"Honda","model":"Accord","body_style":"SD"},{"year":2008,"make":"Honda","model":"Civic","body_style":"CP"}]
|
CData Cloud は、ネストされたドキュメントを主キーと親文書にリンクする外部キーを含む個別のテーブルとして扱うことで、データのリレーショナルモデルを作成するように設定できます。これは、リレーショナルデータモデルを想定している既存のBI、帳票、およびETL ツールでElasticsearch のデータを処理する必要がある場合に特に役立ちます。
DataModel を"Relational" に設定すると、どの結合もクエリによって制御されます。JOIN クエリを実行するときはいつでも、Elasticsearch のインデックスはクエリに含まれる各テーブル(ネストされたドキュメント)に対して一度クエリされます。
以下は、リレーショナルモデルを使用したRaw データ のサンプルドキュメントに対するサンプルクエリです。
次のクエリは、insured およびvehicles テーブルを明示的に結合します。
SELECT
[insured].[_id],
[insured].[name],
[insured].[address.street] AS address_street,
[insured].[address.city.first] AS address_city,
[insured].[address.state.last] AS address_state,
[insured].[insured_ages],
[vehicles].[year],
[vehicles].[make],
[vehicles].[model],
[vehicles].[body_style],
[vehicles].[_insured_id],
[vehicles].[_c_id]
FROM
[insured]
JOIN
[vehicles]
ON
[insured].[_id] = [vehicles].[_insured_id]
サンプルクエリでは、各vehicle ドキュメントがその親insured オブジェクトに結合され、5行のテーブルを作成します。
| _id | name | address_street | address_city | address_state | insured_ages | year | make | model | body_style | _insured_id | _vehicles_c_id | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | 2015 | Dodge | RAM 1500 | TK | 1 | 1 | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | 2015 | Suzuki | V-Strom 650 XT | MC | 1 | 2 | |
| 1 | John Smith | Main Street | Chapel Hill | NC | [ 17, 43, 45 ] | 1992 | Harley Davidson | FXR | MC | 1 | 3 | |
| 2 | Joseph Newman | Oak Street | Raleigh | NC | [ 23, 25 ] | 2010 | Honda | Accord | SD | 2 | 4 | |
| 2 | Joseph Newman | Oak Street | Raleigh | NC | [ 23, 25 ] | 2008 | Honda | Civic | CP | 2 | 5 |
Cloud では、JSON ストラクチャーをカラム値として返すことができます。Cloud を使って、これらのJSON ストラクチャーにおいて標準SQL 関数を使用できます。このセクションの例では、次の配列を使用します。
[
{ "grade": "A", "score": 2 },
{ "grade": "A", "score": 6 },
{ "grade": "A", "score": 10 },
{ "grade": "A", "score": 9 },
{ "grade": "B", "score": 14 }
]
SELECT Name, JSON_EXTRACT(grades,'[0].grade') AS Grade, JSON_EXTRACT(grades,'[0].score') AS Score FROM Students;
| カラム名 | サンプル値 |
| Grade | A |
| Score | 2 |
SELECT Name, JSON_COUNT(grades,'[x]') AS NumberOfGrades FROM Students;
| カラム名 | サンプル値 |
| NumberOfGrades | 5 |
SELECT Name, JSON_SUM(score,'[x].score') AS TotalScore FROM Students;
| カラム名 | サンプル値 |
| TotalScore | 41 |
SELECT Name, JSON_MIN(score,'[x].score') AS LowestScore FROM Students;
| カラム名 | サンプル値 |
| LowestScore | 2 |
SELECT Name, JSON_MAX(score,'[x].score') AS HighestScore FROM Students;
| カラム名 | サンプル値 |
| HighestScore | 14 |
DOCUMENT 関数はすべてのドキュメントをJSON 文字列として取得する場合に用いられます。例として、次のクエリとその結果をご覧ください。
SELECT DOCUMENT(*) FROM Employee;上のクエリはすべてのドキュメントを返します。
{
"_index": "megacorp",
"_type": "employee",
"_id": "2",
"_score": 1,
"_source": {
"first_name": "Jane",
"last_name": "Smith",
"age": 32,
"about": "I like to collect rock albums",
"interests": [
"music"
]
}
}
このセクションでは、SQL 構文がどのようにElasticsearch クエリに変換されているかを説明します。さまざまなクエリの結果がどうなるかを説明するサンプルも示されています。
このポイントをデモするために、Elasticsearch のanalyzed フィールドには'Bike' という値を作成しています。
解析後、この値は(デフォルトアナライザーを使って)逆引きインデックスに'bike' として格納されます。
一方、non-analyzed フィールドは検索値を解析せず、'Bike' として格納されます。
検索を実行する際には、いくつかのElasticsearch クエリタイプは、アナライザーを通じて検索値を実行します(これにより、検索は大文字・小文字の区別がなくなります)。いくつかのクエリタイプは、アナライザーを経由しません(大文字・小文字を区別します)。
また、デフォルトアナライザーは、複数の単語を持つフィールドを個別の単語に分割します。これらのフィールドに検索を実行する場合、
Elasticsearch は同じ単語を持つレコードを別の順番で返すことがあります。例えば、'blue sky' という値に対して検索が実行された場合でも'sky blue' のレコードが返されます。
この大文字・小文字の区別や順序の問題の回避には、CData Cloud は、カラムをanalyzed 、もしくはnon-analyzed に分類し、指定された演算子(= のような)に基づく適切なElasticsearch クエリを発行して、値を検索します。
analyzed カラム
analyzed カラムはアナライザーを通された後に格納されます。その結果として、指定された検索値は、検索前にElasticsearch サーバーのアナライザーを通されます。これにより検索は大文字・小文字の区別がなくなります(使われたアナライザーが大文字・小文字を処理する前提で)。
| WHERE 句の例 | Elasticsearch クエリタイプ |
| WHERE analyzed_column='value' | Query String Query |
| WHERE analyzed_column='value with spaces' | Match Phrase Query |
Non-Analyzed Columns
non-analyzed カラムはアナライザーを通されずに格納されます。これにより、non-analyzed カラムは大文字・小文字の区別があり、これらのカラムの検索値は大文字・小文字を区別しなければなりません。検索値が1つの単語である場合、Cloud は3つの標準的な形式である、大文字、小文字、すべて大文字、で指定されたオリジナルケーシングでフィルタをチェックします。
検索値が複数の単語を含む場合、検索値はas-is で送られ、大文字・小文字の区別があります。
| WHERE 句の例 | Elasticsearch クエリタイプ |
| WHERE nonanalyzed_column='myValue' | Query String Query: Four cases are checked - myValue OR MYVALUE OR myvalue OR Myvalue |
| WHERE nonanalyzed_column='value with spaces' | Wildcard Query |
| WHERE 句の例 | Behavior |
| WHERE column IN ('value') | Treated as: column='value' |
| WHERE column NOT IN ('value') | Treated as: column!='value' |
| WHERE column IN ('value1', 'value2') | Treated as: column='value1' OR column='value2' |
| WHERE column NOT IN ('value1', 'value2') | Treated as: column!='value1' AND column!='value2' |
| WHERE 句の例 | Behavior |
| WHERE column LIKE 'value' | Treated as: column='value' |
| WHERE column NOT LIKE 'value' | Treated as: column!='value' |
| WHERE analyzed_column LIKE 'v_lu%' | Query String Query with wildcards |
| WHERE nonanalyzed_column LIKE 'v_lu%' | Wildcard Query with wildcards |
JSON objects and arrays of objects will be treated as raw strings and all filtering will be performed by the Cloud. Therefore an equals operation must match the entire JSON aggregate to return a result, unless a CONTAINS or LIKE operation is used.
If JSON objects are flattened into individual columns (via FlattenObjects and FlattenArrays), the column for the specific JSON field will be treated as individual columns. Thus the data type will be that as contained in the Elasticsearch mapping and all filters will be pushed to the server (where applicable).
JSON primitive array aggregates will also be treated as raw strings by default and filters will be performed by the Cloud. To filter data based on whether a primitive array contains a single value, the INARRAY function can be used (e.g. INARRAY(column) = 'value'). When performing a search on array fields, Elasticsearch looks at each value individually within an array. Thus when the INARRAY function is specified in a WHERE clause, the filter will be pushed to the server which performs a search within an array.
Primitive arrays may consist of different data types, such as strings or ints. Therefore the INARRAY function supports comparison operators applicable to the data type within the Elasticsearch mapping for the field. For example, INARRAY(int_array) > 5, will return all rows of data in which the int_array contains a value greater than 5. Supported comparison operators include the use of the LIKE operator for string arrays.
デフォルトでは、Cloud はサーバーとのTLS のネゴシエーションを試みます。サーバー証明書は、デフォルトのシステム信頼済み証明書ストアで検証されます。SSLServerCert 接続プロパティを使用して、証明書の検証方法をオーバーライドできます。
別の証明書を指定するには、SSLServerCert 接続プロパティを参照してください。
Elasticsearch Cloud はクライアント証明書の設定もサポートしています。次を設定すれば、クライアント証明書を使って接続できます。
HTTP プロキシへの認証には、以下のように設定します。
次のプロパティを設定します。
CData Cloud は、Elasticsearch エンティティをリレーショナルテーブル、ビュー、およびストアドプロシージャにモデル化します。
SQL での検索 では、テーブルが動的に取得される方法を詳細に説明します。
Views are treated in a similar manner to Tables and thus exhibit similar behavior. There are some differences in the background though which are a direct result of how aliases work within Elasticsearch. (Note: In the following description, 'alias', 'index', 'type', and 'field' are referring to the Elasticsearch objects and not directly to anything within the Cloud).
Views (aliases) are tied to an index and thus span all the types within an index. Additionally aliases can span multiple indices. Therefore you may see an alias (view) listed multiple times under different schemas (index). When querying the view, regardless of the schema specified, data will be retrieved and returned for all indices and types associated with the corresponding alias. Thus the generated metadata will contain a column for each field within each type of each index associated with the alias.
SQL での検索 では、ビューが動的に取得される方法を詳細に説明します。
The ModifyIndexAliases stored procedure can be used to create index aliases within Elasticsearch.
In addition to the Elasticsearch aliases, an '_all' view is returned which enables querying the _all endpoint to retrieve data for all indices in a single query. Given how many indices and documents the _all view could cover, certain queries agains the '_all' view could be very expensive. Additionally, for scanning for table metadata, as governed by RowScanDepth, will be less accurate for '_all' views that cover very large or very heterogenous indices. See 自動スキーマ検出 for more information about this.
Cloud はElasticsearch のデータを、標準のSQL ステートメントを使用してクエリできるリレーショナルデータベースのテーブルのリストとしてモデル化します。
| Name | Description |
| IndexTemplates | General information about index templates |
General information about index templates
| Name | Type | ReadOnly | References | Description |
| name [KEY] | String | False |
Name of index template | |
| composed_of | String | False |
Array of index template names from which this template is composed | |
| data_stream_allow_custom_routing | Boolean | False |
Whether data stream allows custom routing | |
| data_stream_hidden | Boolean | False |
Whether data stream is hidden | |
| data_stream_index_mode | String | False |
Type of data stream to create | |
| index_patterns | String | False |
Array of patterns to match index names to this template | |
| _meta | String | False |
Optional user metadata about the index template | |
| priority | Long | False |
Priority to determine index template precedence when a new data stream or index is created. The index template with the highest priority is chosen. If no priority is specified the template is treated as though it is of priority 0 (lowest priority) | |
| template_aliases | String | False |
JSON aggregate of aliases info for index or data stream. | |
| template_mappings | String | False |
Mapping for fields in the index | |
| template_settings | String | False |
Index settings for indices matched to templates | |
| version | Integer | False |
Optional version number used to manage index templates externally | |
| deprecated | Boolean | False |
Optional mark of whether this template is deprecated |
ビューは、データを示すという点でテーブルに似ていますが、ビューは読み取り専用です。
クエリは、ビューに対して通常のテーブルと同様に実行することができます。
| Name | Description |
| IndexSettings | General information about index settings |
| XPackInfo | General information about the installed X-Pack features |
General information about index settings
| Name | Type | References | Description |
| provided_name | String | ||
| creation_date | String | ||
| uuid | String | ||
| version | String | ||
| routing | String | ||
| lifecycle | String | ||
| mode | String | ||
| routing_path | String | ||
| sort | String | ||
| number_of_shards | String | ||
| number_of_replicas | String | ||
| number_of_routing_shards | String | ||
| check_on_startup | String | ||
| codec | String | ||
| routing_partition_size | String | ||
| load_fixed_bitset_filters_eagerly | Boolean | ||
| hidden | Boolean | ||
| auto_expand_replicas | String | ||
| merge | String | ||
| search.idle.after | String | ||
| refresh_interval | String | ||
| max_result_window | Integer | ||
| max_inner_result_window | Integer | ||
| max_rescore_window | Integer | ||
| max_docvalue_fields_search | Integer | ||
| max_script_fields | Integer | ||
| max_ngram_diff | Integer | ||
| max_shingle_diff | Integer | ||
| max_refresh_listeners | Integer | ||
| max_terms_count | Integer | ||
| max_regex_length | Integer | ||
| gc_deletes | String | ||
| default_pipeline | String | ||
| format | String | ||
| final_pipeline | String | ||
| analyze.max_token_count | Integer | ||
| highlight.max_analyzed_offset | Integer | ||
| analysis | String | ||
| time_series | String | ||
| unassigned.node_left.delayed_timeout | String | ||
| priority | String | ||
| blocks | String | ||
| mapping | String | ||
| similarity | String | ||
| search | String | ||
| indexing | String | ||
| store | String | ||
| translog | String | ||
| soft_deletes | String | ||
| indexing_pressure.memory.limit | Integer |
General information about the installed X-Pack features
| Name | Type | References | Description |
| build_hash | String | ||
| build_date | Datetime | ||
| license_uid | String | ||
| license_type | String | ||
| license_mode | String | ||
| license_status | String | ||
| aggregate_metric_available | Boolean | ||
| aggregate_metric_enabled | Boolean | ||
| analytics_available | Boolean | ||
| analytics_enabled | Boolean | ||
| ccr_available | Boolean | ||
| ccr_enabled | Boolean | ||
| data_streams_available | Boolean | ||
| data_streams_enabled | Boolean | ||
| data_tiers_available | Boolean | ||
| data_tiers_enabled | Boolean | ||
| enrich_available | Boolean | ||
| enrich_enabled | Boolean | ||
| eql_available | Boolean | ||
| eql_enabled | Boolean | ||
| frozen_indices_available | Boolean | ||
| frozen_indices_enabled | Boolean | ||
| graph_available | Boolean | ||
| graph_enabled | Boolean | ||
| ilm_available | Boolean | ||
| ilm_enabled | Boolean | ||
| logstash_available | Boolean | ||
| logstash_enabled | Boolean | ||
| ml_available | Boolean | ||
| ml_enabled | Boolean | ||
| monitoring_available | Boolean | ||
| monitoring_enabled | Boolean | ||
| rollup_available | Boolean | ||
| rollup_enabled | Boolean | ||
| searchable_snapshots_available | Boolean | ||
| searchable_snapshots_enabled | Boolean | ||
| security_available | Boolean | ||
| security_enabled | Boolean | ||
| slm_available | Boolean | ||
| slm_enabled | Boolean | ||
| spatial_available | Boolean | ||
| spatial_enabled | Boolean | ||
| sql_available | Boolean | ||
| sql_enabled | Boolean | ||
| transform_available | Boolean | ||
| transform_enabled | Boolean | ||
| voting_only_available | Boolean | ||
| voting_only_enabled | Boolean | ||
| watcher_available | Boolean | ||
| watcher_enabled | Boolean | ||
| tagline | String |
ストアドプロシージャはファンクションライクなインターフェースで、Elasticsearch の単純なSELECT/INSERT/UPDATE/DELETE 処理にとどまらずCloud の機能を拡張します。
ストアドプロシージャは、パラメータのリストを受け取り、目的の機能を実行し、プロシージャが成功したか失敗したかを示すとともにElasticsearch から関連するレスポンスデータを返します。
| Name | Description |
| CreateIndex | Submits a request to create an index with specified settings. |
| ModifyIndexAliases | Submits an alias request to modify index aliases. |
| UpdateIndexSettings | Procedure for updating index settings. Note that some settings may only be updated on a closed index. |
Submits a request to create an index with specified settings.
EXECUTE Example:
EXECUTE CreateIndex Index = 'firstindex', Alias = 'search', NumberOfShards = '3'
| Name | Type | Description |
| Index | String | The name of the index. |
| Alias | String | The name of the alias to optionally associate the index with. |
| AliasFilter | String | Raw Query DSL object used to limit documents the alias can access. |
| AliasIndexRouting | String | Value used for the alias to route indexing operations to a specific shard. If specified, this overwrites the routing value for indexing operations. |
| AliasIsHidden | Boolean | Boolean value controlling whether or not the alias is hidden. All indices for the alias must have the same is_hidden value. |
| AliasIsWriteIndex | Boolean | Boolean value controlling whether the index is the write index for the alias. |
| AliasRouting | String | Value used for the alias to route indexing and search operations to a specific shard. May be overwritten by AliasIndexRouting or AliasSearchRouting for certain operations. |
| AliasSearchRouting | String | Value used for the alias to route search operations to a specific shard. If specified, this overwrites the routing value for search operations. |
| Mappings | String | Raw JSON object specifying explicit mapping for the index. |
| NumberOfShards | String | The number of primary shards that the created index should have. |
| NumberOfRoutingShards | String | Number used by Elasticsearch internally with the value from NumberOfShards to route documents to a primary shard. |
| OtherSettings | String | Raw JSON object of settings. Cannot be used in conjunction with NumberOfRoutingShards or NumberOfShards. |
| Name | Type | Description |
| CompletedBeforeTimeout | String | Returns True if the index was created before timeout. Note that if this value is false, the index could still be created successfully on Elasticsearch. In this case, completion of creating the index, updating the cluster state, and requisite sharding would occur after the timeout window for the request response elapsed. |
| ShardsAcknowledged | String | Boolean indicating whether the requisite number of shard copies were started for each shard in the index before timing out. |
| IndexName | String | Name in Elasticsearch of the created index. |
Submits an alias request to modify index aliases.
EXECUTE 例:
EXECUTE ModifyIndexAliases Action = 'add;add', Index = 'index_1;index_2', Alias = 'my_alias;my_alias'
Note:Index パラメータは、パターンマッチングを実行して、一致するすべてのインデックスをエイリアスに追加するためのアスタリスク(*)文字をサポートします。
| Name | Type | Description |
| Action | String | The action to perform such as 'add', 'remove', or 'remove_index'. Multiple actions are semi-colon separated. |
| Index | String | The name of the index. Multiple indexes are semi-colon separated. |
| Alias | String | The name of the alias. Multiple aliases are semi-colon separated. |
| Filter | String | A filter to use when creating the alias. This takes the raw JSON filter using Query DSL. Multiple filters are semi-colon separated. |
| Routing | String | The routing value to associate with the alias. Multiple routing values are semi-colon separated. |
| SearchRouting | String | The routing value to associate with the alias for searching operations. Multiple search routing values are semi-colon separated. |
| IndexRouting | String | The routing value to associate with the alias for indexing operations. Multiple index routing values are semi-colon separated. |
| Name | Type | Description |
| Success | String | Returns True if successful. |
Procedure for updating index settings. Note that some settings may only be updated on a closed index.
See this documentation for information on index settings in Elasticsearch, and what they control and impact across indices and clusters. Make sure to reference documentation for the version of Elasticsearch being connected to.
EXECUTE Example:
EXECUTE UpdateIndexSettings IndexName='traffic', NumberOfReplicas='3'
| Name | Type | Description |
| IndexName | String | |
| NumberOfReplicas | Integer | |
| RoutingAllocationIncludeTierPreference | String | |
| VersionCreated | String | |
| AnalyzeMaxTokenCount | Integer | |
| AutoExpandReplicas | String | |
| BlocksMetadata | Boolean | |
| BlocksRead | Boolean | |
| BlocksReadOnly | Boolean | |
| BlocksReadOnlyAllowDelete | Boolean | |
| BlocksWrite | Boolean | |
| DefaultPipeline | String | |
| FinalPipeline | String | |
| Format | String | |
| GcDeletes | String | |
| Hidden | Boolean | |
| HighlightMaxAnalyzedOffset | Integer | |
| IndexingSlowlogReformat | Boolean | |
| IndexingSlowlogSource | Boolean | |
| IndexingSlowlogThresholdIndexDebug | String | |
| IndexingSlowlogThresholdIndexInfo | String | |
| IndexingSlowlogThresholdIndexTrace | String | |
| IndexingSlowlogThresholdIndexWarn | String | |
| LifecycleIndexingComplete | Boolean | |
| LifecycleName | String | |
| LifecycleOriginationDate | Datetime | |
| LifecycleParseOriginationDate | Boolean | |
| LifecycleRolloverAlias | String | |
| LifecycleStepWaitTimeThreshold | String | |
| MappingCoerce | Boolean | |
| MappingDepthLimit | Integer | |
| MappingDimensionFieldsLimit | Integer | |
| MappingFieldNameLengthLimit | Integer | |
| MappingIgnoreMalformed | Boolean | |
| MappingNestedFieldsLimit | Integer | |
| MappingNestedObjectsLimit | Integer | |
| MappingTotalFieldsLimit | Integer | |
| MaxDocvalueFieldsSearch | Integer | |
| MaxInnerResultWindow | Integer | |
| MaxNgramDiff | Integer | |
| MaxRefreshListeners | Integer | |
| MaxRegexLength | Integer | |
| MaxRescoreWindow | Integer | |
| MaxResultWindow | Integer | |
| MaxScriptFields | Integer | |
| MaxShingleDiff | Integer | |
| MaxSlicesPerScroll | Integer | |
| MaxTermsCount | Integer | |
| MergePolicyDeletesPctAllowed | Boolean | |
| MergePolicyExpungeDeletesAllowed | Boolean | |
| MergePolicyFloorSegment | String | |
| MergePolicyMaxMergeAtOnce | Integer | |
| MergePolicyMaxMergeAtOnceExplicit | Integer | |
| MergePolicyMaxMergedSegment | Integer | |
| MergePolicySegmentsPerTier | Integer | |
| MergeSchedulerAutoThrottle | String | |
| MergeSchedulerMaxMergeCount | Integer | |
| MergeSchedulerMaxThreadCount | Integer | |
| Priority | String | |
| QueriesCacheEnabled | Boolean | |
| QueryStringLenient | Boolean | |
| RefreshInterval | String | |
| RoutingAllocationDiskWatermarkIgnore | Boolean | |
| RoutingAllocationEnable | Boolean | |
| RoutingAllocationTotalShardsPerNode | Integer | |
| RoutingRebalanceEnable | Boolean | |
| SearchIdleAfter | String | |
| SearchSlowlogThresholdFetchDebug | String | |
| SearchSlowlogThresholdFetchInfo | String | |
| SearchSlowlogThresholdFetchTrace | String | |
| SearchSlowlogThresholdFetchWarn | String | |
| SearchSlowlogThresholdQueryDebug | String | |
| SearchSlowlogThresholdQueryInfo | String | |
| SearchSlowlogThresholdQueryTrace | String | |
| SearchSlowlogThresholdQueryWarn | String | |
| SearchThrottled | String | |
| StoreType | String | |
| TimeSeriesEnd | Datetime | |
| TopMetricsMaxSize | Integer | |
| TranslogDurability | String | |
| TranslogFlushThresholdSize | Integer | |
| TranslogGenerationThresholdSize | Integer | |
| TranslogRetentionAge | String | |
| TranslogRetentionSize | Integer | |
| TranslogSyncInterval | String | |
| VerifiedBeforeClose | Boolean |
| Name | Type | Description |
| Success | String | Returns True if successful. |
このセクションで説明されているシステムテーブルをクエリして、スキーマ情報、データソース機能に関する情報、およびバッチ操作の統計にアクセスできます。
以下のテーブルは、Elasticsearch のデータベースメタデータを返します。
以下のテーブルは、データソースへの接続方法およびクエリ方法についての情報を返します。
次のテーブルは、データ変更クエリ(バッチ処理を含む)のクエリ統計を返します。
利用可能なデータベースをリストします。
次のクエリは、接続文字列で決定されるすべてのデータベースを取得します。
SELECT * FROM sys_catalogs
| Name | Type | Description |
| CatalogName | String | データベース名。 |
利用可能なスキーマをリストします。
次のクエリは、すべての利用可能なスキーマを取得します。
SELECT * FROM sys_schemas
| Name | Type | Description |
| CatalogName | String | データベース名。 |
| SchemaName | String | スキーマ名。 |
利用可能なテーブルをリストします。
次のクエリは、利用可能なテーブルおよびビューを取得します。
SELECT * FROM sys_tables
| Name | Type | Description |
| CatalogName | String | テーブルまたはビューを含むデータベース。 |
| SchemaName | String | テーブルまたはビューを含むスキーマ。 |
| TableName | String | テーブル名またはビュー名。 |
| TableType | String | テーブルの種類(テーブルまたはビュー)。 |
| Description | String | テーブルまたはビューの説明。 |
| IsUpdateable | Boolean | テーブルが更新可能かどうか。 |
利用可能なテーブルおよびビューのカラムについて説明します。
次のクエリは、[CData].[Elasticsearch].Employee テーブルのカラムとデータ型を返します。
SELECT ColumnName, DataTypeName FROM sys_tablecolumns WHERE TableName='Employee' AND CatalogName='CData' AND SchemaName='Elasticsearch'
| Name | Type | Description |
| CatalogName | String | テーブルまたはビューを含むデータベースの名前。 |
| SchemaName | String | テーブルまたはビューを含むスキーマ。 |
| TableName | String | カラムを含むテーブルまたはビューの名前。 |
| ColumnName | String | カラム名。 |
| DataTypeName | String | データ型の名前。 |
| DataType | Int32 | データ型を示す整数値。この値は、実行時に環境に基づいて決定されます。 |
| Length | Int32 | カラムのストレージサイズ。 |
| DisplaySize | Int32 | 指定されたカラムの通常の最大幅(文字数)。 |
| NumericPrecision | Int32 | 数値データの最大桁数。文字データおよび日時データの場合は、カラムの長さ(文字数)。 |
| NumericScale | Int32 | カラムのスケール(小数点以下の桁数)。 |
| IsNullable | Boolean | カラムがNull を含められるかどうか。 |
| Description | String | カラムの簡単な説明。 |
| Ordinal | Int32 | カラムのシーケンスナンバー。 |
| IsAutoIncrement | String | カラムに固定増分値が割り当てられるかどうか。 |
| IsGeneratedColumn | String | 生成されたカラムであるかどうか。 |
| IsHidden | Boolean | カラムが非表示かどうか。 |
| IsArray | Boolean | カラムが配列かどうか。 |
| IsReadOnly | Boolean | カラムが読み取り専用かどうか。 |
| IsKey | Boolean | sys_tablecolumns から返されたフィールドがテーブルの主キーであるかどうか。 |
| ColumnType | String | スキーマ内のカラムの役割または分類。可能な値は、SYSTEM、LINKEDCOLUMN、NAVIGATIONKEY、REFERENCECOLUMN、およびNAVIGATIONPARENTCOLUMN が含まれます。 |
利用可能なストアドプロシージャをリストします。
次のクエリは、利用可能なストアドプロシージャを取得します。
SELECT * FROM sys_procedures
| Name | Type | Description |
| CatalogName | String | ストアドプロシージャを含むデータベース。 |
| SchemaName | String | ストアドプロシージャを含むスキーマ。 |
| ProcedureName | String | ストアドプロシージャの名前。 |
| Description | String | ストアドプロシージャの説明。 |
| ProcedureType | String | PROCEDURE やFUNCTION などのプロシージャのタイプ。 |
ストアドプロシージャパラメータについて説明します。
次のクエリは、CreateTable ストアドプロシージャのすべての入力パラメータについての情報を返します。
SELECT * FROM sys_procedureparameters WHERE ProcedureName = 'CreateTable' AND Direction = 1 OR Direction = 2
パラメータに加えて結果セットのカラムを含めるには、IncludeResultColumns 擬似カラムをTrue に設定します。
SELECT * FROM sys_procedureparameters WHERE ProcedureName = 'CreateTable' AND IncludeResultColumns='True'
| Name | Type | Description |
| CatalogName | String | ストアドプロシージャを含むデータベースの名前。 |
| SchemaName | String | ストアドプロシージャを含むスキーマの名前。 |
| ProcedureName | String | パラメータを含むストアドプロシージャの名前。 |
| ColumnName | String | ストアドプロシージャパラメータの名前。 |
| Direction | Int32 | パラメータのタイプに対応する整数値:input (1)。input/output (2)、またはoutput(4)。input/output タイプパラメータは、入力パラメータと出力パラメータの両方になれます。 |
| DataType | Int32 | データ型を示す整数値。この値は、実行時に環境に基づいて決定されます。 |
| DataTypeName | String | データ型の名前。 |
| NumericPrecision | Int32 | 数値データの場合は最大精度。文字データおよび日時データの場合は、カラムの長さ(文字数)。 |
| Length | Int32 | 文字データの場合は、許可される文字数。数値データの場合は、許可される桁数。 |
| NumericScale | Int32 | 数値データの小数点以下の桁数。 |
| IsNullable | Boolean | パラメータがNull を含められるかどうか。 |
| IsRequired | Boolean | プロシージャの実行にパラメータが必要かどうか。 |
| IsArray | Boolean | パラメータが配列かどうか。 |
| Description | String | パラメータの説明。 |
| Ordinal | Int32 | パラメータのインデックス。 |
| Values | String | このパラメータで設定できる値は、このカラムに表示されるものに限られます。指定できる値はカンマ区切りです。 |
| SupportsStreams | Boolean | パラメータがファイルを表すかどうか。ファイルは、ファイルパスとして渡すことも、ストリームとして渡すこともできます。 |
| IsPath | Boolean | パラメータがスキーマ作成操作のターゲットパスかどうか。 |
| Default | String | 何も値が指定されていない場合に、このパラメータで使用される値。 |
| SpecificName | String | 複数のストアドプロシージャが同じ名前を持つ場合、それぞれの同名のストアドプロシージャを一意に識別するラベル。特定の名前を持つプロシージャが1つだけの場合は、その名前がここに単純に反映されます。 |
| IsCDataProvided | Boolean | プロシージャがネイティブのElasticsearch プロシージャではなく、CData によって追加 / 実装されているかどうか。 |
| Name | Type | Description |
| IncludeResultColumns | Boolean | 出力にパラメータに加えて結果セットのカラムを含めるかどうか。デフォルトはFalse です。 |
主キーおよび外部キーについて説明します。
次のクエリは、[CData].[Elasticsearch].Employee テーブルの主キーを取得します。
SELECT * FROM sys_keycolumns WHERE IsKey='True' AND TableName='Employee' AND CatalogName='CData' AND SchemaName='Elasticsearch'
| Name | Type | Description |
| CatalogName | String | キーを含むデータベースの名前。 |
| SchemaName | String | キーを含むスキーマの名前。 |
| TableName | String | キーを含むテーブルの名前。 |
| ColumnName | String | キーカラムの名前 |
| IsKey | Boolean | カラムがTableName フィールドで参照されるテーブル内の主キーかどうか。 |
| IsForeignKey | Boolean | カラムがTableName フィールドで参照される外部キーかどうか。 |
| PrimaryKeyName | String | 主キーの名前。 |
| ForeignKeyName | String | 外部キーの名前。 |
| ReferencedCatalogName | String | 主キーを含むデータベース。 |
| ReferencedSchemaName | String | 主キーを含むスキーマ。 |
| ReferencedTableName | String | 主キーを含むテーブル。 |
| ReferencedColumnName | String | 主キーのカラム名。 |
外部キーについて説明します。
次のクエリは、他のテーブルを参照するすべての外部キーを取得します。
SELECT * FROM sys_foreignkeys WHERE ForeignKeyType = 'FOREIGNKEY_TYPE_IMPORT'
| 名前 | タイプ | 説明 |
| CatalogName | String | キーを含むデータベースの名前。 |
| SchemaName | String | キーを含むスキーマの名前。 |
| TableName | String | キーを含むテーブルの名前。 |
| ColumnName | String | キーカラムの名前 |
| PrimaryKeyName | String | 主キーの名前。 |
| ForeignKeyName | String | 外部キーの名前。 |
| ReferencedCatalogName | String | 主キーを含むデータベース。 |
| ReferencedSchemaName | String | 主キーを含むスキーマ。 |
| ReferencedTableName | String | 主キーを含むテーブル。 |
| ReferencedColumnName | String | 主キーのカラム名。 |
| ForeignKeyType | String | 外部キーがインポート(他のテーブルを指す)キーかエクスポート(他のテーブルから参照される)キーかを指定します。 |
主キーについて説明します。
次のクエリは、すべてのテーブルとビューから主キーを取得します。
SELECT * FROM sys_primarykeys
| Name | Type | Description |
| CatalogName | String | キーを含むデータベースの名前。 |
| SchemaName | String | キーを含むスキーマの名前。 |
| TableName | String | キーを含むテーブルの名前。 |
| ColumnName | String | キーカラムの名前。 |
| KeySeq | String | 主キーのシーケンス番号。 |
| KeyName | String | 主キーの名前。 |
利用可能なインデックスについて説明します。インデックスをフィルタリングすることで、より高速なクエリ応答時間でセレクティブクエリを記述できます。
次のクエリは、主キーでないすべてのインデックスを取得します。
SELECT * FROM sys_indexes WHERE IsPrimary='false'
| Name | Type | Description |
| CatalogName | String | インデックスを含むデータベースの名前。 |
| SchemaName | String | インデックスを含むスキーマの名前。 |
| TableName | String | インデックスを含むテーブルの名前。 |
| IndexName | String | インデックス名。 |
| ColumnName | String | インデックスに関連付けられたカラムの名前。 |
| IsUnique | Boolean | インデックスが固有の場合はTrue。そうでない場合はFalse。 |
| IsPrimary | Boolean | インデックスが主キーの場合はTrue。そうでない場合はFalse。 |
| Type | Int16 | インデックスタイプに対応する整数値:statistic (0)、clustered (1)、hashed (2)、またはother (3)。 |
| SortOrder | String | 並べ替え順序:A が昇順、D が降順。 |
| OrdinalPosition | Int16 | インデックスのカラムのシーケンスナンバー。 |
利用可能な接続プロパティと、接続文字列に設定されている接続プロパティに関する情報を返します。
次のクエリは、接続文字列に設定されている、あるいはデフォルト値で設定されているすべての接続プロパティを取得します。
SELECT * FROM sys_connection_props WHERE Value <> ''
| Name | Type | Description |
| Name | String | 接続プロパティ名。 |
| ShortDescription | String | 簡単な説明。 |
| Type | String | 接続プロパティのデータ型。 |
| Default | String | 明示的に設定されていない場合のデフォルト値。 |
| Values | String | 可能な値のカンマ区切りリスト。別な値が指定されていると、検証エラーがスローされます。 |
| Value | String | 設定した値またはあらかじめ設定されたデフォルト。 |
| Required | Boolean | プロパティが接続に必要かどうか。 |
| Category | String | 接続プロパティのカテゴリ。 |
| IsSessionProperty | String | プロパティが、現在の接続に関する情報を保存するために使用されるセッションプロパティかどうか。 |
| Sensitivity | String | プロパティの機密度。これは、プロパティがロギングおよび認証フォームで難読化されているかどうかを通知します。 |
| PropertyName | String | キャメルケースの短縮形の接続プロパティ名。 |
| Ordinal | Int32 | パラメータのインデックス。 |
| CatOrdinal | Int32 | パラメータカテゴリのインデックス。 |
| Hierarchy | String | このプロパティと一緒に設定する必要がある、関連のある依存プロパティを表示します。 |
| Visible | Boolean | プロパティが接続UI に表示されるかどうかを通知します。 |
| ETC | String | プロパティに関するその他のさまざまな情報。 |
Cloud がデータソースにオフロードできるSELECT クエリ処理について説明します。
SQL 構文の詳細については、SQL 準拠 を参照してください。
以下はSQL 機能のサンプルデータセットです。 SELECT 機能のいくつかの側面がサポートされている場合には、カンマ区切りのリストで返されます。サポートされていない場合、カラムにはNO が入ります。
| 名前 | 説明 | 有効な値 |
| AGGREGATE_FUNCTIONS | サポートされている集計関数。 | AVG, COUNT, MAX, MIN, SUM, DISTINCT |
| COUNT | COUNT 関数がサポートされているかどうか。 | YES, NO |
| IDENTIFIER_QUOTE_OPEN_CHAR | 識別子をエスケープするための開始文字。 | [ |
| IDENTIFIER_QUOTE_CLOSE_CHAR | 識別子をエスケープするための終了文字。 | ] |
| SUPPORTED_OPERATORS | サポートされているSQL 演算子。 | =, >, <, >=, <=, <>, !=, LIKE, NOT LIKE, IN, NOT IN, IS NULL, IS NOT NULL, AND, OR |
| GROUP_BY | GROUP BY がサポートされているかどうか。サポートされている場合、どのレベルでサポートされているか。 | NO, NO_RELATION, EQUALS_SELECT, SQL_GB_COLLATE |
| OJ_CAPABILITIES | サポートされている外部結合の種類。 | NO, LEFT, RIGHT, FULL, INNER, NOT_ORDERED, ALL_COMPARISON_OPS |
| OUTER_JOINS | 外部結合がサポートされているかどうか。 | YES, NO |
| SUBQUERIES | サブクエリがサポートされているかどうか。サポートされていれば、どのレベルでサポートされているか。 | NO, COMPARISON, EXISTS, IN, CORRELATED_SUBQUERIES, QUANTIFIED |
| STRING_FUNCTIONS | サポートされている文字列関数。 | LENGTH, CHAR, LOCATE, REPLACE, SUBSTRING, RTRIM, LTRIM, RIGHT, LEFT, UCASE, SPACE, SOUNDEX, LCASE, CONCAT, ASCII, REPEAT, OCTET, BIT, POSITION, INSERT, TRIM, UPPER, REGEXP, LOWER, DIFFERENCE, CHARACTER, SUBSTR, STR, REVERSE, PLAN, UUIDTOSTR, TRANSLATE, TRAILING, TO, STUFF, STRTOUUID, STRING, SPLIT, SORTKEY, SIMILAR, REPLICATE, PATINDEX, LPAD, LEN, LEADING, KEY, INSTR, INSERTSTR, HTML, GRAPHICAL, CONVERT, COLLATION, CHARINDEX, BYTE |
| NUMERIC_FUNCTIONS | サポートされている数値関数。 | ABS, ACOS, ASIN, ATAN, ATAN2, CEILING, COS, COT, EXP, FLOOR, LOG, MOD, SIGN, SIN, SQRT, TAN, PI, RAND, DEGREES, LOG10, POWER, RADIANS, ROUND, TRUNCATE |
| TIMEDATE_FUNCTIONS | サポートされている日付および時刻関数。 | NOW, CURDATE, DAYOFMONTH, DAYOFWEEK, DAYOFYEAR, MONTH, QUARTER, WEEK, YEAR, CURTIME, HOUR, MINUTE, SECOND, TIMESTAMPADD, TIMESTAMPDIFF, DAYNAME, MONTHNAME, CURRENT_DATE, CURRENT_TIME, CURRENT_TIMESTAMP, EXTRACT |
| REPLICATION_SKIP_TABLES | レプリケーション中にスキップされたテーブルを示します。 | |
| REPLICATION_TIMECHECK_COLUMNS | レプリケーション中に更新判断のカラムとして使用するかどうかを、(指定された順に)チェックするカラムのリストを含む文字列の配列。 | |
| IDENTIFIER_PATTERN | 識別子としてどの文字列が有効かを示す文字列値。 | |
| SUPPORT_TRANSACTION | プロバイダーが、コミットやロールバックなどのトランザクションをサポートしているかどうかを示します。 | YES, NO |
| DIALECT | 使用するSQL ダイアレクトを示します。 | |
| KEY_PROPERTIES | Uniform データベースを特定するプロパティを示します。 | |
| SUPPORTS_MULTIPLE_SCHEMAS | プロバイダー用に複数のスキームが存在するかどうかを示します。 | YES, NO |
| SUPPORTS_MULTIPLE_CATALOGS | プロバイダー用に複数のカタログが存在するかどうかを示します。 | YES, NO |
| DATASYNCVERSION | このドライバーにアクセスするために必要な、CData Sync のバージョン。 | Standard, Starter, Professional, Enterprise |
| DATASYNCCATEGORY | このドライバーのCData Sync カテゴリ。 | Source, Destination, Cloud Destination |
| SUPPORTSENHANCEDSQL | API で提供されている以上の、追加SQL 機能がサポートされているかどうか。 | TRUE, FALSE |
| SUPPORTS_BATCH_OPERATIONS | バッチ操作がサポートされているかどうか。 | YES, NO |
| SQL_CAP | このドライバーでサポートされているすべてのSQL 機能。 | SELECT, INSERT, DELETE, UPDATE, TRANSACTIONS, ORDERBY, OAUTH, ASSIGNEDID, LIMIT, LIKE, BULKINSERT, COUNT, BULKDELETE, BULKUPDATE, GROUPBY, HAVING, AGGS, OFFSET, REPLICATE, COUNTDISTINCT, JOINS, DROP, CREATE, DISTINCT, INNERJOINS, SUBQUERIES, ALTER, MULTIPLESCHEMAS, GROUPBYNORELATION, OUTERJOINS, UNIONALL, UNION, UPSERT, GETDELETED, CROSSJOINS, GROUPBYCOLLATE, MULTIPLECATS, FULLOUTERJOIN, MERGE, JSONEXTRACT, BULKUPSERT, SUM, SUBQUERIESFULL, MIN, MAX, JOINSFULL, XMLEXTRACT, AVG, MULTISTATEMENTS, FOREIGNKEYS, CASE, LEFTJOINS, COMMAJOINS, WITH, LITERALS, RENAME, NESTEDTABLES, EXECUTE, BATCH, BASIC, INDEX |
| PREFERRED_CACHE_OPTIONS | 使用したいcacheOptions を指定する文字列値。 | |
| ENABLE_EF_ADVANCED_QUERY | ドライバーがEntity Framework の高度なクエリをサポートしているかどうかを示します。サポートしていなければ、クエリはクライアントサイドで処理されます。 | YES, NO |
| PSEUDO_COLUMNS | 利用可能な疑似カラムを示す文字列の配列。 | |
| MERGE_ALWAYS | 値がtrue であれば、CData Sync 内でMerge Model が強制的に実行されます。 | TRUE, FALSE |
| REPLICATION_MIN_DATE_QUERY | レプリケート開始日時を返すSELECT クエリ。 | |
| REPLICATION_MIN_FUNCTION | サーバーサイドでmin を実行するために使用する式名を、プロバイダーが指定できるようになります。 | |
| REPLICATION_START_DATE | レプリケート開始日を、プロバイダーが指定できるようになります。 | |
| REPLICATION_MAX_DATE_QUERY | レプリケート終了日時を返すSELECT クエリ。 | |
| REPLICATION_MAX_FUNCTION | サーバーサイドでmax を実行するために使用する式名を、プロバイダーが指定できるようになります。 | |
| IGNORE_INTERVALS_ON_INITIAL_REPLICATE | 初回のレプリケートで、レプリケートをチャンクに分割しないテーブルのリスト。 | |
| CHECKCACHE_USE_PARENTID | CheckCache 構文を親キーカラムに対して実行するかどうかを示します。 | TRUE, FALSE |
| CREATE_SCHEMA_PROCEDURES | スキーマファイルの生成に使用できる、ストアドプロシージャを示します。 |
次のクエリは、WHERE 句で使用できる演算子を取得します。
SELECT * FROM sys_sqlinfo WHERE Name = 'SUPPORTED_OPERATORS'
WHERE 句では、個々のテーブルの制限や要件が異なる場合がありますので注意してください。詳しくは、データモデル セクションを参照してください。
| Name | Type | Description |
| NAME | String | SQL 構文のコンポーネント、またはサーバー上で処理できる機能。 |
| VALUE | String | サポートされるSQL またはSQL 構文の詳細。 |
試行された変更に関する情報を返します。
次のクエリは、バッチ処理で変更された行のId を取得します。
SELECT * FROM sys_identity
| Name | Type | Description |
| Id | String | データ変更処理から返された、データベース生成Id。 |
| Batch | String | バッチの識別子。1 は単一処理。 |
| Operation | String | バッチ内の処理の結果:INSERTED、UPDATED、またはDELETED。 |
| Message | String | SUCCESS、またはバッチ内の更新が失敗した場合のエラーメッセージ。 |
利用可能なシステム情報を説明します。
次のクエリは、すべてのカラムを取得します。
SELECT * FROM sys_information
| Name | Type | Description |
| Product | String | 製品名。 |
| Version | String | 製品のバージョン番号。 |
| Datasource | String | 製品が接続するデータソースの名前。 |
| NodeId | String | 製品がインストールされているマシンの固有識別子。 |
| HelpURL | String | 製品のヘルプドキュメントのURL。 |
| License | String | 製品のライセンス情報。(この情報が利用できない場合、この項目は空白のままか「N/A」と表示されます。) |
| Location | String | 製品のライブラリが格納されているファイルパスの場所。 |
| Environment | String | 製品が現在稼働している環境またはランタイムのバージョン。 |
| DataSyncVersion | String | 本コネクタを使用するために必要なCData Sync のティア。 |
| DataSyncCategory | String | CData Sync 機能のカテゴリ(例:Source、Destination)。 |
Cloud は、データソースの型を、スキーマで使用可能な対応するデータ型にマッピングします。以下のテーブルはこれらのマッピングを説明します。
| Elasticsearch | CData スキーマ |
| array | JSON 構造* |
| binary | binary |
| boolean | boolean |
| byte | string |
| completion | string |
| date | datetime |
| date_range | datetime (one field per value) |
| double | double |
| double_range | double (one field per value) |
| float | float |
| float_range | float (one field per value) |
| geo_point | string |
| geo_shape | string |
| half_float | float |
| integer | integer |
| integer_range | integer (one field per value) |
| ip | string |
| keyword | string |
| long | long |
| long_range | long (one field per value) |
| nested | JSON 構造* |
| object | 複数のフィールドに分割されます。 |
| scaled_float | float |
| short | short |
| text> | string |
*個々のタイプを持つ複数のフィールドにパースされます(FlattenArrays 参照)
| プロパティ | 説明 |
| AuthScheme | 認証で使用されるスキーム。None、Basic、Negotiate (Kerberos)、AwsRootKeys、AwsIAMRoles、AwsEC2Roles、APIKey、およびTemporaryCredentials のエントリーが許容されます。デフォルト値はNone です。 |
| User | Elasticsearch に認証を行っているユーザー。 |
| Password | Elasticsearch への認証に使われるパスワード。 |
| UseSSL | This property sets whether the provider attempts to negotiate TLS/SSL connections to the server. |
| Server | Elasticsearch REST サーバーのホスト名またはIP アドレス。あるいは、単一のクラスタ内の複数のノードを指定することもできますが、その場合はすべてのノードがREST API コールをサポートできる必要があります。 |
| Port | Elasticsearch REST サーバーのポート。 |
| APIKey | The APIKey used to authenticate to Elasticsearch. |
| APIKeyId | The APIKey Id to authenticate to Elasticsearch. |
| プロパティ | 説明 |
| DataModel | Elasticsearch ドキュメントをパースしてデータベースのメタデータを生成するときに使用するデータモデルを指定します。 |
| ExposeDotIndices | If false, indices whose name starts with a '.' (dot indices) will not be exposed as tables or views by the provider. If true, dot indices will be exposed as tables or views. |
| AliasesFilter | ビューとして公開されるエイリアスを定義するエイリアス名またはフィルタのカンマ区切りリスト。 |
| IndicesAndDataStreamsFilter | インデックスおよびデータストリーム名またはフィルタのカンマ区切りリスト。 |
| UseLakeFormation | このプロパティがtrue に設定される場合、AWSLakeFormation サービスは、設定されたIAM ロールに基づくユーザーに対してアクセスポリシーを適用する一時的な資格情報を取得するために使用されます。このサービスは、SAML アサーションを提供した上で、OKTA、ADFS、AzureAD、PingFederate 経由で認証する場合に使用できます。 |
| プロパティ | 説明 |
| AWSAccessKey | AWS アカウントのアクセスキーを指定します。この値には、AWS セキュリティ認証情報ページからアクセスできます。 |
| AWSSecretKey | AWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。 |
| AWSRoleARN | 認証時に使用するロールのAmazon リソースネーム。 |
| AWSRegion | Amazon Web サービスのホスティングリージョン。 |
| AWSSessionToken | AWS のセッショントークン。 |
| TemporaryTokenDuration | The amount of time (in seconds) an AWS temporary token will last. |
| AWSExternalId | 他のアカウントでロールを引き受ける際に必要となる一意の識別子。 |
| AWSWebIdentityToken | ID プロバイダーが提供するOAuth 2.0 アクセストークンまたはOpenID Connect ID トークン。 |
| プロパティ | 説明 |
| KerberosKDC | ユーザーの認証に使用されるKerberos キー配布センター(KDC)サービスを識別します。(SPNEGO またはWindows 認証のみ) |
| KerberosRealm | ユーザーの認証に使用される Kerberos レルムを識別します。 |
| KerberosSPN | Kerberos ドメインコントローラーのサービスプリンシパル名(SPN)を指定します。 |
| KerberosUser | Kerberos ドメインコントローラーのプリンシパル名を確認します。形式はhost/user@realm です。 |
| KerberosKeytabFile | Kerberos のプリンシパルと暗号化されたキーのペアを含むKeytab ファイルを指定します。 |
| KerberosServiceRealm | サービスのKerberos レルムをを指定します。(クロスレルム認証のみ) |
| KerberosServiceKDC | サービスのKerberos Key Distribution Center(KDC)を指定します。 |
| KerberosTicketCache | MIT Kerberos 認証情報キャッシュファイルの完全ファイルパスを指定します。 |
| プロパティ | 説明 |
| SSLServerCert | TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。 |
| プロパティ | 説明 |
| Verbosity | ログファイルのVerbosity レベルを指定し、記録される情報の詳細度を制御します。サポートされる値の範囲は1から5までです。 |
| プロパティ | 説明 |
| BrowsableSchemas | レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。 |
| FlattenObjects | フラット化されたオブジェクトとしてカラムを表示するか、オブジェクトプロパティをJSON 文字列として返すか。 |
| FlattenArrays | テーブルカラムとして返したいネストされた配列エレメントの数に FlattenArrays を設定します。デフォルトで、ネスト配列はJSON 文字列として返されます。 |
| プロパティ | 説明 |
| ClientSideEvaluation | Set ClientSideEvaluation to true to perform Evaluation client side on nested objects. |
| MaxResults | デフォルトのSearch API 使用時にElasticsearch から返される結果の最大数。 |
| MaxRows | 集計やGROUP BY を含まないクエリで返される最大行数を指定します。 |
| PageSize | Elasticsearch から返されるリクエストあたりの結果数。 |
| PaginationMode | Specifies whether to use PIT with search_after or scrolls to page through query results. |
| PITDuration | Specifies the time unit to use for keep alive when retrieving results via PIT API. |
| PseudoColumns | テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。 |
| ReplaceInvalidUTF8Chars | Specifies whether to replace invalid UTF8 byte sequences found in reads of indexed document content with the U+FFFD replacement character. |
| RowScanDepth | テーブルメタデータの生成時にスキャンする最大の行数。このプロパティを使って、provider がどのように配列を検出するかをより深くコントロールすることができます。 |
| ScrollDuration | Specifies the time unit to use for keep alive when retrieving results via the Scroll API. |
| Timeout | provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。 |
| UseFullyQualifiedNestedTableName | Set this to true to set the generated table name as the complete source path when flattening nested documents using Relational DataModel . |
このセクションでは、本プロバイダーの接続文字列で設定可能なAuthentication プロパティの全リストを提供します。
| プロパティ | 説明 |
| AuthScheme | 認証で使用されるスキーム。None、Basic、Negotiate (Kerberos)、AwsRootKeys、AwsIAMRoles、AwsEC2Roles、APIKey、およびTemporaryCredentials のエントリーが許容されます。デフォルト値はNone です。 |
| User | Elasticsearch に認証を行っているユーザー。 |
| Password | Elasticsearch への認証に使われるパスワード。 |
| UseSSL | This property sets whether the provider attempts to negotiate TLS/SSL connections to the server. |
| Server | Elasticsearch REST サーバーのホスト名またはIP アドレス。あるいは、単一のクラスタ内の複数のノードを指定することもできますが、その場合はすべてのノードがREST API コールをサポートできる必要があります。 |
| Port | Elasticsearch REST サーバーのポート。 |
| APIKey | The APIKey used to authenticate to Elasticsearch. |
| APIKeyId | The APIKey Id to authenticate to Elasticsearch. |
認証で使用されるスキーム。None、Basic、Negotiate (Kerberos)、AwsRootKeys、AwsIAMRoles、AwsEC2Roles、APIKey、およびTemporaryCredentials のエントリーが許容されます。デフォルト値はNone です。
string
"Basic"
このフィールドは、サーバーに対して認証をするために使われます。次のオプションを使って、認証スキームを選択してください。
Elasticsearch に認証を行っているユーザー。
string
""
Elasticsearch に認証を行っているユーザー。
Elasticsearch への認証に使われるパスワード。
string
""
Elasticsearch への認証に使われるパスワード。
This property sets whether the provider attempts to negotiate TLS/SSL connections to the server.
bool
true
This property sets whether the Cloud attempts to negotiate TLS/SSL connections to the server.
When set to false, (the default), for compatibility with the previous method of specifying the protocol prefix in the Server property, the Cloud category respects the protocol behavior set in Server, and then uses the protocol dictated by UseSSL=False. NOTE: This means that if you set UseSSL=False, but also specify Server="https://localhost", the Cloud attempts to connect and communicate over HTTPS, despite UseSSL being set to False.
When UseSSL is set to true, the Cloud attempts to strictly follow the property's specification, and it throws an exception if there is a conflict with the specification in Server. For example, if you set UseSSL=true, but specify Server as "http://localhost", the Cloud generates an exception.
Differences between the new and the old method:
In the new method, Server should now just specify server name, domain name, IP address, or similar. For the previous method of specifying Server as a combination of protocol prefix and hostname, like "http://localhost", this now maps to Server being set to "localhost", and UseSSL to false;. What was formerly set to Server="https://localhost" now maps to Server="localhost";UseSSL=true;.
New users of the driver are encouraged to not specify a protocol in Server.
Elasticsearch REST サーバーのホスト名またはIP アドレス。あるいは、単一のクラスタ内の複数のノードを指定することもできますが、その場合はすべてのノードがREST API コールをサポートできる必要があります。
string
""
Elasticsearch REST サーバーのホスト名またはIP アドレス。あるいは、単一のクラスタ内の複数のノードを指定することもできますが、その場合はすべてのノードがREST API コールをサポートできる必要があります。
SSL を使用するには、UseSSL をtrue に設定し、SSLServerCert のようなSSL 接続プロパティを設定します。
複数のノードを指定するには、プロパティをアドレスのカンマ区切りリストに設定し、オプションでアドレスの後にポートを指定し、アドレスとコロンで区切ります。たとえば、クラスタに2つの独立した連携ノードを指定するには、'01.01.01.01:1234,02.02.02.02:5678' とします。ポートがノードと共に指定されている場合、そのポートは、そのノードへの接続に限り、Port プロパティよりも優先されます。
Elasticsearch REST サーバーのポート。
string
"9200"
Elasticsearch REST サーバーが割り振られているポート。
The APIKey used to authenticate to Elasticsearch.
string
""
The APIKey used to authenticate to Elasticsearch.
The APIKey Id to authenticate to Elasticsearch.
string
""
The APIKey Id to authenticate to Elasticsearch.
このセクションでは、本プロバイダーの接続文字列で設定可能なConnection プロパティの全リストを提供します。
| プロパティ | 説明 |
| DataModel | Elasticsearch ドキュメントをパースしてデータベースのメタデータを生成するときに使用するデータモデルを指定します。 |
| ExposeDotIndices | If false, indices whose name starts with a '.' (dot indices) will not be exposed as tables or views by the provider. If true, dot indices will be exposed as tables or views. |
| AliasesFilter | ビューとして公開されるエイリアスを定義するエイリアス名またはフィルタのカンマ区切りリスト。 |
| IndicesAndDataStreamsFilter | インデックスおよびデータストリーム名またはフィルタのカンマ区切りリスト。 |
| UseLakeFormation | このプロパティがtrue に設定される場合、AWSLakeFormation サービスは、設定されたIAM ロールに基づくユーザーに対してアクセスポリシーを適用する一時的な資格情報を取得するために使用されます。このサービスは、SAML アサーションを提供した上で、OKTA、ADFS、AzureAD、PingFederate 経由で認証する場合に使用できます。 |
Elasticsearch ドキュメントをパースしてデータベースのメタデータを生成するときに使用するデータモデルを指定します。
string
"Document"
DataModel 設定を選択して、Cloud がネストされたドキュメントをテーブルにモデル化する方法を設定します。 さまざまな設定でデータをクエリする例については、階層データの解析 を参照してください。
次のDataModel 設定が利用可能です。さまざまな設定でデータをクエリする例については、階層データの解析 を参照してください。
Document
各ドキュメントの行を表す単一テーブルを返します。このデータモデルでは、ネストされたドキュメントはフラット化されず、集計として返されます。
FlattenedDocuments
親ドキュメントとネストされたドキュメントのJOIN を表す単一テーブルを返します。このデータモデルでは、ネストされたドキュメントはSQL JOIN と同じ作法で動作します。さらに、ネストされた兄弟ドキュメント(同じ高さのネストされたドキュメント)は、SQL CROSS JOIN として扱われます。Cloud は、返されたドキュメントを解析することによって、利用可能なネストされたドキュメントを識別します。
Relational
ドキュメント内のネストされたドキュメント(親ドキュメントを含む)に対して1つずつ、複数のテーブルを返します。このデータモデルでは、ネストされたドキュメントは、親テーブルにリンクする主キーと外部キーを含むリレーショナルテーブルとして返されます。
If false, indices whose name starts with a '.' (dot indices) will not be exposed as tables or views by the provider. If true, dot indices will be exposed as tables or views.
bool
false
In most standard scenarios with newer versions of Elasticsearch, dot indices are system indices or hidden indices. These are indices that usually should not be directly interacted with by users, or whose indexed documents will not usually be returned in the results of queries that search over sets of multiple indices. As such, the Cloud does not expose dot indices by default in its table or view metadata.
ビューとして公開されるエイリアスを定義するエイリアス名またはフィルタのカンマ区切りリスト。
string
""
指定するエイリアス名は、Elasticsearch の既存のエイリアスと一致する必要があります。フィルタには、エイリアス名の一部とワイルドカード文字 * を使用できます。
例えば、以下の値は"qa"、"sprint_testing"、"sprint_metrics" というエイリアスに適合します:
qa,sprint_*
インデックスおよびデータストリーム名またはフィルタのカンマ区切りリスト。
string
""
接続するElasticsearch のバージョンにより、このフィルタはテーブルまたはスキーマとして公開される、インデックスやデータストリームを制限します。詳しくは、スキーママッピング を参照してください。
指定される値は、Elasticsearch の既存のインデックス名またはデータストリーム名と一致する必要があります。インデックスやデータストリームのフィルタには、名前の一部とワイルドカード文字 * を含めることができます。
このフィルタは、オープンで非表示でないインデックスとデータストリームにのみ適用されます。
例えば、次の値はデータストリーム"my_logs_0"、"my_logs_1"、およびインデックス"sources" に適合します:
sources,my_logs_*
このプロパティがtrue に設定される場合、AWSLakeFormation サービスは、設定されたIAM ロールに基づくユーザーに対してアクセスポリシーを適用する一時的な資格情報を取得するために使用されます。このサービスは、SAML アサーションを提供した上で、OKTA、ADFS、AzureAD、PingFederate 経由で認証する場合に使用できます。
bool
false
このプロパティがtrue に設定される場合、AWSLakeFormation サービスは、設定されたIAM ロールに基づくユーザーに対してアクセスポリシーを適用する一時的な資格情報を取得するために使用されます。このサービスは、SAML アサーションを提供した上で、OKTA、ADFS、AzureAD、PingFederate 経由で認証する場合に使用できます。
このセクションでは、本プロバイダーの接続文字列で設定可能なAWS Authentication プロパティの全リストを提供します。
| プロパティ | 説明 |
| AWSAccessKey | AWS アカウントのアクセスキーを指定します。この値には、AWS セキュリティ認証情報ページからアクセスできます。 |
| AWSSecretKey | AWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。 |
| AWSRoleARN | 認証時に使用するロールのAmazon リソースネーム。 |
| AWSRegion | Amazon Web サービスのホスティングリージョン。 |
| AWSSessionToken | AWS のセッショントークン。 |
| TemporaryTokenDuration | The amount of time (in seconds) an AWS temporary token will last. |
| AWSExternalId | 他のアカウントでロールを引き受ける際に必要となる一意の識別子。 |
| AWSWebIdentityToken | ID プロバイダーが提供するOAuth 2.0 アクセストークンまたはOpenID Connect ID トークン。 |
AWS アカウントのアクセスキーを指定します。この値には、AWS セキュリティ認証情報ページからアクセスできます。
string
""
AWS アカウントのアクセスキーを見つけるには、次の手順に従います。
AWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。
string
""
AWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。
認証時に使用するロールのAmazon リソースネーム。
string
""
AWS の外部で認証する場合は、AWS アカウント認証情報ではなく、ロールを認証に使用するのが 一般的です。AWSRoleARN を入力すると、CData Cloud はAWSAccessKey とAWSSecretKey を直接 使用する代わりに、ロールベースの認証を実行します。この認証を実行するためには、AWSAccessKey と AWSSecretKey を指定する必要があります。RoleARN を設定するときは、AWS ルートユーザーの 認証情報を使用できません。AWSAccessKey およびAWSSecretKey はIAM ユーザーのものである必要があります。
Amazon Web サービスのホスティングリージョン。
string
"NORTHERNVIRGINIA"
Amazon Web サービスのホスティングリージョン。利用可能な値は、OHIO、NORTHERNVIRGINIA、NORTHERNCALIFORNIA、OREGON、CAPETOWN、HONGKONG、TAIPEI、HYDERABAD、JAKARTA、MALAYSIA、MELBOURNE、MUMBAI、OSAKA、SEOUL、SINGAPORE、SYDNEY、THAILAND、TOKYO、CENTRAL、CALGARY、BEIJING、NINGXIA、FRANKFURT、IRELAND、LONDON、MILAN、PARIS、SPAIN、STOCKHOLM、ZURICH、TELAVIV、MEXICOCENTRAL、BAHRAIN、UAE、SAOPAULO、GOVCLOUDEAST、GOVCLOUDWEST、ISOLATEDUSEAST、ISOLATEDUSEASTB、ISOLATEDUSEASTF、ISOLATEDUSSOUTHF、ISOLATEDUSWEST、およびISOLATEDEUWEST です。
AWS のセッショントークン。
string
""
AWS のセッショントークン。この値はさまざまな方法で取得できます。詳しくは、this link を参照してください。
The amount of time (in seconds) an AWS temporary token will last.
string
"3600"
Temporary tokens are used with Role based authentication. Temporary tokens will eventually time out, at which time a new temporary token must be obtained. The CData Cloud will internally request a new temporary token once the temporary token has expired.
For Role based authentication, the minimum duration is 900 seconds (15 minutes) while the maximum if 3600 (1 hour).
他のアカウントでロールを引き受ける際に必要となる一意の識別子。
string
""
他のアカウントでロールを引き受ける際に必要となる一意の識別子。
ID プロバイダーが提供するOAuth 2.0 アクセストークンまたはOpenID Connect ID トークン。
string
""
ID プロバイダーが提供するOAuth 2.0 アクセストークンまたはOpenID Connect ID トークン。 アプリケーションは、Web ID プロバイダーでユーザーを認証することで、このトークンを取得できます。 指定しない場合、この接続プロパティの値は、 環境変数'AWS_WEB_IDENTITY_TOKEN_FILE' の値から自動的に取得されます。
このセクションでは、本プロバイダーの接続文字列で設定可能なKerberos プロパティの全リストを提供します。
| プロパティ | 説明 |
| KerberosKDC | ユーザーの認証に使用されるKerberos キー配布センター(KDC)サービスを識別します。(SPNEGO またはWindows 認証のみ) |
| KerberosRealm | ユーザーの認証に使用される Kerberos レルムを識別します。 |
| KerberosSPN | Kerberos ドメインコントローラーのサービスプリンシパル名(SPN)を指定します。 |
| KerberosUser | Kerberos ドメインコントローラーのプリンシパル名を確認します。形式はhost/user@realm です。 |
| KerberosKeytabFile | Kerberos のプリンシパルと暗号化されたキーのペアを含むKeytab ファイルを指定します。 |
| KerberosServiceRealm | サービスのKerberos レルムをを指定します。(クロスレルム認証のみ) |
| KerberosServiceKDC | サービスのKerberos Key Distribution Center(KDC)を指定します。 |
| KerberosTicketCache | MIT Kerberos 認証情報キャッシュファイルの完全ファイルパスを指定します。 |
ユーザーの認証に使用されるKerberos キー配布センター(KDC)サービスを識別します。(SPNEGO またはWindows 認証のみ)
string
""
Kerberos のプロパティは、SPNEGO またはWindows 認証を使用する場合に使用されます。 Cloud は、Kerberos KDC サービス(通常はドメインコントローラーと同じ場所にあります)にセッションチケットと一時的なセッションキーを要求します。
KerberosKDC が指定されていない場合、Cloud は以下の場所から自動的にプロパティを検出しようとします。
ユーザーの認証に使用される Kerberos レルムを識別します。
string
""
レルムとは、ドメインに似た論理的なネットワークで、同じマスターKDC の下にあるシステムのグループを定義します。一部のレルムは階層構造を持ち、一方のレルムが他方の上位集合となることもありますが、通常は非階層型(「直接型」)であり、2つのレルム間のマッピングを定義する必要があります。 Kerberos のクロスレルム認証により、異なるレルム間での認証が可能になります。各レルムは、相手レルムのプリンシパル情報を自レルムのKDC に登録しておく必要があります。
Kerberos のプロパティは、SPNEGO またはWindows 認証を使用する場合に使用されます。 Cloud は、Kerberos KDC サービス(通常はドメインコントローラーと同じ場所にあります)にセッションチケットと一時的なセッションキーを要求します。 Kerberos レルムは、管理者が任意の文字列に設定できますが、通常はドメイン名に基づいて設定されます。
Kerberos レルムが指定されていない場合、Cloud は、これらのプロパティを自動的に次の場所から検出しようとします。
Kerberos ドメインコントローラーのサービスプリンシパル名(SPN)を指定します。
string
""
Kerberos ドメインコントローラー上のSPN が認証先のURL と異なる場合は、このプロパティを使用してSPN をKDC のURL に設定します。
Kerberos ドメインコントローラーのプリンシパル名を確認します。形式はhost/user@realm です。
string
""
Kerberos プリンシパルが存在する場合、データベースへの認証には常にそのKerberos プリンシパル名を使用する必要があります。
Kerberos のプリンシパルと暗号化されたキーのペアを含むKeytab ファイルを指定します。
string
""
keytab(“key table” の略)は、1つ以上のプリンシパルの長期キーを格納します。 ほとんどの場合、エンドユーザーはクライアントシークレット(パスワード)を使用してKDCに 認証します。 ただし、自動化されたスクリプトやアプリケーションで認証や再認証が行われる場合、keytab を使用する方が効率的です。keytab はパスワードを暗号化された形式で自動的にKDC に送信します。
Keytab は通常、標準形式のファイルで表現され、type:value の形式で命名されます。 通常、type はFILE で、value はファイルの絶対パス名です。 type のもう一つの可能な値はMEMORY で、これは現在のプロセスのメモリに格納された一時的なkeytab を示します。
keytab には1つ以上のエントリが含まれ、各エントリはタイムスタンプ(エントリがkeytab に書き込まれた時刻を示す)、プリンシパル名、キーバージョン番号、暗号化タイプ、および暗号化キー自体で構成されます。 これらはkutil を使用して生成できます。
例:
[admin@myhost]# ktutil ktutil: addent -password -p starlord/[email protected] -k 1 -e aes256-cts-hmac-sha1-96 Password for starlord/myhost.galaxy.com: ktutil: addent -password -p starlord/[email protected] -k 1 -e aes128-cts-hmac-sha1-96 Password for starlord/myhost.galaxy.com: ktutil: addent -password -p starlord/[email protected] -k 1 -e des3-cbc-sha1 Password for starlord/myhost.galaxy.com: ktutil: wkt /path/to/starlord.keytab
Note: サポートしたいすべての認証方法(暗号化タイプ)に対してプリンシパルを作成する必要があります。
keytab を表示するには、klist -k を使用します。
サービスのKerberos レルムをを指定します。(クロスレルム認証のみ)
string
""
KerberosServiceRealm は、クロスレルムKerberos 認証を使用する際にサービスのKerberosRealm を指定するために使われます。
ほとんどの場合、Kerberos 認証の実行には単一のレルムとKDC マシンが使用されるため、このプロパティは必要ありません。ただし、認証チケット(AS リクエスト)とサービスチケット(TGS リクエスト)の取得に異なるレルムとKDC マシンが使用される複雑なセットアップではこのプロパティを使用できます。
サービスのKerberos Key Distribution Center(KDC)を指定します。
string
""
KerberosServiceKDC は、クロスレルムKerberos 認証を使用する際にサービスKerberos KDC を指定するために使われます。
ほとんどの場合、Kerberos 認証の実行には単一のレルムとKDC マシンが使用されるため、このプロパティは必要ありません。ただし、認証チケット(AS リクエスト)とサービスチケット(TGS リクエスト)の取得に異なるレルムとKDC マシンが使用される複雑なセットアップではこのプロパティを使用できます。
MIT Kerberos 認証情報キャッシュファイルの完全ファイルパスを指定します。
string
""
MIT Kerberos Ticket Manager またはkinit コマンドを使用して作成された認証情報キャッシュファイルを使用する場合は、このプロパティを設定します。
このセクションでは、本プロバイダーの接続文字列で設定可能なSSL プロパティの全リストを提供します。
| プロパティ | 説明 |
| SSLServerCert | TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。 |
TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。
string
""
TLS/SSL 接続を使用している場合は、このプロパティを使用して、サーバーが受け入れるTLS/SSL 証明書を指定できます。このプロパティに値を指定すると、マシンによって信頼されていない他の証明書はすべて拒否されます。
このプロパティは、次のフォームを取ります:
| 説明 | 例 |
| フルPEM 証明書(例では省略されています) | -----BEGIN CERTIFICATE----- MIIChTCCAe4CAQAwDQYJKoZIhv......Qw== -----END CERTIFICATE----- |
| 証明書を保有するローカルファイルへのパス。 | C:\cert.cer |
| 公開鍵(例では省略されています) | -----BEGIN RSA PUBLIC KEY----- MIGfMA0GCSq......AQAB -----END RSA PUBLIC KEY----- |
| MD5 Thumbprint(hex 値はスペースまたはコロン区切り) | ecadbdda5a1529c58a1e9e09828d70e4 |
| SHA1 Thumbprint(hex 値はスペースまたはコロン区切り) | 34a929226ae0819f2ec14b4a3d904f801cbb150d |
Note:'*' を使用してすべての証明書を受け入れるように指定することも可能ですが、セキュリティ上の懸念があるため推奨されません。
このセクションでは、本プロバイダーの接続文字列で設定可能なLogging プロパティの全リストを提供します。
| プロパティ | 説明 |
| Verbosity | ログファイルのVerbosity レベルを指定し、記録される情報の詳細度を制御します。サポートされる値の範囲は1から5までです。 |
ログファイルのVerbosity レベルを指定し、記録される情報の詳細度を制御します。サポートされる値の範囲は1から5までです。
string
"1"
このプロパティは、Cloud がログファイルに含める詳細レベルを定義します。 Verbosity レベルを高くするとログに記録される情報の詳細が増えますが、ログファイルが大きくなり取り込まれるデータが増えるためパフォーマンスが低下する可能性があります。
デフォルトのVerbosity レベルは1で、通常の運用にはこれが推奨されます。 より高いVerbosity レベルは主にデバッグを目的としています。 各レベルの詳細については、ログ を参照してください。
LogModules プロパティと組み合わせることで、Verbosity は特定の情報カテゴリに対するログの詳細度を調整できます。
このセクションでは、本プロバイダーの接続文字列で設定可能なSchema プロパティの全リストを提供します。
| プロパティ | 説明 |
| BrowsableSchemas | レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。 |
| FlattenObjects | フラット化されたオブジェクトとしてカラムを表示するか、オブジェクトプロパティをJSON 文字列として返すか。 |
| FlattenArrays | テーブルカラムとして返したいネストされた配列エレメントの数に FlattenArrays を設定します。デフォルトで、ネスト配列はJSON 文字列として返されます。 |
レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。
string
""
利用可能なデータベーススキーマをすべてリストすると余分な時間がかかり、パフォーマンスが低下します。 接続文字列にスキーマのリストを指定することで、時間を節約しパフォーマンスを向上させることができます。
フラット化されたオブジェクトとしてカラムを表示するか、オブジェクトプロパティをJSON 文字列として返すか。
bool
true
デフォルトで、配列にネストされたオブジェクトはJSON 文字列として返されます。FlattenObjects がtrue に設定されている場合、オブジェクトプロパティはそれぞれのカラムにフラット化されます。 プロパティ名は、カラム名を作り出すためにピリオド付きのオブジェクト名にコンカテネートされます。
例えば、次のネストされたオブジェクトをコネクションタイムでフラット化できます:
"manager": {
"name": "Alice White",
"age": 30
}
FlattenObjects がtrue に設定されている場合、オブジェクトは次のテーブルのようにフラット化されます:
| カラム名 | カラム値 |
| manager.name | Alice White |
| manager.age | 30 |
テーブルカラムとして返したいネストされた配列エレメントの数に FlattenArrays を設定します。デフォルトで、ネスト配列はJSON 文字列として返されます。
string
""
デフォルトで、ネスト配列はJSON 文字列として返されます。FlattenArrays プロパティはネスト配列のエレメントをフラット化してそれぞれのカラムとするために使われます。これは短い配列の場合にのみ推奨されます。
ネスト配列から返すエレメントの数にFlattenArrays を設定します。特定されたエレメントはカラムとして返されます。Zero-base のインデックスはカラム名にコンカテネートされます。他のエレメントは無視されます。
例えば、文字列の配列からエレメントのアービトラリー数を返すことができます。
"employees": [
{
"name": "John Smith",
"age": 34
},
{
"name": "Peter Brown",
"age": 26
},
{
"name": "Paul Jacobs",
"age": 30
}
]
FlattenArrays が2に設定されている場合、配列は次のテーブルのようにフラット化されます。
| カラム名 | カラム値 |
| employees.0.name | John Smith |
| employees.0.age | 34 |
| employees.1.name | Peter Brown |
| employees.1.age | 26 |
バインドされていない配列にJSON パスを使う場合は、JSON 関数 を参照してください。
このセクションでは、本プロバイダーの接続文字列で設定可能なMiscellaneous プロパティの全リストを提供します。
| プロパティ | 説明 |
| ClientSideEvaluation | Set ClientSideEvaluation to true to perform Evaluation client side on nested objects. |
| MaxResults | デフォルトのSearch API 使用時にElasticsearch から返される結果の最大数。 |
| MaxRows | 集計やGROUP BY を含まないクエリで返される最大行数を指定します。 |
| PageSize | Elasticsearch から返されるリクエストあたりの結果数。 |
| PaginationMode | Specifies whether to use PIT with search_after or scrolls to page through query results. |
| PITDuration | Specifies the time unit to use for keep alive when retrieving results via PIT API. |
| PseudoColumns | テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。 |
| ReplaceInvalidUTF8Chars | Specifies whether to replace invalid UTF8 byte sequences found in reads of indexed document content with the U+FFFD replacement character. |
| RowScanDepth | テーブルメタデータの生成時にスキャンする最大の行数。このプロパティを使って、provider がどのように配列を検出するかをより深くコントロールすることができます。 |
| ScrollDuration | Specifies the time unit to use for keep alive when retrieving results via the Scroll API. |
| Timeout | provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。 |
| UseFullyQualifiedNestedTableName | Set this to true to set the generated table name as the complete source path when flattening nested documents using Relational DataModel . |
Set ClientSideEvaluation to true to perform Evaluation client side on nested objects.
bool
false
Set ClientSideEvaluation to true to perform Evaluation (GROUP BY, filtering) client side on nested objects.
For example, with ClientSideEvaluation set to false(default value), GROUP BY on nested object 'property.0.name' would be grouped as 'property.*.name', while if set to true, results would be grouped as 'property.0.name'.
Similarly, with ClientSideEvaluation set to false(default value), filtering on nested object 'property.0.name' would be filtered as 'property.*.name', while if set to true, results would be filtered as 'property.0.name'.
This would affect performance as query is evaluated client side.
デフォルトのSearch API 使用時にElasticsearch から返される結果の最大数。
string
"10000"
このプロパティはElasticsearch に対応します。 index.max_result_window index setting.デフォルト値は、Elasticsearch のデフォルトリミットである10000 です。
この値は、Scroll API 使用時には適用されません。本API を使用するためにScrollDuration を設定。
クエリでLIMIT が指定されている場合、LIMIT はMaxResults よりも小さい場合に有効です。そうでない場合、返される結果数はMaxResults 値に制限されます。
結果ウィンドウが大きすぎるというエラーを受け取った場合には、Elasticsearch の設定よりも大きいMaxResults 値によるものです。 index.max_result_window index setting. MaxResults 値をindex.max_result_window index setting に合わせて変更するか、ScrollDuration を設定してScroll API を使用します。
集計やGROUP BY を含まないクエリで返される最大行数を指定します。
int
-1
このプロパティのデフォルト値である-1 は、クエリに明示的にLIMIT 句が含まれていない限り、行の制限が適用されないことを意味します。 (クエリにLIMIT 句が含まれている場合、クエリで指定された値がMaxRows 設定よりも優先されます。)
MaxRows を0より大きい整数に設定することで、クエリがデフォルトで過度に大きな結果セットを返さないようにします。
このプロパティは、非常に大きなデータセットを返す可能性のあるクエリを実行する際に、パフォーマンスを最適化し、過剰なリソース消費を防ぐのに役立ちます。
Elasticsearch から返されるリクエストあたりの結果数。
string
"10000"
PageSize は、クエリに対してElasticsearch からのリクエストあたりの受け取られる結果の数をコントロールできます。
デフォルト値は10000 です。これはElasticsearch のデフォルト制限をベースにしています(Elasticsearch の index.max_result_window index setting)。
Specifies whether to use PIT with search_after or scrolls to page through query results.
string
"Scroll"
PIT with search_after can only be used with Elasticsearch 7.10+ or OpenSearch 2.4.0+.
Specifies the time unit to use for keep alive when retrieving results via PIT API.
string
"1m"
When a nonzero value is specified alongside setting PaginationMode to 'PIT', the PIT API will be used.
The time unit specified will be sent in each request made to Elasticsearch to specify how long the server should keep the PIT search context alive. The value specified only needs to be long enough to process the previous batch of results (not to process all the data). This is because the PITDuration value will be sent in each request, which will extend the context time.
Once all the results have been retrieved, the search context will be cleared.
The format for this value is: [integer][time unit]. For example: 1m = 1 minute.
Setting this property and ScrollDuration to '0' will cause the default Search API to be used. In such a case, the maximum number of results that can be returned are equal to MaxResults.
Supported Time Units:
| Value | Description |
| y | Year |
| M | Month |
| w | Week |
| d | Day |
| h | Hour |
| m | Minute |
| s | Second |
| ms | Milli-second |
テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。
string
""
このプロパティを使用すると、Cloud がテーブルカラムとして公開する擬似カラムを定義できます。
個々の擬似カラムを指定するには、以下の形式を使用します。
Table1=Column1;Table1=Column2;Table2=Column3
すべてのテーブルのすべての擬似カラムを含めるには、次を使用してください:
*=*
Specifies whether to replace invalid UTF8 byte sequences found in reads of indexed document content with the U+FFFD replacement character.
bool
false
Specifies whether to replace invalid UTF8 byte sequences found in reads of indexed document content with the U+FFFD replacement character.
テーブルメタデータの生成時にスキャンする最大の行数。このプロパティを使って、provider がどのように配列を検出するかをより深くコントロールすることができます。
string
"100"
このプロパティはテーブルメタデータの生成時にデータ内の配列を特定する場合に使われます。Elasticsearch はどんなフィールドも配列とすることができ、マッピングデータにおいてどのフィールドが配列であるかを特定しません。 これにより、RowScanDepth 列がクエリ、およびスキャンされ、配列を含むフィールドの有無を判断します。
QueryPassthrough がtrue に設定されている場合、テーブル内のカラムはリクエストで返されたデータをスキャンすることで判断されなければなりません。 この値はテーブルメタデータを判断するためにスキャンされる行数の最大値を設定します。デフォルト値は100です。
設定値が高い場合にはパフォーマンスが低下します。小さい値を設定すると、特にnull データがある場合やスキャンしたドキュメントが非常にヘテロジニアスな場合、データ型を正しく判定できない場合があります。
Specifies the time unit to use for keep alive when retrieving results via the Scroll API.
string
"1m"
When a nonzero value is specified, the Scroll API will be used.
The time unit specified will be sent in each request made to Elasticsearch to specify how long the server should keep the Scroll search context alive. The value specified only needs to be long enough to process the previous batch of results (not to process all the data). This is because the ScrollDuration value will be sent in each request, which will extend the context time.
Once all the results have been retrieved, the search context will be cleared.
The format for this value is: [integer][time unit]. For example: 1m = 1 minute.
Setting this property and PITDuration to '0' will cause the default Search API to be used. In such a case, the maximum number of results that can be returned are equal to MaxResults.
Supported Time Units:
| Value | Description |
| y | Year |
| M | Month |
| w | Week |
| d | Day |
| h | Hour |
| m | Minute |
| s | Second |
| ms | Milli-second |
provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。
int
60
タイムアウトは、クエリや操作全体ではなくサーバーとの個々の通信に適用されます。 例えば、各ページング呼び出しがタイムアウト制限内に完了する場合、クエリは60秒を超えて実行を続けることができます。
タイムアウトはデフォルトで60秒に設定されています。タイムアウトを無効にするには、このプロパティを0に設定します。
タイムアウトを無効にすると、操作が成功するか、サーバー側のタイムアウト、ネットワークの中断、またはサーバーのリソース制限などの他の条件で失敗するまで無期限に実行されます。
Note: このプロパティは慎重に使用してください。長時間実行される操作がパフォーマンスを低下させたり、応答しなくなる可能性があるためです。
Set this to true to set the generated table name as the complete source path when flattening nested documents using Relational DataModel .
bool
false
Set this to true to set the generated table name as the complete source path when flattening nested documents using Relational DataModel.
LZMA from 7Zip LZMA SDK
LZMA SDK is placed in the public domain.
Anyone is free to copy, modify, publish, use, compile, sell, or distribute the original LZMA SDK code, either in source code form or as a compiled binary, for any purpose, commercial or non-commercial, and by any means.
LZMA2 from XZ SDK
Version 1.9 and older are in the public domain.
Xamarin.Forms
Xamarin SDK
The MIT License (MIT)
Copyright (c) .NET Foundation Contributors
All rights reserved.
Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the "Software"), to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
NSIS 3.10
Copyright (C) 1999-2025 Contributors THE ACCOMPANYING PROGRAM IS PROVIDED UNDER THE TERMS OF THIS COMMON PUBLIC LICENSE ("AGREEMENT"). ANY USE, REPRODUCTION OR DISTRIBUTION OF THE PROGRAM CONSTITUTES RECIPIENT'S ACCEPTANCE OF THIS AGREEMENT.
1. DEFINITIONS
"Contribution" means:
a) in the case of the initial Contributor, the initial code and documentation distributed under this Agreement, and b) in the case of each subsequent Contributor:
i) changes to the Program, and
ii) additions to the Program;
where such changes and/or additions to the Program originate from and are distributed by that particular Contributor. A Contribution 'originates' from a Contributor if it was added to the Program by such Contributor itself or anyone acting on such Contributor's behalf. Contributions do not include additions to the Program which: (i) are separate modules of software distributed in conjunction with the Program under their own license agreement, and (ii) are not derivative works of the Program.
"Contributor" means any person or entity that distributes the Program.
"Licensed Patents " mean patent claims licensable by a Contributor which are necessarily infringed by the use or sale of its Contribution alone or when combined with the Program.
"Program" means the Contributions distributed in accordance with this Agreement.
"Recipient" means anyone who receives the Program under this Agreement, including all Contributors.
2. GRANT OF RIGHTS
a) Subject to the terms of this Agreement, each Contributor hereby grants Recipient a non-exclusive, worldwide, royalty-free copyright license to reproduce, prepare derivative works of, publicly display, publicly perform, distribute and sublicense the Contribution of such Contributor, if any, and such derivative works, in source code and object code form.
b) Subject to the terms of this Agreement, each Contributor hereby grants Recipient a non-exclusive, worldwide, royalty-free patent license under Licensed Patents to make, use, sell, offer to sell, import and otherwise transfer the Contribution of such Contributor, if any, in source code and object code form. This patent license shall apply to the combination of the Contribution and the Program if, at the time the Contribution is added by the Contributor, such addition of the Contribution causes such combination to be covered by the Licensed Patents. The patent license shall not apply to any other combinations which include the Contribution. No hardware per se is licensed hereunder.
c) Recipient understands that although each Contributor grants the licenses to its Contributions set forth herein, no assurances are provided by any Contributor that the Program does not infringe the patent or other intellectual property rights of any other entity. Each Contributor disclaims any liability to Recipient for claims brought by any other entity based on infringement of intellectual property rights or otherwise. As a condition to exercising the rights and licenses granted hereunder, each Recipient hereby assumes sole responsibility to secure any other intellectual property rights needed, if any. For example, if a third party patent license is required to allow Recipient to distribute the Program, it is Recipient's responsibility to acquire that license before distributing the Program.
d) Each Contributor represents that to its knowledge it has sufficient copyright rights in its Contribution, if any, to grant the copyright license set forth in this Agreement.
3. REQUIREMENTS
A Contributor may choose to distribute the Program in object code form under its own license agreement, provided that:
a) it complies with the terms and conditions of this Agreement; and
b) its license agreement:
i) effectively disclaims on behalf of all Contributors all warranties and conditions, express and implied, including warranties or conditions of title and non-infringement, and implied warranties or conditions of merchantability and fitness for a particular purpose;
ii) effectively excludes on behalf of all Contributors all liability for damages, including direct, indirect, special, incidental and consequential damages, such as lost profits;
iii) states that any provisions which differ from this Agreement are offered by that Contributor alone and not by any other party; and
iv) states that source code for the Program is available from such Contributor, and informs licensees how to obtain it in a reasonable manner on or through a medium customarily used for software exchange.
When the Program is made available in source code form:
a) it must be made available under this Agreement; and
b) a copy of this Agreement must be included with each copy of the Program.
Contributors may not remove or alter any copyright notices contained within the Program.
Each Contributor must identify itself as the originator of its Contribution, if any, in a manner that reasonably allows subsequent Recipients to identify the originator of the Contribution.
4. COMMERCIAL DISTRIBUTION
Commercial distributors of software may accept certain responsibilities with respect to end users, business partners and the like. While this license is intended to facilitate the commercial use of the Program, the Contributor who includes the Program in a commercial product offering should do so in a manner which does not create potential liability for other Contributors. Therefore, if a Contributor includes the Program in a commercial product offering, such Contributor ("Commercial Contributor") hereby agrees to defend and indemnify every other Contributor ("Indemnified Contributor") against any losses, damages and costs (collectively "Losses") arising from claims, lawsuits and other legal actions brought by a third party against the Indemnified Contributor to the extent caused by the acts or omissions of such Commercial Contributor in connection with its distribution of the Program in a commercial product offering. The obligations in this section do not apply to any claims or Losses relating to any actual or alleged intellectual property infringement. In order to qualify, an Indemnified Contributor must: a) promptly notify the Commercial Contributor in writing of such claim, and b) allow the Commercial Contributor to control, and cooperate with the Commercial Contributor in, the defense and any related settlement negotiations. The Indemnified Contributor may participate in any such claim at its own expense.
For example, a Contributor might include the Program in a commercial product offering, Product X. That Contributor is then a Commercial Contributor. If that Commercial Contributor then makes performance claims, or offers warranties related to Product X, those performance claims and warranties are such Commercial Contributor's responsibility alone. Under this section, the Commercial Contributor would have to defend claims against the other Contributors related to those performance claims and warranties, and if a court requires any other Contributor to pay any damages as a result, the Commercial Contributor must pay those damages.
5. NO WARRANTY
EXCEPT AS EXPRESSLY SET FORTH IN THIS AGREEMENT, THE PROGRAM IS PROVIDED ON AN "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, EITHER EXPRESS OR IMPLIED INCLUDING, WITHOUT LIMITATION, ANY WARRANTIES OR CONDITIONS OF TITLE, NON-INFRINGEMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Each Recipient is solely responsible for determining the appropriateness of using and distributing the Program and assumes all risks associated with its exercise of rights under this Agreement, including but not limited to the risks and costs of program errors, compliance with applicable laws, damage to or loss of data, programs or equipment, and unavailability or interruption of operations.
6. DISCLAIMER OF LIABILITY
EXCEPT AS EXPRESSLY SET FORTH IN THIS AGREEMENT, NEITHER RECIPIENT NOR ANY CONTRIBUTORS SHALL HAVE ANY LIABILITY FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING WITHOUT LIMITATION LOST PROFITS), HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OR DISTRIBUTION OF THE PROGRAM OR THE EXERCISE OF ANY RIGHTS GRANTED HEREUNDER, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGES.
7. GENERAL
If any provision of this Agreement is invalid or unenforceable under applicable law, it shall not affect the validity or enforceability of the remainder of the terms of this Agreement, and without further action by the parties hereto, such provision shall be reformed to the minimum extent necessary to make such provision valid and enforceable.
If Recipient institutes patent litigation against a Contributor with respect to a patent applicable to software (including a cross-claim or counterclaim in a lawsuit), then any patent licenses granted by that Contributor to such Recipient under this Agreement shall terminate as of the date such litigation is filed. In addition, if Recipient institutes patent litigation against any entity (including a cross-claim or counterclaim in a lawsuit) alleging that the Program itself (excluding combinations of the Program with other software or hardware) infringes such Recipient's patent(s), then such Recipient's rights granted under Section 2(b) shall terminate as of the date such litigation is filed.
All Recipient's rights under this Agreement shall terminate if it fails to comply with any of the material terms or conditions of this Agreement and does not cure such failure in a reasonable period of time after becoming aware of such noncompliance. If all Recipient's rights under this Agreement terminate, Recipient agrees to cease use and distribution of the Program as soon as reasonably practicable. However, Recipient's obligations under this Agreement and any licenses granted by Recipient relating to the Program shall continue and survive.
Everyone is permitted to copy and distribute copies of this Agreement, but in order to avoid inconsistency the Agreement is copyrighted and may only be modified in the following manner. The Agreement Steward reserves the right to publish new versions (including revisions) of this Agreement from time to time. No one other than the Agreement Steward has the right to modify this Agreement. IBM is the initial Agreement Steward. IBM may assign the responsibility to serve as the Agreement Steward to a suitable separate entity. Each new version of the Agreement will be given a distinguishing version number. The Program (including Contributions) may always be distributed subject to the version of the Agreement under which it was received. In addition, after a new version of the Agreement is published, Contributor may elect to distribute the Program (including its Contributions) under the new version. Except as expressly stated in Sections 2(a) and 2(b) above, Recipient receives no rights or licenses to the intellectual property of any Contributor under this Agreement, whether expressly, by implication, estoppel or otherwise. All rights in the Program not expressly granted under this Agreement are reserved.
This Agreement is governed by the laws of the State of New York and the intellectual property laws of the United States of America. No party to this Agreement will bring a legal action under this Agreement more than one year after the cause of action arose. Each party waives its rights to a jury trial in any resulting litigation.