Cloud

Build 25.0.9434
  • Databricks
    • はじめに
      • 接続の確立
      • SSL の設定
      • ファイアウォールとプロキシ
    • Data Model
      • Stored Procedures
      • システムテーブル
        • sys_catalogs
        • sys_schemas
        • sys_tables
        • sys_tablecolumns
        • sys_procedures
        • sys_procedureparameters
        • sys_keycolumns
        • sys_foreignkeys
        • sys_primarykeys
        • sys_indexes
        • sys_connection_props
        • sys_sqlinfo
        • sys_identity
        • sys_information
    • 接続文字列オプション
      • Authentication
        • AuthScheme
        • Server
        • ProtocolVersion
        • Database
        • HTTPPath
        • Token
      • AWS Authentication
        • AWSAccessKey
        • AWSSecretKey
        • AWSRegion
        • AWSS3Bucket
      • Azure Authentication
        • AzureStorageAccount
        • AzureAccessKey
        • AzureTenant
        • AzureBlobContainer
      • AzureServicePrincipal Authentication
        • AzureTenantId
        • AzureClientId
        • AzureClientSecret
      • OAuth
        • OAuthClientId
        • OAuthClientSecret
        • Scope
        • OAuthLevel
        • DatabricksAccountId
      • SSL
        • SSLServerCert
      • Logging
        • Verbosity
      • Schema
        • BrowsableSchemas
        • Catalog
        • PrimaryKeyIdentifiers
      • Databricks
        • CloudStorageType
        • StoreTableInCloud
        • QueryTableDetails
        • UseUploadApi
        • UseCloudFetch
        • SupportMultiCatalog
        • QueryAllMetadata
        • CheckSQLWarehouseAvailability
      • Miscellaneous
        • AllowPreparedStatement
        • ConnectRetryWaitTime
        • ApplicationName
        • AsyncQueryTimeout
        • DefaultColumnSize
        • DescribeCommand
        • DetectView
        • IncludeSystemSchemas
        • MaxRows
        • PseudoColumns
        • ServerConfigurations
        • ServerTimeZone
        • Timeout
        • UseDescTableQuery
        • UseInsertSelectSyntax
    • Third Party Copyrights

Databricks - CData Cloud

概要

CData Cloud は、クラウドホスト型のソリューションで、複数の標準サービスやプロトコルにまたがるDatabricks へのアクセスを実現します。SQL Server データベースに接続できるアプリケーションであれば、CData Cloud を介してDatabricks に接続できます。

CData Cloud により、他のOData エンドポイントや標準SQL Server と同じように、Databricks への接続を標準化し、構成することができます。

主要機能

  • SQL をフルサポート:Databricks は、標準のリレーショナルデータベースとして表示され、Filter、Group、Join などの操作を実行できます。これらの操作は基盤となるAPI でサポートされているかどうかに関わらず、標準SQL を使用します。
  • CRUD サポート:読み取りと書き込みの両方の操作がサポートされており、Cloud またはデータソースのダウンストリームで設定できるセキュリティ設定によってのみ制限されます。
  • セキュアアクセス:管理者は、ユーザーを作成し、特定のデータベースへのアクセス、読み取り専用操作、または完全な読み書きの権限を定義することができます。
  • 包括的なデータモデルとダイナミックディスカバリー:CData Cloud は、動的データや検索可能なメタデータへのフルアクセスなど、基盤となるデータソースで公開されるすべてのデータへの包括的なアクセスを提供します。

CData Cloud

はじめに

このページでは、CData Cloud でのDatabricks への接続の確立 のガイド、利用可能なリソースに関する情報、および使用可能な接続プロパティのリファレンスについて説明します。

Databricks への接続

接続の確立 は、CData Cloud にデータベースを作成するためのDatabricks への認証方法と必要な接続プロパティの設定方法について示します。

CData Cloud サービスからデータにアクセス

利用可能な標準サービスを経由してDatabricks からデータにアクセスする方法と、CData Cloud の管理については、CData Cloud ドキュメント で詳しく説明します。

CData Cloud

接続の確立

Database タブで対応するアイコンを選択して、Databricks に接続します。必須プロパティはSettings にリストされています。Advanced タブには、通常は必要ない接続プロパティが表示されます。

Databricks への接続

Databricks クラスターに接続するには、以下のプロパティを設定します。

  • Database:Databricks データベース名。
  • Server:Databricks クラスターのサーバーのホスト名。
  • HTTPPath:Databricks クラスターのHTTP パス。
  • Token:個人用アクセストークン。この値は、Databricks インスタンスのユーザー設定ページに移動してアクセストークンタブを選択することで取得できます。

Databricks インスタンスで必要な値は、クラスターに移動して目的のクラスターを選択し、 Advanced Options の下にあるJDBC/ODBC タブを選択することで見つけることができます。

Google Cloud Storage の設定

Cloud は、CSV ファイルのアップロードにDBFS、Azure Blob Storage、およびAWS S3 をサポートしています。

DBFS Cloud Storage

クラウドストレージにDBFS を使用するには、CloudStorageType をDBFS に設定します。

Azure Blob Storage

次のプロパティを設定します。

  • CloudStorageType:Azure Blob storage。
  • StoreTableInCloud:新しいテーブルを作成する際にクラウドストレージにテーブルを保存する場合は、True。
  • AzureStorageAccount:Azure ストレージアカウント名。
  • AzureAccessKey:Databricks アカウントに関連付けられているストレージキー。Azure ポータル(ルートアカウントを使用)経由で確認してください。ストレージアカウントを選択し、Access Keys をクリックしてこの値を取得します。
  • AzureBlobContainer:Azure Blob ストレージコンテナの名前に設定。

AWS S3 Storage

次のプロパティを設定します。

  • CloudStorageType:AWS S3。
  • StoreTableInCloud:新しいテーブルを作成する際にクラウドストレージにテーブルを保存する場合は、True。
  • AWSAccessKey:AWS アカウントのアクセスキー。この値には、AWS セキュリティ認証情報ページから取得できます。
  • AWSSecretKey:AWS アカウントのシークレットキー。この値には、AWS セキュリティ認証情報ページから取得できます。
  • AWSS3Bucket:AWS S3 バケット名。
  • AWSRegion:Amazon Web サービスのホスティングリージョン。AWS Region の値は、Amazon S3 サービスのBuckets List ページに移動して取得できます。例:us-east-1

Databricks への認証

CData は、次の認証スキームをサポートしています。

  • 個人用アクセストークン
  • Microsoft Entra ID(Azure AD)
  • Azure サービスプリンシパル
  • OAuthU2M
  • OAuthM2M

個人用アクセストークン

認証するには、次を設定します。

  • AuthScheme:PersonalAccessToken。
  • Token:Databricks サーバーへの接続に使用するトークン。Databricks インスタンスのユーザー設定ページに移動してアクセストークンタブを選択することで取得できます。

Microsoft Entra ID(Azure AD)

Note:Microsoft はAzure AD をEntra ID にリブランドしました。ユーザーがEntra ID 管理サイトを操作する必要があるトピックでは、Microsoft が使用している名称と同じものを使用します。ただし、名前または値が"Azure AD" を参照しているCData 接続プロパティは、依然として存在します。

Entra ID を使用して認証を行う前に、Entra ID(Azure AD)アプリケーションの作成 の説明に従って、Azure ポータルで Entra ID エンドポイントにアプリケーションを登録する必要があります。 (Microsoft のAzure portal でアプリを構成する も参照してください。) アプリケーションが完成したら、次のプロパティを設定します。

  • AuthScheme:AzureAD。
  • AzureTenant:AzureAD アプリケーションの"概要"ページにある"ディレクトリ(テナント)ID"。
  • OAuthClientId:AzureAD アプリケーションの"概要"ページにある"アプリケーション(クライアント)ID"。
  • CallbackURL:AzureAD アプリケーションの"認証"ページの"リダイレクトURI"。

接続すると、認証を促すWeb ページが開きます。認証に成功すると、接続が確立されます。

接続文字列の例:

"Server=https://adb-8439982502599436.16.azuredatabricks.net;HTTPPath=sql/protocolv1/o/8439982502599436/0810-011933-odsz4s3r;database=default;
AuthScheme=AzureAD;InitiateOAuth=GETANDREFRESH;AzureTenant=94be69e7-edb4-4fda-ab12-95bfc22b232f;OAuthClientId=f544a825-9b69-43d9-bec2-3e99727a1669;CallbackURL=http://localhost;"

Azure サービスプリンシパル

認証するには、次のプロパティを設定します。

  • AuthScheme:AzureServicePrincipal。
  • AzureTenantId:Microsoft Azure Active Directory のテナントID。
  • AzureClientId:Microsoft Azure Active Directory アプリケーションのアプリケーション(クライアント)ID。
  • AzureClientSecret:Microsoft Azure Active Directory アプリケーションのアプリケーション(クライアント)シークレット。

OAuthU2M

OAuthU2M(User-to-Machine)認証により、ユーザーはCLI やSDK などのアプリケーションにワークスペースへのアクセスを許可することができます。セキュアなOAuth トークンを使用するため、ユーザーのパスワードを共有する必要はありません。

OAuthU2M がどのように機能するかは、次のとおりです。

ユーザーがサインインしてOAuthU2M 認証リクエストに同意すると、ツールまたはSDK はOAuth トークンを受け取ります。このトークンにより、ツールまたはSDK はユーザーに代わって認証を行うことができます。

デフォルトでは、Cloud はリダイレクトURL がhttp://localhost:8020 の埋め込みOAuth アプリケーションを使用し、設定は不要です。 ただし、認証時に使用されるリダイレクトURL やスコープをカスタマイズするために、Databricks Account Console でカスタムOAuth アプリケーションを登録することができます。

カスタムOAuth アプリケーションの登録手順については、カスタムOAuth アプリケーションの作成 を参照してください。

必要な設定は以下のとおりです。

  • AuthScheme: OAuthU2M
  • OAuthLevel:トークンを要求したいレベルに設定します。
  • OAuthClientId:OAuth 認証サーバーを使用してアプリケーションを登録する場合に割り当てられます。
  • CallbackURL:OAuth アプリケーションで登録されたリダイレクトURL。
  • DatabricksAccountId:OAuthLevel がAccountLevel に設定されている場合にのみ必要です。

OAuthM2M

OAuthM2M(Machine-to-Machine)認証は、ネットワークを介して通信するデバイスやアプリケーションの識別を検証します。認可されたマシンのみが、人間の介入なしに安全にデータを交換し、リソースにアクセスできるようにします。

OAuthM2M がどのように機能するかは、次のとおりです。

アプリケーションを認可サーバーに登録し、クライアントID およびシークレットを取得します。保護されたリソースにアクセスする際、お使いのマシンはこれらの認証情報と希望するスコープを含むリクエストを送信します。サーバーは提供された情報を検証し、有効であればアクセストークンを返します。このトークンは、リソースにアクセスするAPI コールのリクエストヘッダーに含まれます。

必要な設定は以下のとおりです。

  • AuthScheme:OAuthM2M
  • OAuthLevel:トークンを要求したいレベルに設定します。
  • OAuthClientId:OAuth 認証サーバーを使用してアプリケーションを登録する場合に割り当てられます。
  • OAuthClientSecret:OAuth 認証サーバーを使用してアプリケーションを登録する場合に割り当てられます。
  • DatabricksAccountId:OAuthLevel がAccountLevel に設定されている場合にのみ必要です。

CData Cloud

SSL の設定

SSL 設定のカスタマイズ

デフォルトでは、Cloud はサーバーとのTLS のネゴシエーションを試みます。サーバー証明書は、デフォルトのシステム信頼済み証明書ストアで検証されます。SSLServerCert 接続プロパティを使用して、証明書の検証方法をオーバーライドできます。

別の証明書を指定するには、SSLServerCert 接続プロパティを参照してください。

クライアントSSL 証明書

Databricks Cloud はクライアント証明書の設定もサポートしています。次を設定すれば、クライアント証明書を使って接続できます。

  • SSLClientCert:クライアント証明書のための証明書ストア名。
  • SSLClientCertType:TLS / SSL クライアント証明書を格納するキーストアの種類。
  • SSLClientCertPassword:TLS / SSL クライアント証明書のパスワード。
  • SSLClientCertSubject:TLS / SSL クライアント証明書のサブジェクト。

CData Cloud

ファイアウォールとプロキシ

Firewall またはProxy 経由の接続

HTTP プロキシ

HTTP プロキシへの認証には、以下のように設定します。

  • ProxyServer:HTTP トラフィックをルートするプロキシサーバーのホストネームもしくはIP アドレス。
  • ProxyPort:プロキシサーバーが起動しているTCP ポート。
  • ProxyAuthScheme:プロキシサーバーに対して認証する際にCloud が使用する認証方法。
  • ProxyUser:プロキシサーバーに登録されているユーザーアカウントのユーザー名。
  • ProxyPassword:ProxyUser に紐付けられたパスワード。

その他のプロキシ

次のプロパティを設定します。

  • プロキシベースのファイヤーウォールを使用するには、FirewallType、FirewallServer、およびFirewallPort を設定します。
  • 接続をトンネルするには、FirewallType をTUNNEL に設定します。
  • 認証するには、FirewallUser とFirewallPassword を設定します。
  • SOCKS プロキシへの認証には、さらにFirewallType をSOCKS5 に設定します。

CData Cloud

Data Model

CData Cloud は、Databricks Thrift を活用してSQL でDatabricks データへの双方向連携を実現します。Cloud は、Databricks Runtime Version 9.1 以降を実行するデータベースをサポートします。また、Pro およびClassic Databricks SQL バージョンもサポートしています。データモデルは完全に動的で、Databricks 環境で利用可能なデータを自動的に反映します。テーブルや スキーマが更新されると、SQL を通じて即座にアクセスできます。

スキーマ検出

CData Cloud はDatabricks からスキーマ情報を動的に取得します。メタデータの変更(カラムの追加や削除、データ型の変更など)がドライバーに反映されるようにするには、 データソースに再接続します。

CData Cloud

Stored Procedures

ストアドプロシージャはファンクションライクなインターフェースで、Databricks の単純なSELECT/INSERT/UPDATE/DELETE 処理にとどまらずCloud の機能を拡張します。

ストアドプロシージャは、パラメータのリストを受け取り、目的の機能を実行し、プロシージャが成功したか失敗したかを示すとともにDatabricks から関連するレスポンスデータを返します。

CData Cloud - Databricks Stored Procedures

Name Description

CData Cloud

システムテーブル

このセクションで説明されているシステムテーブルをクエリして、スキーマ情報、データソース機能に関する情報、およびバッチ操作の統計にアクセスできます。

スキーマテーブル

以下のテーブルは、Databricks のデータベースメタデータを返します。

  • sys_catalogs:利用可能なデータベースをリスト。
  • sys_schemas:利用可能なスキーマをリスト。
  • sys_tables:利用可能なテーブルおよびビューをリスト。
  • sys_tablecolumns:利用可能なテーブルおよびビューのカラムについて説明。
  • sys_procedures:利用可能なストアドプロシージャについて説明。
  • sys_procedureparameters:ストアドプロシージャパラメータについて説明。
  • sys_keycolumns:主キーおよび外部キーについて説明。
  • sys_indexes:利用可能なインデックスについて説明。

データソーステーブル

以下のテーブルは、データソースへの接続方法およびクエリ方法についての情報を返します。

  • sys_connection_props:利用可能な接続プロパティについての情報を返す。
  • sys_sqlinfo:Cloud がデータソースにオフロードできるSELECT クエリについて説明。

クエリ情報テーブル

次のテーブルは、データ変更クエリ(バッチ処理を含む)のクエリ統計を返します。

  • sys_identity:バッチ処理または単一の更新に関する情報を返す。

CData Cloud

sys_catalogs

利用可能なデータベースをリストします。

次のクエリは、接続文字列で決定されるすべてのデータベースを取得します。

SELECT * FROM sys_catalogs

Columns

Name Type Description
CatalogName String データベース名。

CData Cloud

sys_schemas

利用可能なスキーマをリストします。

次のクエリは、すべての利用可能なスキーマを取得します。

          SELECT * FROM sys_schemas
          

Columns

Name Type Description
CatalogName String データベース名。
SchemaName String スキーマ名。

CData Cloud

sys_tables

利用可能なテーブルをリストします。

次のクエリは、利用可能なテーブルおよびビューを取得します。

          SELECT * FROM sys_tables
          

Columns

Name Type Description
CatalogName String テーブルまたはビューを含むデータベース。
SchemaName String テーブルまたはビューを含むスキーマ。
TableName String テーブル名またはビュー名。
TableType String テーブルの種類(テーブルまたはビュー)。
Description String テーブルまたはビューの説明。
IsUpdateable Boolean テーブルが更新可能かどうか。

CData Cloud

sys_tablecolumns

利用可能なテーブルおよびビューのカラムについて説明します。

次のクエリは、[CData].[Sample].Customers テーブルのカラムとデータ型を返します。

SELECT ColumnName, DataTypeName FROM sys_tablecolumns WHERE TableName='Customers' AND CatalogName='CData' AND SchemaName='Sample'

Columns

Name Type Description
CatalogName String テーブルまたはビューを含むデータベースの名前。
SchemaName String テーブルまたはビューを含むスキーマ。
TableName String カラムを含むテーブルまたはビューの名前。
ColumnName String カラム名。
DataTypeName String データ型の名前。
DataType Int32 データ型を示す整数値。この値は、実行時に環境に基づいて決定されます。
Length Int32 カラムのストレージサイズ。
DisplaySize Int32 指定されたカラムの通常の最大幅(文字数)。
NumericPrecision Int32 数値データの最大桁数。文字データおよび日時データの場合は、カラムの長さ(文字数)。
NumericScale Int32 カラムのスケール(小数点以下の桁数)。
IsNullable Boolean カラムがNull を含められるかどうか。
Description String カラムの簡単な説明。
Ordinal Int32 カラムのシーケンスナンバー。
IsAutoIncrement String カラムに固定増分値が割り当てられるかどうか。
IsGeneratedColumn String 生成されたカラムであるかどうか。
IsHidden Boolean カラムが非表示かどうか。
IsArray Boolean カラムが配列かどうか。
IsReadOnly Boolean カラムが読み取り専用かどうか。
IsKey Boolean sys_tablecolumns から返されたフィールドがテーブルの主キーであるかどうか。
ColumnType String スキーマ内のカラムの役割または分類。可能な値は、SYSTEM、LINKEDCOLUMN、NAVIGATIONKEY、REFERENCECOLUMN、およびNAVIGATIONPARENTCOLUMN が含まれます。

CData Cloud

sys_procedures

利用可能なストアドプロシージャをリストします。

次のクエリは、利用可能なストアドプロシージャを取得します。

          SELECT * FROM sys_procedures
          

Columns

Name Type Description
CatalogName String ストアドプロシージャを含むデータベース。
SchemaName String ストアドプロシージャを含むスキーマ。
ProcedureName String ストアドプロシージャの名前。
Description String ストアドプロシージャの説明。
ProcedureType String PROCEDURE やFUNCTION などのプロシージャのタイプ。

CData Cloud

sys_procedureparameters

ストアドプロシージャパラメータについて説明します。

次のクエリは、SearchSuppliers ストアドプロシージャのすべての入力パラメータについての情報を返します。

SELECT * FROM sys_procedureparameters WHERE ProcedureName = 'SearchSuppliers' AND Direction = 1 OR Direction = 2

パラメータに加えて結果セットのカラムを含めるには、IncludeResultColumns 擬似カラムをTrue に設定します。

SELECT * FROM sys_procedureparameters WHERE ProcedureName = 'SearchSuppliers' AND IncludeResultColumns='True'

Columns

Name Type Description
CatalogName String ストアドプロシージャを含むデータベースの名前。
SchemaName String ストアドプロシージャを含むスキーマの名前。
ProcedureName String パラメータを含むストアドプロシージャの名前。
ColumnName String ストアドプロシージャパラメータの名前。
Direction Int32 パラメータのタイプに対応する整数値:input (1)。input/output (2)、またはoutput(4)。input/output タイプパラメータは、入力パラメータと出力パラメータの両方になれます。
DataType Int32 データ型を示す整数値。この値は、実行時に環境に基づいて決定されます。
DataTypeName String データ型の名前。
NumericPrecision Int32 数値データの場合は最大精度。文字データおよび日時データの場合は、カラムの長さ(文字数)。
Length Int32 文字データの場合は、許可される文字数。数値データの場合は、許可される桁数。
NumericScale Int32 数値データの小数点以下の桁数。
IsNullable Boolean パラメータがNull を含められるかどうか。
IsRequired Boolean プロシージャの実行にパラメータが必要かどうか。
IsArray Boolean パラメータが配列かどうか。
Description String パラメータの説明。
Ordinal Int32 パラメータのインデックス。
Values String このパラメータで設定できる値は、このカラムに表示されるものに限られます。指定できる値はカンマ区切りです。
SupportsStreams Boolean パラメータがファイルを表すかどうか。ファイルは、ファイルパスとして渡すことも、ストリームとして渡すこともできます。
IsPath Boolean パラメータがスキーマ作成操作のターゲットパスかどうか。
Default String 何も値が指定されていない場合に、このパラメータで使用される値。
SpecificName String 複数のストアドプロシージャが同じ名前を持つ場合、それぞれの同名のストアドプロシージャを一意に識別するラベル。特定の名前を持つプロシージャが1つだけの場合は、その名前がここに単純に反映されます。
IsCDataProvided Boolean プロシージャがネイティブのDatabricks プロシージャではなく、CData によって追加 / 実装されているかどうか。

Pseudo-Columns

Name Type Description
IncludeResultColumns Boolean 出力にパラメータに加えて結果セットのカラムを含めるかどうか。デフォルトはFalse です。

CData Cloud

sys_keycolumns

主キーおよび外部キーについて説明します。

次のクエリは、[CData].[Sample].Customers テーブルの主キーを取得します。

         SELECT * FROM sys_keycolumns WHERE IsKey='True' AND TableName='Customers' AND CatalogName='CData' AND SchemaName='Sample'
          

Columns

Name Type Description
CatalogName String キーを含むデータベースの名前。
SchemaName String キーを含むスキーマの名前。
TableName String キーを含むテーブルの名前。
ColumnName String キーカラムの名前
IsKey Boolean カラムがTableName フィールドで参照されるテーブル内の主キーかどうか。
IsForeignKey Boolean カラムがTableName フィールドで参照される外部キーかどうか。
PrimaryKeyName String 主キーの名前。
ForeignKeyName String 外部キーの名前。
ReferencedCatalogName String 主キーを含むデータベース。
ReferencedSchemaName String 主キーを含むスキーマ。
ReferencedTableName String 主キーを含むテーブル。
ReferencedColumnName String 主キーのカラム名。

CData Cloud

sys_foreignkeys

外部キーについて説明します。

次のクエリは、他のテーブルを参照するすべての外部キーを取得します。

         SELECT * FROM sys_foreignkeys WHERE ForeignKeyType = 'FOREIGNKEY_TYPE_IMPORT'
          

カラム

名前 タイプ 説明
CatalogName String キーを含むデータベースの名前。
SchemaName String キーを含むスキーマの名前。
TableName String キーを含むテーブルの名前。
ColumnName String キーカラムの名前
PrimaryKeyName String 主キーの名前。
ForeignKeyName String 外部キーの名前。
ReferencedCatalogName String 主キーを含むデータベース。
ReferencedSchemaName String 主キーを含むスキーマ。
ReferencedTableName String 主キーを含むテーブル。
ReferencedColumnName String 主キーのカラム名。
ForeignKeyType String 外部キーがインポート(他のテーブルを指す)キーかエクスポート(他のテーブルから参照される)キーかを指定します。

CData Cloud

sys_primarykeys

主キーについて説明します。

次のクエリは、すべてのテーブルとビューから主キーを取得します。

         SELECT * FROM sys_primarykeys
          

Columns

Name Type Description
CatalogName String キーを含むデータベースの名前。
SchemaName String キーを含むスキーマの名前。
TableName String キーを含むテーブルの名前。
ColumnName String キーカラムの名前。
KeySeq String 主キーのシーケンス番号。
KeyName String 主キーの名前。

CData Cloud

sys_indexes

利用可能なインデックスについて説明します。インデックスをフィルタリングすることで、より高速なクエリ応答時間でセレクティブクエリを記述できます。

次のクエリは、主キーでないすべてのインデックスを取得します。

          SELECT * FROM sys_indexes WHERE IsPrimary='false'
          

Columns

Name Type Description
CatalogName String インデックスを含むデータベースの名前。
SchemaName String インデックスを含むスキーマの名前。
TableName String インデックスを含むテーブルの名前。
IndexName String インデックス名。
ColumnName String インデックスに関連付けられたカラムの名前。
IsUnique Boolean インデックスが固有の場合はTrue。そうでない場合はFalse。
IsPrimary Boolean インデックスが主キーの場合はTrue。そうでない場合はFalse。
Type Int16 インデックスタイプに対応する整数値:statistic (0)、clustered (1)、hashed (2)、またはother (3)。
SortOrder String 並べ替え順序:A が昇順、D が降順。
OrdinalPosition Int16 インデックスのカラムのシーケンスナンバー。

CData Cloud

sys_connection_props

利用可能な接続プロパティと、接続文字列に設定されている接続プロパティに関する情報を返します。

次のクエリは、接続文字列に設定されている、あるいはデフォルト値で設定されているすべての接続プロパティを取得します。

SELECT * FROM sys_connection_props WHERE Value <> ''

Columns

Name Type Description
Name String 接続プロパティ名。
ShortDescription String 簡単な説明。
Type String 接続プロパティのデータ型。
Default String 明示的に設定されていない場合のデフォルト値。
Values String 可能な値のカンマ区切りリスト。別な値が指定されていると、検証エラーがスローされます。
Value String 設定した値またはあらかじめ設定されたデフォルト。
Required Boolean プロパティが接続に必要かどうか。
Category String 接続プロパティのカテゴリ。
IsSessionProperty String プロパティが、現在の接続に関する情報を保存するために使用されるセッションプロパティかどうか。
Sensitivity String プロパティの機密度。これは、プロパティがロギングおよび認証フォームで難読化されているかどうかを通知します。
PropertyName String キャメルケースの短縮形の接続プロパティ名。
Ordinal Int32 パラメータのインデックス。
CatOrdinal Int32 パラメータカテゴリのインデックス。
Hierarchy String このプロパティと一緒に設定する必要がある、関連のある依存プロパティを表示します。
Visible Boolean プロパティが接続UI に表示されるかどうかを通知します。
ETC String プロパティに関するその他のさまざまな情報。

CData Cloud

sys_sqlinfo

Cloud がデータソースにオフロードできるSELECT クエリ処理について説明します。

SQL 構文の詳細については、SQL 準拠 を参照してください。

データソースのSELECT 機能

以下はSQL 機能のサンプルデータセットです。 SELECT 機能のいくつかの側面がサポートされている場合には、カンマ区切りのリストで返されます。サポートされていない場合、カラムにはNO が入ります。

名前説明有効な値
AGGREGATE_FUNCTIONSサポートされている集計関数。AVG, COUNT, MAX, MIN, SUM, DISTINCT
COUNTCOUNT 関数がサポートされているかどうか。YES, NO
IDENTIFIER_QUOTE_OPEN_CHAR識別子をエスケープするための開始文字。[
IDENTIFIER_QUOTE_CLOSE_CHAR識別子をエスケープするための終了文字。]
SUPPORTED_OPERATORSサポートされているSQL 演算子。=, >, <, >=, <=, <>, !=, LIKE, NOT LIKE, IN, NOT IN, IS NULL, IS NOT NULL, AND, OR
GROUP_BYGROUP BY がサポートされているかどうか。サポートされている場合、どのレベルでサポートされているか。NO, NO_RELATION, EQUALS_SELECT, SQL_GB_COLLATE
OJ_CAPABILITIESサポートされている外部結合の種類。NO, LEFT, RIGHT, FULL, INNER, NOT_ORDERED, ALL_COMPARISON_OPS
OUTER_JOINS外部結合がサポートされているかどうか。YES, NO
SUBQUERIESサブクエリがサポートされているかどうか。サポートされていれば、どのレベルでサポートされているか。NO, COMPARISON, EXISTS, IN, CORRELATED_SUBQUERIES, QUANTIFIED
STRING_FUNCTIONSサポートされている文字列関数。LENGTH, CHAR, LOCATE, REPLACE, SUBSTRING, RTRIM, LTRIM, RIGHT, LEFT, UCASE, SPACE, SOUNDEX, LCASE, CONCAT, ASCII, REPEAT, OCTET, BIT, POSITION, INSERT, TRIM, UPPER, REGEXP, LOWER, DIFFERENCE, CHARACTER, SUBSTR, STR, REVERSE, PLAN, UUIDTOSTR, TRANSLATE, TRAILING, TO, STUFF, STRTOUUID, STRING, SPLIT, SORTKEY, SIMILAR, REPLICATE, PATINDEX, LPAD, LEN, LEADING, KEY, INSTR, INSERTSTR, HTML, GRAPHICAL, CONVERT, COLLATION, CHARINDEX, BYTE
NUMERIC_FUNCTIONSサポートされている数値関数。ABS, ACOS, ASIN, ATAN, ATAN2, CEILING, COS, COT, EXP, FLOOR, LOG, MOD, SIGN, SIN, SQRT, TAN, PI, RAND, DEGREES, LOG10, POWER, RADIANS, ROUND, TRUNCATE
TIMEDATE_FUNCTIONSサポートされている日付および時刻関数。NOW, CURDATE, DAYOFMONTH, DAYOFWEEK, DAYOFYEAR, MONTH, QUARTER, WEEK, YEAR, CURTIME, HOUR, MINUTE, SECOND, TIMESTAMPADD, TIMESTAMPDIFF, DAYNAME, MONTHNAME, CURRENT_DATE, CURRENT_TIME, CURRENT_TIMESTAMP, EXTRACT
REPLICATION_SKIP_TABLESレプリケーション中にスキップされたテーブルを示します。
REPLICATION_TIMECHECK_COLUMNSレプリケーション中に更新判断のカラムとして使用するかどうかを、(指定された順に)チェックするカラムのリストを含む文字列の配列。
IDENTIFIER_PATTERN識別子としてどの文字列が有効かを示す文字列値。
SUPPORT_TRANSACTIONプロバイダーが、コミットやロールバックなどのトランザクションをサポートしているかどうかを示します。YES, NO
DIALECT使用するSQL ダイアレクトを示します。
KEY_PROPERTIESUniform データベースを特定するプロパティを示します。
SUPPORTS_MULTIPLE_SCHEMASプロバイダー用に複数のスキームが存在するかどうかを示します。YES, NO
SUPPORTS_MULTIPLE_CATALOGSプロバイダー用に複数のカタログが存在するかどうかを示します。YES, NO
DATASYNCVERSIONこのドライバーにアクセスするために必要な、CData Sync のバージョン。Standard, Starter, Professional, Enterprise
DATASYNCCATEGORYこのドライバーのCData Sync カテゴリ。Source, Destination, Cloud Destination
SUPPORTSENHANCEDSQLAPI で提供されている以上の、追加SQL 機能がサポートされているかどうか。TRUE, FALSE
SUPPORTS_BATCH_OPERATIONSバッチ操作がサポートされているかどうか。YES, NO
SQL_CAPこのドライバーでサポートされているすべてのSQL 機能。SELECT, INSERT, DELETE, UPDATE, TRANSACTIONS, ORDERBY, OAUTH, ASSIGNEDID, LIMIT, LIKE, BULKINSERT, COUNT, BULKDELETE, BULKUPDATE, GROUPBY, HAVING, AGGS, OFFSET, REPLICATE, COUNTDISTINCT, JOINS, DROP, CREATE, DISTINCT, INNERJOINS, SUBQUERIES, ALTER, MULTIPLESCHEMAS, GROUPBYNORELATION, OUTERJOINS, UNIONALL, UNION, UPSERT, GETDELETED, CROSSJOINS, GROUPBYCOLLATE, MULTIPLECATS, FULLOUTERJOIN, MERGE, JSONEXTRACT, BULKUPSERT, SUM, SUBQUERIESFULL, MIN, MAX, JOINSFULL, XMLEXTRACT, AVG, MULTISTATEMENTS, FOREIGNKEYS, CASE, LEFTJOINS, COMMAJOINS, WITH, LITERALS, RENAME, NESTEDTABLES, EXECUTE, BATCH, BASIC, INDEX
PREFERRED_CACHE_OPTIONS使用したいcacheOptions を指定する文字列値。
ENABLE_EF_ADVANCED_QUERYドライバーがEntity Framework の高度なクエリをサポートしているかどうかを示します。サポートしていなければ、クエリはクライアントサイドで処理されます。YES, NO
PSEUDO_COLUMNS利用可能な疑似カラムを示す文字列の配列。
MERGE_ALWAYS値がtrue であれば、CData Sync 内でMerge Model が強制的に実行されます。TRUE, FALSE
REPLICATION_MIN_DATE_QUERYレプリケート開始日時を返すSELECT クエリ。
REPLICATION_MIN_FUNCTIONサーバーサイドでmin を実行するために使用する式名を、プロバイダーが指定できるようになります。
REPLICATION_START_DATEレプリケート開始日を、プロバイダーが指定できるようになります。
REPLICATION_MAX_DATE_QUERYレプリケート終了日時を返すSELECT クエリ。
REPLICATION_MAX_FUNCTIONサーバーサイドでmax を実行するために使用する式名を、プロバイダーが指定できるようになります。
IGNORE_INTERVALS_ON_INITIAL_REPLICATE初回のレプリケートで、レプリケートをチャンクに分割しないテーブルのリスト。
CHECKCACHE_USE_PARENTIDCheckCache 構文を親キーカラムに対して実行するかどうかを示します。TRUE, FALSE
CREATE_SCHEMA_PROCEDURESスキーマファイルの生成に使用できる、ストアドプロシージャを示します。

次のクエリは、WHERE 句で使用できる演算子を取得します。

SELECT * FROM sys_sqlinfo WHERE Name = 'SUPPORTED_OPERATORS'
WHERE 句では、個々のテーブルの制限や要件が異なる場合がありますので注意してください。詳しくは、Data Model セクションを参照してください。

Columns

Name Type Description
NAME String SQL 構文のコンポーネント、またはサーバー上で処理できる機能。
VALUE String サポートされるSQL またはSQL 構文の詳細。

CData Cloud

sys_identity

試行された変更に関する情報を返します。

次のクエリは、バッチ処理で変更された行のId を取得します。

         SELECT * FROM sys_identity
          

Columns

Name Type Description
Id String データ変更処理から返された、データベース生成Id。
Batch String バッチの識別子。1 は単一処理。
Operation String バッチ内の処理の結果:INSERTED、UPDATED、またはDELETED。
Message String SUCCESS、またはバッチ内の更新が失敗した場合のエラーメッセージ。

CData Cloud

sys_information

利用可能なシステム情報を説明します。

次のクエリは、すべてのカラムを取得します。

SELECT * FROM sys_information

Columns

NameTypeDescription
ProductString製品名。
VersionString製品のバージョン番号。
DatasourceString製品が接続するデータソースの名前。
NodeIdString製品がインストールされているマシンの固有識別子。
HelpURLString製品のヘルプドキュメントのURL。
LicenseString製品のライセンス情報。(この情報が利用できない場合、この項目は空白のままか「N/A」と表示されます。)
LocationString製品のライブラリが格納されているファイルパスの場所。
EnvironmentString製品が現在稼働している環境またはランタイムのバージョン。
DataSyncVersionString本コネクタを使用するために必要なCData Sync のティア。
DataSyncCategoryStringCData Sync 機能のカテゴリ(例:Source、Destination)。

CData Cloud

接続文字列オプション

接続文字列プロパティは、接続を確立するために使用できるさまざまなオプションです。このセクションでは、本プロバイダーの接続文字列で設定できるオプションの一覧を示します。詳細については各リンクをクリックしてください。

Authentication


プロパティ説明
AuthSchemeSpecifies the authentication scheme that the provider uses to connect to Databricks.
ServerSpecifies the host name of your Databricks workspace or SQL warehouse endpoint.
ProtocolVersionSpecifies the protocol version used by the provider when authenticating and exchanging data with Databricks.
DatabaseSpecifies the name of the database in Databricks that the provider uses for the connection.
HTTPPathSpecifies the HTTP path for the compute resource in Databricks that the provider connects to.
TokenSpecifies the personal access token used by the provider to authenticate to Databricks.

AWS Authentication


プロパティ説明
AWSAccessKeyAWS アカウントのアクセスキーを指定します。この値には、AWS セキュリティ認証情報ページからアクセスできます。
AWSSecretKeyAWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。
AWSRegionAmazon Web サービスのホスティングリージョン。
AWSS3BucketSpecifies the name of the AWS S3 bucket that the provider uses for staging or transferring data when connecting to Databricks.

Azure Authentication


プロパティ説明
AzureStorageAccountAzure ストレージアカウント名。
AzureAccessKeyAzure アカウントに関連付けられているストレージキー。
AzureTenantデータにアクセスするために使用されているDatabricks テナントを識別します。テナントのドメイン名(例: contoso.onmicrosoft.com )またはディレクトリ(テナント)ID のいずれかを受け付けます。
AzureBlobContainerSpecifies the name of the Azure Blob Storage container that the provider uses for staging or transferring data when connecting to Databricks.

AzureServicePrincipal Authentication


プロパティ説明
AzureTenantIdSpecifies the directory (tenant) ID of your Microsoft Entra ID that the provider uses to authenticate to Databricks.
AzureClientIdSpecifies the application (client) ID of the Microsoft Entra ID application that the provider uses to authenticate to Databricks.
AzureClientSecretSpecifies the client secret for the Microsoft Entra ID application that the provider uses to authenticate to Databricks.

OAuth


プロパティ説明
OAuthClientIdカスタムOAuth アプリケーションに割り当てられたクライアントID(コンシューマーキーとも呼ばれます)を指定します。このID は、認証時にOAuth 認可サーバーにアプリケーションを識別させるために必要です。
OAuthClientSecretカスタムOAuth アプリケーションに割り当てられたクライアントシークレットを指定します。この機密情報は、OAuth 認可サーバーに対してアプリケーションを認証するために使用されます。(カスタムOAuth アプリケーションのみ)
Scopeデータへの適切なアクセスを確実にするために、認証ユーザーのアプリケーションへのアクセス範囲を指定します。 カスタムOAuth アプリケーションが必要な場合は、通常、アプリケーションの作成時に指定します。
OAuthLevelSpecifies whether the provider performs OAuth authentication at the workspace level or at the account level in Databricks.
DatabricksAccountIdSpecifies the unique account ID for your Databricks account.

SSL


プロパティ説明
SSLServerCertTLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。

Logging


プロパティ説明
VerbosityログファイルのVerbosity レベルを指定し、記録される情報の詳細度を制御します。サポートされる値の範囲は1から5までです。

Schema


プロパティ説明
BrowsableSchemasレポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。
CatalogSpecifies the default catalog that the provider uses when connecting to Databricks.
PrimaryKeyIdentifiersSpecifies primary keys for tables in the hive_metastore catalog.

Databricks


プロパティ説明
CloudStorageTypeSpecifies which cloud storage service the provider uses for staging or transferring data.
StoreTableInCloudSpecifies whether the Databricks server creates and stores new tables in external cloud storage instead of the Databricks File System (DBFS).
QueryTableDetailsSpecifies whether the provider uses the DESCRIBE FORMATTED command in Databricks to retrieve detailed table metadata.
UseUploadApiSpecifies whether the provider uses the Databricks Upload API to optimize Bulk INSERT operations.
UseCloudFetchSpecifies whether the provider uses CloudFetch to optimize data transfer for large query result sets in Databricks.
SupportMultiCatalogSpecifies whether the provider enables multi-catalog support for Unity Catalog in Databricks.
QueryAllMetadataSpecifies whether the provider retrieves metadata from all available catalogs and schemas in Databricks or only from those specified in the connection.
CheckSQLWarehouseAvailabilitySpecifies whether the provider checks the availability of the SQL Warehouse in Databricks before establishing a connection.

Miscellaneous


プロパティ説明
AllowPreparedStatementSpecifies whether the provider prepares SQL statements before executing them to improve performance on repeated queries.
ConnectRetryWaitTimeSpecifies the number of seconds the provider waits before retrying a connection request.
ApplicationNameSpecifies the application name that the provider includes in the HTTP User-Agent header when connecting to Databricks.
AsyncQueryTimeoutSpecifies the number of seconds the provider waits for asynchronous requests that retrieve large result sets before timing out.
DefaultColumnSizeSpecifies the default length, in characters, of string fields when the provider cannot determine a size from metadata.
DescribeCommandSpecifies which command the provider uses to retrieve metadata from Databricks.
DetectViewSpecifies whether the provider uses the DESCRIBE FORMATTED command to determine whether an object in Databricks is a table or a view.
IncludeSystemSchemasSpecifies whether to include the system catalog 'system' and system schema 'information_schema'.
MaxRows集計やGROUP BY を含まないクエリで返される最大行数を指定します。
PseudoColumnsテーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。
ServerConfigurationsSpecifies configuration variables to override the default settings on the Databricks server.
ServerTimeZoneSpecifies how the provider interprets datetime values returned from Databricks.
Timeoutprovider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。
UseDescTableQuerySpecifies whether the provider retrieves table column metadata using a DESC TABLE query instead of the Thrift API.
UseInsertSelectSyntaxDEPRECATED. This property is no longer supported, and should not be used. It will be removed in a future release.
CData Cloud

Authentication

このセクションでは、本プロバイダーの接続文字列で設定可能なAuthentication プロパティの全リストを提供します。


プロパティ説明
AuthSchemeSpecifies the authentication scheme that the provider uses to connect to Databricks.
ServerSpecifies the host name of your Databricks workspace or SQL warehouse endpoint.
ProtocolVersionSpecifies the protocol version used by the provider when authenticating and exchanging data with Databricks.
DatabaseSpecifies the name of the database in Databricks that the provider uses for the connection.
HTTPPathSpecifies the HTTP path for the compute resource in Databricks that the provider connects to.
TokenSpecifies the personal access token used by the provider to authenticate to Databricks.
CData Cloud

AuthScheme

Specifies the authentication scheme that the provider uses to connect to Databricks.

Possible Values

PersonalAccessToken, OAuthU2M, OAuthM2M, AzureServicePrincipal, AzureAD

データ型

string

デフォルト値

"PersonalAccessToken"

解説

The AuthScheme property determines which authentication flow the Cloud uses when connecting to Databricks. Each option requires a different set of supporting connection properties.

When set to PersonalAccessToken, the Cloud authenticates by using a personal access token from Databricks.

When set to OAuthU2M, the Cloud uses the OAuth user-to-machine (U2M) flow. Set OAuthLevel, DatabricksAccountId (optional), OAuthClientId, and CallbackURL.

When set to OAuthM2M, the Cloud uses the OAuth machine-to-machine (M2M) flow. Set OAuthLevel, DatabricksAccountId (optional), OAuthClientId, and OAuthClientSecret. The client ID and secret can be generated by creating a Databricks service principal.

When this property is set to AzureServicePrincipal, the Cloud authenticates with an Azure service principal. Set AzureTenantId, AzureClientId, and AzureClientSecret. Follow the instructions in Get Microsoft Entra ID tokens for service principals to register an Azure AD application, and in Assign Azure roles using the Azure portal to assign appropriate roles in Azure.

When set to AzureAD, the Cloud authenticates through Azure Active Directory OAuth. Set AzureTenantId, OAuthClientId, OAuthClientSecret (optional), and CallbackURL. Follow the instructions in Configure an app in Azure portal to register an Azure AD application. The client secret is required only if the platform type in your Azure app is "Web".

When set to AzureMSI, the Cloud automatically obtains Azure Managed Service Identity credentials when running on an Azure VM.

CData Cloud

Server

Specifies the host name of your Databricks workspace or SQL warehouse endpoint.

データ型

string

デフォルト値

""

解説

The Server property identifies the host name used by the Cloud to connect to Databricks. This is typically the domain portion of your workspace URL, for example: acme.cloud.databricks.com.

You can find this value in your browser’s address bar when signed in to your Databricks workspace.

This property is required for all connection types and determines which workspace or endpoint the Cloud connects to.

CData Cloud

ProtocolVersion

Specifies the protocol version used by the provider when authenticating and exchanging data with Databricks.

Possible Values

1, 2, 3, 4, 5, 6, 7, 8

データ型

string

デフォルト値

"8"

解説

The ProtocolVersion property defines the protocol version used between the Cloud and Databricks. This setting determines how requests and responses are encoded during authentication and query execution.

The default value of 8 represents the latest supported protocol version in Databricks.

Changing this value is typically only necessary when connecting to legacy environments or troubleshooting protocol compatibility issues.

CData Cloud

Database

Specifies the name of the database in Databricks that the provider uses for the connection.

データ型

string

デフォルト値

""

解説

A database in Databricks is a logical container for schemas and tables within a catalog. In Unity Catalog environments, each database belongs to a specific catalog, such as catalog_name.database_name.

Set this property to the database that you want the Cloud to query by default. If no value is provided, the default database for the configured catalog is used.

This property is useful for targeting a specific database when working with multiple data environments or Unity Catalog configurations in Databricks.

CData Cloud

HTTPPath

Specifies the HTTP path for the compute resource in Databricks that the provider connects to.

データ型

string

デフォルト値

""

解説

The HTTPPath property identifies the path component of the JDBC or ODBC endpoint for your compute resource in Databricks. This value directs the Cloud to the correct SQL Warehouse or cluster.

You can find the HTTP path in the Databricks workspace under Compute > your SQL Warehouse or Cluster > Connection details (or Advanced options) > JDBC/ODBC > HTTP Path.

An example format is sql/protocolv1/o/123456789/1234-123456-1ab2cdef.

This property is required for all authenticated connections to Databricks and is useful for ensuring the Cloud targets the correct compute resource.

CData Cloud

Token

Specifies the personal access token used by the provider to authenticate to Databricks.

データ型

string

デフォルト値

""

解説

The Token property provides the authentication token that the Cloud uses to access your Databricks workspace or SQL warehouse when AuthScheme is set to PersonalAccessToken.

You can generate a new token in the Databricks UI by navigating to User Settings > Access Tokens.

This token grants access according to your user permissions in Databricks and should be stored securely.

This property is required when using the PersonalAccessToken authentication scheme.

CData Cloud

AWS Authentication

このセクションでは、本プロバイダーの接続文字列で設定可能なAWS Authentication プロパティの全リストを提供します。


プロパティ説明
AWSAccessKeyAWS アカウントのアクセスキーを指定します。この値には、AWS セキュリティ認証情報ページからアクセスできます。
AWSSecretKeyAWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。
AWSRegionAmazon Web サービスのホスティングリージョン。
AWSS3BucketSpecifies the name of the AWS S3 bucket that the provider uses for staging or transferring data when connecting to Databricks.
CData Cloud

AWSAccessKey

AWS アカウントのアクセスキーを指定します。この値には、AWS セキュリティ認証情報ページからアクセスできます。

データ型

string

デフォルト値

""

解説

AWS アカウントのアクセスキーを見つけるには、次の手順に従います。

  1. ルートアカウントの認証情報を使用してAWS 管理コンソールにサインインします。
  2. アカウント名または番号を選択します。
  3. メニューでMy Security Credentials を選択します。
  4. Continue to Security Credentials をクリックします。
  5. ルートアカウントのアクセスキーを表示または管理するには、Access Keys セクションを展開します。

CData Cloud

AWSSecretKey

AWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。

データ型

string

デフォルト値

""

解説

AWS アカウントのシークレットキー。この値には、[AWS セキュリティ認証情報]ページからアクセスできます。

  1. ルートアカウントの認証情報を使用してAWS 管理コンソールにサインインします。
  2. アカウント名または番号を選択し、表示されたメニューで[My Security Credentials]を選択します。
  3. [Continue to Security Credentials]をクリックし、[Access Keys]セクションを展開して、ルートアカウントのアクセスキーを管理または作成します。

CData Cloud

AWSRegion

Amazon Web サービスのホスティングリージョン。

Possible Values

OHIO, NORTHERNVIRGINIA, NORTHERNCALIFORNIA, OREGON, CAPETOWN, HONGKONG, TAIPEI, HYDERABAD, JAKARTA, MALAYSIA, MELBOURNE, MUMBAI, OSAKA, SEOUL, SINGAPORE, SYDNEY, THAILAND, TOKYO, CENTRAL, CALGARY, BEIJING, NINGXIA, FRANKFURT, IRELAND, LONDON, MILAN, PARIS, SPAIN, STOCKHOLM, ZURICH, TELAVIV, MEXICOCENTRAL, BAHRAIN, UAE, SAOPAULO, GOVCLOUDEAST, GOVCLOUDWEST, ISOLATEDUSEAST, ISOLATEDUSEASTB, ISOLATEDUSEASTF, ISOLATEDUSSOUTHF, ISOLATEDUSWEST, ISOLATEDEUWEST

データ型

string

デフォルト値

"NORTHERNVIRGINIA"

解説

Amazon Web サービスのホスティングリージョン。利用可能な値は、OHIO、NORTHERNVIRGINIA、NORTHERNCALIFORNIA、OREGON、CAPETOWN、HONGKONG、TAIPEI、HYDERABAD、JAKARTA、MALAYSIA、MELBOURNE、MUMBAI、OSAKA、SEOUL、SINGAPORE、SYDNEY、THAILAND、TOKYO、CENTRAL、CALGARY、BEIJING、NINGXIA、FRANKFURT、IRELAND、LONDON、MILAN、PARIS、SPAIN、STOCKHOLM、ZURICH、TELAVIV、MEXICOCENTRAL、BAHRAIN、UAE、SAOPAULO、GOVCLOUDEAST、GOVCLOUDWEST、ISOLATEDUSEAST、ISOLATEDUSEASTB、ISOLATEDUSEASTF、ISOLATEDUSSOUTHF、ISOLATEDUSWEST、およびISOLATEDEUWEST です。

CData Cloud

AWSS3Bucket

Specifies the name of the AWS S3 bucket that the provider uses for staging or transferring data when connecting to Databricks.

データ型

string

デフォルト値

""

解説

An Amazon S3 bucket is a top-level container for storing objects in AWS. The AWSS3Bucket property identifies the specific bucket the Cloud accesses for uploading, downloading, or staging data.

Enter the bucket name exactly as it appears in the AWS Management Console.

This property is useful when your Databricks connection relies on AWS storage for temporary data operations or large result transfers.

CData Cloud

Azure Authentication

このセクションでは、本プロバイダーの接続文字列で設定可能なAzure Authentication プロパティの全リストを提供します。


プロパティ説明
AzureStorageAccountAzure ストレージアカウント名。
AzureAccessKeyAzure アカウントに関連付けられているストレージキー。
AzureTenantデータにアクセスするために使用されているDatabricks テナントを識別します。テナントのドメイン名(例: contoso.onmicrosoft.com )またはディレクトリ(テナント)ID のいずれかを受け付けます。
AzureBlobContainerSpecifies the name of the Azure Blob Storage container that the provider uses for staging or transferring data when connecting to Databricks.
CData Cloud

AzureStorageAccount

Azure ストレージアカウント名。

データ型

string

デフォルト値

""

解説

Azure ストレージアカウントの名前。

CData Cloud

AzureAccessKey

Azure アカウントに関連付けられているストレージキー。

データ型

string

デフォルト値

""

解説

Databricks アカウントに関連付けられているストレージキー。以下のように取得できます:

  1. ルートアカウントの資格情報を使用してAzure ポータルにサインインします。(https://portal.azure.com/)
  2. ストレージアカウントをクリックして、使用するストレージアカウントを選択します。
  3. 設定で[アクセスキー]をクリックします。
  4. ページ上にストレージアカウント名とキーが表示されます。

CData Cloud

AzureTenant

データにアクセスするために使用されているDatabricks テナントを識別します。テナントのドメイン名(例: contoso.onmicrosoft.com )またはディレクトリ(テナント)ID のいずれかを受け付けます。

データ型

string

デフォルト値

""

解説

テナントとは、Microsoft Entra ID(旧称:Azure AD)を通じて管理される、組織のユーザーやリソースのためのデジタルコンテナです。 各テナントには一意のディレクトリID が関連付けられており、多くの場合、カスタムドメイン(例:microsoft.com やcontoso.onmicrosoft.com)も関連付けられています。

Microsoft Entra 管理センターでディレクトリ(テナント)ID を確認するには、Microsoft Entra ID -> プロパティに移動し、「ディレクトリ(テナント)ID」と表示されている値をコピーします。

このプロパティは以下の場合に必要です。

  • AuthScheme がAzureServicePrincipal またはAzureServicePrincipalCert に設定されている場合
  • AuthScheme がAzureAD で、ユーザーアカウントが複数のテナントに属している場合

テナントの値は、2つの形式のいずれかで指定できます。

  • ドメイン名(例:contoso.onmicrosoft.com)
  • GUID 形式のディレクトリ(テナント)ID(例:c9d7b8e4-1234-4f90-bc1a-2a28e0f9e9e0)

テナントを明示的に指定することで、認証リクエストが正しいディレクトリにルーティングされるようになります。これは、ユーザーが複数のテナントに所属している場合や、サービスプリンシパルベースの認証を使用する場合に特に重要です。

この値が必要な場面で省略されると、認証に失敗したり、誤ったテナントに接続されたりする可能性があります。その結果、認可されていないまたはリソースが見つからないといったエラーが発生する可能性があります。

CData Cloud

AzureBlobContainer

Specifies the name of the Azure Blob Storage container that the provider uses for staging or transferring data when connecting to Databricks.

データ型

string

デフォルト値

""

解説

An Azure Blob Storage container is a logical grouping of blobs (files) within a storage account. The AzureBlobContainer property identifies the container that the Cloud accesses for uploading, downloading, or staging data.

Enter the container name as it appears in your Azure Storage account.

This property is useful when your Databricks connection relies on Azure storage for temporary data operations or large result transfers.

CData Cloud

AzureServicePrincipal Authentication

このセクションでは、本プロバイダーの接続文字列で設定可能なAzureServicePrincipal Authentication プロパティの全リストを提供します。


プロパティ説明
AzureTenantIdSpecifies the directory (tenant) ID of your Microsoft Entra ID that the provider uses to authenticate to Databricks.
AzureClientIdSpecifies the application (client) ID of the Microsoft Entra ID application that the provider uses to authenticate to Databricks.
AzureClientSecretSpecifies the client secret for the Microsoft Entra ID application that the provider uses to authenticate to Databricks.
CData Cloud

AzureTenantId

Specifies the directory (tenant) ID of your Microsoft Entra ID that the provider uses to authenticate to Databricks.

データ型

string

デフォルト値

""

解説

The AzureTenantId property identifies the Microsoft Entra ID (formerly Azure Active Directory) tenant that owns the registered application used for authentication.

You can find the tenant ID in the Azure portal under Microsoft Entra ID > Overview > Tenant ID.

This property is required when the AuthScheme is set to AzureServicePrincipal and may also be required for AzureAD authentication, depending on your OAuth configuration.

CData Cloud

AzureClientId

Specifies the application (client) ID of the Microsoft Entra ID application that the provider uses to authenticate to Databricks.

データ型

string

デフォルト値

""

解説

The AzureClientId property identifies the registered application in Microsoft Entra ID (formerly Azure Active Directory) that represents your service principal.

You can find the application (client) ID in the Azure portal under Microsoft Entra ID > App registrations > Your application.

This property is required when the AuthScheme is set to AzureServicePrincipal or AzureAD.

CData Cloud

AzureClientSecret

Specifies the client secret for the Microsoft Entra ID application that the provider uses to authenticate to Databricks.

データ型

string

デフォルト値

""

解説

The AzureClientSecret property stores the client secret associated with your Microsoft Entra ID (formerly Azure Active Directory) application. The secret acts as a password that the Cloud uses when authenticating through an Azure service principal.

You can create and view client secrets in the Azure portal under Microsoft Entra ID > App registrations > Your application > Certificates & secrets.

This property is required when the AuthScheme is set to AzureServicePrincipal and may also be required for AzureAD if the registered platform type in your Azure app is "Web".

CData Cloud

OAuth

このセクションでは、本プロバイダーの接続文字列で設定可能なOAuth プロパティの全リストを提供します。


プロパティ説明
OAuthClientIdカスタムOAuth アプリケーションに割り当てられたクライアントID(コンシューマーキーとも呼ばれます)を指定します。このID は、認証時にOAuth 認可サーバーにアプリケーションを識別させるために必要です。
OAuthClientSecretカスタムOAuth アプリケーションに割り当てられたクライアントシークレットを指定します。この機密情報は、OAuth 認可サーバーに対してアプリケーションを認証するために使用されます。(カスタムOAuth アプリケーションのみ)
Scopeデータへの適切なアクセスを確実にするために、認証ユーザーのアプリケーションへのアクセス範囲を指定します。 カスタムOAuth アプリケーションが必要な場合は、通常、アプリケーションの作成時に指定します。
OAuthLevelSpecifies whether the provider performs OAuth authentication at the workspace level or at the account level in Databricks.
DatabricksAccountIdSpecifies the unique account ID for your Databricks account.
CData Cloud

OAuthClientId

カスタムOAuth アプリケーションに割り当てられたクライアントID(コンシューマーキーとも呼ばれます)を指定します。このID は、認証時にOAuth 認可サーバーにアプリケーションを識別させるために必要です。

データ型

string

デフォルト値

""

解説

このプロパティは2つのケースで必要となります:

  • カスタムOAuth アプリケーションを使用する場合。たとえば、Web ベースの認証フロー、サービスベースの認証、またはアプリケーションの登録が必要な証明書ベースのフローなどが該当します。
  • ドライバーが埋め込みOAuth 資格情報を提供しない場合。

(ドライバーが埋め込みOAuth 資格情報を提供する場合、この値はすでにCloud によって設定されており、手動で入力する必要がないことがあります。)

OAuthClientId は、認証付きの接続を構成する際に、OAuthClientSecret やOAuthSettingsLocation などの他のOAuth 関連プロパティと一緒に使用されるのが一般的です。

OAuthClientId は、ユーザーがOAuth 経由で認証を行う前に設定する必要がある、主要な接続パラメータの1つです。 この値は、通常、ID プロバイダーのアプリケーション登録設定で確認できます。 Client ID、Application ID、Consumer Key などとラベル付けされた項目を探してください。

クライアントID は、クライアントシークレットのような機密情報とは見なされませんが、アプリケーションの識別情報の一部であるため、慎重に取り扱う必要があります。公開リポジトリや共有設定ファイルでこの値を露出させないようにしてください。

接続設定時にこのプロパティを使用する方法の詳細については、接続の確立 を参照してください。

CData Cloud

OAuthClientSecret

カスタムOAuth アプリケーションに割り当てられたクライアントシークレットを指定します。この機密情報は、OAuth 認可サーバーに対してアプリケーションを認証するために使用されます。(カスタムOAuth アプリケーションのみ)

データ型

string

デフォルト値

""

解説

このプロパティ(アプリケーションシークレットまたはコンシューマシークレットとも呼ばれます)は、安全なクライアント認証を必要とするすべてのフローでカスタムOAuth アプリケーションを使用する場合に必要です。たとえば、Web ベースのOAuth、サービスベースの接続、証明書ベースの認可フローなどが該当します。 組み込みOAuth アプリケーションを使用する場合は必要ありません。

クライアントシークレットは、OAuth フローのトークン交換ステップで使用されます。このステップでは、ドライバーが認可サーバーにアクセストークンを要求します。 この値が欠落しているか正しくない場合、認証はinvalid_client またはunauthorized_client エラーで失敗します。

OAuthClientSecret は、ユーザーがOAuth 経由で認証を行う前に設定する必要がある、主要な接続パラメータの1つです。この値は、OAuth アプリケーションを登録する際にID プロバイダーから取得できます。

Notes:

  • この値は安全に保管し、公開リポジトリやスクリプト、安全でない環境では決して公開しないようにしてください。
  • クライアントシークレットは、一定期間が経過すると有効期限が切れる場合もあります。 アクセスを中断させないために、有効期限を常に監視し、必要に応じてシークレットをローテーションするようにしてください。

接続設定時にこのプロパティを使用する方法の詳細については、接続の確立 を参照してください。

CData Cloud

Scope

データへの適切なアクセスを確実にするために、認証ユーザーのアプリケーションへのアクセス範囲を指定します。 カスタムOAuth アプリケーションが必要な場合は、通常、アプリケーションの作成時に指定します。

データ型

string

デフォルト値

""

解説

スコープは、認証ユーザーがどのようなアクセス権を持つかを定義するために設定されます。例えば、読み取り、読み取りと書き込み、機密情報への制限付きアクセスなどです。システム管理者は、スコープを使用して機能またはセキュリティクリアランスによるアクセスを選択的に有効化できます。

InitiateOAuth がGETANDREFRESH に設定されている場合、要求するスコープを変更したい場合はこのプロパティを使用する必要があります。

InitiateOAuth がREFRESH またはOFF のいずれかに設定されている場合、このプロパティまたはScope 入力を使用して、要求するスコープを変更できます。

CData Cloud

OAuthLevel

Specifies whether the provider performs OAuth authentication at the workspace level or at the account level in Databricks.

Possible Values

WorkspaceLevel, AccountLevel

データ型

string

デフォルト値

"WorkspaceLevel"

解説

The OAuthLevel property determines the scope of OAuth authentication when connecting to Databricks. When this property is set to WorkspaceLevel, the Cloud authenticates to a specific workspace and obtains an OAuth token that grants access only within that workspace.

When this property is set to AccountLevel, the Cloud authenticates through the account console and obtains a token that grants access to account-level resources. This level is required for features such as Unity Catalog or user and permission management across multiple workspaces.

This property is useful for choosing the OAuth token scope that matches your intended access level and deployment configuration in Databricks.

CData Cloud

DatabricksAccountId

Specifies the unique account ID for your Databricks account.

データ型

string

デフォルト値

""

解説

The DatabricksAccountId property identifies your Databricks account for account-level authentication flows. Each account ID is unique and distinct from workspace identifiers.

You can find the account ID in the Databricks Account Console by selecting your username in the upper-right corner and viewing the Account ID in the drop-down menu.

This value is only visible in the account console and does not appear within individual workspaces.

CData Cloud

SSL

このセクションでは、本プロバイダーの接続文字列で設定可能なSSL プロパティの全リストを提供します。


プロパティ説明
SSLServerCertTLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。
CData Cloud

SSLServerCert

TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。

データ型

string

デフォルト値

""

解説

TLS/SSL 接続を使用している場合は、このプロパティを使用して、サーバーが受け入れるTLS/SSL 証明書を指定できます。このプロパティに値を指定すると、マシンによって信頼されていない他の証明書はすべて拒否されます。

このプロパティは、次のフォームを取ります:

説明 例
フルPEM 証明書(例では省略されています) -----BEGIN CERTIFICATE-----
MIIChTCCAe4CAQAwDQYJKoZIhv......Qw==
-----END CERTIFICATE-----
証明書を保有するローカルファイルへのパス。 C:\cert.cer
公開鍵(例では省略されています) -----BEGIN RSA PUBLIC KEY-----
MIGfMA0GCSq......AQAB
-----END RSA PUBLIC KEY-----
MD5 Thumbprint(hex 値はスペースまたはコロン区切り) ecadbdda5a1529c58a1e9e09828d70e4
SHA1 Thumbprint(hex 値はスペースまたはコロン区切り) 34a929226ae0819f2ec14b4a3d904f801cbb150d

Note:'*' を使用してすべての証明書を受け入れるように指定することも可能ですが、セキュリティ上の懸念があるため推奨されません。

CData Cloud

Logging

このセクションでは、本プロバイダーの接続文字列で設定可能なLogging プロパティの全リストを提供します。


プロパティ説明
VerbosityログファイルのVerbosity レベルを指定し、記録される情報の詳細度を制御します。サポートされる値の範囲は1から5までです。
CData Cloud

Verbosity

ログファイルのVerbosity レベルを指定し、記録される情報の詳細度を制御します。サポートされる値の範囲は1から5までです。

データ型

string

デフォルト値

"1"

解説

このプロパティは、Cloud がログファイルに含める詳細レベルを定義します。 Verbosity レベルを高くするとログに記録される情報の詳細が増えますが、ログファイルが大きくなり取り込まれるデータが増えるためパフォーマンスが低下する可能性があります。

デフォルトのVerbosity レベルは1で、通常の運用にはこれが推奨されます。 より高いVerbosity レベルは主にデバッグを目的としています。 各レベルの詳細については、ログ を参照してください。

LogModules プロパティと組み合わせることで、Verbosity は特定の情報カテゴリに対するログの詳細度を調整できます。

CData Cloud

Schema

このセクションでは、本プロバイダーの接続文字列で設定可能なSchema プロパティの全リストを提供します。


プロパティ説明
BrowsableSchemasレポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。
CatalogSpecifies the default catalog that the provider uses when connecting to Databricks.
PrimaryKeyIdentifiersSpecifies primary keys for tables in the hive_metastore catalog.
CData Cloud

BrowsableSchemas

レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。

データ型

string

デフォルト値

""

解説

利用可能なデータベーススキーマをすべてリストすると余分な時間がかかり、パフォーマンスが低下します。 接続文字列にスキーマのリストを指定することで、時間を節約しパフォーマンスを向上させることができます。

CData Cloud

Catalog

Specifies the default catalog that the provider uses when connecting to Databricks.

データ型

string

デフォルト値

"hive_metastore"

解説

A catalog in Databricks is a top-level data namespace that organizes schemas and tables. Unity Catalog environments can contain multiple catalogs, while legacy workspaces use the default Hive metastore.

When the SupportMultiCatalog property is set to true, the Catalog property must also be set to specify which catalog to use by default.

In most cases, this value should remain hive_metastore unless your workspace uses Unity Catalog and you want to connect to a different catalog.

This property is useful for defining the default data namespace when working with multiple catalogs or Unity Catalog configurations in Databricks.

CData Cloud

PrimaryKeyIdentifiers

Specifies primary keys for tables in the hive_metastore catalog.

データ型

string

デフォルト値

""

解説

The PrimaryKeyIdentifiers property defines primary keys for tables that do not natively include them in Databricks. This property only applies to the hive_metastore catalog.

Since Databricks does not enforce primary keys, defining them manually can enable DML operations such as UPDATE or DELETE and improve compatibility with tools that expect primary key metadata.

Primary keys are defined as a list of rules, where each rule maps tables to one or more key columns. Multiple rules are separated by semicolons.

For example:

PrimaryKeyIdentifiers="*=my_key;my_table=my_key2,my_key3;my_nokeys_table=;"

This example defines three rules:

  1. *=my_key: All tables without a specific rule have a single primary key column named my_key. Multiple keys can be set by using a comma-separated list (for example, *=my_key,my_key2).
  2. my_table=my_key2,my_key3: The my_table table has two primary key columns, my_key2 and my_key3. Missing columns are ignored.
  3. my_nokeys_table=: The my_nokeys_table table has no primary keys, overriding the default rule.

Table identifiers in each rule can include the table name only, the schema and table, or the catalog, schema, and table. Any name can be quoted using SQL-style delimiters:

/* Rules with just table names use the default connection Catalog and Schema.
   All these rules refer to the same table when Catalog=someCatalog and Schema=someSchema */

someTable=a,b,c
someSchema.someTable=a,b,c
someCatalog.someSchema.someTable=a,b,c

/* Any table or column name may be quoted */
`someCatalog`."someSchema".[someTable]=`a`,[b],"c"

This property is useful for defining primary key metadata in Databricks when working with tools or operations that rely on key-based updates or synchronization logic.

CData Cloud

Databricks

このセクションでは、本プロバイダーの接続文字列で設定可能なDatabricks プロパティの全リストを提供します。


プロパティ説明
CloudStorageTypeSpecifies which cloud storage service the provider uses for staging or transferring data.
StoreTableInCloudSpecifies whether the Databricks server creates and stores new tables in external cloud storage instead of the Databricks File System (DBFS).
QueryTableDetailsSpecifies whether the provider uses the DESCRIBE FORMATTED command in Databricks to retrieve detailed table metadata.
UseUploadApiSpecifies whether the provider uses the Databricks Upload API to optimize Bulk INSERT operations.
UseCloudFetchSpecifies whether the provider uses CloudFetch to optimize data transfer for large query result sets in Databricks.
SupportMultiCatalogSpecifies whether the provider enables multi-catalog support for Unity Catalog in Databricks.
QueryAllMetadataSpecifies whether the provider retrieves metadata from all available catalogs and schemas in Databricks or only from those specified in the connection.
CheckSQLWarehouseAvailabilitySpecifies whether the provider checks the availability of the SQL Warehouse in Databricks before establishing a connection.
CData Cloud

CloudStorageType

Specifies which cloud storage service the provider uses for staging or transferring data.

Possible Values

DBFS, Azure Blob storage, AWS S3

データ型

string

デフォルト値

"DBFS"

解説

The CloudStorageType property determines the storage system used by the Cloud when reading or writing large result sets or temporary files.

When this property is set to DBFS, the Cloud uses the internal Databricks File System provided by Databricks.

When this property is set to Azure Blob storage, the following properties are required: AzureStorageAccount, AzureAccessKey, and AzureBlobContainer.

When this property is set to AWS S3, the following properties are required: AWSAccessKey, AWSSecretKey, AWSS3Bucket, and AWSRegion.

CData Cloud

StoreTableInCloud

Specifies whether the Databricks server creates and stores new tables in external cloud storage instead of the Databricks File System (DBFS).

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Databricks server stores created tables in an external cloud storage location based on the value of CloudStorageType. In this case, CloudStorageType cannot be set to DBFS.

When this property is set to false, new tables are stored in the default Databricks File System.

This property is useful for directing table storage to managed cloud environments such as AWS S3 or Azure Blob Storage for scalability, durability, or data governance purposes.

CData Cloud

QueryTableDetails

Specifies whether the provider uses the DESCRIBE FORMATTED command in Databricks to retrieve detailed table metadata.

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Cloud runs a DESCRIBE FORMATTED query for each table to collect detailed metadata such as file format, table location, and partitioning information.

This can provide a more complete view of table structure, but may significantly increase metadata query times, especially in large environments.

When this property is set to false, only standard table metadata is queried which improves performance.

This property is useful when applications or workflows require extended table metadata beyond standard schema information.

CData Cloud

UseUploadApi

Specifies whether the provider uses the Databricks Upload API to optimize Bulk INSERT operations.

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Cloud uses the Databricks Upload API to stage and load data in bulk, improving performance for large insert operations by reducing network overhead.

When this property is set to false, data is inserted directly over the active connection, which can be slower for large datasets but may be preferable for smaller or transactional workloads.

This property is useful for accelerating high-volume data ingestion scenarios in Databricks.

CData Cloud

UseCloudFetch

Specifies whether the provider uses CloudFetch to optimize data transfer for large query result sets in Databricks.

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Cloud uses CloudFetch, a mechanism in Databricks that improves performance for large query results by temporarily storing and transferring data through cloud storage rather than the active connection.

When this property is set to false, the Cloud streams query results directly over the connection.

CloudFetch is most beneficial for queries that return very large result sets. For example, more than one million rows. Enabling it can reduce memory usage and improve data retrieval speed for large-scale operations.

CData Cloud

SupportMultiCatalog

Specifies whether the provider enables multi-catalog support for Unity Catalog in Databricks.

データ型

bool

デフォルト値

true

解説

When this property is set to true, the Cloud supports multiple catalogs through Unity Catalog, allowing access to both Unity-managed and legacy catalogs such as hive_metastore.

When this property is set to false, multi-catalog support is disabled, and only a single catalog named CData is available for all operations.

This property is useful for connecting to environments that use Unity Catalog for cross-workspace data governance or for simplifying metadata discovery in single-catalog configurations.

CData Cloud

QueryAllMetadata

Specifies whether the provider retrieves metadata from all available catalogs and schemas in Databricks or only from those specified in the connection.

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Cloud queries metadata from all catalogs and schemas that the connection can access in Databricks.

When this property is set to false, the scope of metadata discovery is limited based on the Catalog and Database properties:

  • If only Catalog is set, metadata is queried from all schemas within that catalog.
  • If both Catalog and Database are set, metadata is queried only from the specified catalog and schema.
  • If neither property is set, metadata is queried from the default catalog and schema.

This property is useful for optimizing connection startup time and reducing the amount of metadata retrieved from Databricks when working with large or complex environments.

CData Cloud

CheckSQLWarehouseAvailability

Specifies whether the provider checks the availability of the SQL Warehouse in Databricks before establishing a connection.

データ型

bool

デフォルト値

true

解説

When this property is set to true, the Cloud performs a preliminary check to verify that the target SQL Warehouse in Databricks is active before completing the connection. This helps prevent query failures caused by inactive or paused warehouses.

When this property is set to false, the Cloud skips the availability check and attempts to connect immediately. This can shorten connection time but may result in an error if the warehouse is not running.

This property is useful for ensuring connection stability in environments where SQL Warehouses may pause due to idle time or cost-saving configurations.

CData Cloud

Miscellaneous

このセクションでは、本プロバイダーの接続文字列で設定可能なMiscellaneous プロパティの全リストを提供します。


プロパティ説明
AllowPreparedStatementSpecifies whether the provider prepares SQL statements before executing them to improve performance on repeated queries.
ConnectRetryWaitTimeSpecifies the number of seconds the provider waits before retrying a connection request.
ApplicationNameSpecifies the application name that the provider includes in the HTTP User-Agent header when connecting to Databricks.
AsyncQueryTimeoutSpecifies the number of seconds the provider waits for asynchronous requests that retrieve large result sets before timing out.
DefaultColumnSizeSpecifies the default length, in characters, of string fields when the provider cannot determine a size from metadata.
DescribeCommandSpecifies which command the provider uses to retrieve metadata from Databricks.
DetectViewSpecifies whether the provider uses the DESCRIBE FORMATTED command to determine whether an object in Databricks is a table or a view.
IncludeSystemSchemasSpecifies whether to include the system catalog 'system' and system schema 'information_schema'.
MaxRows集計やGROUP BY を含まないクエリで返される最大行数を指定します。
PseudoColumnsテーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。
ServerConfigurationsSpecifies configuration variables to override the default settings on the Databricks server.
ServerTimeZoneSpecifies how the provider interprets datetime values returned from Databricks.
Timeoutprovider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。
UseDescTableQuerySpecifies whether the provider retrieves table column metadata using a DESC TABLE query instead of the Thrift API.
UseInsertSelectSyntaxDEPRECATED. This property is no longer supported, and should not be used. It will be removed in a future release.
CData Cloud

AllowPreparedStatement

Specifies whether the provider prepares SQL statements before executing them to improve performance on repeated queries.

データ型

bool

デフォルト値

true

解説

Prepared statements precompile SQL queries so they can be executed multiple times without being re-parsed or recompiled.

When this property is set to true, the Cloud prepares and caches SQL statements before execution. This reduces parsing and compilation overhead for queries that run multiple times.

When this property is set to false, statements are parsed and executed each time without precompilation. This can improve performance when running many unique or one-time queries.

Prepared statements require the Cloud to maintain an active connection while the statement is prepared.

This property is useful for tuning performance based on whether your workloads reuse queries or generate new SQL dynamically.

CData Cloud

ConnectRetryWaitTime

Specifies the number of seconds the provider waits before retrying a connection request.

データ型

string

デフォルト値

"-1"

解説

The ConnectRetryWaitTime property controls how long the Cloud waits before retrying when Databricks responds that a cluster is starting or temporarily unavailable.

When this property is set to a positive integer, the Cloud waits that number of seconds before each retry attempt. Typical values range from 30 to 60 seconds.

When this property is set to -1, the retry feature is disabled.

This property is useful for improving connection reliability when clusters may take time to start or resume in Databricks.

CData Cloud

ApplicationName

Specifies the application name that the provider includes in the HTTP User-Agent header when connecting to Databricks.

データ型

string

デフォルト値

""

解説

This property identifies the client application in HTTP requests sent by the Cloud. The value appears in the User-Agent header and and can help Databricks identify your client in request logs.

For Databricks Runtime (formerly known as Databricks Cluster), use the following format: [isv-name+product-name]/[product-version] [comment]

For Databricks SQL Warehouse, only the optional comment field can be set, using the format: [comment]

Each segment must avoid spaces, parentheses, commas, or new lines. Nested comments are not supported.

This property is useful for identifying your application in Databricks logs and API request tracking.

CData Cloud

AsyncQueryTimeout

Specifies the number of seconds the provider waits for asynchronous requests that retrieve large result sets before timing out.

データ型

int

デフォルト値

300

解説

The AsyncQueryTimeout property defines how long the Cloud allows asynchronous operations to run before cancelling them. It applies to the total execution time of the operation, rather than individual requests.

When this property is set to 0, asynchronous operations do not time out. They continue until they complete successfully or encounter an error condition.

When this property is set to any other value, the Cloud raises an error if the asynchronous request has not finished within the specified number of seconds.

This property is distinct from Timeout, which applies to synchronous operations. It is useful for controlling how long large or complex queries can run before timing out.

CData Cloud

DefaultColumnSize

Specifies the default length, in characters, of string fields when the provider cannot determine a size from metadata.

データ型

string

デフォルト値

"1048576"

解説

プロバイダーの文字列フィールドのデフォルトの長さを設定します。プロバイダーによって設定されていない場合、この値は2000になります。

The DefaultColumnSize property defines the length assigned to string-type columns when the Cloud cannot obtain this information from Databricks metadata.

When this property is not set, the default value of 1048576 is used.

This property is useful when working with systems or queries that do not return explicit string length information, ensuring consistent column definitions across environments.

CData Cloud

DescribeCommand

Specifies which command the provider uses to retrieve metadata from Databricks.

Possible Values

DESCRIBE, DESC

データ型

string

デフォルト値

"DESCRIBE"

解説

The DescribeCommand property determines whether the Cloud uses the full DESCRIBE keyword or its shorthand DESC when issuing metadata queries to the Hive-compatible endpoint in Databricks.

When this property is set to DESCRIBE, the Cloud uses the full standard Hive SQL syntax.

When this property is set to DESC, the Cloud uses the shorthand form, which may be required for compatibility with certain engines or query parsers.

This property is useful for adjusting SQL compatibility when retrieving schema details from Databricks or Hive-based systems.

CData Cloud

DetectView

Specifies whether the provider uses the DESCRIBE FORMATTED command to determine whether an object in Databricks is a table or a view.

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Cloud issues a DESCRIBE FORMATTED command to retrieve detailed metadata and identify whether a specified object in Databricks is a table or a view.

When this property is set to false, the Cloud skips this additional check, which can improve performance but may prevent accurate detection of views.

This property is useful when working with mixed environments that contain both tables and views, ensuring that object types are correctly identified during metadata discovery.

CData Cloud

IncludeSystemSchemas

Specifies whether to include the system catalog 'system' and system schema 'information_schema'.

データ型

bool

デフォルト値

false

解説

When this property is set to true, the Cloud queries and exposes system-defined schemas alongside user-defined schemas. These schemas typically contain metadata tables, built-in views, and internal objects managed by Databricks.

When this property is set to false, the Cloud omits these internal schemas, simplifying the schema view for most users.

This property is useful for advanced users who need access to system metadata or diagnostic information in Databricks.

CData Cloud

MaxRows

集計やGROUP BY を含まないクエリで返される最大行数を指定します。

データ型

int

デフォルト値

-1

解説

このプロパティのデフォルト値である-1 は、クエリに明示的にLIMIT 句が含まれていない限り、行の制限が適用されないことを意味します。 (クエリにLIMIT 句が含まれている場合、クエリで指定された値がMaxRows 設定よりも優先されます。)

MaxRows を0より大きい整数に設定することで、クエリがデフォルトで過度に大きな結果セットを返さないようにします。

このプロパティは、非常に大きなデータセットを返す可能性のあるクエリを実行する際に、パフォーマンスを最適化し、過剰なリソース消費を防ぐのに役立ちます。

CData Cloud

PseudoColumns

テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。

データ型

string

デフォルト値

""

解説

このプロパティを使用すると、Cloud がテーブルカラムとして公開する擬似カラムを定義できます。

個々の擬似カラムを指定するには、以下の形式を使用します。

Table1=Column1;Table1=Column2;Table2=Column3

すべてのテーブルのすべての擬似カラムを含めるには、次を使用してください:

*=*

CData Cloud

ServerConfigurations

Specifies configuration variables to override the default settings on the Databricks server.

データ型

string

デフォルト値

""

解説

The ServerConfigurations property accepts a comma-separated list of configuration variables defined as name-value pairs. Each pair is sent to the Databricks server to override its default values for the current session.

For example: hive.enforce.bucketing=true,hive.enforce.sorting=true

These settings can be used to adjust query behavior, enforce specific runtime constraints, or fine-tune optimization parameters for your Databricks session.

CData Cloud

ServerTimeZone

Specifies how the provider interprets datetime values returned from Databricks.

Possible Values

UTC, LOCAL

データ型

string

デフォルト値

"UTC"

解説

The ServerTimeZone property controls how datetime values are interpreted and converted between the Databricks server and the local system.

When this property is set to UTC, the Cloud assumes the server stores datetime values in Coordinated Universal Time and converts them to the local time zone.

When this property is set to LOCAL, datetime values are interpreted as local time with no conversion applied.

This property is useful for ensuring consistent timestamp handling across environments with different regional or daylight-saving settings.

CData Cloud

Timeout

provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。

データ型

int

デフォルト値

60

解説

タイムアウトは、クエリや操作全体ではなくサーバーとの個々の通信に適用されます。 例えば、各ページング呼び出しがタイムアウト制限内に完了する場合、クエリは60秒を超えて実行を続けることができます。

タイムアウトはデフォルトで60秒に設定されています。タイムアウトを無効にするには、このプロパティを0に設定します。

タイムアウトを無効にすると、操作が成功するか、サーバー側のタイムアウト、ネットワークの中断、またはサーバーのリソース制限などの他の条件で失敗するまで無期限に実行されます。

Note: このプロパティは慎重に使用してください。長時間実行される操作がパフォーマンスを低下させたり、応答しなくなる可能性があるためです。

CData Cloud

UseDescTableQuery

Specifies whether the provider retrieves table column metadata using a DESC TABLE query instead of the Thrift API.

データ型

bool

デフォルト値

true

解説

When this property is set to true, the Cloud issues a DESC TABLE query in Databricks to obtain column information for each table.

When this property is set to false, the Cloud retrieves column metadata using the Thrift API call GetColumns, which is supported in Apache Spark 3.0.0 and later.

Using the Thrift API can improve metadata query performance, but requires a compatible Spark version. The DESC TABLE query provides broader compatibility across Databricks environments.

CData Cloud

UseInsertSelectSyntax

DEPRECATED. This property is no longer supported, and should not be used. It will be removed in a future release.

データ型

bool

デフォルト値

false

解説

When set to true, an INSERT INTO SELECT statement will be used when executing insert statements. When set to false, an INSERT INTO VALUES statement will be used.

Unless explicitly specified, this option will be configured accordingly based on the Databricks version.

CData Cloud

Third Party Copyrights

LZMA from 7Zip LZMA SDK

LZMA SDK is placed in the public domain.

Anyone is free to copy, modify, publish, use, compile, sell, or distribute the original LZMA SDK code, either in source code form or as a compiled binary, for any purpose, commercial or non-commercial, and by any means.

LZMA2 from XZ SDK

Version 1.9 and older are in the public domain.

Xamarin.Forms

Xamarin SDK

The MIT License (MIT)

Copyright (c) .NET Foundation Contributors

All rights reserved.

Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the "Software"), to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions:

The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software.

THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.

NSIS 3.10

Copyright (C) 1999-2025 Contributors THE ACCOMPANYING PROGRAM IS PROVIDED UNDER THE TERMS OF THIS COMMON PUBLIC LICENSE ("AGREEMENT"). ANY USE, REPRODUCTION OR DISTRIBUTION OF THE PROGRAM CONSTITUTES RECIPIENT'S ACCEPTANCE OF THIS AGREEMENT.

1. DEFINITIONS

"Contribution" means:

a) in the case of the initial Contributor, the initial code and documentation distributed under this Agreement, and b) in the case of each subsequent Contributor:

i) changes to the Program, and

ii) additions to the Program;

where such changes and/or additions to the Program originate from and are distributed by that particular Contributor. A Contribution 'originates' from a Contributor if it was added to the Program by such Contributor itself or anyone acting on such Contributor's behalf. Contributions do not include additions to the Program which: (i) are separate modules of software distributed in conjunction with the Program under their own license agreement, and (ii) are not derivative works of the Program.

"Contributor" means any person or entity that distributes the Program.

"Licensed Patents " mean patent claims licensable by a Contributor which are necessarily infringed by the use or sale of its Contribution alone or when combined with the Program.

"Program" means the Contributions distributed in accordance with this Agreement.

"Recipient" means anyone who receives the Program under this Agreement, including all Contributors.

2. GRANT OF RIGHTS

a) Subject to the terms of this Agreement, each Contributor hereby grants Recipient a non-exclusive, worldwide, royalty-free copyright license to reproduce, prepare derivative works of, publicly display, publicly perform, distribute and sublicense the Contribution of such Contributor, if any, and such derivative works, in source code and object code form.

b) Subject to the terms of this Agreement, each Contributor hereby grants Recipient a non-exclusive, worldwide, royalty-free patent license under Licensed Patents to make, use, sell, offer to sell, import and otherwise transfer the Contribution of such Contributor, if any, in source code and object code form. This patent license shall apply to the combination of the Contribution and the Program if, at the time the Contribution is added by the Contributor, such addition of the Contribution causes such combination to be covered by the Licensed Patents. The patent license shall not apply to any other combinations which include the Contribution. No hardware per se is licensed hereunder.

c) Recipient understands that although each Contributor grants the licenses to its Contributions set forth herein, no assurances are provided by any Contributor that the Program does not infringe the patent or other intellectual property rights of any other entity. Each Contributor disclaims any liability to Recipient for claims brought by any other entity based on infringement of intellectual property rights or otherwise. As a condition to exercising the rights and licenses granted hereunder, each Recipient hereby assumes sole responsibility to secure any other intellectual property rights needed, if any. For example, if a third party patent license is required to allow Recipient to distribute the Program, it is Recipient's responsibility to acquire that license before distributing the Program.

d) Each Contributor represents that to its knowledge it has sufficient copyright rights in its Contribution, if any, to grant the copyright license set forth in this Agreement.

3. REQUIREMENTS

A Contributor may choose to distribute the Program in object code form under its own license agreement, provided that:

a) it complies with the terms and conditions of this Agreement; and

b) its license agreement:

i) effectively disclaims on behalf of all Contributors all warranties and conditions, express and implied, including warranties or conditions of title and non-infringement, and implied warranties or conditions of merchantability and fitness for a particular purpose;

ii) effectively excludes on behalf of all Contributors all liability for damages, including direct, indirect, special, incidental and consequential damages, such as lost profits;

iii) states that any provisions which differ from this Agreement are offered by that Contributor alone and not by any other party; and

iv) states that source code for the Program is available from such Contributor, and informs licensees how to obtain it in a reasonable manner on or through a medium customarily used for software exchange.

When the Program is made available in source code form:

a) it must be made available under this Agreement; and

b) a copy of this Agreement must be included with each copy of the Program.

Contributors may not remove or alter any copyright notices contained within the Program.

Each Contributor must identify itself as the originator of its Contribution, if any, in a manner that reasonably allows subsequent Recipients to identify the originator of the Contribution.

4. COMMERCIAL DISTRIBUTION

Commercial distributors of software may accept certain responsibilities with respect to end users, business partners and the like. While this license is intended to facilitate the commercial use of the Program, the Contributor who includes the Program in a commercial product offering should do so in a manner which does not create potential liability for other Contributors. Therefore, if a Contributor includes the Program in a commercial product offering, such Contributor ("Commercial Contributor") hereby agrees to defend and indemnify every other Contributor ("Indemnified Contributor") against any losses, damages and costs (collectively "Losses") arising from claims, lawsuits and other legal actions brought by a third party against the Indemnified Contributor to the extent caused by the acts or omissions of such Commercial Contributor in connection with its distribution of the Program in a commercial product offering. The obligations in this section do not apply to any claims or Losses relating to any actual or alleged intellectual property infringement. In order to qualify, an Indemnified Contributor must: a) promptly notify the Commercial Contributor in writing of such claim, and b) allow the Commercial Contributor to control, and cooperate with the Commercial Contributor in, the defense and any related settlement negotiations. The Indemnified Contributor may participate in any such claim at its own expense.

For example, a Contributor might include the Program in a commercial product offering, Product X. That Contributor is then a Commercial Contributor. If that Commercial Contributor then makes performance claims, or offers warranties related to Product X, those performance claims and warranties are such Commercial Contributor's responsibility alone. Under this section, the Commercial Contributor would have to defend claims against the other Contributors related to those performance claims and warranties, and if a court requires any other Contributor to pay any damages as a result, the Commercial Contributor must pay those damages.

5. NO WARRANTY

EXCEPT AS EXPRESSLY SET FORTH IN THIS AGREEMENT, THE PROGRAM IS PROVIDED ON AN "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, EITHER EXPRESS OR IMPLIED INCLUDING, WITHOUT LIMITATION, ANY WARRANTIES OR CONDITIONS OF TITLE, NON-INFRINGEMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Each Recipient is solely responsible for determining the appropriateness of using and distributing the Program and assumes all risks associated with its exercise of rights under this Agreement, including but not limited to the risks and costs of program errors, compliance with applicable laws, damage to or loss of data, programs or equipment, and unavailability or interruption of operations.

6. DISCLAIMER OF LIABILITY

EXCEPT AS EXPRESSLY SET FORTH IN THIS AGREEMENT, NEITHER RECIPIENT NOR ANY CONTRIBUTORS SHALL HAVE ANY LIABILITY FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING WITHOUT LIMITATION LOST PROFITS), HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OR DISTRIBUTION OF THE PROGRAM OR THE EXERCISE OF ANY RIGHTS GRANTED HEREUNDER, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGES.

7. GENERAL

If any provision of this Agreement is invalid or unenforceable under applicable law, it shall not affect the validity or enforceability of the remainder of the terms of this Agreement, and without further action by the parties hereto, such provision shall be reformed to the minimum extent necessary to make such provision valid and enforceable.

If Recipient institutes patent litigation against a Contributor with respect to a patent applicable to software (including a cross-claim or counterclaim in a lawsuit), then any patent licenses granted by that Contributor to such Recipient under this Agreement shall terminate as of the date such litigation is filed. In addition, if Recipient institutes patent litigation against any entity (including a cross-claim or counterclaim in a lawsuit) alleging that the Program itself (excluding combinations of the Program with other software or hardware) infringes such Recipient's patent(s), then such Recipient's rights granted under Section 2(b) shall terminate as of the date such litigation is filed.

All Recipient's rights under this Agreement shall terminate if it fails to comply with any of the material terms or conditions of this Agreement and does not cure such failure in a reasonable period of time after becoming aware of such noncompliance. If all Recipient's rights under this Agreement terminate, Recipient agrees to cease use and distribution of the Program as soon as reasonably practicable. However, Recipient's obligations under this Agreement and any licenses granted by Recipient relating to the Program shall continue and survive.

Everyone is permitted to copy and distribute copies of this Agreement, but in order to avoid inconsistency the Agreement is copyrighted and may only be modified in the following manner. The Agreement Steward reserves the right to publish new versions (including revisions) of this Agreement from time to time. No one other than the Agreement Steward has the right to modify this Agreement. IBM is the initial Agreement Steward. IBM may assign the responsibility to serve as the Agreement Steward to a suitable separate entity. Each new version of the Agreement will be given a distinguishing version number. The Program (including Contributions) may always be distributed subject to the version of the Agreement under which it was received. In addition, after a new version of the Agreement is published, Contributor may elect to distribute the Program (including its Contributions) under the new version. Except as expressly stated in Sections 2(a) and 2(b) above, Recipient receives no rights or licenses to the intellectual property of any Contributor under this Agreement, whether expressly, by implication, estoppel or otherwise. All rights in the Program not expressly granted under this Agreement are reserved.

This Agreement is governed by the laws of the State of New York and the intellectual property laws of the United States of America. No party to this Agreement will bring a legal action under this Agreement more than one year after the cause of action arose. Each party waives its rights to a jury trial in any resulting litigation.

Apache Thrift Client v. 0.10.0

Copyright (c) 2006 - 2019, The Apache Software Foundation

The Apache License

Version 2.0, January 2004

TERMS AND CONDITIONS FOR USE, REPRODUCTION, AND DISTRIBUTION

1. Definitions.

"License" shall mean the terms and conditions for use, reproduction, and distribution as defined by Sections 1 through 9 of this document.

"Licensor" shall mean the copyright owner or entity authorized by the copyright owner that is granting the License.

"Legal Entity" shall mean the union of the acting entity and all other entities that control, are controlled by, or are under common control with that entity. For the purposes of this definition, "control" means (i) the power, direct or indirect, to cause the direction or management of such entity, whether by contract or otherwise, or (ii) ownership of fifty percent (50%) or more of the outstanding shares, or (iii) beneficial ownership of such entity.

"You" (or "Your") shall mean an individual or Legal Entity exercising permissions granted by this License.

"Source" form shall mean the preferred form for making modifications, including but not limited to software source code, documentation source, and configuration files.

"Object" form shall mean any form resulting from mechanical transformation or translation of a Source form, including but not limited to compiled object code, generated documentation, and conversions to other media types.

"Work" shall mean the work of authorship, whether in Source or Object form, made available under the License, as indicated by a copyright notice that is included in or attached to the work (an example is provided in the Appendix below).

"Derivative Works" shall mean any work, whether in Source or Object form, that is based on (or derived from) the Work and for which the editorial revisions, annotations, elaborations, or other modifications represent, as a whole, an original work of authorship. For the purposes of this License, Derivative Works shall not include works that remain separable from, or merely link (or bind by name) to the interfaces of, the Work and Derivative Works thereof.

"Contribution" shall mean any work of authorship, including the original version of the Work and any modifications or additions to that Work or Derivative Works thereof, that is intentionally submitted to Licensor for inclusion in the Work by the copyright owner or by an individual or Legal Entity authorized to submit on behalf of the copyright owner. For the purposes of this definition, "submitted" means any form of electronic, verbal, or written communication sent to the Licensor or its representatives, including but not limited to communication on electronic mailing lists, source code control systems, and issue tracking systems that are managed by, or on behalf of, the Licensor for the purpose of discussing and improving the Work, but excluding communication that is conspicuously marked or otherwise designated in writing by the copyright owner as "Not a Contribution."

"Contributor" shall mean Licensor and any individual or Legal Entity on behalf of whom a Contribution has been received by Licensor and subsequently incorporated within the Work.

2. Grant of Copyright License. Subject to the terms and conditions of this License, each Contributor hereby grants to You a perpetual, worldwide, non-exclusive, no-charge, royalty-free, irrevocable copyright license to reproduce, prepare Derivative Works of, publicly display, publicly perform, sublicense, and distribute the Work and such Derivative Works in Source or Object form.

3. Grant of Patent License. Subject to the terms and conditions of this License, each Contributor hereby grants to You a perpetual, worldwide, non-exclusive, no-charge, royalty-free, irrevocable (except as stated in this section) patent license to make, have made, use, offer to sell, sell, import, and otherwise transfer the Work, where such license applies only to those patent claims licensable by such Contributor that are necessarily infringed by their Contribution(s) alone or by combination of their Contribution(s) with the Work to which such Contribution(s) was submitted. If You institute patent litigation against any entity (including a cross-claim or counterclaim in a lawsuit) alleging that the Work or a Contribution incorporated within the Work constitutes direct or contributory patent infringement, then any patent licenses granted to You under this License for that Work shall terminate as of the date such litigation is filed.

4. Redistribution. You may reproduce and distribute copies of the Work or Derivative Works thereof in any medium, with or without modifications, and in Source or Object form, provided that You meet the following conditions:

(a) You must give any other recipients of the Work or Derivative Works a copy of this License; and

(b) You must cause any modified files to carry prominent notices stating that You changed the files; and

(c) You must retain, in the Source form of any Derivative Works that You distribute, all copyright, patent, trademark, and attribution notices from the Source form of the Work, excluding those notices that do not pertain to any part of the Derivative Works; and

(d) If the Work includes a "NOTICE" text file as part of its distribution, then any Derivative Works that You distribute must include a readable copy of the attribution notices contained within such NOTICE file, excluding those notices that do not pertain to any part of the Derivative Works, in at least one of the following places: within a NOTICE text file distributed as part of the Derivative Works; within the Source form or documentation, if provided along with the Derivative Works; or, within a display generated by the Derivative Works, if and wherever such third-party notices normally appear. The contents of the NOTICE file are for informational purposes only and do not modify the License. You may add Your own attribution notices within Derivative Works that You distribute, alongside or as an addendum to the NOTICE text from the Work, provided that such additional attribution notices cannot be construed as modifying the License.

You may add Your own copyright statement to Your modifications and may provide additional or different license terms and conditions for use, reproduction, or distribution of Your modifications, or for any such Derivative Works as a whole, provided Your use, reproduction, and distribution of the Work otherwise complies with the conditions stated in this License.

5. Submission of Contributions. Unless You explicitly state otherwise, any Contribution intentionally submitted for inclusion in the Work by You to the Licensor shall be under the terms and conditions of this License, without any additional terms or conditions. Notwithstanding the above, nothing herein shall supersede or modify the terms of any separate license agreement you may have executed with Licensor regarding such Contributions.

6. Trademarks. This License does not grant permission to use the trade names, trademarks, service marks, or product names of the Licensor, except as required for reasonable and customary use in describing the origin of the Work and reproducing the content of the NOTICE file.

7. Disclaimer of Warranty. Unless required by applicable law or agreed to in writing, Licensor provides the Work (and each Contributor provides its Contributions) on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied, including, without limitation, any warranties or conditions of TITLE, NON-INFRINGEMENT, MERCHANTABILITY, or FITNESS FOR A PARTICULAR PURPOSE. You are solely responsible for determining the appropriateness of using or redistributing the Work and assume any risks associated with Your exercise of permissions under this License.

8. Limitation of Liability. In no event and under no legal theory, whether in tort (including negligence), contract, or otherwise, unless required by applicable law (such as deliberate and grossly negligent acts) or agreed to in writing, shall any Contributor be liable to You for damages, including any direct, indirect, special, incidental, or consequential damages of any character arising as a result of this License or out of the use or inability to use the Work (including but not limited to damages for loss of goodwill, work stoppage, computer failure or malfunction, or any and all other commercial damages or losses), even if such Contributor has been advised of the possibility of such damages.

9. Accepting Warranty or Additional Liability. While redistributing the Work or Derivative Works thereof, You may choose to offer, and charge a fee for, acceptance of support, warranty, indemnity, or other liability obligations and/or rights consistent with this License. However, in accepting such obligations, You may act only on Your own behalf and on Your sole responsibility, not on behalf of any other Contributor, and only if You agree to indemnify, defend, and hold each Contributor harmless for any liability incurred by, or claims asserted against, such Contributor by reason of your accepting any such warranty or additional liability.

END OF TERMS AND CONDITIONS

APPENDIX: How to apply the Apache License to your work.

To apply the Apache License to your work, attach the following boilerplate notice, with the fields enclosed by brackets "[]" replaced with your own identifying information. (Don't include the brackets!) The text should be enclosed in the appropriate comment syntax for the file format. We also recommend that a file or class name and description of purpose be included on the same "printed page" as the copyright notice for easier identification within third-party archives.

Copyright [yyyy] [name of copyright owner]

Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at

http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License.

-------------------------------------------------- SOFTWARE DISTRIBUTED WITH THRIFT:

The Apache Thrift software includes a number of subcomponents with separate copyright notices and license terms. Your use of the source code for the these subcomponents is subject to the terms and conditions of the following licenses.

-------------------------------------------------- Portions of the following files are licensed under the MIT License:

lib/erl/src/Makefile.am

Please see doc/otp-base-license.txt for the full terms of this license.

-------------------------------------------------- For the aclocal/ax_boost_base.m4 and contrib/fb303/aclocal/ax_boost_base.m4 components:

# Copyright (c) 2007 Thomas Porschberg <[email protected]> # # Copying and distribution of this file, with or without # modification, are permitted in any medium without royalty provided # the copyright notice and this notice are preserved.

-------------------------------------------------- For the lib/nodejs/lib/thrift/json_parse.js:

/* json_parse.js 2015-05-02 Public Domain. NO WARRANTY EXPRESSED OR IMPLIED. USE AT YOUR OWN RISK.

*/ (By Douglas Crockford <[email protected]>) --------------------------------------------------

Copyright (c) 2025 CData Software, Inc. - All rights reserved.
Build 25.0.9434