Tableau Connector for Apache Hive

Build 24.0.9062

接続の設定

コネクタのインストール 後、Apache Hive 内のデータのデータソースに接続して作成できます。

データソースの設定

データに接続するには、次の手順を実行してください:

  1. 接続 | To a Server詳細をクリックします。
  2. Apache Hive by CData というデータソースを選択します。
  3. 接続に必要な情報を入力します。
  4. サインインをクリックします。
  5. 必要に応じて、データベースおよびスキーマを選択して利用可能なテーブルとビューを確認できます。

Connection Builder の使用

connector は、代表的な接続プロパティをTableau 内で直接利用できるようにします。 しかし、より高度な設定が必要な場合や接続に関するトラブルシューティングが必要な場合には、使いにくいことがあります。 connector には、Tableau の外で接続を作成してテストできる、独立したConnection Builder が付属しています。

Connection Builder にアクセスする方法は2つあります。

  • Windows では、スタートメニューのCData Tableau Connector for Apache Hive フォルダの下にあるConnection Builder というショートカットを使用します。
  • また、ドライバーのインストールディレクトリに移動し、lib ディレクトリで.jar ファイルを実行することによってもConnection Builder を開始できます。

Connection Builder では、接続プロパティに値を設定し、接続テストをクリックしてその動作を確認できます。 また、クリップボードにコピーボタンを使用して、接続文字列をコピーすることもできます。 この接続文字列は、Tableau 内のconnector 接続ウィンドウにあるConnection String オプションに指定できます。

Apache Hive への接続

Apache Hive はセルフホステッド、Amazon EMR、Azure HDInsight、Google DataProc にホストされているインスタンスからの接続をサポートします。

セルフホステッドインスタンス

セルフホステッドインスタンスからApache Hive に接続するには、次の接続パラメータを設定します。

  • TransportMode:Hive サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY(デフォルト)およびHTTP です。
  • Server:HiveServer2 をホストしているサーバーのホスト名、またはIP アドレス。
  • Port:HiveServer2 インスタンスへの接続用のポート。
  • UseSSL(オプション):有効なTLS/SSL に設定。

Amazon EMR

Amazon EMR がホストする&service インスタンスから接続するには、まずEMR へのSSH トンネルを作成する必要があります。これが終わると、接続の準備は完了です。

以下の手順に従います。

  1. EMR へのSSH トンネルを作成:
    1. アクティブなEMR クラスターとEC2 キーペアにアクセスできることを確認します。キーペアは.ppk または.pem 形式です。
    2. クラスター設定でインバウンドトラフィックを認可します。
  2. EMR へのアクティブなトンネルセッションが確立されたら、次の接続パラメータを設定します:
    • Server:Apache Hive サーバーが稼働しているマスターノード(master-public-dns-name)。
    • Port:Apache Hive に接続するためのポート。
    • UseSSHTrue
    • SSHServer:マスターノード(master-public-dns-name)。
    • SSHPort22
    • SSHAuthModePUBLIC_KEY
    • SSHUserhadoop
    • SSHClientCert:キーファイルへの完全パス。
    • SSHClientCertType:キーファイルに対応するタイプ。通常はPEMKEY_FILE またはPPKFILE です。

Azure HDInsight でのHadoop クラスター

Azure HDInsight でホストされているHadoop クラスターへの接続を確立するには、次の接続パラメータを設定します。

  • User:Azure HDInsight でクラスターを作成する際に指定したクラスターユーザー名。
  • Password:Azure HDInsight でクラスターを作成する際に指定したクラスターパスワード。
  • Server:クラスターに対応するサーバー。例:myclustername.azurehdinsight.net
  • Port:HiveServer2 を実行するポート(デフォルトは443)。
  • HTTPPath:hive2 サービスのHTTP パス(デフォルトはhive2)。
  • TransportModeHTTP
  • UseSSLTrue
  • QueryPassthrough(オプション):connector のSQL エンジンをバイパスし、Apache Hive に直接HiveQL クエリを実行する場合はTrue

Google DataProc

Google DataProc インスタンスから接続するには、DataProc 上のApache Hive サーバーが適切に設定されていることを確認し、hive クラスタのWeb インタフェースへのSSH トンネルを構築する必要があります。それらが終わると、接続の準備は完了です。

以下の手順に従います。

  1. DataProc 上のApache Hive サーバーがDataProc Component Gateway を有効にして作成されていることを確認してください。
  2. Hive Cluster の外部IP アドレスを取得するには、Cloud Shell をロードしてインスタンスをリストします。
    gcloud compute instances list

    該当するマシンの外部IP を控えておきます。

  3. Hive クラスタのWeb インタフェースへのSSH トンネルを構築するには:
    1. DataProc 上のHive クラスタに移動し、WEB INTERFACES タブを選択します。
    2. Create an SSH tunnel to connect to a web interface を選択します。クラウドコンソールのコマンドが表示されます。
      このコンソールを使用してSSH キーペアを作成します。コンソールで指定されたディレクトリからプライベートキーをダウンロードします。
    3. SSH ユーティリティでSSH トンネルを設定するには:
      • ホスト名:前述の外部IP。
      • ポート: 22
      • ツールをあなたのSSH プライベートキーに指定します。
      • Tunnel では、オープンポートをlocalhost:10000 にマップします。サーバーは適切にlocalhost を解決します。
  4. これで、Google DataProc でApache Hive に接続する準備ができました。次の接続パラメータを設定します。
    • TransportModeBINARY
    • AuthSchemePlain
    • Port:ローカルマシンで選択されているSSH トンネルポート。

Apache Hive への認証

Apache Hive は、PLAIN SASL、LDAP、NOSASL、およびKerberos 認証をサポートします。

PLAIN SASL

PLAIN SASL でApache Hive に認証するには、Hive 構成ファイル(hive-site.xml)のhive.server2.authentication プロパティをNone に設定し、以下のconnector の接続プロパティを設定します。

  • AuthSchemePLAIN
  • User:ログインするユーザー。名前が指定されない場合、ログインユーザーは「anonymous」に設定されます。
  • Password:ユーザーのパスワード。パスワードが指定されない場合、パスワードは「anonymous」に設定されます。

LDAP

LDAP でApache Hive に認証するには、Hive 構成ファイル(hive-site.xml)のhive.server2.authentication プロパティをLDAP に設定し、connector で以下の接続プロパティを設定します。
  • AuthSchemeLDAP
  • User:ログインするユーザー。
  • Password:ユーザーのパスワード。

NOSASL

NOSASL を使用してApache Hive に認証するには、AuthScheme connector 接続プロパティおよびHive 構成ファイル(hive-site.xml)のhive.server2.authentication プロパティの両方ををNOSASL に設定します。

Kerberos

Kerberos でApache Hive への認証を行うには、AuthSchemeKERBEROS に設定します。

Kerberos 経由でApache Hive への認証を行うには、認証プロパティを定義し、Kerberos が認証チケットを取得する方法を選択する必要があります。

Kerberos チケットの取得

Kerberos チケットは、依頼者のID を認証するために使用されます。正式なログイン / パスワードの代わりにチケットを使用することで、パスワードをローカルに保存したり、ネットワーク経由で送信したりする必要がなくなります。 ユーザーは、ローカルコンピュータでログインするか、 コマンドプロンプトでkinit USER と入力するたびに、再認証されます(チケットはリフレッシュされます)。

connector は、 KRB5CCNAME および / またはKerberosKeytabFile 変数が存在するかどうかに応じて、必要なKerberos チケットを取得する3 つの方法を提供します。

MIT Kerberos 資格情報キャッシュファイル

このオプションを使用すると、MIT Kerberos チケットマネージャーまたはkinit コマンドを使ってチケットを取得できます。このオプションでは、User またはPassword 接続プロパティを設定する必要はありません。

このオプションは、KRB5CCNAME がシステムに作成されている必要があります。

MIT Kerberos 資格情報キャッシュファイル経由でチケット検索を有効にするには:

  1. お使いの環境にKRB5CCNAME 変数が存在することを確認します。
  2. KRB5CCNAME を資格情報キャッシュファイルを指すパスに設定します。(例えば、C:\krb_cache\krb5cc_0 または/tmp/krb5cc_0 です。)資格情報キャッシュファイルは、MIT Kerberos チケットマネージャーを使用してチケットを生成するときに作成されます。
  3. チケットを取得するには:
    1. MIT Kerberos チケットマネージャーアプリケーションを開きます。
    2. Get Ticket をクリックします。
    3. プリンシパル名とパスワードを入力します。
    4. OK をクリックします。

    チケットの取得に成功すると、チケット情報がKerberos チケットマネージャーに表示され、クレデンシャルキャッシュファイルに保存されます。

connector はキャッシュファイルを使用してApache Hive に接続するためのKerberos チケットを取得します。

Note: KRB5CCNAME を編集したくない場合は、KerberosTicketCache プロパティを使用してファイルパスを手動で設定することができます。この設定後に、connector は指定されたキャッシュファイルを使用してApache Hive に接続するためのKerberos チケットを取得します。

Keytab ファイル

お使いの環境にKRB5CCNAME 環境変数がない場合、Keytab ファイルを使用してKerberos チケットを取得できます。

この方法を使用するには、User プロパティを目的のユーザー名に設定し、KerberosKeytabFile プロパティをユーザーに関連付けられたキータブファイルを指すファイルパスに設定します。

User およびPassword

お使いの環境にKRB5CCNAME 環境変数およびKerberosKeytabFile プロパティが設定されていない場合、ユーザーとパスワードの組み合わせを使用してチケットを取得できます。

この方法を使用するには、User およびPassword プロパティを、Apache Hive での認証に使用するユーザー / パスワードの組み合わせに設定します。

クロスレルム認証の有効化

より複雑なKerberos 環境では、複数のレルムおよびKDC サーバーが使用されるクロスレルム認証が必要になる場合があります。例えば、1つのレルム / KDC がユーザー認証に使用され、別のレルム / KDC がサービスチケットの取得に使用される場合です。

このようなクロスレルム認証を有効にするには、KerberosRealm およびKerberosKDC プロパティをユーザー認証に必要な値に設定します。また、KerberosServiceRealm およびKerberosServiceKDC プロパティを、 サービスチケットの取得に必要な値に設定します。

次のステップ

データビジュアライゼーションを作成するには、コネクタの使用 を参照してください。

Copyright (c) 2024 CData Software, Inc. - All rights reserved.
Build 24.0.9062