S3 Connector
Version 24.2.9039
Version 24.2.9039
S3 Connector
The S3 connector integrates with Amazon’s S3 (Simple Storage Service) and other S3-like services (such as Google Storage and Wasabi).
Overview
Each S3 connector can automatically upload to and download from a single S3 bucket.
Before you begin, you need an Amazon account with the appropriate credentials (or account credentials for the S3-like service you are using). Specify the upload and download paths in the bucket. The connector supports download filters by file name.
Connector Configuration
This section contains all of the configurable connector properties.
Settings Tab
Host Configuration
Settings related to the remote connection target.
- コネクタId コネクタの静的な一意の識別子。
- コネクタの種類 コネクタ名とその機能の説明が表示されます。
- コネクタの説明 コネクタとフローにおけるロールについて自由形式の説明を記載するオプションのフィールド。
- Service Use the dropdown to choose which service to connect to. Select Other to specify the base URL to use when connecting to the service.
- Bucket Name The S3 bucket to poll or upload to.
- Region The Region where the specified Bucket Name is stored.
Account Settings
Settings related to the account with permission to access the configured Bucket Name.
- IAM Role Whether to use the attached IAM role to access S3. Only use this setting when CData Arc is hosted on an EC2 instance that has an IAM role attached. The IAM credentials replace the two Key options below.
- Access Key The Access Key account credential acquired from Amazon (or the S3-like service).
- Secret Key The Secret Key account credential acquired from Amazon (or the S3-like service).
- Assume Role ARN Use the two Key options above to call the Amazon STS service to obtain temporary credentials to access S3 with the provided role ARN.
TLS Settings
Settings related to TLS negotiation with the S3 server.
- TLS Check this to enable TLS negotiation.
- Server Public Certificate TLS / SSL サーバーのID を検証するために使用される公開鍵証明書。ターゲットサーバーがTLS / SSL を使用する場合は、このフィールドにサーバーを識別する証明書を設定します。サーバーの証明書が利用できない場合は、この設定を空白のままにして基盤となるOS / JVM に証明書の検証を実行させるか、
任意の証明書
に設定してサーバーのID を暗黙的に信頼させることができます。
Upload
Settings related to the path in the specified bucket where files are uploaded.
- Prefix The remote path on the server where files are uploaded.
- Overwrite Action Whether to overwrite, skip, or fail existing files.
Download
Settings related to the path in the specified bucket where files are uploaded.
- Prefix The remote path on the server from where files are downloaded.
- File Filter A glob pattern filter to determine which files should be downloaded from the remote storage (for example, *.txt). You can use negative patterns to indicate files that should not be downloaded (for example, -*.tmp). Use this setting when you need multiple File Filter patterns. Multiple patterns can be separated by commas, with later filters taking priority except when an exact match is found.
- Delete Check this to delete successfully downloaded files from the remote storage.
Caching
Settings related to caching and comparing files between multiple downloads.
- File Size Comparison Check this to keep a record of downloaded file names and sizes. Previously downloaded files are skipped unless the file size is different than the last download.
- Timestamp Comparison Check this to keep a record of downloaded file names and last-modified timestamps. Previously downloaded files are skipped unless the timestamp is different than the last download.
Note: When you enable caching, the file names are case-insensitive. For example, the connector cannot distinguish between TEST.TXT
and test.txt
.
Automation Tab
Automation Settings
Settings related to the automatic processing of files by the connector.
- Upload Whether files arriving at the connector are automatically uploaded.
- Retry Interval The amount of time before a failed upload is retried.
- Max Attempts The maximum number of times the connector processes the input file. Success is measured based on a successful server acknowledgement. If this is set to 0, the connect retries the file indefinitely.
- Download Whether the connector should automatically poll the remote download path for files to download.
- Download Interval The interval between automatic download attempts.
- 毎時何分 時間単位のスケジュールの分オフセット。上記の受信間隔の設定が Hourly に設定されている場合にのみ適用されます。例えば、この値を5 に設定すると、自動的に1:05、2:05、3:05 のようにダウンロードを行います。
- 時 試行が行われる時刻。上記の受信間隔の設定が Daily 、Weekly、または Monthly に設定されている場合にのみ適用されます。
- 曜日/日付 試行が行われる日。上記の受信間隔の設定が Weekly または Monthly に設定されている場合にのみ適用されます。
- 分 ダウンロードを試行するまでの待機時間。上記の受信間隔の設定が Minute に設定されている場合にのみ適用されます。
- Cron 式 いつ試行するかを決定するcron 式を表す5つの欄の文字列。上記の受信間隔の設定が Advanced に設定されている場合にのみ適用されます。
Performance
コネクタへのリソースの割り当てに関する設定。
- 最大ワーカー数 このコネクタでファイルを処理するためにスレッドプールで消費されるワーカースレッドの最大数。設定された場合、これは設定 > オートメーションページのデフォルト設定をオーバーライドします。
- 最大ファイル数 コネクタに割り当てられた各スレッドが送信するファイルの最大数。設定された場合、これは設定 > オートメーションページのデフォルト設定をオーバーライドします。
アラートタブ
アラートとサービスレベル(SLA)の設定に関連する設定。
コネクタのE メール設定
サービスレベル(SLA)を実行する前に、通知用のE メールアラートを設定する必要があります。アラートを設定をクリックすると、新しいブラウザウィンドウで設定ページが開き、システム全体のアラートを設定することができます。詳しくは、アラートを参照してください。
サービスレベル(SLA)の設定
サービスレベルでは、フロー内のコネクタが送受信すると予想される処理量を設定し、その量が満たされると予想される時間枠を設定できます。CData Arc は、サービスレベルが満たされていない場合にユーザーに警告するE メールを送信し、SLA を At Risk(危険) としてマークします。これは、サービスレベルがすぐに満たされない場合に Violated(違反) としてマークされることを意味します。これにより、ユーザーはサービスレベルが満たされていない理由を特定し、適切な措置を講じることができます。At Risk の期間内にサービスレベルが満たされなかった場合、SLA はViolated としてマークされ、ユーザーに再度通知されます。
サービスレベルを定義するには、予想処理量の条件を追加をクリックします。
- コネクタに個別の送信アクションと受信アクションがある場合は、ラジオボタンを使用してSLA に関連する方向を指定します。
- 検知基準(最小)を、処理が予想されるトランザクションの最小値(量)に設定し、毎フィールドを使用して期間を指定します。
- デフォルトでは、SLA は毎日有効です。これを変更するには、毎日のチェックをOFF にし、希望する曜日のチェックをON にします。
- 期間終了前にステータスを’At Risk’ に設定するタイミングを使用して、SLA がAt Risk としてマークされるようにします。
- デフォルトでは、通知はSLA が違反のステータスになるまで送信されません。これを変更するには、‘At Risk’ 通知を送信のチェックをON にします。
次の例は、月曜日から金曜日まで毎日1000ファイルを受信すると予想されるコネクタに対して構成されたSLA を示しています。1000ファイルが受信されていない場合、期間終了の1時間前にAt Risk 通知が送信されます。
Advanced Tab
Proxy Settings
These are a collection of settings that identify and authenticate to the proxy through which the S3 connection should be routed. By default, this section uses the global settings on the Settings Page. Clear the checkbox to supply settings specific to your connector.
- プロキシの種類 プロキシベースのファイアウォールで使用されるプロトコル。
- プロキシホスト プロキシベースのファイアウォールの名前またはIP アドレス。
- プロキシポート プロキシベースのファイアウォールのTCP ポート。
- プロキシユーザー プロキシベースのファイアウォールでの認証に使用するユーザー名。
- プロキシパスワード プロキシベースのファイアウォールに認証するために使われるパスワード。
- 認証スキーム デフォルトのNone のままにするか、以下の認証スキームから1つを選択します:Basic、Digest、Proprietary、NTLM。
Advanced Settings
Settings not included in the previous categories.
- Access Policy The access policy set on objects after they are uploaded to the S3 server.
- Encryption Password If set, object data is encrypted on the client side before upload, and downloaded objects are automatically decrypted.
- 処理の遅延 インプットフォルダに置かれたファイルの処理を遅延させる時間(秒)。これは旧式の設定です。代替として、ローカルファイルシステムの管理にはFile コネクタの使用がベストプラクティスです。
- Recurse Whether to download files in subfolders of the target remote path.
- ローカルファイルスキーム コネクタがアウトプットするメッセージにファイル名を割り当てるスキーム。ファイル名にマクロを動的に使用して、識別子やタイムスタンプなどの情報を含めることができます。詳しくは、マクロ を参照してください。
- Server Side Encryption Whether to use server-side AES256 encryption.
- Virtual Hosting Whether to use hosted-style or path-style requests when referencing the bucket endpoint.
Message
- Sent フォルダに保存 チェックすると、コネクタで処理されたファイルをコネクタのSent フォルダにコピーします。
- Sent フォルダのスキーム 選択された時間間隔に従ってSent フォルダ内のメッセージをグループ化するようコネクタに指示します。例えば、Weekly オプションを選択すると、コネクタは毎週新しいサブフォルダを作成してその週のすべてのメッセージをそのフォルダに格納します。ブランクに設定すると、コネクタはすべてのメッセージをSent フォルダに直接保存します。多くのメッセージを処理するコネクタの場合、サブフォルダを使用するとメッセージが整理されてパフォーマンスが向上します。
Logging
- Log Level The verbosity of logs generated by the connector. When you request support, set this to Debug.
- Log Subfolder Scheme Instructs the connector to group files in the Logs folder according to the selected interval. For example, the Weekly option instructs the connector to create a new subfolder each week and store all logs for the week in that folder. The blank setting tells the connector to save all logs directly in the Logs folder. For connectors that process many transactions, using subfolders helps keep logs organized and improves performance.
- Log Messages Check this to have the log entry for a processed file include a copy of the file itself. If you disable this, you might not be able to download a copy of the file from the Input or Output tabs.
Miscellaneous
Miscellaneous settings are for specific use cases.
- Other Settings Enables you to configure hidden connector settings in a semicolon-separated list (for example,
setting1=value1;setting2=value2
). Normal connector use cases and functionality should not require the use of these settings.
Establishing a Connection
The requirements for establishing an S3 connection are simple:
- Amazon account credentials (or other S3-like account credentials)
- Access Key
- Secret Key
- A bucket that can be accessed by the above account
For Amazon S3, use this link to obtain Access Key and Secret Key information from Amazon.
Optionally, you can secure the connection with S3 servers with TLS by enabling the Use TLS option in the TLS Settings section.
Uploading
Upload to Remote Folders
The Prefix setting in the Upload section of the Settings page specifies the bucket path to upload files to. This allows for the logical separation of files into virtual folders in the same bucket.
Note: S3 servers do not maintain a real folder structure, and Arc uses application logic to present a pseudo folder structure. Slashes in the Prefix (/
, \\
) are interpreted as representing a folder hierarchy. This allows for uploading to or downloading from ‘subfolders’ in the bucket based on the slashes in the path.
Upload Automation
The S3 connector supports automatic upload via the Automation tab. When Upload automation is enabled, files that reach the Input folder for the connector are automatically uploaded to the specified Bucket Name at the specified Prefix.
If a file fails to upload, the application attempts to send it again after the Retry Interval has elapsed. This process continues until the Max Attempts has been reached, after which the connector raises an error.
Downloading
Download from Remote Folders
The Prefix setting in the Download section of the Settings specifies the bucket path to upload files to. This allows for the logical separation of files into virtual folders in the same bucket.
The File Filter setting provides a way to only download specific filenames in the specified path.
Note: S3 servers do not maintain a real folder structure, and Arc uses application logic to present a pseudo folder structure. Slashes in the Prefix (/
, \\
) are interpreted as representing a folder hierarchy. This allows for uploading to or downloading from ‘subfolders’ in the bucket based on the slashes in the path.
Download Automation
The S3 connector supports automatic upload via the Automation tab. When Download automation is enabled, the connector automatically polls the remote bucket based on the specified Download Interval.
Macros
ファイルの命名規則にマクロを使用することで、組織の効率とデータの文脈的理解を高めることができます。マクロをファイル名に組み込むことで、識別子、タイムスタンプ、ヘッダー情報などの関連情報を動的に含めることができ、各ファイルに有益なコンテキストを付与できます。これにより、組織にとって重要な詳細をファイル名に反映させることができます。
CData Arc はこれらのマクロをサポートしており、すべて次の構文を使用します:%Macro%
Macro | 説明 |
---|---|
ConnectorID | コネクタのConnectorID を返します。 |
Ext | コネクタが処理中のファイルの拡張子を返します。 |
Filename | コネクタが処理中のファイルのファイル名(拡張子を含む)を返します。 |
FilenameNoExt | コネクタが処理中のファイルのファイル名(拡張子なし)を返します。 |
MessageId | コネクタがアウトプットするメッセージのMessageId を返します。 |
RegexFilename:pattern | コネクタで処理中のファイルのファイル名にRegEx パターンを適用します。 |
Header:headername | コネクタが処理中のメッセージのヘッダー(headername )の値を返します。 |
LongDate | システムの現在の日時を長い形式(例:Wednesday, January 24, 2024)で返します。 |
ShortDate | システムの現在の日時をyyyy-MM-dd 形式(例:2024-01-24)で返します。 |
DateFormat:format | システムの現在の日時を指定されたフォーマット(format )で返します。使用可能な日付フォーマットについては、サンプル日付フォーマット を参照してください。 |
Vault:vaultitem | 指定されたvault 項目の値を返します。 |
例
%Ext% や%ShortDate% などの引数を必要としないマクロもありますが、引数を必要とするマクロもあります。引数を渡すマクロはすべて次の構文を用います:%Macro:argument%
以下は、引数を渡すマクロの例です。
- %Header:headername%:
headername
はメッセージのヘッダー名です。 - %Header:mycustomheader% は、インプットメッセージで設定された
mycustomheader
ヘッダーの値を返します。 - %Header:ponum% は、インプットメッセージで設定された
ponum
ヘッダーの値に対応します。 - %RegexFilename:pattern%:
pattern
は正規表現パターンです。例えば、%RegexFilename:^([\w][A-Za-z]+)%
はファイル名の最初の単語と照合し、大文字と小文字を区別せずに結果を返します(test_file.xml
はtest
に変換されます)。 - %Vault:vaultitem%:
vaultitem
は、vault のアイテム名です。例えば、%Vault:companyname%
はVault に保存されているcompanyname
アイテムの値を返します。 - %DateFormat:format%:
format
は使用可能な日付フォーマットです(詳細はサンプル日付フォーマット を参照してください)。例えば、%DateFormat:yyyy-MM-dd-HH-mm-ss-fff%
はファイルの日付とタイムスタンプを返します。
以下の例に示すように、より詳細なマクロを作成することもできます。
- 複数のマクロを1つのファイル名にまとめる:
%DateFormat:yyyy-MM-dd-HH-mm-ss-fff%%EXT%
- マクロの外側にテキストを含める:
MyFile_%DateFormat:yyyy-MM-dd-HH-mm-ss-fff%
- マクロ内にテキストを含める:
%DateFormat:'DateProcessed-'yyyy-MM-dd_'TimeProcessed-'HH-mm-ss%