CData Sync App は、Splunk データをデータベース、データレイク、またはデータウェアハウスに継続的にパイプライン化する簡単な方法を提供し、分析、レポート、AI、および機械学習で簡単に利用できるようにします。
Splunk コネクタはCData Sync アプリケーションから使用可能で、Splunk からデータを取得して、サポートされている任意の同期先に移動できます。
Sync App は、Splunk REST API を使用してSplunk Enterprise またはSplunk Cloud のデータモデルにリレーショナルデータベースとしてアクセスし、レポート、データセット、テーブルデータセットへの双方向アクセスを可能にします。Splunk Enterprise v9.1.2 およびSplunk Cloud v9.1.2038 をサポートします。
Note:Splunk は、無料トライアルアカウントユーザーに対してAPI へのアクセスを許可していません。Sync App を使用して接続するには有償のSplunk アカウントが必要です。
必須プロパティについては、設定タブを参照してください。
通常必須ではない接続プロパティについては、高度な設定タブを参照してください。
URL を、有効なSplunk サーバーに指定する必要があります。デフォルトでは、Sync App はポート8089 でリクエストを行います。
デフォルトでは、Sync App はサーバーとのTLS / SSL ネゴシエーションを試みます。
Splunk データを認証する方法は2つあります。Splunk クレデンシャルでログインする方法と、Splunk 認証トークンを使用する方法です。
Splunk クレデンシャルで認証するには、User とPassword をログインクレデンシャルに設定します。
認証トークンを介してSplunk にアクセスすると、Representational State Transfer(REST)コールを使用してSplunk プラットフォームにアクセスできます。 Splunk Enterprise では、CLI を使用することも可能です。これらの方法はいずれも、クレデンシャルを介して認証することなくインスタンスにアクセスし、リクエストを行うことを可能にします。
Note: サーチヘッドクラスター(利用可能なすべてのヘッドクラスターにアクセスするために同じトークンを使用できます)にアクセスする場合を除き、アクセスするインスタンスごとに個別のトークンを持つ必要があります。
Splunk トークンで認証するには:
このセクションでは、Splunk Sync App の高度な機能を厳選して説明します。
Sync App はユーザー定義ビューの使用をサポートします。これは事前設定されたユーザー定義クエリによって内容が決定される仮想テーブルです。 このビューは、ドライバーに発行されるクエリを直接制御できない場合に有効です。 カスタムビューの作成と設定の概要については、ユーザー定義ビュー を参照してください。
SSL の設定 を使用して、Sync App が証明書のネゴシエーションをどのように扱うかを調整します。さまざまな証明書形式を選択できます。詳しくは、「接続文字列オプション」にあるSSLServerCert プロパティを参照してください。
Windows プロキシとHTTP プロキシを含むファイアウォールとプロキシ に合致するようSync App を設定します。トンネル接続を設定することもできます。
詳しくは、クエリ処理 を参照してください。
TLS を有効化するには、以下を設定します。
この設定により、Sync App はサーバーとのTLS ネゴシエーションを試みます。サーバー証明書は、デフォルトのシステム信頼済み証明書ストアで検証されます。SSLServerCert 接続プロパティを使用して、証明書の検証方法をオーバーライドできます。
別の証明書を指定するには、SSLServerCert 接続プロパティを参照してください。
HTTP プロキシへの認証には、以下のように設定します。
次のプロパティを設定します。
Sync App は、Splunk レポート、検索、データセット、およびデータモデルをリレーショナルデータベースのテーブルとしてモデル化します。SQL-92 クエリを使って読み出し/ 書き込みが可能です。
アカウント内のすべてのテーブルを操作できます。接続時に、Sync App はSplunk からメタデータを取得して動的にテーブルスキーマの変更を反映します。
CreateSchema ストアドプロシージャを呼び出して、静的スキーマを接続間で永続化できます。ストアドプロシージャは、スキーマをテキストファイルに保存します。テキストファイルはシンプルな形式で、スキーマのカスタマイズも容易になります。
データセット、データモデル、および検索の更新とクエリの詳細については、テーブル を参照してください。
Sync App はまた、次のSplunk オブジェクトを表すビュー を介してデータを表示します。
Sync App はSplunk のデータを、標準のSQL ステートメントを使用してクエリできるリレーショナルデータベースのテーブルのリストとしてモデル化します。
| Name | Description |
| DataModels | Create, query, update, and delete data models in Splunk. |
| Datasets | Create, query, update, and delete datasets in Splunk. |
| SearchJobs | Create, query, update, and delete search jobs in Splunk. |
Create, query, update, and delete data models in Splunk.
Sync App は、Splunk API を使用してId カラムを参照する検索条件を処理します。このカラムは= 演算子のサーバー側の処理をサポートします。Sync App はクライアント側でSync App 内で他のフィルタを処理します。
例えば、次のクエリはSplunk API によってサーバー側で処理されます。
SELECT * FROM DataModels WHERE Id = 'SampleModel'
Id カラムは挿入の最小要件です。挿入では、DataModels テーブルではId とAcceleration カラムのみが許容されます。
INSERT INTO DataModels (Id, Acceleration) VALUES ('initialname', '{"enabled":false,"earliest_time":"","hunk.file_format":"","hunk.dfs_block_size":0,"hunk.compression_codec":""}' )
DataModels テーブルでは、Id が指定されている場合にAcceleration カラムの更新が可能です。Provisional 疑似カラムを設定することもできます。
UPDATE DataModels SET Provisional = 'true', Acceleration = '{"enabled":false,"earliest_time": "-1mon", "cron_schedule": "0 */12 * * *","hunk.file_format":"","hunk.dfs_block_size":0,"hunk.compression_codec":""}' WHERE Id = 'initialname'
DataModels テーブルでは、Id が指定されている場合にレコードの削除が可能です。
DELETE FROM Datamodels WHERE Id = 'initialname'
| Name | Type | ReadOnly | References | Description |
| Id [KEY] | String | True |
Link of the data model. | |
| Disabled | Boolean | True |
Indicates if the data model is disabled/enabled. | |
| UpdatedAt | Datetime | True |
Datetime of the last update of the data model. | |
| Description | String | True |
Description of the data model. | |
| Name | String | False |
The name of the data model in Splunk. | |
| DisplayName | String | True |
The name displayed for the data model in Splunk. | |
| Author | String | True |
Splunk user who created the data model. | |
| App | String | True |
Splunk app where the data model is shared. | |
| Owner | String | True |
Splunk user who owns the data model. | |
| CanShareApp | Boolean | True |
Boolean indicating whether the data model can be shared in an app. | |
| CanShareGlobal | Boolean | True |
Boolean indicating whether the data model can be shared globally. | |
| CanShareUser | Boolean | True |
Boolean indicating whether the data model can be shared by the user. | |
| CanWrite | Boolean | True |
Boolean indicating whether the data model can be extended by the user. | |
| Modifiable | Boolean | True |
Boolean indicating whether the data model can be modified. | |
| Removable | Boolean | True |
Boolean indicating whether the data model can be removed. | |
| Acceleration | String | False |
Acceleration settings for the data model. Supply JSON to specify any or all of the following settings: enabled (true or false), earliest_time (time modifier), or cron_schedule (cron string). | |
| AccelerationAllowed | Boolean | True |
Boolean indicating that acceleration is allowed or not for the data model. | |
| AccelerationHunkCompression | String | True |
Specifies the compression codec to be used for the accelerated orc or parquet format files. | |
| DatasetCommands | String | True |
Data model commands. | |
| DatasetDescription | String | True |
The JSON describing the data model. | |
| DatasetCurrentCommand | Integer | True |
Current command of the data model. | |
| DatasetEarliestTime | Datetime | True |
Earliest time of data model events being processed. | |
| DatasetLatestTime | Datetime | True |
Latest time of data model events being processed. | |
| DatasetDiversity | String | True |
Diversity of events being processed. | |
| DatasetLimiting | Integer | True |
Limitations of events being processed. | |
| DatasetMode | String | True |
Search mode events being processed. | |
| DatasetSampleRatio | String | True |
Sample ratio of the data model. | |
| DatasetFields | String | True |
Indexed fields the data model has. | |
| DatasetType | String | True |
Dataset type. | |
| Type | String | True |
Data model type. | |
| Digest | String | True |
Content digest type. | |
| TagsWhitelist | String | True |
Whitelist of data model tags. | |
| ReadPermitions | String | True |
Permissions to read this data model. | |
| WritePermitions | String | True |
Permissions to write to this data model. | |
| Sharing | String | True |
Data model sharing type. | |
| Username | String | True |
Username of the Splunk user. |
SELECT ステートメントのWHERE 句では、疑似カラムフィールドを使用して、データソースから返されるタプルを詳細に制御することができます。
| Name | Type | Description |
| Provisional | Boolean |
Indicates whether the data model is provisional. Provisional data models are not saved. Specify true to validate a data model before saving it. |
Create, query, update, and delete datasets in Splunk.
The Datasets table requires DataModelId in the WHERE clause. The DataModelId column supports server-side processing for the = operator. The Sync App processes other search criteria client-side within the Sync App.
SELECT * FROM DataSets WHERE DataModelId = 'SampleModel'
Splunk allows inserts only when DataModelId, ParentName, and ObjectName are all specified.
INSERT INTO [Datasets] (ObjectName, ParentName, DataModelId) VALUES ('SampleSet', 'BaseEvent', 'SampleModel')
The Datasets table allows updates when DataModelId is specified. The columns that can be updated in this case are the following: Description and DisplayName.
When ObjectName is also specified, you can update the following columns: ObjectDisplayName, ParentName, Comment, Fields, Calculations, Constraints, Lineage, ObjectSearchNoFields, ObjectSearch, AutoextractSearch, PreviewSearch, AccelerationSearch, BaseSearch, and TsidxNamespace.
UPDATE Datasets SET Description = 'model description', DisplayName = 'Model Display Name' WHERE DataModelId = 'SampleModel' UPDATE Datasets SET ParentName = 'BaseEvent', BaseSearch = '| search (index=* OR index=_*) | fields _time, RootObject', AccelerationSearch = ' search (index=* OR index=_*) ' WHERE DataModelId = 'SampleModel' AND ObjectName = 'SampleSet'
Datasets can be deleted by providing the DataModelId and the ObjectName of the dataset.
DELETE FROM Datasets WHERE DataModelId = 'SampleModel' AND ObjectName = 'SampleSet'
| Name | Type | ReadOnly | References | Description |
| ObjectName [KEY] | String | False |
Name of the dataset object. | |
| DatamodelId [KEY] | String | False |
DataModels.Id |
Id of the data model the object belongs to. |
| DisplayName | String | False |
Name of the data model the object belongs to. | |
| Description | String | False |
Dataset description. | |
| ObjectNameList | String | True |
List of the objects in the data model. | |
| ObjectDisplayName | String | False |
Name displayed in Splunk for the object. | |
| ParentName | String | False |
Name of the Parent Event. | |
| Comment | String | False |
Dataset comments. | |
| Fields | String | False |
Dataset events indexed fields. | |
| Calculations | String | False |
Saved calculations for dataset fields. | |
| Constraints | String | False |
Saved constraints for dataset fields. | |
| Lineage | String | False |
Dataset lineage. | |
| ObjectSearchNoFields | String | False |
Object search query without fields. | |
| ObjectSearch | String | False |
Saved search query for the object. | |
| AutoextractSearch | String | False |
Search query for autoextraction. | |
| PreviewSearch | String | False |
Search preview query. | |
| AccelerationSearch | String | False |
Search query including acceleration. | |
| BaseSearch | String | False |
Basic search query. | |
| TsidxNamespace | String | False |
Allocated namespace. | |
| EventBased | Integer | True |
Number of Event-Based objects in the data model. | |
| TransactionBased | Integer | True |
Number of Transaction-Based objects in the data model. | |
| SearchBased | Integer | True |
Number of Search-Based objects in the data model. |
Create, query, update, and delete search jobs in Splunk.
The Sync App will use the Splunk APIs to process the search Id (Sid) criteria specified in the WHERE clause. The Sid column supports server-side processing for the = operator. The Sync App processes other search criteria client-side within the Sync App.
SELECT * FROM SearchJobs SELECT * FROM SearchJobs WHERE Sid = '123456789.1234'
Splunk allows inserts only when EventSearch is specified. You can insert the Custom, EarliestTime, LatestTime, Label, and StatusBuckets columns and all pseudocolumns.
INSERT INTO SearchJobs (Custom, EventSearch, LatestTime, Timeout) VALUES ('custom1=test1, custom2=test2', ' from datamodel SampleModel', 'now', '60')
The SearchJobs table allows updates of the Custom column only when Sid is specified.
UPDATE SearchJobs SET Custom = 'custom1=test3, custom2=test4' WHERE sid = '123456789.1234'
SearchJobs can be deleted by providing the Sid.
DELETE FROM SearchJobs WHERE Sid = '123456789.1234'
| Name | Type | ReadOnly | References | Description |
| Sid [KEY] | String | False |
The search Id number. | |
| EventSearch | String | False |
Subset of the entire search that is before any transforming commands. | |
| Custom | String | False |
Custom job property. In an INSERT operation, pass the values as a comma-separated list of pairs of keys and values. | |
| EarliestTime | String | False |
The earliest time a search job is configured to start. | |
| LatestTime | String | False |
The latest time a search job is configured to start. | |
| CursorTime | String | True |
The earliest time from which no events are later scanned. Can be used to indicate progress. | |
| Delegate | String | True |
For saved searches, specifies jobs that were started by the user. Defaults to scheduler. | |
| DiskUsage | Long | True |
The total amount of disk space used, in bytes. | |
| DispatchState | String | True |
The state of the search. Can be any of QUEUED, PARSING, RUNNING, PAUSED, FINALIZING, FAILED, or DONE. | |
| DoneProgress | Double | True |
A number between 0 and 1.0 that indicates the approximate progress of the search. doneProgress = (latestTime-cursorTime) / (latestTime-earliestTime) | |
| DropCount | Integer | True |
For real-time searches only, the number of possible events that were dropped due to the rt_queue_size (defaults to 100000). | |
| EventAvailableCount | Integer | True |
The number of events that are available for export. | |
| EventCount | Integer | True |
The number of events returned by the search. | |
| EventFieldCount | Integer | True |
The number of fields found in the search results. | |
| EventIsStreaming | Boolean | True |
Indicates if the events of this search are being streamed. | |
| EventIsTruncated | Boolean | True |
Indicates if the events of the search are not stored, making them unavailable from the events endpoint for the search. | |
| EventPreviewableCount | Integer | True |
Number of in-memory events that are not yet committed to disk. | |
| EventSorting | String | True |
Indicates if the events of this search are sorted, and in which order. | |
| IsDone | Boolean | True |
Indicates if the search has completed. | |
| IsEventsPreviewEnabled | String | True |
Indicates if the timeline_events_preview setting is enabled in limits.conf. | |
| IsFailed | Boolean | True |
Indicates if there was a fatal error executing the search. For example, invalid search string syntax. | |
| IsFinalized | Boolean | True |
Indicates if the search was finalized (stopped before completion). | |
| IsPaused | Boolean | True |
Indicates if the search is paused. | |
| IsPreviewEnabled | Boolean | True |
Indicates if previews are enabled. | |
| IsRealTimeSearch | Boolean | True |
Indicates if the search is a real-time search. | |
| IsRemoteTimeline | Boolean | True |
Indicates if the remote timeline feature is enabled. | |
| IsSaved | Boolean | True |
Indicates that the search job is saved on disk. Search artifacts are saved on disk for 7 days from the last time that the job was viewed or touched. | |
| IsSavedSearch | Boolean | True |
Indicates if this is a saved search run using the scheduler. | |
| IsZombie | Boolean | True |
Indicates if the process running the search died without finishing the search. | |
| Keywords | String | True |
All positive keywords used by this search. A positive keyword is a keyword that is not in a NOT clause. | |
| Label | String | False |
Custom name created for this search. | |
| Messages | String | True |
Errors and debug messages. | |
| NumPreviews | Integer | True |
Number of previews generated so far for this search job. | |
| Performance | String | True |
A representation of the execution costs. | |
| Priority | Integer | True |
An integer between 0-10 that indicates the search priority. | |
| RemoteSearch | String | True |
The search string that is sent to every search peer. | |
| ReportSearch | String | True |
If reporting commands are used, the reporting search. | |
| ResultCount | Integer | True |
The total number of results returned by the search. In other words, this is the subset of scanned events (represented by the ScanCount) that actually matches the search terms. | |
| ResultIsStreaming | Boolean | True |
Indicates if the final results of the search are available using streaming (for example, no transforming operations). | |
| ResultPreviewCount | Integer | True |
The number of result rows in the latest preview results. | |
| RunDuration | Decimal | True |
Time in seconds that the search took to complete. | |
| ScanCount | Integer | True |
The number of events that are scanned or read off disk. | |
| SearchEarliestTime | Datetime | True |
Specifies the earliest time for a search, as specified in the search command rather than the EarliestTime parameter. It does not snap to the indexed data time bounds for all-time searches. | |
| SearchLatestTime | Datetime | True |
Specifies the latest time for a search, as specified in the search command rather than the LatestTime parameter. It does not snap to the indexed data time bounds for all-time searches. | |
| SearchProviders | String | True |
A list of all the search peers that were contacted. | |
| StatusBuckets | Integer | False |
Maximum number of timeline buckets. | |
| TTL | String | True |
The time to live, or the time before the search job expires after it completes. |
SELECT ステートメントのWHERE 句では、疑似カラムフィールドを使用して、データソースから返されるタプルを詳細に制御することができます。
| Name | Type | Description |
| SearchMode | String |
Searching mode, realtime or normal. If set to realtime, the search runs over the live data. 使用できる値は次のとおりです。normal, realtime |
| EnableLookups | Boolean |
Indicates whether lookups should be applied to events. |
| AutoPause | Integer |
If specified, the search job pauses after this many seconds of inactivity. (0 means never autopause.) |
| AutoCancel | Integer |
If specified, the job automatically cancels after this many seconds of inactivity. (0 means never autocancel.) |
| AdhocSearchLevel | Integer |
Specify a search mode. Use one of the following search modes: verbose, fast, or smart. 使用できる値は次のとおりです。verbose, fast, smart |
| ForceBundleReplication | Boolean |
Specifies whether this search should cause (and wait depending on the value of SyncBundleReplication) for bundle synchronization with all search peers. |
| IndexEarliest | String |
Specify a time string. Sets the earliest inclusive time bounds for the search, based on the index time bounds. |
| IndexLatest | String |
Specify a time string. Sets the latest exclusive time bounds for the search, based on the index time bounds. |
| IndexedRealtime | Boolean |
Indicates whether or not to use the indexed-realtime mode for real-time searches. |
| IndexedRealtimeOffset | Integer |
Sets disk sync delay for indexed real-time search (seconds). |
| MaxCount | Integer |
The number of events that can be accessible in any given status bucket. |
| MaxTime | Integer |
Comma-separated list of (possibly wildcarded) servers from which raw events should be pulled. |
| Namespace | String |
The application namespace in which to restrict searches. |
| Now | String |
Specify a time string to set the absolute time used for any relative time specifier in the search. Defaults to the current system time. You can specify a relative time modifier for this parameter. For example, specify +2d to specify the current time plus two days. |
| ReduceFrequency | Integer |
Determines how frequently to run the MapReduce reduce phase on accumulated map values. |
| ReloadMacros | Boolean |
Specifies whether to reload macro definitions from the configuration file. |
| RemoteServerList | Integer |
The number of seconds to run this search before finalizing. Specify 0 to never finalize. |
| ReplaySpeed | Integer |
Indicate a real-time search replay speed factor. For example, 1 indicates normal speed, 0.5 indicates half of normal speed, and 2 indicates twice as fast as normal. |
| ReplayStartTime | String |
Relative wall-clock start time for the replay. |
| ReplayEndTime | String |
Relative end time for the replay clock. The replay stops when the clock time reaches this time. |
| ReuseMaxSecondsAgo | Integer |
Specifies the number of seconds ago to check when an identical search is started and return the search Id of the job instead of starting a new job. |
| RequiredField | String |
Adds a required field to the search. |
| RealTimeBlocking | Boolean |
For a real-time search, indicates if the indexer blocks if the queue for this search is full. |
| RealTimeIndexFilter | Boolean |
For a real-time search, indicates if the indexer prefilters events. |
| RealTimeMaxBlockSecs | Integer |
For a real-time search with RealTimeBlocking set to true, the maximum time to block. Specify 0 to indicate no limit. |
| RealTimeQueueSize | Integer |
For a real-time search, the queue size (in events) that the indexer should use for this search. |
| Timeout | Integer |
The number of seconds to keep this search after processing has stopped. |
| SyncBundleReplication | String |
Specifies whether this search should wait for bundle replication to complete. |
ビューは、データを示すという点でテーブルに似ていますが、ビューは読み取り専用です。
クエリは、ビューに対して通常のテーブルと同様に実行することができます。
| Name | Description |
| AlertsInInternalServer | A dataset object in the example InternalServer data model. |
| LookUpReport | An example lookup report representing a view based on a saved report in Splunk. |
| UploadedModel | An example of a table object inside a data model. |
A dataset object in the example InternalServer data model.
This is an example of a dataset view. These views are generated from dataset objects inside a data model. The Sync App will use the Splunk APIs to process the following query components; the Sync App processes other parts of the query client-side in memory.
All columns support server-side processing for the following operators and functions:
LIMIT, ORDER BY, GROUP BY, and HAVING are also processed server-side. An exception is the case when in the selected columns, there are fields that are not in the GROUP BY, and GROUP BY, criteria, and limiting are handled client-side.
In the case when an unsupported criteria or function is used, all processing will be completed client-side (except selecting specified fields). This is also the case when a SELECT statement has a column that is not in the GroupBy clause.
For example, the Sync App uses the Splunk APIs to process the following queries.
SELECT Component, Timeendpos as Timeend FROM [AlertsInInternalServer] WHERE Component = 'Saved' OR EventType != '' AND Priority IS NOT NULL AND Linecount NOT IN ('1', '2') ORDER BY Priority DESC LIMIT 5
SELECT AVG(Suppressed), Priority FROM [AlertsInInternalServer] GROUP BY Priority HAVING AVG(Suppressed) > 0
| Name | Type | Description |
| _time | Datetime | |
| component | String | |
| date_hour | Int | |
| date_mday | Int | |
| date_minute | Int | |
| date_month | String | |
| date_second | Int | |
| date_wday | String | |
| date_year | Int | |
| date_zone | Int | |
| digest_mode | Int | |
| dispatch_time | Int | |
| host | String | |
| linecount | Int | |
| log_level | String | |
| priority | String | |
| punct | String | |
| savedsearch_id | String | |
| scheduled_time | Int | |
| search_type | String | |
| server_alert_actions | String | |
| server_app | String | |
| server_message | String | |
| server_result_count | Int | |
| server_run_time | Double | |
| server_savedsearch_name | String | |
| server_sid | String | |
| server_status | String | |
| server_user | String | |
| source | String | |
| sourcetype | String | |
| splunk_server | String | |
| suppressed | Int | |
| thread_id | String | |
| timeendpos | Int | |
| timestartpos | Int | |
| window_time | Int |
An example lookup report representing a view based on a saved report in Splunk.
This is an example of a report view. These views are generated from saved reports in Splunk.
The Sync App will use the Splunk APIs to process the following query components; the Sync App processes other parts of the query client-side in memory.
Runs a saved search, or report, and returns the search results of a saved search. If the search contains replacement placeholder terms, such as $replace_me$, the search processor replaces the placeholders with the strings you specify.
For example:
Will generate the following search statement:
All replacement placeholder terms will be dynamic and saved as Pseudo-Columns.
All columns support server-side processing for the following operators and functions:
LIMIT, ORDER BY, GROUP BY, and HAVING are also processed server-side. An exception is the case when in the selected columns, there are fields that are not in the GROUP BY, and GROUP BY, criteria, and limiting are handled client-side.
In the case when an unsupported criteria or function is used, all processing will be completed client-side (except selecting specified fields). This is also the case when a SELECT statement has a column that is not in the GROUP BY clause.
For example, the Sync App processes the following queries server-side:
SELECT Country, Subregion as Sub FROM LookUpReport WHERE Iso2 != '123' OR continent = 'Europe' AND iso3 NOT IN ('example_1', 'example_2') ORDER BY Country DESC LIMIT 5
SELECT AVG(Iso2), Subregion FROM LookUpReport GROUP BY Subregion HAVING AVG(Iso2) > 0
| Name | Type | Description |
| continent | String | |
| country | String | |
| iso2 | String | |
| iso3 | String | |
| region_un | String | |
| region_wb | String | |
| subregion | String |
An example of a table object inside a data model.
This is an example of a view generated from a table object inside a data model. The Sync App will use the Splunk APIs to process the following query components; the Sync App processes other parts of the query client-side in memory.
All columns support server-side processing for the following operators and functions.
LIMIT, ORDER BY, GROUP BY, and HAVING are also processed server-side. An exception is the case when in the selected columns, there are fields that are not in the GROUP BY, and GROUP BY, criteria, and limiting are handled client-side.
In the case when an unsupported criteria or function is used, all processing will be completed client-side (except selecting specified fields). This is also the case when a SELECT statement has a column that is not in the GROUP BY clause.
For example, the following queries are processed server side:
SELECT Component, Timeendpos as Timeend FROM [UploadedModel] WHERE Component = 'Saved' OR DEST_CITY_MARKET_ID != '' AND DEST_AIRPORT_ID NOT IN ('1', '2') ORDER BY ORIGIN_AIRPORT_ID DESC LIMIT 5
SELECT AVG(DEST_AIRPORT_ID), ORIGIN_AIRPORT_ID FROM [UploadedModel] GROUP BY ORIGIN_AIRPORT_ID HAVING AVG(DEST_AIRPORT_ID) > 0
| Name | Type | Description |
| _time | Datetime | |
| DEST_AIRPORT_ID | Int | |
| DEST_AIRPORT_SEQ_ID | Int | |
| DEST_CITY_MARKET_ID | Int | |
| host | String | |
| linecount | Int | |
| ORIGIN_AIRPORT_ID | Int | |
| ORIGIN_AIRPORT_SEQ_ID | Int | |
| ORIGIN_CITY_MARKET_ID | Int | |
| punct | String | |
| source | String | |
| sourcetype | String | |
| splunk_server | String | |
| timestamp | String |
ストアドプロシージャはファンクションライクなインターフェースで、Splunk の単純なSELECT/INSERT/UPDATE/DELETE 処理にとどまらずSync App の機能を拡張します。
ストアドプロシージャは、パラメータのリストを受け取り、目的の機能を実行し、プロシージャが成功したか失敗したかを示すとともにSplunk から関連するレスポンスデータを返します。
| Name | Description |
| CreateHTTPEvent | The HTTP Event Collector (HEC) lets you send data and application events to a Splunk deployment over the HTTP and Secure HTTP (HTTPS) protocols. |
| CreateIndex | Create a data index. |
| CreateSavedSearch | Create a saved search. |
| DeleteIndex | Delete a data index. |
| ReadJobResults | Read the results of a job given a search ID. |
| UpdateIndex | Update a data index. |
| UpdateSavedSearch | Update a saved search. |
The HTTP Event Collector (HEC) lets you send data and application events to a Splunk deployment over the HTTP and Secure HTTP (HTTPS) protocols.
| Name | Type | Required | Description |
| EventContent | String | True | The name of the table or view. |
| ContentType | String | False | The type of the content specified on the EventContent input. Allowed values: JSON, RAWTEXT. |
| ChannelGUID | String | False | The GUID of the channel used for the event. This is requeired in case of ContentType=RAWTEXT. |
| Name | Type | Description |
| Success | String | Returns the success status of the created event. |
Create a data index.
| Name | Type | Required | Description |
| Name | String | True | The name of the index to create. |
| BlockSignSize | String | False | Controls how many events make up a block for block signatures. If this is set to 0, block signing is disabled for this index. A recommended value is 100. |
| BucketRebuildMemoryHint | String | False | Suggestion for the bucket rebuild process for the size of the time-series (tsidx) file to make. Default value, auto, varies by the amount of physical RAM on the host. |
| ColdPath | String | False | An absolute path that contains the colddbs for the index. The path must be readable and writable. |
| ColdToFrozenDir | String | False | Destination path for the frozen archive. Use as an alternative to a ColdToFrozenScript. |
| ColdToFrozenScript | String | False | Path to the archiving script. |
| DataType | String | False | Specifies the type of index. |
| EnableOnlineBucketRepair | String | False | Enables asynchronous 'online fsck' bucket repair, which runs concurrently with splunk software. When enabled, you do not have to wait until buckets are repaired to start the splunk platform. |
| FrozenTimePeriodInSecs | String | False | Number of seconds after which indexed data rolls to frozen. Defaults to 188697600 (6 years). |
| HomePath | String | False | An absolute path that contains the hot and warm buckets for the index. |
| MaxBloomBackfillBucketAge | String | False | Valid values are: integer[m|s|h|d] if a warm or cold bucket is older than the specified age, do not create or rebuild its bloomfilter. Specify 0 to never rebuild bloomfilters. |
| MaxConcurrentOptimizes | String | False | The number of concurrent optimize processes that can run against a hot bucket. |
| MaxDataSize | String | False | The maximum size in MB for a hot DB to reach before a roll to warm is triggered. Specifying 'auto' or 'auto_high_volume' causes Splunk software to autotune this parameter (recommended). |
| MaxHotBuckets | String | False | Maximum hot buckets that can exist per index. |
| MaxHotIdleSecs | String | False | Maximum life, in seconds, of a hot bucket. |
| MaxHotSpanSecs | String | False | Upper bound of target maximum timespan of hot/warm buckets in seconds. |
| MaxMemMB | String | False | The amount of memory, expressed in MB, to allocate for buffering a single tsidx file into memory before flushing to disk. |
| MaxMetaEntries | String | False | Sets the maximum number of unique lines in . data files in a bucket, which may help to reduce memory consumption. |
| MaxTimeUnreplicatedNoAcks | String | False | Upper limit, in seconds, on how long an event can sit in raw slice. Applies only if replication is enabled for this index. |
| MaxTimeUnreplicatedWithAcks | String | False | Upper limit, in seconds, on how long events can sit unacknowledged in a raw slice. Applies only if you have enabled acks on forwarders and have replication enabled (with clustering). |
| MaxTotalDataSizeMB | String | False | The maximum size of an index (in MB). If an index grows larger than the maximum size, the oldest data is frozen. |
| MaxWarmDBCount | String | False | The maximum number of warm buckets. If this number is exceeded, the warm bucket/s with the lowest value for their latest times is moved to cold. |
| MinRawFileSyncSecs | String | False | Specify an integer (or 'disable') for this parameter. This parameter sets how frequently splunkd forces a filesystem sync while compressing journal slices. |
| MinStreamGroupQueueSize | String | False | Minimum size of the queue that stores events in memory before committing them to a tsidx file. |
| PartialServiceMetaPeriod | String | False | Related to serviceMetaPeriod. If set, it enables metadata sync every SPECIFIED seconds, but only for records where the sync can be done efficiently in-place, without requiring a full re-write of the metadata file. |
| ProcessTrackerServiceInterval | String | False | Specifies, in seconds, how often the indexer checks the status of the child OS processes it launched to see if it can launch new processes for queued requests. If set to 0, the indexer checks child process status every second. |
| QuarantineFutureSecs | String | False | Events with timestamp of QuarantineFutureSecs newer than 'now' are dropped into quarantine bucket. |
| QuarantinePastSecs | String | False | Events with timestamp of quarantinePastSecs older than 'now' are dropped into quarantine bucket. |
| RawChunkSizeBytes | String | False | Target uncompressed size in bytes for individual raw slice in the rawdata journal of the index. 0 is not a valid value. If 0 is specified, rawChunkSizeBytes is set to the default value. |
| RepFactor | String | False | Index replication control. This parameter applies to only clustering slaves. auto = Use the master index replication configuration value. 0 = Turn off replication for this index. |
| RotatePeriodInSecs | String | False | How frequently (in seconds) to check if a new hot bucket needs to be created. Also, how frequently to check if there are any warm/cold buckets that should be rolled/frozen. |
| ServiceMetaPeriod | String | False | Defines how frequently metadata is synced to disk, in seconds. |
| SyncMeta | String | False | When true, a sync operation is called before file descriptor is closed on metadata file updates. This functionality improves integrity of metadata files, especially in regards to operating system crashes/machine failures. |
| ThawedPath | String | False | An absolute path that contains the thawed (resurrected) databases for the index. Cannot be defined in terms of a volume definition. |
| ThrottleCheckPeriod | String | False | Defines how frequently Splunk software checks for index throttling condition, in seconds. |
| TstatsHomePath | String | False | Location to store datamodel acceleration TSIDX data for this index. If specified, it must be defined in terms of a volume definition. Path must be writable. |
| WarmToColdScript | String | False | Path to a script to run when moving data from warm to cold. |
| Name | Type | Description |
| AssureUTF8 | Boolean | Boolean value indicating wheter all data retreived from the index is proper UTF8. |
| BlockSignSize | Integer | Controls how many events make up a block for block signatures. If this is set to 0, block signing is disabled for this index. A recommended value is 100. |
| BlockSignatureDatabase | String | The index that stores block signatures of events. This is a global setting, not a per index setting. |
| BucketRebuildMemoryHint | String | Suggestion for the bucket rebuild process for the size of the time-series (tsidx) file to make. |
| ColdPath | String | Filepath to the cold databases for the index. |
| ColdPathExpanded | String | Absoute filepath to the cold databases. |
| ColdToFrozenDir | String | Destination path for the frozen archive. Use as an alternative to a ColdToFrozenScript. |
| ColdToFrozenScript | String | Path to the archiving script. |
| CurrentDBSizeMB | Integer | Total size, in MB, of data stored in the index. The total incudes data in the home, cold and thawed paths. |
| DataType | String | The type of index. |
| DefaultDatabase | String | If no index destination information is available in the input data, the index shown here is the destination of such data. |
| EnableOnlineBucketRepair | Boolean | Enables asynchronous 'online fsck' bucket repair, which runs concurrently with splunk software. When enabled, you do not have to wait until buckets are repaired to start the splunk platform. |
| FrozenTimePeriodInSecs | Integer | Number of seconds after which indexed data rolls to frozen. |
| HomePath | String | An absolute path that contains the hot and warm buckets for the index. |
| HomePathExpanded | String | An absolute filepath to the hot and warm buckets for the index. |
| IndexThreads | String | Number of threads used for indexing. This is a global setting, not a per index setting. |
| IsInternal | Boolean | Indicates if this is an internal index. |
| IsReady | Boolean | Indicates if an index is properly initialized. |
| LastInitTime | Datetime | Last time the index processor was successfully initialized. This is a global setting, not a per index setting. |
| MaxBloomBackfillBucketAge | String | If a bucket (warm or cold) is older than this, Splunk software does not create (or re-create) its bloom filter. |
| MaxConcurrentOptimizes | Integer | The number of concurrent optimize processes that can run against a hot bucket. |
| MaxDataSize | String | The maximum size in MB for a hot DB to reach before a roll to warm is triggered. Specifying 'auto' or 'auto_high_volume' causes Splunk software to autotune this parameter (recommended). |
| MaxHotBuckets | String | Maximum hot buckets that can exist per index. |
| MaxHotIdleSecs | Integer | Maximum life, in seconds, of a hot bucket. |
| MaxHotSpanSecs | Integer | Upper bound of target maximum timespan of hot/warm buckets in seconds. |
| MaxMemMB | Integer | The amount of memory, expressed in MB, to allocate for buffering a single tsidx file into memory before flushing to disk. |
| MaxMetaEntries | Integer | Sets the maximum number of unique lines in . data files in a bucket, which may help to reduce memory consumption. |
| MaxTime | Datetime | ISO8601 timestamp ofThis setting is valid only when tsidxWritingLevel is at 4 or higher. This maximum term limit sets an upper bound on the number of terms kept inside an in-memory hash table that serves to improve tsidx compression. |
| MaxTimeUnreplicatedNoAcks | Integer | Upper limit, in seconds, on how long an event can sit in raw slice. Applies only if replication is enabled for this index. |
| MaxTimeUnreplicatedWithAcks | Integer | Upper limit, in seconds, on how long events can sit unacknowledged in a raw slice. Applies only if you have enabled acks on forwarders and have replication enabled (with clustering). |
| MaxTotalDataSizeMB | Integer | The maximum size of an index (in MB). If an index grows larger than the maximum size, the oldest data is frozen. |
| MaxWarmDBCount | String | The maximum number of warm buckets. If this number is exceeded, the warm bucket/s with the lowest value for their latest times is moved to cold. |
| MemPoolMB | String | Determines how much memory is given to the indexer memory pool. This is a global setting, not a per-index setting. |
| MinRawFileSyncSecs | String | Specify an integer (or 'disable') for this parameter. This parameter sets how frequently splunkd forces a filesystem sync while compressing journal slices. |
| MinStreamGroupQueueSize | Integer | Minimum size of the queue that stores events in memory before committing them to a tsidx file. |
| MinTime | Datetime | ISO8601 timestamp of the oldest event time in the index. |
| PartialServiceMetaPeriod | Integer | Related to serviceMetaPeriod. If set, it enables metadata sync every SPECIFIED seconds, but only for records where the sync can be done efficiently in-place, without requiring a full re-write of the metadata file. |
| ProcessTrackerServiceInterval | Integer | Specifies, in seconds, how often the indexer checks the status of the child OS processes it launched to see if it can launch new processes for queued requests. If set to 0, the indexer checks child process status every second. |
| QuarantineFutureSecs | Integer | Events with timestamp of QuarantineFutureSecs newer than 'now' are dropped into quarantine bucket. |
| QuarantinePastSecs | Integer | Events with timestamp of quarantinePastSecs older than 'now' are dropped into quarantine bucket. |
| RawChunkSizeBytes | Integer | Target uncompressed size in bytes for individual raw slice in the rawdata journal of the index. 0 is not a valid value. If 0 is specified, rawChunkSizeBytes is set to the default value. |
| RepFactor | String | Index replication control. This parameter applies to only clustering slaves. auto = Use the master index replication configuration value. 0 = Turn off replication for this index. |
| RotatePeriodInSecs | Integer | How frequently (in seconds) to check if a new hot bucket needs to be created. Also, how frequently to check if there are any warm/cold buckets that should be rolled/frozen. |
| ServiceMetaPeriod | Integer | Defines how frequently metadata is synced to disk, in seconds. |
| SuppressBannerList | String | List of indexes for which we suppress 'index missing' warning banner messages. This is a global setting, not a per index setting. |
| Sync | String | Specifies the number of events that trigger the indexer to sync events. This is a global setting, not a per index setting. |
| SyncMeta | Boolean | When true, a sync operation is called before file descriptor is closed on metadata file updates. This functionality improves integrity of metadata files, especially in regards to operating system crashes/machine failures. |
| ThawedPath | String | An absolute path that contains the thawed (resurrected) databases for the index. Cannot be defined in terms of a volume definition. |
| ThawedPathExpanded | String | Absolute filepath to the thawed (resurrected) databases. |
| ThrottleCheckPeriod | Integer | Defines how frequently Splunk software checks for index throttling condition, in seconds. |
| TotalEventCount | Integer | Total number of events in the index. |
| TsidxDedupPostingsListMaxTermsLimit | Integer | This setting is valid only when tsidxWritingLevel is at 4 or higher. This maximum term limit sets an upper bound on the number of terms kept inside an in-memory hash table that serves to improve tsidx compression. |
| TstatsHomePath | String | Location to store datamodel acceleration TSIDX data for this index. If specified, it must be defined in terms of a volume definition. Path must be writable. |
| WarmToColdScript | String | Path to a script to run when moving data from warm to cold. |
| Success | Boolean | Boolean indicating whether the stored procedure was executed successfully. |
| ErrorCode | Integer | The error code in case the procedure is not executed successfully. |
| ErrorMessage | String | The error message in case the procedure is not executed successfully. |
Create a saved search.
| Name | Type | Required | Description |
| Name | String | True | A name for the search |
| Search | String | True | The search query to save |
| Description | String | False | Description of this saved search. |
| CronSchedule | String | False | The cron schedule to execute this search. For example: */5 * * * * causes the search to execute every 5 minutes. |
| Disabled | Boolean | False | Indicates if this saved search is disabled. |
| IsScheduled | Boolean | False | Indicates if this search is to be run on a schedule. |
| IsVisible | Boolean | False | Indicates if this saved search appears in the visible saved search list. |
| RealTimeSchedule | Boolean | False | If this value is set to 1, the scheduler bases its determination of the next scheduled search execution time on the current time. If this value is set to 0, it is determined based on the last search execution time. |
| RunOnStartup | Boolean | False | Indicates whether this search runs on startup. If it does not run on startup, it runs at the next scheduled time. |
| SchedulePriority | String | False | Indicates the scheduling priority of a specific search.
使用できる値は次のとおりです。default, higher, highest |
| UserContext | String | False | If user context is provided, servicesNS node will be used (/servicesNS/[UserContext]/search), otherwise it defaults to the general endpoint /services. |
| Name | Type | Description |
| Success | Boolean | Returns the success status of the created saved search. |
| Message | String | Warnings from the server. |
Creates a schema file for the specified table or view.
データモデル内の既存のテーブルまたはビューからローカルスキーマファイル(.rsd)を作成します。
スキーマファイルは、このプロシージャが実行されると、Location 接続プロパティで設定されたディレクトリに作成されます。ファイルを編集してカラムを含めたり除外したり、カラム名を変更したり、カラムのデータ型を変更したりできます。
Sync App はLocation を確認し、.rsd ファイルの名前がデータモデルのテーブルまたはビューに一致するかどうかを判断します。重複がある場合、スキーマファイルはデータモデル内のこのテーブルのデフォルトインスタンスよりも優先されます。既存のテーブルまたはビューに一致しないスキーマファイルがLocation に存在する場合、新しいテーブルまたはビューのエントリがSync App のデータモデルに追加されます。
| Name | Type | Required | Description |
| TableName | String | True | The name of the table or view. |
| FileName | String | False | The full file path and name of the schema to generate. The Location connection property specifies the default output directory. |
| Name | Type | Description |
| Result | String | Returns Success or Failure. |
| FileData | String | If the FileName input is empty. |
Delete a data index.
| Name | Type | Required | Description |
| Name | String | True | The name of the index to delete. |
| Name | Type | Description |
| Success | Boolean | Boolean indicating whether the stored procedure was executed successfully. |
| ErrorCode | Integer | The error code in case the procedure is not executed successfully. |
| ErrorMessage | String | The error code in case the procedure is not executed successfully. |
Read the results of a job given a search ID.
| Name | Type | Required | Description |
| SID | String | True | The Search ID for which to get the results. |
| UserContext | String | False | Set this value to make use of /servicesNS/{UserContext}/{AppContext} node. Required if AppContext is present. If left unspecified, the node /services will be utilized. |
| AppContext | String | False | Set this value to make use of /servicesNS/{UserContext}/{AppContext} node. Required if UserContext is present. If left unspecified, the node /services will be utilized. |
| Offset | Integer | False | The starting point for the results to be returned. If tis not set, defaults to 0. |
| Count | Integer | False | The number of results to be returned. If not set the value of Pagesize connection property will be used. |
| Rows@next | String | False |
| Name | Type | Description |
| * | String |
Update a data index.
| Name | Type | Required | Description |
| Name | String | True | The name of the index to update. |
| BlockSignSize | String | False | Controls how many events make up a block for block signatures. If this is set to 0, block signing is disabled for this index. A recommended value is 100. |
| BucketRebuildMemoryHint | String | False | Suggestion for the bucket rebuild process for the size of the time-series (tsidx) file to make. Default value, auto, varies by the amount of physical RAM on the host. |
| ColdToFrozenDir | String | False | Destination path for the frozen archive. Use as an alternative to a ColdToFrozenScript. |
| ColdToFrozenScript | String | False | Path to the archiving script. |
| EnableOnlineBucketRepair | String | False | Enables asynchronous 'online fsck' bucket repair, which runs concurrently with splunk software. When enabled, you do not have to wait until buckets are repaired to start the splunk platform. |
| FrozenTimePeriodInSecs | String | False | Number of seconds after which indexed data rolls to frozen. Defaults to 188697600 (6 years). |
| MaxBloomBackfillBucketAge | String | False | Valid values are: integer[m|s|h|d] if a warm or cold bucket is older than the specified age, do not create or rebuild its bloomfilter. Specify 0 to never rebuild bloomfilters. |
| MaxConcurrentOptimizes | String | False | The number of concurrent optimize processes that can run against a hot bucket. |
| MaxDataSize | String | False | The maximum size in MB for a hot DB to reach before a roll to warm is triggered. Specifying 'auto' or 'auto_high_volume' causes Splunk software to autotune this parameter (recommended). |
| MaxHotBuckets | String | False | Maximum hot buckets that can exist per index. |
| MaxHotIdleSecs | String | False | Maximum life, in seconds, of a hot bucket. |
| MaxHotSpanSecs | String | False | Upper bound of target maximum timespan of hot/warm buckets in seconds. |
| MaxMemMB | String | False | The amount of memory, expressed in MB, to allocate for buffering a single tsidx file into memory before flushing to disk. |
| MaxMetaEntries | String | False | Sets the maximum number of unique lines in . data files in a bucket, which may help to reduce memory consumption. |
| MaxTimeUnreplicatedNoAcks | String | False | Upper limit, in seconds, on how long an event can sit in raw slice. Applies only if replication is enabled for this index. |
| MaxTimeUnreplicatedWithAcks | String | False | Upper limit, in seconds, on how long events can sit unacknowledged in a raw slice. Applies only if you have enabled acks on forwarders and have replication enabled (with clustering). |
| MaxTotalDataSizeMB | String | False | The maximum size of an index (in MB). If an index grows larger than the maximum size, the oldest data is frozen. |
| MaxWarmDBCount | String | False | The maximum number of warm buckets. If this number is exceeded, the warm bucket/s with the lowest value for their latest times is moved to cold. |
| MinRawFileSyncSecs | String | False | Specify an integer (or 'disable') for this parameter. This parameter sets how frequently splunkd forces a filesystem sync while compressing journal slices. |
| MinStreamGroupQueueSize | String | False | Minimum size of the queue that stores events in memory before committing them to a tsidx file. |
| PartialServiceMetaPeriod | String | False | Related to serviceMetaPeriod. If set, it enables metadata sync every n seconds, but only for records where the sync can be done efficiently in-place, without requiring a full re-write of the metadata file. |
| ProcessTrackerServiceInterval | String | False | Specifies, in seconds, how often the indexer checks the status of the child OS processes it launched to see if it can launch new processes for queued requests. If set to 0, the indexer checks child process status every second. |
| QuarantineFutureSecs | String | False | Events with timestamp of QuarantineFutureSecs newer than 'now' are dropped into quarantine bucket. |
| QuarantinePastSecs | String | False | Events with timestamp of quarantinePastSecs older than 'now' are dropped into quarantine bucket. |
| RawChunkSizeBytes | String | False | Target uncompressed size in bytes for individual raw slice in the rawdata journal of the index. 0 is not a valid value. If 0 is specified, rawChunkSizeBytes is set to the default value. |
| RepFactor | String | False | Index replication control. This parameter applies to only clustering slaves. auto = Use the master index replication configuration value. 0 = Turn off replication for this index. |
| RotatePeriodInSecs | String | False | How frequently (in seconds) to check if a new hot bucket needs to be created. Also, how frequently to check if there are any warm/cold buckets that should be rolled/frozen. |
| ServiceMetaPeriod | String | False | Defines how frequently metadata is synced to disk, in seconds. |
| SyncMeta | String | False | When true, a sync operation is called before file descriptor is closed on metadata file updates. This functionality improves integrity of metadata files, especially in regards to operating system crashes/machine failures. |
| ThrottleCheckPeriod | String | False | Defines how frequently Splunk software checks for index throttling condition, in seconds. |
| TstatsHomePath | String | False | Location to store datamodel acceleration TSIDX data for this index. If specified, it must be defined in terms of a volume definition. Path must be writable. |
| WarmToColdScript | String | False | Path to a script to run when moving data from warm to cold. |
| Name | Type | Description |
| AssureUTF8 | Boolean | Boolean value indicating wheter all data retreived from the index is proper UTF8. |
| BlockSignSize | Integer | Controls how many events make up a block for block signatures. If this is set to 0, block signing is disabled for this index. A recommended value is 100. |
| BlockSignatureDatabase | String | The index that stores block signatures of events. This is a global setting, not a per index setting. |
| BucketRebuildMemoryHint | String | Suggestion for the bucket rebuild process for the size of the time-series (tsidx) file to make. |
| ColdPath | String | Filepath to the cold databases for the index. |
| ColdPathExpanded | String | Absoute filepath to the cold databases. |
| ColdToFrozenDir | String | Destination path for the frozen archive. Use as an alternative to a ColdToFrozenScript. |
| ColdToFrozenScript | String | Path to the archiving script. |
| CurrentDBSizeMB | Integer | Total size, in MB, of data stored in the index. The total incudes data in the home, cold and thawed paths. |
| DefaultDatabase | String | If no index destination information is available in the input data, the index shown here is the destination of such data. |
| EnableOnlineBucketRepair | Boolean | Enables asynchronous 'online fsck' bucket repair, which runs concurrently with splunk software. When enabled, you do not have to wait until buckets are repaired to start the splunk platform. |
| EnableRealtimeSearch | Boolean | Indicates if this is a real-time search. This is a global setting, not a per index setting. |
| FrozenTimePeriodInSecs | Integer | Number of seconds after which indexed data rolls to frozen. |
| HomePath | String | An absolute path that contains the hot and warm buckets for the index. |
| HomePathExpanded | String | An absolute filepath to the hot and warm buckets for the index. |
| IndexThreads | String | Number of threads used for indexing. This is a global setting, not a per index setting. |
| IsInternal | Boolean | Indicates if this is an internal index. |
| LastInitTime | Datetime | Last time the index processor was successfully initialized. This is a global setting, not a per index setting. |
| MaxBloomBackfillBucketAge | String | If a bucket (warm or cold) is older than this, Splunk software does not create (or re-create) its bloom filter. |
| MaxConcurrentOptimizes | Integer | The number of concurrent optimize processes that can run against a hot bucket. |
| MaxDataSize | String | The maximum size in MB for a hot DB to reach before a roll to warm is triggered. Specifying 'auto' or 'auto_high_volume' causes Splunk software to autotune this parameter (recommended). |
| MaxHotBuckets | String | Maximum hot buckets that can exist per index. |
| MaxHotIdleSecs | Integer | Maximum life, in seconds, of a hot bucket. |
| MaxHotSpanSecs | Integer | Upper bound of target maximum timespan of hot/warm buckets in seconds. |
| MaxMemMB | Integer | The amount of memory, expressed in MB, to allocate for buffering a single tsidx file into memory before flushing to disk. |
| MaxMetaEntries | Integer | Sets the maximum number of unique lines in . data files in a bucket, which may help to reduce memory consumption. |
| MaxTime | Datetime | ISO8601 timestamp ofThis setting is valid only when tsidxWritingLevel is at 4 or higher. This maximum term limit sets an upper bound on the number of terms kept inside an in-memory hash table that serves to improve tsidx compression. |
| MaxTimeUnreplicatedNoAcks | Integer | Upper limit, in seconds, on how long an event can sit in raw slice. Applies only if replication is enabled for this index. |
| MaxTimeUnreplicatedWithAcks | Integer | Upper limit, in seconds, on how long events can sit unacknowledged in a raw slice. Applies only if you have enabled acks on forwarders and have replication enabled (with clustering). |
| MaxTotalDataSizeMB | Integer | The maximum size of an index (in MB). If an index grows larger than the maximum size, the oldest data is frozen. |
| MaxWarmDBCount | String | The maximum number of warm buckets. If this number is exceeded, the warm bucket/s with the lowest value for their latest times is moved to cold. |
| MemPoolMB | String | Determines how much memory is given to the indexer memory pool. This is a global setting, not a per-index setting. |
| MinRawFileSyncSecs | String | Specify an integer (or 'disable') for this parameter. This parameter sets how frequently splunkd forces a filesystem sync while compressing journal slices. |
| MinStreamGroupQueueSize | Integer | Minimum size of the queue that stores events in memory before committing them to a tsidx file. |
| MinTime | Datetime | ISO8601 timestamp of the oldest event time in the index. |
| PartialServiceMetaPeriod | Integer | Related to serviceMetaPeriod. If set, it enables metadata sync every SPECIFIED seconds, but only for records where the sync can be done efficiently in-place, without requiring a full re-write of the metadata file. |
| ProcessTrackerServiceInterval | Integer | Specifies, in seconds, how often the indexer checks the status of the child OS processes it launched to see if it can launch new processes for queued requests. If set to 0, the indexer checks child process status every second. |
| QuarantineFutureSecs | Integer | Events with timestamp of QuarantineFutureSecs newer than 'now' are dropped into quarantine bucket. |
| QuarantinePastSecs | Integer | Events with timestamp of quarantinePastSecs older than 'now' are dropped into quarantine bucket. |
| RawChunkSizeBytes | Integer | Target uncompressed size in bytes for individual raw slice in the rawdata journal of the index. 0 is not a valid value. If 0 is specified, rawChunkSizeBytes is set to the default value. |
| RepFactor | String | Index replication control. This parameter applies to only clustering slaves. auto = Use the master index replication configuration value. 0 = Turn off replication for this index. |
| RotatePeriodInSecs | Integer | How frequently (in seconds) to check if a new hot bucket needs to be created. Also, how frequently to check if there are any warm/cold buckets that should be rolled/frozen. |
| ServiceMetaPeriod | Integer | Defines how frequently metadata is synced to disk, in seconds. |
| SuppressBannerList | String | List of indexes for which we suppress 'index missing' warning banner messages. This is a global setting, not a per index setting. |
| Sync | String | Specifies the number of events that trigger the indexer to sync events. This is a global setting, not a per index setting. |
| SyncMeta | Boolean | When true, a sync operation is called before file descriptor is closed on metadata file updates. This functionality improves integrity of metadata files, especially in regards to operating system crashes/machine failures. |
| ThawedPath | String | An absolute path that contains the thawed (resurrected) databases for the index. Cannot be defined in terms of a volume definition. |
| ThawedPathExpanded | String | Absolute filepath to the thawed (resurrected) databases. |
| ThrottleCheckPeriod | Integer | Defines how frequently Splunk software checks for index throttling condition, in seconds. |
| TotalEventCount | Integer | Total number of events in the index. |
| TsidxDedupPostingsListMaxTermsLimit | Integer | This setting is valid only when tsidxWritingLevel is at 4 or higher. This maximum term limit sets an upper bound on the number of terms kept inside an in-memory hash table that serves to improve tsidx compression. |
| TstatsHomePath | String | Location to store datamodel acceleration TSIDX data for this index. If specified, it must be defined in terms of a volume definition. Path must be writable. |
| WarmToColdScript | String | Path to a script to run when moving data from warm to cold. |
| Success | Boolean | Boolean indicating whether the stored procedure was executed successfully. |
| ErrorCode | Integer | The error code in case the procedure is not executed successfully. |
| ErrorMessage | String | The error message in case the procedure is not executed successfully. |
Update a saved search.
| Name | Type | Required | Description |
| Name | String | True | A name for the search |
| Search | String | False | The search query to save |
| Description | String | False | Description of this saved search. |
| CronSchedule | String | False | The cron schedule to execute this search. For example: */5 * * * * causes the search to execute every 5 minutes. |
| Disabled | Boolean | False | Indicates if this saved search is disabled. |
| IsScheduled | Boolean | False | Indicates if this search is to be run on a schedule. |
| IsVisible | Boolean | False | Indicates if this saved search appears in the visible saved search list. |
| RealTimeSchedule | Boolean | False | If this value is set to 1, the scheduler bases its determination of the next scheduled search execution time on the current time. If this value is set to 0, it is determined based on the last search execution time. |
| RunOnStartup | Boolean | False | Indicates whether this search runs on startup. If it does not run on startup, it runs at the next scheduled time. |
| SchedulePriority | String | False | Indicates the scheduling priority of a specific search.
使用できる値は次のとおりです。default, higher, highest |
| Name | Type | Description |
| Success | Boolean | Returns the success status of the created saved search. |
| Message | String | Warnings from the server. |
| プロパティ | 説明 |
| AuthScheme | Whether to use Basic Authentication, AccessToken or HTTPEventCollectorToken Authentication when connecting to Splunk |
| AccessToken | The Access Token used for accessing your Splunk account. |
| HTTPEventCollectorToken | The HTTP Event Collector Token is used for accessing the HTTP Event Controller feature on your Splunk account. |
| URL | The URL to your Splunk endpoint. |
| User | 認証するユーザーのユーザーID を指定します。 |
| Password | 認証するユーザーのパスワードを指定します。 |
| プロパティ | 説明 |
| SSLServerCert | TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。 |
| プロパティ | 説明 |
| FirewallType | provider がプロキシベースのファイアウォールを介してトラフィックをトンネリングするために使用するプロトコルを指定します。 |
| FirewallServer | ファイアウォールを通過し、ユーザーのクエリをネットワークリソースに中継するために使用されるプロキシのIP アドレス、DNS 名、またはホスト名を識別します。 |
| FirewallPort | プロキシベースのファイアウォールで使用するTCP ポートを指定します。 |
| FirewallUser | プロキシベースのファイアウォールに認証するアカウントのユーザーID を識別します。 |
| FirewallPassword | プロキシベースのファイアウォールで認証するユーザーアカウントのパスワードを指定します。 |
| プロパティ | 説明 |
| ProxyAutoDetect | provider が、手動で指定されたプロキシサーバーを使用するのではなく、既存のプロキシサーバー構成についてシステムプロキシ設定をチェックするかどうかを指定します。 |
| ProxyServer | HTTP トラフィックをルートするプロキシサーバーのホストネームもしくはIP アドレスを指定します。 |
| ProxyPort | クライアントとの間でHTTP トラフィックをルーティングするために予約された、指定されたプロキシサーバーのTCP ポートを指定します。 |
| ProxyAuthScheme | ProxyServer 接続プロパティで指定されたプロキシサーバーに対して認証する際にprovider が使用する認証方法を指定します。 |
| ProxyUser | ProxyServer 接続プロパティで指定されたプロキシサーバーに登録されているユーザーアカウントのユーザー名を提供します。 |
| ProxyPassword | ProxyUser 接続プロパティで指定されたユーザーのパスワードを指定します。 |
| ProxySSLType | ProxyServer 接続プロパティで指定されたプロキシサーバーに接続する際に使用するSSL タイプを指定します。 |
| ProxyExceptions | ProxyServer 接続プロパティで設定されたプロキシサーバー経由での接続が免除される宛先ホスト名またはIP のセミコロン区切りのリストを指定します。 |
| プロパティ | 説明 |
| LogModules | ログファイルに含めるコアモジュールを指定します。セミコロンで区切られたモジュール名のリストを使用します。デフォルトでは、すべてのモジュールがログに記録されます。 |
| プロパティ | 説明 |
| Location | テーブル、ビュー、およびストアドプロシージャを定義するスキーマファイルを格納するディレクトリの場所を指定します。サービスの要件に応じて、これは絶対パスまたは相対パスのいずれかで表されます。 |
| BrowsableSchemas | レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。 |
| Tables | レポートされるテーブルを利用可能なすべてのテーブルのサブセットに制限するオプション設定。例えば、 Tables=TableA,TableB,TableC です。 |
| Views | レポートされたビューを使用可能なテーブルのサブセットに制限するオプション設定。例えば、 Views=ViewA,ViewB,ViewC です。 |
| プロパティ | 説明 |
| ExcludeObjectTypes | A comma delimited list of object types to exclude during metadata retrieval. |
| IncludeInternalFields | Whether or not the CData ADO.NET Provider for Splunk should push the internal fields. These fields include: user, eventtype, etc. |
| MaxRows | 集計やGROUP BY を含まないクエリで返される最大行数を指定します。 |
| MaxThreads | Specifies the number of concurrent requests. Only used when UseJobs is true. |
| Other | 特定の問題に対処するため、特殊なシナリオ向けの高度な接続プロパティを指定します。このプロパティは、サポートチームの指示がある場合にのみ使用してください。 |
| Pagesize | provider がSplunk にデータをリクエストするときに返す、ページあたりの最大レコード数を指定します。 |
| PseudoColumns | テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。 |
| RowScanDepth | Set this property to control the number of rows scanned when TypeDetectionScheme is set to RowScan. |
| Timeout | provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。 |
| TypeDetectionScheme | Determines how to determine the data type of columns. |
| UseJobs | Specifies whether to use the jobs endpoint instead of the export endpoint. If set to true, the maximum number of returned rows is configured Splunk's limit.conf file. |
| UserDefinedViews | カスタムビューを定義するJSON 構成ファイルへのファイルパスを指定します。provider は、このファイルで指定されたビューを自動的に検出して使用します。 |
このセクションでは、本プロバイダーの接続文字列で設定可能なAuthentication プロパティの全リストを提供します。
| プロパティ | 説明 |
| AuthScheme | Whether to use Basic Authentication, AccessToken or HTTPEventCollectorToken Authentication when connecting to Splunk |
| AccessToken | The Access Token used for accessing your Splunk account. |
| HTTPEventCollectorToken | The HTTP Event Collector Token is used for accessing the HTTP Event Controller feature on your Splunk account. |
| URL | The URL to your Splunk endpoint. |
| User | 認証するユーザーのユーザーID を指定します。 |
| Password | 認証するユーザーのパスワードを指定します。 |
Whether to use Basic Authentication, AccessToken or HTTPEventCollectorToken Authentication when connecting to Splunk
The Access Token used for accessing your Splunk account.
The Access Token used for accessing your Splunk account.
The HTTP Event Collector Token is used for accessing the HTTP Event Controller feature on your Splunk account.
The HTTP Event Collector Token is used for accessing the HTTP Event Controller feature on your Splunk account.
The URL to your Splunk endpoint.
The URL to your Splunk endpoint; for example, https://yoursitename.splunk.com:8089.
The port should be set to the Splunk management port (default 8089).
このセクションでは、本プロバイダーの接続文字列で設定可能なSSL プロパティの全リストを提供します。
| プロパティ | 説明 |
| SSLServerCert | TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。 |
TLS/SSL を使用して接続する際に、サーバーが受け入れ可能な証明書を指定します。
TLS/SSL 接続を使用している場合は、このプロパティを使用して、サーバーが受け入れるTLS/SSL 証明書を指定できます。このプロパティに値を指定すると、マシンによって信頼されていない他の証明書はすべて拒否されます。
このプロパティは、次のフォームを取ります:
| 説明 | 例 |
| フルPEM 証明書(例では省略されています) | -----BEGIN CERTIFICATE----- MIIChTCCAe4CAQAwDQYJKoZIhv......Qw== -----END CERTIFICATE----- |
| 証明書を保有するローカルファイルへのパス。 | C:\cert.cer |
| 公開鍵(例では省略されています) | -----BEGIN RSA PUBLIC KEY----- MIGfMA0GCSq......AQAB -----END RSA PUBLIC KEY----- |
| MD5 Thumbprint(hex 値はスペースまたはコロン区切り) | ecadbdda5a1529c58a1e9e09828d70e4 |
| SHA1 Thumbprint(hex 値はスペースまたはコロン区切り) | 34a929226ae0819f2ec14b4a3d904f801cbb150d |
Note:'*' を使用してすべての証明書を受け入れるように指定することも可能ですが、セキュリティ上の懸念があるため推奨されません。
このセクションでは、本プロバイダーの接続文字列で設定可能なFirewall プロパティの全リストを提供します。
| プロパティ | 説明 |
| FirewallType | provider がプロキシベースのファイアウォールを介してトラフィックをトンネリングするために使用するプロトコルを指定します。 |
| FirewallServer | ファイアウォールを通過し、ユーザーのクエリをネットワークリソースに中継するために使用されるプロキシのIP アドレス、DNS 名、またはホスト名を識別します。 |
| FirewallPort | プロキシベースのファイアウォールで使用するTCP ポートを指定します。 |
| FirewallUser | プロキシベースのファイアウォールに認証するアカウントのユーザーID を識別します。 |
| FirewallPassword | プロキシベースのファイアウォールで認証するユーザーアカウントのパスワードを指定します。 |
provider がプロキシベースのファイアウォールを介してトラフィックをトンネリングするために使用するプロトコルを指定します。
プロキシベースのファイアウォール(またはプロキシファイアウォール)は、ユーザーのリクエストとそれがアクセスするリソースの間に介在するネットワークセキュリティデバイスです。 プロキシは認証済みのユーザーのリクエストを受け取り、ファイアウォールを通過して適切なサーバーにリクエストを送信します。
プロキシは、リクエストを送信したユーザーに代わってデータバケットを評価し転送するため、ユーザーはサーバーに直接接続することなく、プロキシのみに接続します。
Note:デフォルトでは、Sync App はシステムプロキシに接続します。この動作を無効化し、次のプロキシタイプのいずれかに接続するには、ProxyAutoDetect をfalse に設定します。
次の表は、サポートされている各プロトコルのポート番号情報です。
| プロトコル | デフォルトポート | 説明 |
| TUNNEL | 80 | Sync App がSplunk への接続を開くポート。トラフィックはこの場所のプロキシを経由して行き来します。 |
| SOCKS4 | 1080 | Sync App がSplunk への接続を開くポート。SOCKS 4 は次にFirewallUser 値をプロキシに渡し、接続リクエストが許容されるかどうかを決定します。 |
| SOCKS5 | 1080 | Sync App がSplunk にデータを送信するポート。SOCKS 5 プロキシに認証が必要な場合には、FirewallUser およびFirewallPassword をプロキシが認識する認証情報に設定します。 |
HTTP プロキシへの接続には、ProxyServer およびProxyPort ポートを使ってください。HTTP プロキシへの認証には、ProxyAuthScheme、ProxyUser、およびProxyPassword を使ってください。
ファイアウォールを通過し、ユーザーのクエリをネットワークリソースに中継するために使用されるプロキシのIP アドレス、DNS 名、またはホスト名を識別します。
プロキシベースのファイアウォール(またはプロキシファイアウォール)は、ユーザーのリクエストとそれがアクセスするリソースの間に介在するネットワークセキュリティデバイスです。 プロキシは認証済みのユーザーのリクエストを受け取り、ファイアウォールを通過して適切なサーバーにリクエストを送信します。
プロキシは、リクエストを送信したユーザーに代わってデータバケットを評価し転送するため、ユーザーはサーバーに直接接続することなく、プロキシのみに接続します。
プロキシベースのファイアウォールで使用するTCP ポートを指定します。
プロキシベースのファイアウォール(またはプロキシファイアウォール)は、ユーザーのリクエストとそれがアクセスするリソースの間に介在するネットワークセキュリティデバイスです。 プロキシは認証済みのユーザーのリクエストを受け取り、ファイアウォールを通過して適切なサーバーにリクエストを送信します。
プロキシは、リクエストを送信したユーザーに代わってデータバケットを評価し転送するため、ユーザーはサーバーに直接接続することなく、プロキシのみに接続します。
プロキシベースのファイアウォールに認証するアカウントのユーザーID を識別します。
プロキシベースのファイアウォール(またはプロキシファイアウォール)は、ユーザーのリクエストとそれがアクセスするリソースの間に介在するネットワークセキュリティデバイスです。 プロキシは認証済みのユーザーのリクエストを受け取り、ファイアウォールを通過して適切なサーバーにリクエストを送信します。
プロキシは、リクエストを送信したユーザーに代わってデータバケットを評価し転送するため、ユーザーはサーバーに直接接続することなく、プロキシのみに接続します。
プロキシベースのファイアウォールで認証するユーザーアカウントのパスワードを指定します。
プロキシベースのファイアウォール(またはプロキシファイアウォール)は、ユーザーのリクエストとそれがアクセスするリソースの間に介在するネットワークセキュリティデバイスです。 プロキシは認証済みのユーザーのリクエストを受け取り、ファイアウォールを通過して適切なサーバーにリクエストを送信します。
プロキシは、リクエストを送信したユーザーに代わってデータバケットを評価し転送するため、ユーザーはサーバーに直接接続することなく、プロキシのみに接続します。
このセクションでは、本プロバイダーの接続文字列で設定可能なProxy プロパティの全リストを提供します。
| プロパティ | 説明 |
| ProxyAutoDetect | provider が、手動で指定されたプロキシサーバーを使用するのではなく、既存のプロキシサーバー構成についてシステムプロキシ設定をチェックするかどうかを指定します。 |
| ProxyServer | HTTP トラフィックをルートするプロキシサーバーのホストネームもしくはIP アドレスを指定します。 |
| ProxyPort | クライアントとの間でHTTP トラフィックをルーティングするために予約された、指定されたプロキシサーバーのTCP ポートを指定します。 |
| ProxyAuthScheme | ProxyServer 接続プロパティで指定されたプロキシサーバーに対して認証する際にprovider が使用する認証方法を指定します。 |
| ProxyUser | ProxyServer 接続プロパティで指定されたプロキシサーバーに登録されているユーザーアカウントのユーザー名を提供します。 |
| ProxyPassword | ProxyUser 接続プロパティで指定されたユーザーのパスワードを指定します。 |
| ProxySSLType | ProxyServer 接続プロパティで指定されたプロキシサーバーに接続する際に使用するSSL タイプを指定します。 |
| ProxyExceptions | ProxyServer 接続プロパティで設定されたプロキシサーバー経由での接続が免除される宛先ホスト名またはIP のセミコロン区切りのリストを指定します。 |
provider が、手動で指定されたプロキシサーバーを使用するのではなく、既存のプロキシサーバー構成についてシステムプロキシ設定をチェックするかどうかを指定します。
この接続プロパティをTrue に設定すると、Sync App は既存のプロキシサーバー構成についてシステムプロキシ設定をチェックします(プロキシサーバーの詳細を手動で入力する必要はありません)。
この接続プロパティは他のプロキシ設定より優先されます。特定のプロキシサーバーに接続するためにSync App を構成する場合は、ProxyAutoDetect をFalse に設定します。
HTTP プロキシへの接続には、ProxyServer を参照してください。SOCKS やトンネリングなどの他のプロキシには、FirewallType を参照してください。
HTTP トラフィックをルートするプロキシサーバーのホストネームもしくはIP アドレスを指定します。
ProxyAutoDetect がFalse に設定されている場合、Sync App はこの接続プロパティで指定されたプロキシサーバーを通じてのみHTTP トラフィックをルーティングします。
ProxyAutoDetect がTrue(デフォルト)に設定されている場合、Sync App は代わりにシステムプロキシ設定で指定されたプロキシサーバーを介してHTTP トラフィックをルーティングします。
クライアントとの間でHTTP トラフィックをルーティングするために予約された、指定されたプロキシサーバーのTCP ポートを指定します。
ProxyAutoDetect がFalse に設定されている場合、Sync App はこの接続プロパティで指定されたProxyServer ポートを通じてのみHTTP トラフィックをルーティングします。
ProxyAutoDetect がTrue(デフォルト)に設定されている場合、Sync App は代わりにシステムプロキシ設定で指定されたプロキシサーバーポートを介してHTTP トラフィックをルーティングします。
その他のプロキシタイプについては、FirewallType を参照してください。
ProxyServer 接続プロパティで指定されたプロキシサーバーに対して認証する際にprovider が使用する認証方法を指定します。
サポートされる認証の種類:
NONE 以外のすべての値については、ProxyUser およびProxyPassword 接続プロパティも設定する必要があります。
SOCKS 5 認証のような他の認証タイプを使用するには、FirewallType を参照してください。
ProxyServer 接続プロパティで指定されたプロキシサーバーに登録されているユーザーアカウントのユーザー名を提供します。
ProxyUser および ProxyPassword 接続プロパティは、ProxyServer で指定されたHTTP プロキシに対して接続よび認証するために使用されます。
ProxyAuthScheme で利用可能な認証タイプを1つ選択した後、このプロパティを以下のように設定します。
| ProxyAuthScheme の値 | ProxyUser に設定する値 |
| BASIC | プロキシサーバーに登録されているユーザーのユーザー名。 |
| DIGEST | プロキシサーバーに登録されているユーザーのユーザー名。 |
| NEGOTIATE | プロキシサーバーが属するドメインまたは信頼されたドメイン内の有効なユーザーであるWindows ユーザーのユーザー名。user@domain またはdomain\user の形式で指定。 |
| NTLM | プロキシサーバーが属するドメインまたは信頼されたドメイン内の有効なユーザーであるWindows ユーザーのユーザー名。user@domain またはdomain\user の形式で指定。 |
| NONE | ProxyPassword 接続プロパティは設定しないでください。 |
Note:Sync App は、ProxyAutoDetect がFalse に設定されている場合にのみ、このユーザー名を使用します。 ProxyAutoDetect がTrue(デフォルト)に設定されている場合、Sync App は代わりにシステムのプロキシ設定で指定されているユーザー名を使用します。
ProxyUser 接続プロパティで指定されたユーザーのパスワードを指定します。
ProxyUser および ProxyPassword 接続プロパティは、ProxyServer で指定されたHTTP プロキシに対して接続よび認証するために使用されます。
ProxyAuthScheme で利用可能な認証タイプを1つ選択した後、このプロパティを以下のように設定します。
| ProxyAuthScheme の値 | ProxyPassword に設定する値 |
| BASIC | ProxyUser で指定したプロキシサーバーユーザーに紐付けられたパスワード。 |
| DIGEST | ProxyUser で指定したプロキシサーバーユーザーに紐付けられたパスワード。 |
| NEGOTIATE | ProxyUser で指定したWindows ユーザーアカウントに紐付けられたパスワード。 |
| NTLM | ProxyUser で指定したWindows ユーザーアカウントに紐付けられたパスワード。 |
| NONE | ProxyPassword 接続プロパティは設定しないでください。 |
SOCKS 5 認証もしくは、トンネリングは、FirewallType を参照してください。
Note:Sync App は、ProxyAutoDetect がFalse に設定されている場合にのみ、このパスワードを使用します。 ProxyAutoDetect がTrue(デフォルト)に設定されている場合、Sync App は代わりにシステムのプロキシ設定で指定されているパスワードを使用します。
ProxyServer 接続プロパティで指定されたプロキシサーバーに接続する際に使用するSSL タイプを指定します。
このプロパティは、ProxyServer で指定されたHTTP プロキシへの接続にSSL を使用するかどうかを決定します。この接続プロパティには、以下の値を設定できます。
| AUTO | デフォルト設定。ProxyServer がHTTPS URL に設定されている場合、Sync App は、TUNNEL オプションを使用します。ProxyServer がHTTP URL に設定されている場合、コンポーネントはNEVER オプションを使用します。 |
| ALWAYS | 接続は、常にSSL 有効となります。 |
| NEVER | 接続は、SSL 有効になりません。 |
| TUNNEL | 接続はトンネリングプロキシ経由で行われます。プロキシサーバーがリモートホストへの接続を開き、プロキシを経由して通信が行われます。 |
ProxyServer 接続プロパティで設定されたプロキシサーバー経由での接続が免除される宛先ホスト名またはIP のセミコロン区切りのリストを指定します。
ProxyServer は、このプロパティで定義されたアドレスを除くすべてのアドレスに使用されます。セミコロンを使用してエントリを区切ります。
Note:Sync App はデフォルトでシステムプロキシ設定を使用するため、それ以上の設定は必要ありません。 この接続にプロキシ例外を明示的に設定する場合は、ProxyAutoDetect をFalse に設定します。
このセクションでは、本プロバイダーの接続文字列で設定可能なLogging プロパティの全リストを提供します。
| プロパティ | 説明 |
| LogModules | ログファイルに含めるコアモジュールを指定します。セミコロンで区切られたモジュール名のリストを使用します。デフォルトでは、すべてのモジュールがログに記録されます。 |
ログファイルに含めるコアモジュールを指定します。セミコロンで区切られたモジュール名のリストを使用します。デフォルトでは、すべてのモジュールがログに記録されます。
Sync App は、実行する各操作の詳細を Logfile 接続プロパティで指定されたログファイルに書き込みます。
ログに記録される各操作は、モジュールと呼ばれるカテゴリに分類されます。各モジュールには対応する短いコードがあり、個々の Sync App の操作がどのモジュールに属するかを示すラベルとして使用されます。
この接続プロパティにモジュールコードをセミコロン区切りのリストで設定すると、指定したモジュールに属する操作のみがログファイルに書き込まれます。この設定は今後のログ記録にのみ適用され、既存のログファイルの内容には影響しません。例: INFO;EXEC;SSL;META;
デフォルトでは、すべてのモジュールの操作がログに含まれます。
モジュールを明示的に除外するには、先頭に「-」を付けます。例: -HTTP
サブモジュールにフィルターを適用するには、<モジュール名>.<サブモジュール名> の構文で指定します。たとえば、次の値を設定すると、Sync App は HTTP モジュールに属するアクションのみをログに記録し、さらに HTTP モジュールの Res サブモジュールに属するアクションを除外します: HTTP;-HTTP.Res
Verbosity 接続プロパティによるログファイルのフィルタリングは、この接続プロパティによるフィルタリングよりも優先されます。そのため、Verbosity 接続プロパティで指定したレベルよりも高い詳細レベルの操作は、この接続プロパティで指定したモジュールに属していても、ログファイルには出力されません。
使用可能なモジュールとサブモジュールは次のとおりです。
| モジュール名 | モジュールの説明 | サブモジュール |
| INFO | 一般情報。接続文字列、製品バージョン(ビルド番号)、および初期接続メッセージが含まれます。 |
|
| EXEC | クエリ実行。ユーザーが記述した SQL クエリ、解析済み SQL クエリ、正規化済み SQL クエリの実行メッセージが含まれます。クエリおよびクエリページの成功/失敗メッセージもここに表示されます。 |
|
| HTTP | HTTP プロトコルメッセージ。HTTP リクエスト/レスポンス(POST メッセージを含む)、および Kerberos 関連のメッセージが含まれます。 |
|
| WSDL | WSDL/XSD ファイルの生成に関するメッセージ。 | — |
| SSL | SSL 証明書メッセージ。 |
|
| AUTH | 認証関連の失敗/成功メッセージ。 |
|
| SQL | SQL トランザクション、SQL 一括転送メッセージ、および SQL 結果セットメッセージが含まれます。 |
|
| META | メタデータキャッシュとスキーマメッセージ。 |
|
| FUNC | SQL 関数の実行に関連する情報。 |
|
| TCP | TCP トランスポートレイヤーメッセージでの送受信生バイト。 |
|
| FTP | File Transfer Protocol に関するメッセージ。 |
|
| SFTP | Secure File Transfer Protocol に関するメッセージ。 |
|
| POP | Post Office Protocol 経由で転送されるデータに関するメッセージ。 |
|
| SMTP | Simple Mail Transfer Protocol 経由で転送されるデータに関するメッセージ。 |
|
| CORE | 他のモジュールでカバーされていない、さまざまな製品内部操作に関連するメッセージ。 | — |
| DEMN | SQL リモーティングに関連するメッセージ。 | — |
| CLJB | 一括データアップロード(クラウドジョブ)に関するメッセージ。 |
|
| SRCE | 他のモジュールに属さない、製品が生成するその他のメッセージ。 | — |
| TRANCE | 低レベルの製品操作に関する高度なメッセージ。 | — |
このセクションでは、本プロバイダーの接続文字列で設定可能なSchema プロパティの全リストを提供します。
| プロパティ | 説明 |
| Location | テーブル、ビュー、およびストアドプロシージャを定義するスキーマファイルを格納するディレクトリの場所を指定します。サービスの要件に応じて、これは絶対パスまたは相対パスのいずれかで表されます。 |
| BrowsableSchemas | レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。 |
| Tables | レポートされるテーブルを利用可能なすべてのテーブルのサブセットに制限するオプション設定。例えば、 Tables=TableA,TableB,TableC です。 |
| Views | レポートされたビューを使用可能なテーブルのサブセットに制限するオプション設定。例えば、 Views=ViewA,ViewB,ViewC です。 |
テーブル、ビュー、およびストアドプロシージャを定義するスキーマファイルを格納するディレクトリの場所を指定します。サービスの要件に応じて、これは絶対パスまたは相対パスのいずれかで表されます。
Location プロパティは、定義をカスタマイズしたり(例えば、カラム名を変更する、カラムを無視するなど)、新しいテーブル、ビュー、またはストアドプロシージャでデータモデルを拡張する場合にのみ必要です。
指定しない場合、デフォルトの場所は%APPDATA%\\CData\\Splunk Data Provider\\Schema となり、%APPDATA%はユーザーのコンフィギュレーションディレクトリに設定されます:
| プラットフォーム | %APPDATA% |
| Windows | APPDATA 環境変数の値 |
| Linux | ~/.config |
レポートされるスキーマを利用可能なすべてのスキーマのサブセットに制限するオプション設定。例えば、 BrowsableSchemas=SchemaA,SchemaB,SchemaC です。
利用可能なデータベーススキーマをすべてリストすると余分な時間がかかり、パフォーマンスが低下します。 接続文字列にスキーマのリストを指定することで、時間を節約しパフォーマンスを向上させることができます。
レポートされるテーブルを利用可能なすべてのテーブルのサブセットに制限するオプション設定。例えば、 Tables=TableA,TableB,TableC です。
データベースによっては、利用可能なすべてのテーブルをリストするのに時間がかかり、パフォーマンスが低下する場合があります。 接続文字列にテーブルのリストを指定することで、時間を節約しパフォーマンスを向上させることができます。
利用可能なテーブルがたくさんあり、すでに作業したいテーブルが決まっている場合、このプロパティを使用して対象のテーブルのみに表示を制限することができます。これを行うには、カンマ区切りのリストで使用したいテーブルを指定します。各テーブルは、角かっこ、二重引用符、またはバッククオートを使用してエスケープされた特殊文字列を含む有効なSQL 識別子である必要があります。 例えば、Tables=TableA,[TableB/WithSlash],WithCatalog.WithSchema.`TableC With Space` です。
Note:複数のスキーマまたはカタログを持つデータソースに接続する場合は、表示する各テーブルを完全修飾名で指定する必要があります。これにより、複数のカタログやスキーマに存在するテーブルが混同されることを防ぎます。
レポートされたビューを使用可能なテーブルのサブセットに制限するオプション設定。例えば、 Views=ViewA,ViewB,ViewC です。
データベースによっては、利用可能なすべてのビューをリストするのに時間がかかり、パフォーマンスが低下する場合があります。 接続文字列にビューのリストを指定することで、時間を節約しパフォーマンスを向上させることができます。
利用可能なビューがたくさんあり、すでに作業したいビューが決まっている場合、このプロパティを使用して対象のビューのみに表示を制限することができます。これを行うには、カンマ区切りのリストで使用したいビューを指定します。各ビューは、角かっこ、二重引用符、またはバッククオートを使用してエスケープされた特殊文字列を含む有効なSQL 識別子である必要があります。 例えば、Views=ViewA,[ViewB/WithSlash],WithCatalog.WithSchema.`ViewC With Space` です。
Note:複数のスキーマまたはカタログを持つデータソースに接続する場合は、確認する各ビューを完全修飾名で指定する必要があります。これにより、複数のカタログやスキーマに存在するビューが混同されることを防ぎます。
このセクションでは、本プロバイダーの接続文字列で設定可能なMiscellaneous プロパティの全リストを提供します。
| プロパティ | 説明 |
| ExcludeObjectTypes | A comma delimited list of object types to exclude during metadata retrieval. |
| IncludeInternalFields | Whether or not the CData ADO.NET Provider for Splunk should push the internal fields. These fields include: user, eventtype, etc. |
| MaxRows | 集計やGROUP BY を含まないクエリで返される最大行数を指定します。 |
| MaxThreads | Specifies the number of concurrent requests. Only used when UseJobs is true. |
| Other | 特定の問題に対処するため、特殊なシナリオ向けの高度な接続プロパティを指定します。このプロパティは、サポートチームの指示がある場合にのみ使用してください。 |
| Pagesize | provider がSplunk にデータをリクエストするときに返す、ページあたりの最大レコード数を指定します。 |
| PseudoColumns | テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。 |
| RowScanDepth | Set this property to control the number of rows scanned when TypeDetectionScheme is set to RowScan. |
| Timeout | provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。 |
| TypeDetectionScheme | Determines how to determine the data type of columns. |
| UseJobs | Specifies whether to use the jobs endpoint instead of the export endpoint. If set to true, the maximum number of returned rows is configured Splunk's limit.conf file. |
| UserDefinedViews | カスタムビューを定義するJSON 構成ファイルへのファイルパスを指定します。provider は、このファイルで指定されたビューを自動的に検出して使用します。 |
A comma delimited list of object types to exclude during metadata retrieval.
A comma delimited list of object types to exclude during metadata retrieval. Supported object types: Report, Dataset, Indexes.
Whether or not the CData ADO.NET Provider for Splunk should push the internal fields. These fields include: user, eventtype, etc.
Whether or not the CData Sync App should push the internal fields. These fields include: user, eventtype, etc.
集計やGROUP BY を含まないクエリで返される最大行数を指定します。
このプロパティのデフォルト値である-1 は、クエリに明示的にLIMIT 句が含まれていない限り、行の制限が適用されないことを意味します。 (クエリにLIMIT 句が含まれている場合、クエリで指定された値がMaxRows 設定よりも優先されます。)
MaxRows を0より大きい整数に設定することで、クエリがデフォルトで過度に大きな結果セットを返さないようにします。
このプロパティは、非常に大きなデータセットを返す可能性のあるクエリを実行する際に、パフォーマンスを最適化し、過剰なリソース消費を防ぐのに役立ちます。
Specifies the number of concurrent requests. Only used when UseJobs is true.
This property allows you to issue multiple requests simultaneously, thereby improving performance. Default value is 5 threads. Setting a higher value can result in OutOfMemory issues.
特定の問題に対処するため、特殊なシナリオ向けの高度な接続プロパティを指定します。このプロパティは、サポートチームの指示がある場合にのみ使用してください。
このプロパティにより、シニアユーザーはサポートチームのアドバイスに基づいて、特定の状況に対応する隠しプロパティを設定できます。 これらの設定は通常のユースケースには必要ありませんが、特定の要件に対応したり、追加の機能を提供したりすることができます。 複数のプロパティを定義するには、セミコロンで区切られたリストを使用します。
Note:特定のシナリオや問題に対処するためにサポートチームから助言があった場合にのみ、これらのプロパティを設定することを強く推奨します。
| プロパティ | 説明 |
| DefaultColumnSize | データソースがメタデータにカラムの長さを提供しない場合に、文字列フィールドのデフォルトの長さを設定します。デフォルト値は2000です。 |
| ConvertDateTimeToGMT=True | 日時の値を、マシンのローカルタイムではなくGMT グリニッジ標準時に変換します。デフォルト値はFalse(ローカルタイムを使用)です。 |
| RecordToFile=filename | 基底のソケットデータ転送を指定のファイルに記録します。 |
provider がSplunk にデータをリクエストするときに返す、ページあたりの最大レコード数を指定します。
クエリを処理する際、Splunk でクエリされたデータすべてを一度にリクエストする代わりに、Sync App はクエリされたデータをページと呼ばれる部分ごとにリクエストすることができます。
この接続プロパティは、Sync App がページごとにリクエストする結果の最大数を決定します。
Note:大きなページサイズを設定すると全体的なクエリ実行時間が短縮される可能性がありますが、その場合、クエリ実行時にSync App がより多くのメモリを使用することになり、タイムアウトが発生するリスクがあります。
テーブルカラムとして公開する擬似カラムを、'TableName=ColumnName;TableName=ColumnName' の形式の文字列で指定します。
このプロパティを使用すると、Sync App がテーブルカラムとして公開する擬似カラムを定義できます。
個々の擬似カラムを指定するには、以下の形式を使用します。
Table1=Column1;Table1=Column2;Table2=Column3
すべてのテーブルのすべての擬似カラムを含めるには、次を使用してください:
*=*
Set this property to control the number of rows scanned when TypeDetectionScheme is set to RowScan.
Determines the number of rows used to determine the column data types.
Setting a high value may decrease performance. Setting a low value may prevent the data type from being determined properly, especially when there is null data.
provider がタイムアウトエラーを返すまでにサーバーからの応答を待機する最大時間を秒単位で指定します。
タイムアウトは、クエリや操作全体ではなくサーバーとの個々の通信に適用されます。 例えば、各ページング呼び出しがタイムアウト制限内に完了する場合、クエリは60秒を超えて実行を続けることができます。
タイムアウトはデフォルトで60秒に設定されています。タイムアウトを無効にするには、このプロパティを0に設定します。
タイムアウトを無効にすると、操作が成功するか、サーバー側のタイムアウト、ネットワークの中断、またはサーバーのリソース制限などの他の条件で失敗するまで無期限に実行されます。
Note: このプロパティは慎重に使用してください。長時間実行される操作がパフォーマンスを低下させたり、応答しなくなる可能性があるためです。
Determines how to determine the data type of columns.
| None | Setting TypeDetectionScheme to None will return all columns as the string type. |
| RowScan | Setting TypeDetectionScheme to RowScan will scan rows to heuristically determine the data type. The RowScanDepth determines the number of rows to be scanned. |
Specifies whether to use the jobs endpoint instead of the export endpoint. If set to true, the maximum number of returned rows is configured Splunk's limit.conf file.
Whether to use the jobs endpoint instead of the export endpoint. While Jobs generally provide higher performance, the initial response time may be longer. If a Timeout error occurs, set the Timeout connection property to a higher value.
カスタムビューを定義するJSON 構成ファイルへのファイルパスを指定します。provider は、このファイルで指定されたビューを自動的に検出して使用します。
UserDefinedViews を使用すると、UserDefinedViews.json というJSON 形式の構成ファイルを通じてカスタムビューを定義および管理できます。 これらのビューはSync App によって自動的に認識され、標準のデータベースビューのようにカスタムSQL クエリを実行できるようになります。 JSON ファイルは、各ビューをルート要素として定義し、その子要素として"query" を持ちます。この"query" にはビューのSQL クエリが含まれています。
次に例を示します。
{
"MyView": {
"query": "SELECT * FROM DataModels WHERE MyColumn = 'value'"
},
"MyView2": {
"query": "SELECT * FROM MyTable WHERE Id IN (1,2,3)"
}
}
このプロパティを使用して、1つのファイルに複数のビューを定義し、ファイルパスを指定できます。
次に例を示します。
UserDefinedViews=C:\Path\To\UserDefinedViews.jsonUserDefinedViews でビューを指定すると、Sync App はそのビューだけを参照します。
詳しくは、ユーザー定義ビュー を参照してください。
LZMA from 7Zip LZMA SDK
LZMA SDK is placed in the public domain.
Anyone is free to copy, modify, publish, use, compile, sell, or distribute the original LZMA SDK code, either in source code form or as a compiled binary, for any purpose, commercial or non-commercial, and by any means.
LZMA2 from XZ SDK
Version 1.9 and older are in the public domain.
Xamarin.Forms
Xamarin SDK
The MIT License (MIT)
Copyright (c) .NET Foundation Contributors
All rights reserved.
Permission is hereby granted, free of charge, to any person obtaining a copy of this software and associated documentation files (the "Software"), to deal in the Software without restriction, including without limitation the rights to use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of the Software, and to permit persons to whom the Software is furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
NSIS 3.10
Copyright (C) 1999-2025 Contributors THE ACCOMPANYING PROGRAM IS PROVIDED UNDER THE TERMS OF THIS COMMON PUBLIC LICENSE ("AGREEMENT"). ANY USE, REPRODUCTION OR DISTRIBUTION OF THE PROGRAM CONSTITUTES RECIPIENT'S ACCEPTANCE OF THIS AGREEMENT.
1. DEFINITIONS
"Contribution" means:
a) in the case of the initial Contributor, the initial code and documentation distributed under this Agreement, and b) in the case of each subsequent Contributor:
i) changes to the Program, and
ii) additions to the Program;
where such changes and/or additions to the Program originate from and are distributed by that particular Contributor. A Contribution 'originates' from a Contributor if it was added to the Program by such Contributor itself or anyone acting on such Contributor's behalf. Contributions do not include additions to the Program which: (i) are separate modules of software distributed in conjunction with the Program under their own license agreement, and (ii) are not derivative works of the Program.
"Contributor" means any person or entity that distributes the Program.
"Licensed Patents " mean patent claims licensable by a Contributor which are necessarily infringed by the use or sale of its Contribution alone or when combined with the Program.
"Program" means the Contributions distributed in accordance with this Agreement.
"Recipient" means anyone who receives the Program under this Agreement, including all Contributors.
2. GRANT OF RIGHTS
a) Subject to the terms of this Agreement, each Contributor hereby grants Recipient a non-exclusive, worldwide, royalty-free copyright license to reproduce, prepare derivative works of, publicly display, publicly perform, distribute and sublicense the Contribution of such Contributor, if any, and such derivative works, in source code and object code form.
b) Subject to the terms of this Agreement, each Contributor hereby grants Recipient a non-exclusive, worldwide, royalty-free patent license under Licensed Patents to make, use, sell, offer to sell, import and otherwise transfer the Contribution of such Contributor, if any, in source code and object code form. This patent license shall apply to the combination of the Contribution and the Program if, at the time the Contribution is added by the Contributor, such addition of the Contribution causes such combination to be covered by the Licensed Patents. The patent license shall not apply to any other combinations which include the Contribution. No hardware per se is licensed hereunder.
c) Recipient understands that although each Contributor grants the licenses to its Contributions set forth herein, no assurances are provided by any Contributor that the Program does not infringe the patent or other intellectual property rights of any other entity. Each Contributor disclaims any liability to Recipient for claims brought by any other entity based on infringement of intellectual property rights or otherwise. As a condition to exercising the rights and licenses granted hereunder, each Recipient hereby assumes sole responsibility to secure any other intellectual property rights needed, if any. For example, if a third party patent license is required to allow Recipient to distribute the Program, it is Recipient's responsibility to acquire that license before distributing the Program.
d) Each Contributor represents that to its knowledge it has sufficient copyright rights in its Contribution, if any, to grant the copyright license set forth in this Agreement.
3. REQUIREMENTS
A Contributor may choose to distribute the Program in object code form under its own license agreement, provided that:
a) it complies with the terms and conditions of this Agreement; and
b) its license agreement:
i) effectively disclaims on behalf of all Contributors all warranties and conditions, express and implied, including warranties or conditions of title and non-infringement, and implied warranties or conditions of merchantability and fitness for a particular purpose;
ii) effectively excludes on behalf of all Contributors all liability for damages, including direct, indirect, special, incidental and consequential damages, such as lost profits;
iii) states that any provisions which differ from this Agreement are offered by that Contributor alone and not by any other party; and
iv) states that source code for the Program is available from such Contributor, and informs licensees how to obtain it in a reasonable manner on or through a medium customarily used for software exchange.
When the Program is made available in source code form:
a) it must be made available under this Agreement; and
b) a copy of this Agreement must be included with each copy of the Program.
Contributors may not remove or alter any copyright notices contained within the Program.
Each Contributor must identify itself as the originator of its Contribution, if any, in a manner that reasonably allows subsequent Recipients to identify the originator of the Contribution.
4. COMMERCIAL DISTRIBUTION
Commercial distributors of software may accept certain responsibilities with respect to end users, business partners and the like. While this license is intended to facilitate the commercial use of the Program, the Contributor who includes the Program in a commercial product offering should do so in a manner which does not create potential liability for other Contributors. Therefore, if a Contributor includes the Program in a commercial product offering, such Contributor ("Commercial Contributor") hereby agrees to defend and indemnify every other Contributor ("Indemnified Contributor") against any losses, damages and costs (collectively "Losses") arising from claims, lawsuits and other legal actions brought by a third party against the Indemnified Contributor to the extent caused by the acts or omissions of such Commercial Contributor in connection with its distribution of the Program in a commercial product offering. The obligations in this section do not apply to any claims or Losses relating to any actual or alleged intellectual property infringement. In order to qualify, an Indemnified Contributor must: a) promptly notify the Commercial Contributor in writing of such claim, and b) allow the Commercial Contributor to control, and cooperate with the Commercial Contributor in, the defense and any related settlement negotiations. The Indemnified Contributor may participate in any such claim at its own expense.
For example, a Contributor might include the Program in a commercial product offering, Product X. That Contributor is then a Commercial Contributor. If that Commercial Contributor then makes performance claims, or offers warranties related to Product X, those performance claims and warranties are such Commercial Contributor's responsibility alone. Under this section, the Commercial Contributor would have to defend claims against the other Contributors related to those performance claims and warranties, and if a court requires any other Contributor to pay any damages as a result, the Commercial Contributor must pay those damages.
5. NO WARRANTY
EXCEPT AS EXPRESSLY SET FORTH IN THIS AGREEMENT, THE PROGRAM IS PROVIDED ON AN "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, EITHER EXPRESS OR IMPLIED INCLUDING, WITHOUT LIMITATION, ANY WARRANTIES OR CONDITIONS OF TITLE, NON-INFRINGEMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Each Recipient is solely responsible for determining the appropriateness of using and distributing the Program and assumes all risks associated with its exercise of rights under this Agreement, including but not limited to the risks and costs of program errors, compliance with applicable laws, damage to or loss of data, programs or equipment, and unavailability or interruption of operations.
6. DISCLAIMER OF LIABILITY
EXCEPT AS EXPRESSLY SET FORTH IN THIS AGREEMENT, NEITHER RECIPIENT NOR ANY CONTRIBUTORS SHALL HAVE ANY LIABILITY FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES (INCLUDING WITHOUT LIMITATION LOST PROFITS), HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY OUT OF THE USE OR DISTRIBUTION OF THE PROGRAM OR THE EXERCISE OF ANY RIGHTS GRANTED HEREUNDER, EVEN IF ADVISED OF THE POSSIBILITY OF SUCH DAMAGES.
7. GENERAL
If any provision of this Agreement is invalid or unenforceable under applicable law, it shall not affect the validity or enforceability of the remainder of the terms of this Agreement, and without further action by the parties hereto, such provision shall be reformed to the minimum extent necessary to make such provision valid and enforceable.
If Recipient institutes patent litigation against a Contributor with respect to a patent applicable to software (including a cross-claim or counterclaim in a lawsuit), then any patent licenses granted by that Contributor to such Recipient under this Agreement shall terminate as of the date such litigation is filed. In addition, if Recipient institutes patent litigation against any entity (including a cross-claim or counterclaim in a lawsuit) alleging that the Program itself (excluding combinations of the Program with other software or hardware) infringes such Recipient's patent(s), then such Recipient's rights granted under Section 2(b) shall terminate as of the date such litigation is filed.
All Recipient's rights under this Agreement shall terminate if it fails to comply with any of the material terms or conditions of this Agreement and does not cure such failure in a reasonable period of time after becoming aware of such noncompliance. If all Recipient's rights under this Agreement terminate, Recipient agrees to cease use and distribution of the Program as soon as reasonably practicable. However, Recipient's obligations under this Agreement and any licenses granted by Recipient relating to the Program shall continue and survive.
Everyone is permitted to copy and distribute copies of this Agreement, but in order to avoid inconsistency the Agreement is copyrighted and may only be modified in the following manner. The Agreement Steward reserves the right to publish new versions (including revisions) of this Agreement from time to time. No one other than the Agreement Steward has the right to modify this Agreement. IBM is the initial Agreement Steward. IBM may assign the responsibility to serve as the Agreement Steward to a suitable separate entity. Each new version of the Agreement will be given a distinguishing version number. The Program (including Contributions) may always be distributed subject to the version of the Agreement under which it was received. In addition, after a new version of the Agreement is published, Contributor may elect to distribute the Program (including its Contributions) under the new version. Except as expressly stated in Sections 2(a) and 2(b) above, Recipient receives no rights or licenses to the intellectual property of any Contributor under this Agreement, whether expressly, by implication, estoppel or otherwise. All rights in the Program not expressly granted under this Agreement are reserved.
This Agreement is governed by the laws of the State of New York and the intellectual property laws of the United States of America. No party to this Agreement will bring a legal action under this Agreement more than one year after the cause of action arose. Each party waives its rights to a jury trial in any resulting litigation.