亚欧色一区w666天堂,色情一区二区三区免费看,少妇特黄A片一区二区三区,亚洲人成网站999久久久综合,国产av熟女一区二区三区

  • 發布文章
  • 消息中心
點贊
收藏
評論
分享

可觀測性數據收集集大成者:Vector

2023-11-08 02:06:30
156
0

Vector 簡介

Vector 通常用作 logstash 的替代品,logstash 屬于 ELK 生態,使用廣泛,但是性能不太好。Vector 使用 Rust 編寫,聲稱比同類方案快 10 倍。Vector 來自 Datadog,如果你了解監控、可觀測性,大概率知道 Datadog,作為行業老大哥,其他小弟拍馬難及。Datadog 在 2021 年左右收購了 Vector,現在 Vector 已經開源,地址是:

  • 主站:http[s]://vector.dev/

  • 倉庫:http[s]://github.com/vectordotdev/vector

Vector 不止是收集、路由日志數據,也可以路由指標數據,甚至可以從日志中提取指標,功能強大。下面是 Vector 的架構圖:

看起來和其他同類產品是類似的,核心就是 pipeline 的處理,有 Source 端做采集,有中間的 Transform 環節做數據加工處理,有 Sink 端做數據轉發。魔鬼在細節,Vector 有如下一些特點,讓它顯得卓爾不群:

  • 超級快速可靠:Vector采用Rust構建,速度極快,內存效率高,旨在處理最苛刻的工作負載

  • 端到端:Vector 致力于成為從 A 到 B 獲取可觀測性數據所需的唯一工具,并作為守護程序、邊車或聚合器進行部署

  • 統一:Vector 支持日志和指標,使您可以輕松收集和處理所有可觀測性數據

  • 供應商中立:Vector 不偏向任何特定的供應商平臺,并以您的最佳利益為出發點,培育公平、開放的生態系統。免鎖定且面向未來

  • 可編程轉換:Vector 的高度可配置轉換為您提供可編程運行時的全部功能。無限制地處理復雜的用例

Vector 安裝

Vector 的安裝比較簡單,一條命令即可搞定,其他安裝方式可以參考其 官方文檔。

curl --proto '=https' --tlsv1.2 -sSf http[s]://sh.vector.dev | bash

Vector 配置測試

Vector 的配置文件可以是 yaml、json、toml 格式,下面是一個 toml 的例子,其作用是讀取 /var/log/system.log 日志文件,然后把 syslog 格式的日志轉換成 json 格式,最后輸出到標準輸出:

[sources.syslog_demo]
type = "file"
include = ["/var/log/system.log"]
data_dir = "/Users/ulric/works/vector-test"

[transforms.remap_syslog]
inputs = [ "syslog_demo"]
type = "remap"
source = '''
structured = parse_syslog!(.message)
. = merge(., structured)
'''

[sinks.emit_syslog]
inputs = ["remap_syslog"]
type = "console"
encoding.codec = "json"

首先,[sources.syslog_demo] 定義了一個 source,取名為 syslog_demo,這個 source 的類型是 file,表示從文件中讀取數據,文件路徑是 /var/log/system.log,data_dir 是存儲 checkpoint 數據不用關心,只要給一個可寫的目錄就行(Vector 自用)。然后定義了一個 transform,名字為 remap_syslog,指定這個 transform 的數據來源(即上游)是 syslog_demo,其類型是 remap,remap 是 Vector 里非常重要的一個 transform,可以做各類數據轉換,在 source 字段里定義了一段代碼,其工作邏輯是:

  • 來自 syslog_demo 這個 source 的日志數據,日志原文在 message 字段里(除了日志原文 message 字段,Vector 還會對采集的數據附加 host、timestamp 等字段),需要先解析成結構化的數據,通過 parse_syslog 這個函數做轉換

  • 轉換之后,相當于把非結構化的日志數據轉換成了結構化的數據,賦值給 structured 變量,然后通過 merge 函數把結構化的這個數據和原始就有的 host、timestamp 等字段合并,然后把合并的結果繼續往 pipeline 后續環節傳遞

[sinks.emit_syslog] 定義了一個 sink,名字是 emit_syslog,通過 inputs 指明了上游數據來自 remap_syslog 這個 transform,通過 type 指明要把數據輸出給 console,即控制臺,然后通過 encoding.codec 指定輸出的數據格式是 json。然后通過下面的命令啟動 Vector:

vector -c vector.toml

然后,你就會看到一堆的日志輸出(當然,前提是你的機器上有 system.log 這個文件,我是 macbook,所以用的這個文件測試的),樣例如下:

ulric@ulric-flashcat vector-test % vector -c vector.toml
...
{"appname":"syslogd","file":"/var/log/system.log","host":"ulric-flashcat.local","hostname":"ulric-flashcat","message":"ASL Sender Statistics","procid":332,"source_type":"file","timestamp":"2023-09-27T07:31:22Z"}

如上,就說明正常采集到了數據,而且轉換成了 json 并打印到了控制臺,實驗成功。當然,打印到控制臺只是個測試,Vector 可以把數據推給各類后端,典型的比如 ElasticSearch、S3、ClickHouse、Kafka 等。

Vector 部署模式

Vector 可以部署為兩個角色,既可以作為數據采集的 agent,也可以作為數據聚合、路由的 aggregator,架構示例如下:

當 Vector 作為 agent 的時候,又有兩種使用模式:Daemon 和 Sidecar。Daemon 模式旨在收集單個主機上的所有數據,這是數據收集的推薦方式,因為它最有效地利用主機資源。比如把 Vector 部署為 DaemonSet,收集這個機器上的所有容器中應用的日志,容器中的應用的日志推薦使用 stdout 方式打印,符合云原生 12 條要素。架構圖如下:

當然,也可以使用 Sidecar 模式部署,這樣占用的資源更多(畢竟,每個 Pod 里都要塞一個 Vector 容器),但是更靈活,服務所有者可以隨意搞自己的日志收集方案,不用依賴統一的日志收集方案。架構圖如下:

0條評論
0 / 1000
邵****斌
13文章數
0粉絲數
邵****斌
13 文章 | 0 粉絲

可觀測性數據收集集大成者:Vector

2023-11-08 02:06:30
156
0

Vector 簡介

Vector 通常用作 logstash 的替代品,logstash 屬于 ELK 生態,使用廣泛,但是性能不太好。Vector 使用 Rust 編寫,聲稱比同類方案快 10 倍。Vector 來自 Datadog,如果你了解監控、可觀測性,大概率知道 Datadog,作為行業老大哥,其他小弟拍馬難及。Datadog 在 2021 年左右收購了 Vector,現在 Vector 已經開源,地址是:

  • 主站:http[s]://vector.dev/

  • 倉庫:http[s]://github.com/vectordotdev/vector

Vector 不止是收集、路由日志數據,也可以路由指標數據,甚至可以從日志中提取指標,功能強大。下面是 Vector 的架構圖:

看起來和其他同類產品是類似的,核心就是 pipeline 的處理,有 Source 端做采集,有中間的 Transform 環節做數據加工處理,有 Sink 端做數據轉發。魔鬼在細節,Vector 有如下一些特點,讓它顯得卓爾不群:

  • 超級快速可靠:Vector采用Rust構建,速度極快,內存效率高,旨在處理最苛刻的工作負載

  • 端到端:Vector 致力于成為從 A 到 B 獲取可觀測性數據所需的唯一工具,并作為守護程序、邊車或聚合器進行部署

  • 統一:Vector 支持日志和指標,使您可以輕松收集和處理所有可觀測性數據

  • 供應商中立:Vector 不偏向任何特定的供應商平臺,并以您的最佳利益為出發點,培育公平、開放的生態系統。免鎖定且面向未來

  • 可編程轉換:Vector 的高度可配置轉換為您提供可編程運行時的全部功能。無限制地處理復雜的用例

Vector 安裝

Vector 的安裝比較簡單,一條命令即可搞定,其他安裝方式可以參考其 官方文檔。

curl --proto '=https' --tlsv1.2 -sSf http[s]://sh.vector.dev | bash

Vector 配置測試

Vector 的配置文件可以是 yaml、json、toml 格式,下面是一個 toml 的例子,其作用是讀取 /var/log/system.log 日志文件,然后把 syslog 格式的日志轉換成 json 格式,最后輸出到標準輸出:

[sources.syslog_demo]
type = "file"
include = ["/var/log/system.log"]
data_dir = "/Users/ulric/works/vector-test"

[transforms.remap_syslog]
inputs = [ "syslog_demo"]
type = "remap"
source = '''
structured = parse_syslog!(.message)
. = merge(., structured)
'''

[sinks.emit_syslog]
inputs = ["remap_syslog"]
type = "console"
encoding.codec = "json"

首先,[sources.syslog_demo] 定義了一個 source,取名為 syslog_demo,這個 source 的類型是 file,表示從文件中讀取數據,文件路徑是 /var/log/system.log,data_dir 是存儲 checkpoint 數據不用關心,只要給一個可寫的目錄就行(Vector 自用)。然后定義了一個 transform,名字為 remap_syslog,指定這個 transform 的數據來源(即上游)是 syslog_demo,其類型是 remap,remap 是 Vector 里非常重要的一個 transform,可以做各類數據轉換,在 source 字段里定義了一段代碼,其工作邏輯是:

  • 來自 syslog_demo 這個 source 的日志數據,日志原文在 message 字段里(除了日志原文 message 字段,Vector 還會對采集的數據附加 host、timestamp 等字段),需要先解析成結構化的數據,通過 parse_syslog 這個函數做轉換

  • 轉換之后,相當于把非結構化的日志數據轉換成了結構化的數據,賦值給 structured 變量,然后通過 merge 函數把結構化的這個數據和原始就有的 host、timestamp 等字段合并,然后把合并的結果繼續往 pipeline 后續環節傳遞

[sinks.emit_syslog] 定義了一個 sink,名字是 emit_syslog,通過 inputs 指明了上游數據來自 remap_syslog 這個 transform,通過 type 指明要把數據輸出給 console,即控制臺,然后通過 encoding.codec 指定輸出的數據格式是 json。然后通過下面的命令啟動 Vector:

vector -c vector.toml

然后,你就會看到一堆的日志輸出(當然,前提是你的機器上有 system.log 這個文件,我是 macbook,所以用的這個文件測試的),樣例如下:

ulric@ulric-flashcat vector-test % vector -c vector.toml
...
{"appname":"syslogd","file":"/var/log/system.log","host":"ulric-flashcat.local","hostname":"ulric-flashcat","message":"ASL Sender Statistics","procid":332,"source_type":"file","timestamp":"2023-09-27T07:31:22Z"}

如上,就說明正常采集到了數據,而且轉換成了 json 并打印到了控制臺,實驗成功。當然,打印到控制臺只是個測試,Vector 可以把數據推給各類后端,典型的比如 ElasticSearch、S3、ClickHouse、Kafka 等。

Vector 部署模式

Vector 可以部署為兩個角色,既可以作為數據采集的 agent,也可以作為數據聚合、路由的 aggregator,架構示例如下:

當 Vector 作為 agent 的時候,又有兩種使用模式:Daemon 和 Sidecar。Daemon 模式旨在收集單個主機上的所有數據,這是數據收集的推薦方式,因為它最有效地利用主機資源。比如把 Vector 部署為 DaemonSet,收集這個機器上的所有容器中應用的日志,容器中的應用的日志推薦使用 stdout 方式打印,符合云原生 12 條要素。架構圖如下:

當然,也可以使用 Sidecar 模式部署,這樣占用的資源更多(畢竟,每個 Pod 里都要塞一個 Vector 容器),但是更靈活,服務所有者可以隨意搞自己的日志收集方案,不用依賴統一的日志收集方案。架構圖如下:

文章來自個人專欄
文章 | 訂閱
0條評論
0 / 1000
請輸入你的評論
0
0