Thứ sáu, 27/09/2019 | 00:00 GMT+7

Cách phân tích thống kê database Redis được quản lý bằng cách sử dụng elastic trên Ubuntu 18.04

Giám sát database là quá trình liên tục theo dõi một cách có hệ thống các số liệu khác nhau cho thấy database đang hoạt động như thế nào. Bằng cách quan sát dữ liệu hiệu suất, bạn có thể có được những thông tin chi tiết có giá trị và xác định các điểm nghẽn có thể xảy ra, cũng như tìm ra các cách bổ sung để cải thiện hiệu suất database . Các hệ thống như vậy thường triển khai cảnh báo thông báo cho administrator khi có sự cố. Số liệu thống kê đã thu thập được dùng để không chỉ cải thiện cấu hình và quy trình làm việc của database mà còn của các ứng dụng client .

Lợi ích của việc sử dụng ngăn xếp elastic (ngăn xếp ELK) để theo dõi database được quản lý của bạn là hỗ trợ tuyệt vời cho việc tìm kiếm và khả năng nhập dữ liệu mới rất nhanh chóng. Nó không xuất sắc trong việc cập nhật dữ liệu, nhưng sự đánh đổi này có thể chấp nhận được cho mục đích theo dõi và ghi log , nơi dữ liệu trong quá khứ hầu như không bao giờ thay đổi. Elasticsearch cung cấp một phương tiện truy vấn dữ liệu mạnh mẽ mà bạn có thể sử dụng thông qua Kibana để hiểu rõ hơn về cách database hoạt động qua các khoảng thời gian khác nhau. Điều này sẽ cho phép bạn tương quan tải database với các sự kiện trong đời thực để hiểu sâu hơn về cách database đang được sử dụng.

Trong hướng dẫn này, bạn sẽ nhập các chỉ số database , được tạo bởi lệnh Redis INFO , vào Elasticsearch thông qua Logstash . Điều này đòi hỏi phải cấu hình Logstash để chạy lệnh định kỳ, phân tích cú pháp kết quả của nó và gửi nó đến Elasticsearch để lập index ngay sau đó. Dữ liệu đã nhập sau đó có thể được phân tích và hiển thị trong Kibana. Đến cuối hướng dẫn, bạn sẽ có một hệ thống tự động lấy số liệu thống kê của Redis để phân tích sau này.

Yêu cầu

Bước 1 - Cài đặt và cấu hình Logstash

Trong phần này, bạn sẽ cài đặt Logstash và cấu hình nó để lấy số liệu thống kê từ cụm database Redis của bạn, sau đó phân tích cú pháp chúng để gửi đến Elasticsearch để lập index .

Bắt đầu bằng cách cài đặt Logstash bằng lệnh sau:

  • sudo apt install logstash -y

Sau khi cài đặt Logstash, hãy kích hoạt dịch vụ để tự động khởi động khi server khởi động :

  • sudo systemctl enable logstash

Trước khi cấu hình Logstash để kéo số liệu thống kê, hãy xem bản thân dữ liệu trông như thế nào. Để kết nối với database Redis của bạn, hãy đi tới Control panel Dịch vụdatabase của bạn và trong bảng Chi tiết kết nối , chọn Cờ từ menu thả xuống:

 Control panel  database  được quản lý

Bạn sẽ được hiển thị một lệnh được cấu hình sẵn cho ứng dụng client Redli , bạn sẽ sử dụng lệnh này để kết nối với database của bạn . Nhấp vào Sao chép và chạy lệnh sau trên server của bạn, thay thế redli_flags_command bằng lệnh bạn vừa sao chép:

  • redli_flags_command info

Vì kết quả từ lệnh này dài, ta sẽ giải thích điều này được chia thành các phần khác nhau của nó:

Trong kết quả của lệnh info Redis, các phần được đánh dấu bằng # , biểu thị comment . Các giá trị được điền ở dạng key:value , điều này làm cho chúng tương đối dễ dàng để phân tích cú pháp.

Output
# Server redis_version:5.0.4 redis_git_sha1:ab60b2b1 redis_git_dirty:1 redis_build_id:7909f4de3561dc50 redis_mode:standalone os:Linux 5.2.14-200.fc30.x86_64 x86_64 arch_bits:64 multiplexing_api:epoll atomicvar_api:atomic-builtin gcc_version:9.1.1 process_id:72 run_id:ddb7b96c93bbd0c369c6d06ce1c02c78902e13cc tcp_port:25060 uptime_in_seconds:1733 uptime_in_days:0 hz:10 configured_hz:10 lru_clock:8687593 executable:/usr/bin/redis-server config_file:/etc/redis.conf # Clients connected_clients:3 client_recent_max_input_buffer:2 client_recent_max_output_buffer:0 blocked_clients:0 . . .

Phần Server chứa thông tin kỹ thuật về bản dựng Redis, chẳng hạn như version của nó và commit Git mà nó dựa trên. Trong khi phần Clients cung cấp số lượng kết nối hiện đang mở.

Output
. . . # Memory used_memory:941560 used_memory_human:919.49K used_memory_rss:4931584 used_memory_rss_human:4.70M used_memory_peak:941560 used_memory_peak_human:919.49K used_memory_peak_perc:100.00% used_memory_overhead:912190 used_memory_startup:795880 used_memory_dataset:29370 used_memory_dataset_perc:20.16% allocator_allocated:949568 allocator_active:1269760 allocator_resident:3592192 total_system_memory:1030356992 total_system_memory_human:982.62M used_memory_lua:37888 used_memory_lua_human:37.00K used_memory_scripts:0 used_memory_scripts_human:0B number_of_cached_scripts:0 maxmemory:463470592 maxmemory_human:442.00M maxmemory_policy:allkeys-lru allocator_frag_ratio:1.34 allocator_frag_bytes:320192 allocator_rss_ratio:2.83 allocator_rss_bytes:2322432 rss_overhead_ratio:1.37 rss_overhead_bytes:1339392 mem_fragmentation_ratio:5.89 mem_fragmentation_bytes:4093872 mem_not_counted_for_evict:0 mem_replication_backlog:0 mem_clients_slaves:0 mem_clients_normal:116310 mem_aof_buffer:0 mem_allocator:jemalloc-5.1.0 active_defrag_running:0 lazyfree_pending_objects:0 . . .

Tại đây Memory xác nhận lượng RAM Redis đã phân bổ cho chính nó, cũng như dung lượng bộ nhớ tối đa mà nó có thể sử dụng. Nếu nó bắt đầu hết bộ nhớ, nó sẽ giải phóng các khóa bằng cách sử dụng chiến lược bạn đã chỉ định trong Control Panel (hiển thị trong trường maxmemory_policy trong kết quả này).

Output
. . . # Persistence loading:0 rdb_changes_since_last_save:0 rdb_bgsave_in_progress:0 rdb_last_save_time:1568966978 rdb_last_bgsave_status:ok rdb_last_bgsave_time_sec:0 rdb_current_bgsave_time_sec:-1 rdb_last_cow_size:217088 aof_enabled:0 aof_rewrite_in_progress:0 aof_rewrite_scheduled:0 aof_last_rewrite_time_sec:-1 aof_current_rewrite_time_sec:-1 aof_last_bgrewrite_status:ok aof_last_write_status:ok aof_last_cow_size:0 # Stats total_connections_received:213 total_commands_processed:2340 instantaneous_ops_per_sec:1 total_net_input_bytes:39205 total_net_output_bytes:776988 instantaneous_input_kbps:0.02 instantaneous_output_kbps:2.01 rejected_connections:0 sync_full:0 sync_partial_ok:0 sync_partial_err:0 expired_keys:0 expired_stale_perc:0.00 expired_time_cap_reached_count:0 evicted_keys:0 keyspace_hits:0 keyspace_misses:0 pubsub_channels:0 pubsub_patterns:0 latest_fork_usec:353 migrate_cached_sockets:0 slave_expires_tracked_keys:0 active_defrag_hits:0 active_defrag_misses:0 active_defrag_key_hits:0 active_defrag_key_misses:0 . . .

Trong phần Persistence , bạn có thể xem lần cuối cùng Redis lưu các khóa mà nó lưu trữ vào đĩa và liệu nó có thành công hay không. Phần Stats cung cấp các con số liên quan đến kết nối client và trong cụm, số lần khóa được yêu cầu được tìm thấy (hoặc không), v.v.

Output
. . . # Replication role:master connected_slaves:0 master_replid:9c1d345a46d29d08537981c4fc44e312a21a160b master_replid2:0000000000000000000000000000000000000000 master_repl_offset:0 second_repl_offset:-1 repl_backlog_active:0 repl_backlog_size:46137344 repl_backlog_first_byte_offset:0 repl_backlog_histlen:0 . . .

Lưu ý: Dự án Redis sử dụng các thuật ngữ “master” và “slave” trong tài liệu của nó và trong các lệnh khác nhau. DigitalOcean thường thích các thuật ngữ thay thế “chính” và “bản sao”.
Hướng dẫn này sẽ đặt mặc định các thuật ngữ “chính” và “bản sao” khi nào có thể, nhưng lưu ý có một số trường hợp không thể tránh khỏi các thuật ngữ “chính” và “phụ”.

Bằng cách xem xét role trong Replication , bạn sẽ biết liệu mình đang kết nối với nút chính hay nút sao. Phần còn lại của phần cung cấp số lượng bản sao hiện được kết nối và lượng dữ liệu mà bản sao bị thiếu liên quan đến bản chính. Có thể có các trường bổ sung nếu version bạn được kết nối là một bản sao.

Output
. . . # CPU used_cpu_sys:1.972003 used_cpu_user:1.765318 used_cpu_sys_children:0.000000 used_cpu_user_children:0.001707 # Cluster cluster_enabled:0 # Keyspace

Bên dưới CPU , bạn sẽ thấy số lượng CPU Redis của hệ thống ( used_cpu_sys ) và user ( used_cpu_user ) đang sử dụng. Phần Cluster chỉ chứa một trường duy nhất, cluster_enabled , phục vụ cho biết rằng cụm Redis đang chạy.

Logstash sẽ có nhiệm vụ chạy định kỳ lệnh info trên database Redis của bạn (tương tự như cách bạn vừa làm), phân tích cú pháp kết quả và gửi chúng đến Elasticsearch. Sau đó, bạn có thể truy cập chúng sau này từ Kibana.

Bạn sẽ lưu trữ cấu hình để lập index thống kê Redis trong Elasticsearch trong file có tên redis.conf trong folder /etc/logstash/conf.d , nơi Logstash lưu trữ file cấu hình. Khi bắt đầu dưới dạng một dịch vụ, nó sẽ tự động chạy chúng trong nền.

Tạo redis.conf bằng editor yêu thích của bạn (ví dụ: nano):

  • sudo nano /etc/logstash/conf.d/redis.conf

Thêm các dòng sau:

/etc/logstash/conf.d/redis.conf
input {     exec {         command => "redis_flags_command info"         interval => 10         type => "redis_info"     } }  filter {     kv {         value_split => ":"         field_split => "\r\n"         remove_field => [ "command", "message" ]     }      ruby {         code =>         "         event.to_hash.keys.each { |k|             if event.get(k).to_i.to_s == event.get(k) # is integer?                 event.set(k, event.get(k).to_i) # convert to integer             end             if event.get(k).to_f.to_s == event.get(k) # is float?                 event.set(k, event.get(k).to_f) # convert to float             end         }         puts 'Ruby filter finished'         "     } }  output {     elasticsearch {         hosts => "http://localhost:9200"         index => "%{type}"     } } 

Hãy nhớ thay redis_flags_command bằng lệnh được hiển thị trong console mà bạn đã sử dụng trước đó trong bước.

Bạn xác định một input , là một tập hợp các bộ lọc sẽ chạy trên dữ liệu được thu thập và một kết quả sẽ gửi dữ liệu đã lọc đến Elasticsearch. Các đầu vào bao gồm các exec lệnh, mà sẽ chạy một command trên server theo định kỳ, sau một thời gian cài đặt interval (tính bằng giây). Nó cũng chỉ định một tham số type xác định kiểu tài liệu khi được lập index trong Elasticsearch. Các exec khối đi xuống một đối tượng chứa hai lĩnh vực, commandmessage chuỗi. Trường command sẽ chứa lệnh đã được chạy và message sẽ chứa kết quả của nó.

Có hai bộ lọc sẽ chạy tuần tự trên dữ liệu được thu thập từ đầu vào. Bộ lọc kv là viết tắt của bộ lọc key-value và được tích hợp sẵn trong Logstash. Nó được sử dụng để phân tích cú pháp dữ liệu ở dạng chung của key value_separator value và cung cấp các tham số để chỉ định những gì được coi là giá trị và các dấu phân tách trường. Dấu phân cách trường liên quan đến các chuỗi phân tách dữ liệu được định dạng ở dạng chung với nhau. Trong trường hợp kết quả của lệnh Redis INFO, dấu phân tách trường ( field_split ) là một dòng mới và dấu phân tách giá trị ( value_split ) là : Các dòng không tuân theo biểu mẫu đã xác định sẽ bị loại bỏ, bao gồm cả comment .

Để cấu hình bộ lọc kv , bạn chuyển : tới tham số value_split\r\n (biểu thị một dòng mới) cho tham số field_split . Bạn cũng ra lệnh cho nó xóa các trường commandmessage khỏi đối tượng dữ liệu hiện tại bằng cách chuyển chúng tới trường remove_field dưới dạng các phần tử của một mảng, vì chúng chứa dữ liệu giờ đây vô dụng.

Bộ lọc kv đại diện cho giá trị mà nó được phân tích cú pháp thành một loại chuỗi (văn bản) theo thiết kế. Điều này đặt ra một vấn đề vì Kibana không thể dễ dàng xử lý các loại chuỗi, ngay cả khi nó thực sự là một số. Để giải quyết vấn đề này, bạn sẽ sử dụng mã Ruby tùy chỉnh để chuyển đổi các chuỗi chỉ số thành số, nếu có thể. Bộ lọc thứ hai là một khối ruby cung cấp tham số code chấp nhận một chuỗi chứa mã sẽ được chạy.

event là một biến mà Logstash cung cấp cho mã của bạn và chứa dữ liệu hiện tại trong đường dẫn bộ lọc. Như đã lưu ý trước đây, các bộ lọc chạy lần lượt, nghĩa là bộ lọc Ruby sẽ nhận dữ liệu được phân tích cú pháp từ bộ lọc kv . Bản thân mã Ruby chuyển đổi event thành Hash và duyệt qua các khóa, sau đó kiểm tra xem giá trị được liên kết với khóa có thể được biểu diễn dưới dạng số nguyên hay số thực (một số có số thập phân) hay không. Nếu có thể, giá trị chuỗi được thay thế bằng số được phân tích cú pháp. Khi vòng lặp kết thúc, nó sẽ in ra một thông báo ( Ruby filter finished ) để báo cáo tiến trình.

Đầu ra gửi dữ liệu đã xử lý tới Elasticsearch để lập index . Tài liệu kết quả sẽ được lưu trữ trong index redis_info , được xác định trong đầu vào và được chuyển vào dưới dạng tham số cho khối kết quả .

Lưu và đóng file .

Bạn đã cài đặt Logstash bằng cách sử dụng apt và cấu hình nó để yêu cầu định kỳ số liệu thống kê từ Redis, xử lý chúng và gửi chúng đến version Elasticsearch của bạn.

Bước 2 - Kiểm tra cấu hình Logstash

Đến đây bạn sẽ kiểm tra cấu hình bằng cách chạy Logstash để xác minh nó sẽ kéo dữ liệu đúng cách.

Logstash hỗ trợ chạy một cấu hình cụ thể bằng cách chuyển đường dẫn file của nó đến tham số -f . Chạy lệnh sau để kiểm tra cấu hình mới của bạn từ bước cuối cùng:

  • sudo /usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/redis.conf

Có thể mất một chút thời gian để hiển thị kết quả , nhưng bạn sẽ sớm thấy một cái gì đó tương tự như sau:

Output
WARNING: Could not find logstash.yml which is typically located in $LS_HOME/config or /etc/logstash. You can specify the path using --path.settings. Continuing using the defaults Could not find log4j2 configuration at path /usr/share/logstash/config/log4j2.properties. Using default config which logs errors to the console [WARN ] 2019-09-20 11:59:53.440 [LogStash::Runner] multilocal - Ignoring the 'pipelines.yml' file because modules or command line options are specified [INFO ] 2019-09-20 11:59:53.459 [LogStash::Runner] runner - Starting Logstash {"logstash.version"=>"6.8.3"} [INFO ] 2019-09-20 12:00:02.543 [Converge PipelineAction::Create<main>] pipeline - Starting pipeline {:pipeline_id=>"main", "pipeline.workers"=>2, "pipeline.batch.size"=>125, "pipeline.batch.delay"=>50} [INFO ] 2019-09-20 12:00:03.331 [[main]-pipeline-manager] elasticsearch - Elasticsearch pool URLs updated {:changes=>{:removed=>[], :added=>[http://localhost:9200/]}} [WARN ] 2019-09-20 12:00:03.727 [[main]-pipeline-manager] elasticsearch - Restored connection to ES instance {:url=>"http://localhost:9200/"} [INFO ] 2019-09-20 12:00:04.015 [[main]-pipeline-manager] elasticsearch - ES Output version determined {:es_version=>6} [WARN ] 2019-09-20 12:00:04.020 [[main]-pipeline-manager] elasticsearch - Detected a 6.x and above cluster: the `type` event field won't be used to determine the document _type {:es_version=>6} [INFO ] 2019-09-20 12:00:04.071 [[main]-pipeline-manager] elasticsearch - New Elasticsearch output {:class=>"LogStash::Outputs::ElasticSearch", :hosts=>["http://localhost:9200"]} [INFO ] 2019-09-20 12:00:04.100 [Ruby-0-Thread-5: :1] elasticsearch - Using default mapping template [INFO ] 2019-09-20 12:00:04.146 [Ruby-0-Thread-5: :1] elasticsearch - Attempting to install template {:manage_template=>{"template"=>"logstash-*", "version"=>60001, "settings"=>{"index.refresh_interval"=>"5s"}, "mappings"=>{"_default_"=>{"dynamic_templates"=>[{"message_field"=>{"path_match"=>"message", "match_mapping_type"=>"string", "mapping"=>{"type"=>"text", "norms"=>false}}}, {"string_fields"=>{"match"=>"*", "match_mapping_type"=>"string", "mapping"=>{"type"=>"text", "norms"=>false, "fields"=>{"keyword"=>{"type"=>"keyword", "ignore_above"=>256}}}}}], "properties"=>{"@timestamp"=>{"type"=>"date"}, "@version"=>{"type"=>"keyword"}, "geoip"=>{"dynamic"=>true, "properties"=>{"ip"=>{"type"=>"ip"}, "location"=>{"type"=>"geo_point"}, "latitude"=>{"type"=>"half_float"}, "longitude"=>{"type"=>"half_float"}}}}}}}} [INFO ] 2019-09-20 12:00:04.295 [[main]-pipeline-manager] exec - Registering Exec Input {:type=>"redis_info", :command=>"...", :interval=>10, :schedule=>nil} [INFO ] 2019-09-20 12:00:04.315 [Converge PipelineAction::Create<main>] pipeline - Pipeline started successfully {:pipeline_id=>"main", :thread=>"#<Thread:0x73adceba run>"} [INFO ] 2019-09-20 12:00:04.483 [Ruby-0-Thread-1: /usr/share/logstash/lib/bootstrap/environment.rb:6] agent - Pipelines running {:count=>1, :running_pipelines=>[:main], :non_running_pipelines=>[]} [INFO ] 2019-09-20 12:00:05.318 [Api Webserver] agent - Successfully started Logstash API endpoint {:port=>9600} Ruby filter finished Ruby filter finished Ruby filter finished ...

Bạn sẽ thấy thông báo Ruby filter finished được in theo khoảng thời gian đều đặn (được đặt thành 10 giây ở bước trước), nghĩa là thống kê đang được chuyển đến Elasticsearch.

Bạn có thể thoát khỏi Logstash bằng cách nhấp vào CTRL + C trên bàn phím. Như đã đề cập trước đó, Logstash sẽ tự động chạy tất cả các file cấu hình được tìm thấy trong /etc/logstash/conf.d ở chế độ nền khi khởi động dưới dạng dịch vụ. Chạy lệnh sau để bắt đầu nó:

  • sudo systemctl start logstash

Bạn đã chạy Logstash để kiểm tra xem nó có thể kết nối với cụm Redis của bạn và thu thập dữ liệu hay không. Tiếp theo, bạn sẽ khám phá một số dữ liệu thống kê trong Kibana.

Bước 3 - Khám phá dữ liệu đã nhập trong Kibana

Trong phần này, bạn sẽ khám phá và hình dung dữ liệu thống kê mô tả hiệu suất database của bạn trong Kibana.

Trong trình duyệt web , chuyển đến domain của bạn, nơi bạn đã giới thiệu Kibana như một phần của yêu cầu . Bạn sẽ thấy trang chào mừng mặc định:

Kibana - Trang chào mừng

Trước khi khám phá dữ liệu Logstash được gửi đến Elasticsearch, trước tiên bạn cần phải thêm redis_info chỉ số để Kibana. Để làm như vậy, hãy nhấp vào Quản lý từ thanh bên dọc bên trái, sau đó nhấp vào Mẫu index trong phần Kibana .

Kibana - Tạo mẫu index

Bạn sẽ thấy một biểu mẫu để tạo Mẫu index mới. Mẫu index trong Kibana cung cấp một cách để lấy dữ liệu từ nhiều index Elasticsearch cùng một lúc và được dùng để khám phá chỉ một index .

Bên dưới trường văn bản Mẫu index , bạn sẽ thấy index redis_info được liệt kê. Nhập nó vào trường văn bản và sau đó nhấp vào nút Bước tiếp theo .

Sau đó, bạn cần chọn trường dấu thời gian, vì vậy sau này bạn có thể thu hẹp các tìm kiếm của bạn theo một phạm vi thời gian. Logstash tự động thêm một, gọi là @timestamp . Chọn nó từ menu thả xuống và nhấp vào Tạo mẫu index để hoàn tất việc thêm index vào Kibana.

Kibana - Lựa chọn dấu thời gian mẫu index

Để tạo và xem các hình ảnh trực quan hiện có, hãy nhấp vào mục Hình ảnh hóa trong menu dọc bên trái. Bạn sẽ thấy trang sau:

Kibana - Hình ảnh hóa

Để tạo hình ảnh trực quan mới, hãy nhấp vào nút Tạo hình ảnh trực quan , sau đó chọn Dòng từ danh sách các loại sẽ bật lên. Sau đó, chọn mẫu index redis_info* mà bạn vừa tạo làm nguồn dữ liệu. Bạn sẽ thấy một hình ảnh trống rỗng:

Kibana - Hình ảnh hóa trống

Control panel bên trái cung cấp một biểu mẫu để chỉnh sửa các thông số mà Kibana sẽ sử dụng để vẽ trực quan, biểu mẫu này sẽ được hiển thị ở phần trung tâm của màn hình. Ở phía trên bên phải của màn hình là bộ chọn phạm vi ngày. Nếu trường @timestamp đang được sử dụng trong hiển thị, Kibana sẽ chỉ hiển thị dữ liệu thuộc khoảng thời gian được chỉ định trong bộ chọn phạm vi.

Đến đây bạn sẽ hình dung mức sử dụng bộ nhớ Redis trung bình trong một khoảng thời gian cụ thể. Nhấp vào Trục Y bên dưới Chỉ số trong console bên trái để mở ra, sau đó chọn Trung bình làm Tổng hợp và chọn used_memory làm Trường . Điều này sẽ điền vào trục Y của biểu đồ với các giá trị trung bình.

Tiếp theo, nhấp vào X-Axis trong Buckets . Đối với Tổng hợp , hãy chọn Biểu đồ Ngày . @timestamp sẽ được tự động chọn làm Trường . Sau đó, hiển thị hình ảnh bằng cách nhấp vào nút phát màu xanh lam trên đầu console . Nếu database của bạn là thương hiệu mới và chưa được sử dụng, bạn sẽ không thấy một dòng quá dài. Tuy nhiên, trong mọi trường hợp, bạn sẽ thấy mô tả chính xác về mức sử dụng bộ nhớ trung bình. Đây là cách hiển thị kết quả có thể trông như thế nào sau khi sử dụng ít hoặc không sử dụng:

Kibana - Hình ảnh sử dụng bộ nhớ của Redis

Trong bước này, bạn đã trực quan hóa việc sử dụng bộ nhớ của database Redis được quản lý của bạn bằng Kibana.Bạn cũng có thể sử dụng các loại cốt truyện khác mà Kibana cung cấp, chẳng hạn như Trình tạo trực quan, để tạo các biểu đồ phức tạp hơn mô tả nhiều trường cùng một lúc. Điều này sẽ cho phép bạn hiểu rõ hơn về cách database của bạn đang được sử dụng, điều này sẽ giúp bạn tối ưu hóa các ứng dụng client , cũng như chính database của bạn.

Kết luận

Đến đây bạn đã cài đặt ngăn xếp Đàn hồi trên server của bạn và được cấu hình để lấy dữ liệu thống kê từ database Redis được quản lý của bạn một cách thường xuyên. Bạn có thể phân tích và trực quan hóa dữ liệu bằng Kibana hoặc một số phần mềm phù hợp khác, điều này sẽ giúp bạn thu thập thông tin chi tiết có giá trị và mối tương quan trong thế giới thực về cách database của bạn đang hoạt động.

Để biết thêm thông tin về những gì bạn có thể làm với Database do Redis quản lý, hãy truy cập tài liệu sản phẩm . Nếu bạn muốn trình bày thống kê database bằng cách sử dụng kiểu trực quan hóa khác, hãy xem tài liệu Kibana để được hướng dẫn thêm.


Tags:

Các tin liên quan

Cách quản lý bộ trong Redis
2019-09-26
Cách quản lý database và khóa Redis
2019-09-20
Cách quản lý danh sách trong Redis
2019-09-20
Cách quản lý hàm băm trong Redis
2019-09-20
Cách khắc phục sự cố trong Redis
2019-09-20
Cách quản lý chuỗi trong Redis
2019-09-20
Cách quản lý danh sách trong Redis
2019-09-20
Cách đánh giá hiệu suất của server Redis trên Ubuntu 18.04
2019-08-16
Cách cài đặt và bảo mật Redis trên Debian 10
2019-07-16
Cách cài đặt và bảo mật Redis trên Debian 9
2018-09-05