手把手教学:使用Elastic search和Kibana进行数据探索(Python语言)

本文涉及的产品
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
简介:

探索性数据分析(EDA)帮助我们认识底层的数据基结构及其动力学,以此来最大限度发掘出数据的可能性。EDA是提取重要变量和检测异常值的关键。尽管存在着很多种机器学习算法,但EDA仍被视为理解和推动业务的最关键算法之一。

其实有很多种方式都能够执行实现EDA,例如Python的matplotlib、seaborn库,R语言的ggplot2,而且网络上有很多很好的资源,例如John W. Tukey的“探索性数据分析”, Roger D. Peng 的“用R进行探索性数据分析”等,不胜枚举。

在本文中,我主要讲解下如何使用Elastic search和Kibana实现EDA。

目录:

1. Elastic search

2. Kibana

3. 创建数据表

  • 数据索引
  • 链接Kibana
  • 可视化

4. 搜索栏

1. Elastic Search (ES)

Elastic Search是一个开放源码,RESTful分布式和可扩展的搜索引擎。由于其简单的设计和分布式特性,Elastic Search从大量级数据(PB)中进行简单或复杂的查询、提取结果都非常迅速。另外相较于传统数据库被模式、表所约束,Elastic Search工作起来也更加容易。

Elastic Search提供了一个具有HTTP Web界面和无模式JSON文档的分布式、多租户的全文搜索引擎。

ES安装

安装和初始化是相对简单的,如下所示:

  • 下载并解压Elasticsearch包
  • 改变目录到Elasticsearch文件夹
  • 运行bin/ Elasticsearch(或在Windows上运行bin \elasticsearch.bat)

Elasticsearch实例在默认配置的浏览器中进行本地运行http://localhost:9200

2.Kibana

Kibana是一个基于Elasticsearch的开源数据挖掘和可视化工具,它可以帮助用户更好地理解数据。它在Elasticsearch集群索引的内容之上提供可视化功能。

安装

安装和初始化的过程与Elasticsearch类似:

  • 下载并解压Kibana包
  • 用编辑器打开config/ Kibana.yml,配置elasticsearch.url指向本地ElasticSearch实例所在位置
  • 更改目录到Kibana文件夹
  • 运行bin/ Kibana(或在Windows上运行bin \ kibana.bat)

Kibana实例在默认配置的浏览器中进行本地运行http://localhost:5601.

将运行Kibana的终端保持打开状态,可以保证实例不断的运行。你也可以使用nohup模式在后台运行实例。

3. 创建数据表

使用ES和Kibana创建仪表板主要有三个步骤。接下来我将会用贷款预测的实际问题的数据来示例如何创建一个仪表板。请注册该问题,以便能够下载数据。请检查数据字典以获得更多详细信息。

注:在本文中,我将使用python读取数据并将数据插入到Elasticsearch中,并通过Kibana进行可视化。

读取数据

 
 
  1. import pandas as pd 
  2. train_data_path = '../loan_prediction_data/train_u6lujuX_CVtuZ9i.csv' 
  3. test_data_path = '../loan_prediction_data/test_Y3wMUE5_7gLdaTN.csv' 
  4. train = pd.read_csv(train_data_path); print(train.shape) 
  5. test = pd.read_csv(test_data_path); print(test.shape) 

结果:

 
 
  1. (614, 13) 
  2. (367, 12) 

3.1 数据索引

Elasticsearch将数据索引到其内部数据格式,并将其存储在类似于JSON对象的基本数据结构中。请找到下面的Python代码,将数据插入到ES当中。

请如下所示安装pyelasticsearch库以便通过Python索引。

 
 
  1. pip install pyelasticsearch 
 
 
  1. from time import time 
  2. from pyelasticsearch import ElasticSearch 
  3.  
  4. CHUNKSIZE=100 
  5.  
  6. index_name_train = "loan_prediction_train" 
  7. doc_type_train = "av-lp_train" 
  8.  
  9. index_name_test = "loan_prediction_test" 
  10. doc_type_test = "av-lp_test" 
 
 
  1. def index_data(data_path, chunksize, index_name, doc_type): 
  2.     f = open(data_path) 
  3.     csvfile = pd.read_csv(f, iterator=True, chunksize=chunksize)  
  4.     es = ElasticSearch('http://localhost:9200/'
  5.     try : 
  6.         es.delete_index(index_name) 
  7.     except : 
  8.         pass 
  9.     es.create_index(index_name) 
  10.     for i,df in enumerate(csvfile):  
  11.         records=df.where(pd.notnull(df), None).T.to_dict() 
  12.         list_records=[records[it] for it in records] 
  13.         try : 
  14.             es.bulk_index(index_name, doc_type, list_records) 
  15.         except : 
  16.             print("error!, skiping chunk!"
  17.             pass 
 
 
  1. index_data(train_data_path, CHUNKSIZE, index_name_train, doc_type_train) # Indexing train data 
 
 
  1. index_data(test_data_path, CHUNKSIZE, index_name_test, doc_type_test) # Indexing test data 
 
 
  1. DELETE /loan_prediction_train [status:404 request:0.010s] 
  2. DELETE /loan_prediction_test [status:404 request:0.009s] 

3.2 链接Kibana

  • 在浏览器上访问 http://localhost:5601
  • 去管理模块中选取索引模式,点击添加。
  • 如果你的索引数据中包含时间戳,则选复选框。否则,取消选中该框。
  • 将之前用于数据索引到ElasticSearch中的索引输入。 (例如:loan_prediction_train)。
  • 点击新建。

对loan_prediction_test重复上述4个步骤。 现在kibana已经与训练数据链接,并测试数据是否已经存在于elastic search中。

3.3可视化

  • 单击 可视化>创建可视化>选择可视化类型>选择索引(训练或测试)>构建

例一

选择垂直条形图,并选择绘制Loan_status分布的训练索引。

将y轴作为计数,x轴代表贷款状态

  • 保存可视化
  • 添加仪表板>选择索引>添加只保存的可视化。

Voila!! Dashboard 生成啦!

例二

  • 单击可视化>创建可视化>选择可视化类型>选择索引(训练或测试)>构建
  • 选择垂直条形图,并选择训练索引绘制已婚分布。
  • 选择y轴为计数,x轴为已婚

  • 保存可视化。
  • 重复上述步骤进行索引测试。
  • 打开已创建的仪表板添加这些可视化

例三

类似的性别分布。这一次我们将使用饼图。

  • 单击可视化>创建可视化>选择可视化类型>选择索引(训练或测试)>构建
  • 选择饼图并选择列车索引绘制已婚分布。
  • 按“已分隔”列选择切片大小作为计数和分割片段

  • 保存可视化。
  • 重复上述步骤进行索引测试。
  • 打开已创建的仪表板添加这些可视化

最后,创建所有可视化的仪表板将如下所示!

是不是很漂亮!

剩下将由你来探索更多的elasticsearch和Kibana了,并创建多种多样的可视化效果。

4.搜索栏

搜索栏允许用户通过字符串来搜索来数据,这便有助于我们理解数据中的更改,并在一个特定属性中进行更改,这对于可视化来说是不容易的。

举例

  • 转到发现>添加Loan_Status和Credit_History
  • 使用搜索栏仅选择Credit_History为0.(Credit_History:0)
  • 现在可以查看Loan_Status列中的更改记录。

观点:大多数信用记录为0的客户没有收到贷款(贷款状态为N = 92.1%)              


本文作者:佚名

来源:51CTO

相关实践学习
使用阿里云Elasticsearch体验信息检索加速
通过创建登录阿里云Elasticsearch集群,使用DataWorks将MySQL数据同步至Elasticsearch,体验多条件检索效果,简单展示数据同步和信息检索加速的过程和操作。
ElasticSearch 入门精讲
ElasticSearch是一个开源的、基于Lucene的、分布式、高扩展、高实时的搜索与数据分析引擎。根据DB-Engines的排名显示,Elasticsearch是最受欢迎的企业搜索引擎,其次是Apache Solr(也是基于Lucene)。 ElasticSearch的实现原理主要分为以下几个步骤: 用户将数据提交到Elastic Search 数据库中 通过分词控制器去将对应的语句分词,将其权重和分词结果一并存入数据 当用户搜索数据时候,再根据权重将结果排名、打分 将返回结果呈现给用户 Elasticsearch可以用于搜索各种文档。它提供可扩展的搜索,具有接近实时的搜索,并支持多租户。
相关文章
|
5天前
|
数据处理 Python
如何使用Python的Pandas库进行数据排序和排名
【4月更文挑战第22天】Pandas Python库提供数据排序和排名功能。使用`sort_values()`按列进行升序或降序排序,如`df.sort_values(by='A', ascending=False)`。`rank()`函数用于计算排名,如`df['A'].rank(ascending=False)`。多列操作可传入列名列表,如`df.sort_values(by=['A', 'B'], ascending=[True, False])`和分别对'A'、'B'列排名。
14 2
|
3天前
|
机器学习/深度学习 数据挖掘 网络架构
Python对商店数据进行lstm和xgboost销售量时间序列建模预测分析
Python对商店数据进行lstm和xgboost销售量时间序列建模预测分析
15 0
|
4天前
|
机器学习/深度学习 算法 数据挖掘
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享-2
PYTHON银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机SVM分析营销活动数据|数据分享
28 1
|
3天前
|
机器学习/深度学习 算法 算法框架/工具
数据分享|PYTHON用KERAS的LSTM神经网络进行时间序列预测天然气价格例子
数据分享|PYTHON用KERAS的LSTM神经网络进行时间序列预测天然气价格例子
24 0
|
1天前
|
机器学习/深度学习 存储 监控
数据分享|Python卷积神经网络CNN身份识别图像处理在疫情防控下口罩识别、人脸识别
数据分享|Python卷积神经网络CNN身份识别图像处理在疫情防控下口罩识别、人脸识别
10 0
|
1天前
|
机器学习/深度学习 数据采集 算法
Python信贷风控模型:Adaboost,XGBoost,SGD, SVC,随机森林, KNN预测信贷违约支付|数据分享
Python信贷风控模型:Adaboost,XGBoost,SGD, SVC,随机森林, KNN预测信贷违约支付|数据分享
Python信贷风控模型:Adaboost,XGBoost,SGD, SVC,随机森林, KNN预测信贷违约支付|数据分享
|
1天前
|
JSON 数据可视化 定位技术
python_将包含汉字的字典数据写入json(将datav的全省数据中的贵州区域数据取出来)
python_将包含汉字的字典数据写入json(将datav的全省数据中的贵州区域数据取出来)
6 0
|
3天前
|
机器学习/深度学习 算法 Python
数据分享|Python决策树、随机森林、朴素贝叶斯、KNN(K-最近邻居)分类分析银行拉新活动挖掘潜在贷款客户
数据分享|Python决策树、随机森林、朴素贝叶斯、KNN(K-最近邻居)分类分析银行拉新活动挖掘潜在贷款客户
23 4
|
4天前
|
数据挖掘 数据处理 索引
如何使用Python的Pandas库进行数据筛选和过滤?
Pandas是Python数据分析的核心库,提供DataFrame数据结构。基本步骤包括导入库、创建DataFrame及进行数据筛选。示例代码展示了如何通过布尔索引、`query()`和`loc[]`方法筛选`Age`大于19的记录。
10 0
|
6天前
|
Python
如何使用Python的Pandas库进行数据缺失值处理?
Pandas在Python中提供多种处理缺失值的方法:1) 使用`isnull()`检查;2) `dropna()`删除含缺失值的行或列;3) `fillna()`用常数、前后值填充;4) `interpolate()`进行插值填充。根据需求选择合适的方法处理数据缺失。
39 9