当前位置: 首页 > news >正文

广元市建设局官方网站网络推广的目标

广元市建设局官方网站,网络推广的目标,化工网站模板,公司网站建设支出计入目录 一、概述 1.作用 2.为什么使用#xff1f; 二、组件 1.elasticsearch 1.1 作用 1.2 特点 2.logstash 2.1 作用 2.2 工作过程 2.3 INPUT 2.4 FILETER 2.5 OUTPUTS 3.kibana 三、架构类型 1.ELK 2.ELKK 3.ELFK 4.ELFKK 四、案例 - 构建ELK集群 1.环境…目录 一、概述 1.作用 2.为什么使用 二、组件 1.elasticsearch 1.1 作用 1.2 特点 2.logstash 2.1 作用 2.2 工作过程 2.3 INPUT 2.4 FILETER 2.5 OUTPUTS 3.kibana 三、架构类型 1.ELK 2.ELKK 3.ELFK 4.ELFKK 四、案例 - 构建ELK集群 1.环境配置 2.安装node1与node2节点的elasticsearch 2.1 安装 2.2 配置 2.3 启动elasticsearch服务 2.4 查看节点信息 3.在node1安装elasticsearch-head插件 3.1 安装node 3.2 拷贝命令 3.3 安装elasticsearch-head 3.4 修改elasticsearch配置文件 3.5 启动elasticsearch-head 3.6 访问 3.7 在node1的终端中输入 4.node1服务器安装logstash 5.ogstash日志收集文件格式默认存储在/etc/logstash/conf.d ​编辑 6.node1节点安装kibana 7.企业案例 一、概述 ELK由三个组件构成 1.作用 日志收集日志分析日志可视化 2.为什么使用 日志对于分析系统、应用的状态十分重要但一般日志的量会比较大并且比较分散。如果管理的服务器或者程序比较少的情况我们还可以逐一登录到各个服务器去查看、分析。但如果服务器或者程序的数量比较多了之后这种方法就显得力不从心。基于此一些集中式的日志系统也就应用而生。目前比较有名成熟的有Splunk(商业)、FaceBook 的Scribe、Apache的Chukwa Cloudera的Fluentd、还有ELK等等。 二、组件 1.elasticsearch 1.1 作用 日志分析开源的日志收集、分析、存储程序 1.2 特点 分布式零配置自动发现索引自动分片索引副本机制Restful风格接口多数据源自动搜索负载 2.logstash 2.1 作用 日志收集搜集、分析、过滤日志的工具 2.2 工作过程 一般工作方式为c/s架构Client端安装在需要收集日志的服务器上Server端负责将收到的各节点日志进行过滤、修改等操作再一并发往Elasticsearch上去Inputs → Filters → Outputs输入--过滤--输出 2.3 INPUT File从文件系统的文件中读取类似于tail -f命令Syslog在514端口上监听系统日志消息并根据RFC3164标准进行解析Redis从redis service中读取Beats从filebeat中读取 2.4 FILETER Grok解析任意文本数据Grok 是 Logstash 最重要的插件。它的主要作用就是将文本格式的字符串转换成为具体的结构化的数据配合正则表达式使用。官方提供的grok表达式logstash-patterns-core/patterns at main · logstash-plugins/logstash-patterns-core · GitHubGrok在线调试Grok DebuggerMutate对字段进行转换。例如对字段进行删除、替换、修改、重命名等。Drop丢弃一部分Events不进行处理。Clone拷贝Event这个过程中也可以添加或移除字段。Geoip添加地理信息(为前台kibana图形化展示使用) 2.5 OUTPUTS Elasticsearch可以高效的保存数据并且能够方便和简单的进行查询。File将Event数据保存到文件中。Graphite将Event数据发送到图形化组件中踏实一个当前较流行的开源存储图形化展示的组件。 3.kibana 日志可视化为Logstash和ElasticSearch在收集、存储的日志基础上进行分析时友好的Web界面可以帮助汇总、分析和搜索重要数据日志。 三、架构类型 1.ELK es logstash kibana 2.ELKK es logstash kafka kibana 3.ELFK es logstash        重量级、占用系统资源较多 filebeat          轻量级、占用系统资源较少 kibana 4.ELFKK es logstash filebeat kafka kibana 四、案例 - 构建ELK集群 1.环境配置 设置各个主机的IP地址为拓扑中的静态IP在两个节点中修改主机名为node1和node2并设置hosts文件 node1 hostnamectl set-hostname node1 bash vim /etc/hosts 192.168.42.3  node1 192.168.42.4  node2 node2 hostnamectl set-hostname node2 bash vim /etc/hosts 192.168.42.3  node1 192.168.42.4  node2 2.安装node1与node2节点的elasticsearch 2.1 安装 mv elk-apppack elk cd elk rpm -ivh elasticsearch-5.5.0.rpm 2.2 配置 node1 vim /etc/elasticsearch/elasticsearch.yml cluster.name:my-elk-cluster  //集群名称    node.name:node1 //节点名字 path.data:/var/lib/elasticsearch  //数据存放路径 path.logs /var/log/elasticsearch/  //日志存放路径 bootstrap.memory_lock:false //在启动的时候不锁定内存 network.host:0.0.0.0  //提供服务绑定的IP地址0.0.0.0代表所有地址 http.port:9200 //侦听端口为9200 discovery.zen.ping.unicast.hosts【node1node2】 //群集发现通过单播实现 node2 vim /etc/elasticsearch/elasticsearch.yml cluster.name:my-elk-cluster  //集群名称    node.name:node2 //节点名字 path.data:/var/lib/elasticsearch  //数据存放路径 path.logs /var/log/elasticsearch/  //日志存放路径 bootstrap.memory_lock:false //在启动的时候不锁定内存 network.host:0.0.0.0  //提供服务绑定的IP地址0.0.0.0代表所有地址 http.port:9200 //侦听端口为9200 discovery.zen.ping.unicast.hosts【node1node2】 //群集发现通过单播实现 2.3 启动elasticsearch服务 node1和node2 systemctl start elasticsearch 2.4 查看节点信息 http://192.168.42.3:9200 http://192.168.42.4:9200 3.在node1安装elasticsearch-head插件 3.1 安装node cd elk ls tar xf node-v8.2.1.tar.gz cd node-v8.2.1 ./configure make make install 3.2 拷贝命令 tar xf phantomjs-2.1.1-linux-x86_64.tar.bz2 cd phantomjs-2.1.1-linux-x86_64/bin cp phantomjs  /usr/local/bin 3.3 安装elasticsearch-head cd elk tar xf elasticsearch-head.tar.gz cd elasticsearch-head npm install 3.4 修改elasticsearch配置文件 vim /etc/elasticsearch/elasticsearch.yml # Require explicit names when deleting indices: # #action.destructive_requires_name:true http.cors.enabled: true  //开启跨域访问支持默认为false http.cors.allow-origin:*  //跨域访问允许的域名地址 重启服务 systemctl restart elasticsearch 3.5 启动elasticsearch-head cd /root/elk/elasticsearch-head npm run start 查看监听 netstat -anput | grep :9100 3.6 访问 http://192.168.42.3:9100 3.7 在node1的终端中输入 curl  -XPUT  localhost:9200/index-demo/test/1?prettypretty -H  Content-Type: application/json -d {user:zhangsan,mesg:hello world} 刷新浏览器可以看到对应信息即可 4.node1服务器安装logstash cd elk rpm -ivh logstash-5.5.1.rpm systemctl start logstash.service In -s /usr/share/logstash/bin/logstash  /usr/local/bin/ 测试1 标准输入与输出 logstash -e input{ stdin{} }output { stdout{} } 测试2 使用rubydebug解码 logstash -e input { stdin{} } output { stdout{ codecrubydebug }} 测试3输出到elasticsearch logstash -e input { stdin{} } output { elasticsearch{ hosts[192.168.42.3:9200]} } 查看结果 http://192.168.42.3:9100 5.ogstash日志收集文件格式默认存储在/etc/logstash/conf.d Logstash配置文件基本由三部分组成input、output以及 filter根据需要。标准的配置文件格式如下 input (...)  输入 filter {...}   过滤 output {...}  输出 在每个部分中也可以指定多个访问方式。例如若要指定两个日志来源文件则格式如下 input { file{path /var/log/messages type syslog} file { path /var/log/apache/access.log  type apache} } 通过logstash收集系统信息日志 chmod or /var/log/messages vim /etc/logstash/conf.d/system.conf input { file{ path /var/log/messages type system start_position beginning } } output { elasticsearch{ hosts [192.168.42.1:9200] index system-%{YYYY.MM.dd} } } 重启日志服务 systemctl restart logstash 查看日志 http://192.168.42.3:9100 6.node1节点安装kibana cd elk rpm -ivh kibana-5.5.1-x86_64.rpm 配置kibana vim /etc/kibana/kibana.yml server.port5601  //Kibana打开的端口 server.host0.0.0.0 //Kibana侦听的地址 elasticsearch.url http//192.168.42.3:9200   //和Elasticsearch 建立连接 kibana.index.kibana  //在Elasticsearch中添加.kibana索引 启动kibana systemctl start kibana 访问kibana : http://192.168.42.3:5601 首次访问需要添加索引我们添加前面已经添加过的索引system-* 7.企业案例 收集httpd访问日志信息 在httpd服务器上安装logstash参数上述安装过程可以不进行测试 logstash在httpd服务器上作为agent代理不需要启动 编写httpd日志收集配置文件 vim /etc/logstash/conf.d/httpd.conf input { file{ path/var/log/httpd/access_log //收集Apache访问日志 type access //类型指定为 access start_position beginning //从开始处收集 } output{ elasticsearch { hosts [192.168.42.3:9200] // elasticsearch 监听地址及端口 index httpd_access-%{YYYY.MM.dd} //指定索引格式 } } 使用logstash命令导入配置 logstash -f /etc/logstash/conf.d/httpd.conf 使用kibana查看即可 http://192.168.42.3:5601   查看时在mangement选项卡创建索引httpd_access-*  即可
http://www.hkea.cn/news/14289178/

相关文章:

  • 上交所大宗交易平台做seo的网站有那些
  • php网站开发笔试题网站开发工程师swot分析
  • 吉林建设教育协会网站质量基础设施一站式服务工作站
  • 视频网站建设工具广州公司网站开发
  • 销售型网站怎么做的关于电子商务的网站推广方案
  • 局域网站建设百度小程序是什么
  • 网站开发员工保密协议做网站技术服务费属于什么科目
  • 网站建设 0551做网站哪个平台
  • 互联网建设网站网站做app的软件叫什么
  • 做网站公司能赚钱吗沧州建网站
  • 网站建设的行业资讯做网站的怎么获取客户信息
  • 网站后台登录模板app开发方式有哪些
  • wordpress更改网站内容自己建设的手机网站做百度地图定位
  • 宿舍管理网站建设重庆最专业的房产网站建设
  • 做收益的网站多少钱如何做好互联网营销
  • 怎么建立一个网站链接wordpress外贸推广
  • 怎样建设旅游网站企业网络拓扑图及配置
  • 网站域名ip地址查询动漫与游戏制作这个专业怎么样
  • 唐山网址建站wordpress换行不显示
  • 企业型网站制作wordpress中目录如何表示
  • 网站推广服务合同判决书电商店铺
  • 知名做网站如何推广网站最有效
  • 做ptt有什么好的模板网站网络销售适合什么人做
  • 网站公司简介模板免费下载ie 常用网站
  • 网站开发现状都用php网站开发软件搭配
  • 网站开发需要什么基础知识电影资源分享网站怎么做的
  • 荆州网站建设荆州id创建网站
  • 哈尔滨网站建设市场建工网校论坛
  • 家教网站如何做东莞网站建设图表
  • 网站建设开票内容些什么做流程图表的网站