当前位置: 首页 > news >正文

蓬安网站建设视频推广渠道有哪些

蓬安网站建设,视频推广渠道有哪些,中国最顶尖的广告公司,网站的种类有哪些一、简单介绍 Hadoop最早诞生于Cutting于1998年左右开发的一个全文文本搜索引擎 Lucene#xff0c;这个搜索引擎在2001年成为Apache基金会的一个子项目#xff0c;也是 ElasticSearch等重要搜索引擎的底层基础。 项目官方#xff1a;https://hadoop.apache.org/ 二、Linux环…一、简单介绍 Hadoop最早诞生于Cutting于1998年左右开发的一个全文文本搜索引擎 Lucene这个搜索引擎在2001年成为Apache基金会的一个子项目也是 ElasticSearch等重要搜索引擎的底层基础。 项目官方https://hadoop.apache.org/ 二、Linux环境搭建 首先准备三台Linux服务器预装CentOS7。三台服务器之间需要网络互通。本地测试环境的IP地址分别为192.168.2.128192.168.2.129 192.168.2.130 内存配置建议不低于4G硬盘空间建议不低于50G。 1、配置hosts vi /etc/hosts这里是给每个机器配置一个机器名。后续集群中都会通过机器名进行配 置管理而不会再关注IP地址。 2、关闭防火墙 Hadoop集群节点之间需要进行频繁复杂的网络交互在实验环境建议关闭防火墙。生产环境下可以根据情况选择是按照端口配置复杂的防火墙规则或者关闭内部防火墙使用堡垒机进行统一防护。 systemctl stop firewalldsystemctl disable firewalld.service3、配置SSH免密 1、在node01下执行一路回车四次 ssh-keygen -t rsa2、然后在 node01上执行 ssh-copy-id node013、输入 yes然后回车接着输入 root 密码然后会得到如下日志 4、验证一下在 node01节点执行 ssh node015、在node02node03节点分别执行上述四个步骤注意节点名称的替换 6、最后分别在node01上执行 ssh-copy-id node02 ssh-copy-id node03在node02上执行 ssh-copy-id node01 ssh-copy-id node03同理在node03上执行 ssh-copy-id node01 ssh-copy-id node027、查看是否成功免密登录 4、安装JDK 尽量不要使用Linux自带的OpenJDK。 卸载指令 rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps 自行下载JDK jdk-8u212-linux-x64.tar.gz。解压到/usr/java目录。 最后配置一下jdk的环境变量 注node01、node02、node03三个节点都按装部署jdk环境 export JAVA_HOME/usr/java/jdk1.8.0_291 export CLASSPATH$JAVA_HOME/lib/ export PATH$PATH:$JAVA_HOME/bin5、创建用户(可选) 这里直接使用系统提供的root用户来直接进行操作。 通常在正是的生产环境中root用户都是要被严格管控的这时就需要单独创建一个用户来管理这些应用 三、Hadoop集群搭建 1、版本选择 这里选择的是3.2.2版本 hadoop-3.2.2.tar.gz 下载地址https://hadoop.apache.org/release/3.2.2.html 2、 集群机器角色规划 其中HDFS是一个分布式的文件系统主要负责文件的存储。由NameNode、Secondary NameNode和DataNode三种节点组成。HDFS上的文件会以文件块(Block)的形式存储到不同的DataNode节点当中。NameNode则用来存储文件的相关元数据比如文件名、文件目录结果、文件的块列表等。然后SecondaryNameNode则负责每隔一段时间对NameNode上的元数据进行备份。 Yarn是一个资源调度的工具负责对服务器集群内的计算资源主要是CPU和内存进行合理的分配与调度。由ResourceManager和NodeManager两种节点组成。ResourceManager负责对系统内的计算资源进行调度分配将计算任务分配到具体的NodeManger节点上执行。而NodeManager则负责具体的计算任务执行。 3、按装Hadoop 1、在所有虚拟机根目录下新建文件夹exportexport文件夹中新建data、servers和software文件 mkdir -p /export/data mkdir -p /export/servers mkdir -p /export/software2、解压Hadoop安装包 cd /export/software tar -zxvf hadoop-3.2.2.tar.gz -C /export/servers/3、配置hadoop环境变量 打开配置文件 vi /etc/profile配置文件最后追加的配置 export HADOOP_HOME/export/servers/hadoop-3.2.2 export PATH$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin使配置文件生效 source /etc/profile4、查看是否配置成功 hadoop version4、Hadoop集群配置 配置前先介绍一下配置文件 以下所有的配置文件都在hadoop安装目录下etc文件中路径如下 需要配置的文件有以下6个 1、配置hadoop-env.sh文件 vi hadoop-env.sh #找到相应位置添加这段 export JAVA_HOME/usr/java/jdk1.8.0_2912、配置core-site.xml文件 ?xml version1.0 encodingUTF-8? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl? !--Licensed under the Apache License, Version 2.0 (the License);you may not use this file except in compliance with the License.You may obtain a copy of the License athttp://www.apache.org/licenses/LICENSE-2.0Unless required by applicable law or agreed to in writing, softwaredistributed under the License is distributed on an AS IS BASIS,WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.See the License for the specific language governing permissions andlimitations under the License. See accompanying LICENSE file. --!-- Put site-specific property overrides in this file. --configuration!-- 指定 NameNode 的地址 --propertynamefs.defaultFS/namevaluehdfs://node01:8020/value/property!-- 指定 hadoop 数据的存储目录 --propertynamehadoop.tmp.dir/namevalue/export/servers/hadoop-3.2.2/data/value/property!-- 配置 HDFS 网页登录使用的静态用户为当前操作系统用户 --propertynamehadoop.http.staticuser.user/namevalueroot/value/property /configuration3、配置hdfs-site.xml文件 ?xml version1.0 encodingUTF-8? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl? !--Licensed under the Apache License, Version 2.0 (the License);you may not use this file except in compliance with the License.You may obtain a copy of the License athttp://www.apache.org/licenses/LICENSE-2.0Unless required by applicable law or agreed to in writing, softwaredistributed under the License is distributed on an AS IS BASIS,WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.See the License for the specific language governing permissions andlimitations under the License. See accompanying LICENSE file. --!-- Put site-specific property overrides in this file. --configuration!-- NameNode web 端访问地址--propertynamedfs.namenode.http-address/namevaluenode01:9870/value/property!-- 2NameNode web 端访问地址--propertynamedfs.namenode.secondary.http-address/namevaluenode03:9868/value/property!-- 备份数量 --propertynamedfs.replication/namevalue2/value/property!-- 打开webhdfs --propertynamedfs.webhdfs.enabled/namevaluetrue/value/property /configuration 4、配置yarn-site.xml文件 ?xml version1.0? !--Licensed under the Apache License, Version 2.0 (the License);you may not use this file except in compliance with the License.You may obtain a copy of the License athttp://www.apache.org/licenses/LICENSE-2.0Unless required by applicable law or agreed to in writing, softwaredistributed under the License is distributed on an AS IS BASIS,WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.See the License for the specific language governing permissions andlimitations under the License. See accompanying LICENSE file. -- configuration!-- 指定 MR 走 shuffle --propertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/property!-- 指定 ResourceManager 的地址--propertynameyarn.resourcemanager.hostname/namevaluenode02/value/property!-- 环境变量的继承 跑示例时要用到--propertynameyarn.nodemanager.env-whitelist/namevalueJAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME/value/property!-- 开启日志聚集功能 --propertynameyarn.log-aggregation-enable/namevaluetrue/value/property!-- 设置日志聚集服务器地址 --propertynameyarn.log.server.url/namevaluehttp://node01:19888/jobhistory/logs/value/property!-- 设置日志保留时间为 7 天 --propertynameyarn.log-aggregation.retain-seconds/namevalue604800/value/property /configuration 5、配置mapred-site.xml文件 ?xml version1.0? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl? !--Licensed under the Apache License, Version 2.0 (the License);you may not use this file except in compliance with the License.You may obtain a copy of the License athttp://www.apache.org/licenses/LICENSE-2.0Unless required by applicable law or agreed to in writing, softwaredistributed under the License is distributed on an AS IS BASIS,WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.See the License for the specific language governing permissions andlimitations under the License. See accompanying LICENSE file. --!-- Put site-specific property overrides in this file. --configuration!-- 指定 MapReduce 程序运行在 Yarn 上 --propertynamemapreduce.framework.name/namevalueyarn/value/property!-- 历史服务器 web 端地址 --propertynamemapreduce.jobhistory.webapp.address/namevaluenode01:19888/value/property /configuration 6、配置workers文件 node01 node02 node037、将配置完成后的hadoop整体分发到另外的节点完成node02、node03两个节点和node01相同的配置 scp ~/.bash_profile rootnode02:~ scp -r /export/servers/hadoop-3.2.2 rootnode02:/export/servers/hadoop-3.2.2 scp ~/.bash_profile rootnode03:~ scp -r /export/servers/hadoop-3.2.2 rootnode03:/export/servers/hadoop-3.2.25、启动Hadoop集群 1、先启动hdfs服务在node01上启动NameNode、DataNode 第一次启动hdfs服务时需要先对NameNode进行格式化。在NameNode所 在的node01机器执行hadoop namenode -format执行完成初始化。初始化完成后会在 /export/servers/hadoop-3.2.2/data/dfs/name/current目录下创建一个NameNode的镜像。 接下来可以尝试启动hdfs了。 hadoop的启动脚本在hadoop下的sbin目录 下。 start-dfs.sh就是启动hdfs的脚本。 当前版本hadoop如果不创建单独用户而是直接使用root用户启动会报错。这时就需要添加之前配置的HDFS_NAMENODE_USER 等几个环境变量。 打开配置文件vi /etc/profile在最后追加如下内容保存退出source /etc/profilenode02、node03节点不要忘记配置 export HDFS_NAMENODE_USERroot export HDFS_DATANODE_USERroot export HDFS_SECONDARYNAMENODE_USERroot export YARN_RESOURCEMANAGER_USERroot export YARN_NODEMANAGER_USERroot export HADOOP_PID_DIR/export/servers2、接下来启动Yarnnode02上启动ResourceManager、DataNoda 注意下在yarn-site.xml中配置了日志聚合将yarn的执行日志配置到了 hdfs上。所以yarn建议在hdfs后启动。当然在生产环境下需要评估这 种日志方式是否合适。 3、查看各个节点服务启动进程 DataNode: 数据节点。 NameNode 名称服务 SecondaryNameNode 备份名称服务 4、访问HDFS的Web页面 配置window下的host文件 C:\Windows\System32\drivers\etc打开hosts文件 192.168.2.128 node01 192.168.2.129 node02 192.168.2.130 node03http://node01:9870/ 5、访问yarn的管理页面 http://node02:8088/ hadoop集群环境配置搭建完成
http://www.hkea.cn/news/14263771/

相关文章:

  • 南昌城乡住房建设厅网站男的做直播网站
  • 为企业设计网站宁波公司网络建设
  • 电子网站建设实训厦门网站建设策划
  • 郴州网站建设的公司公司怎么做网络营销
  • 衡阳县专业做淘宝网站学校网站查询学历
  • 长沙个人网站建设酷炫网站源码
  • 青岛网站建设代理加盟html5做图书馆网站
  • 国外免费搭建网站源码廊坊哪家公司做网站
  • 网站建设公司提成网站后台编辑器源码
  • 高校网站建设的优势和不足软件开发工具的基础
  • qifeiye做的网站如何外贸公司英文网站怎么做
  • 网站建设注意要求网站APP推广
  • 安徽网站建设详细策划app应用市场
  • 建设网站的公司哪家好上海装修做网站的倒闭了
  • 网站建设维护学习微信saas平台
  • 旅游网站开发目标链接平台
  • 龙口网站建设价格福州网站建设软件
  • 互助县公司网站建设微网站 php
  • 公司 网站建设苏州做视频网站广告公司
  • 网站注册可以免费吗网站哪个好
  • 中国最大网站建设公司织梦网站后台默认登陆路径
  • 中国空间站实时位置网站建设公司 选中企动力公司
  • 个人如何做网站推广wordpress更换新主题
  • 青海城乡建设厅网站 官网做venn的网站
  • 手机有软件做ppt下载网站有哪些中国十大电商培训机构
  • 个人网站建设知乎乐陵seo营销
  • 公众号 转 wordpress西安做网站优化的公司
  • 做文学网站编辑的前景广东企业网站建设
  • 高端h5网站开发网站模版如何去除title版权信息
  • 沧州网站建设建网站深