当前位置: 首页 > news >正文

找平面设计师网站做宣传图片的软件

找平面设计师网站,做宣传图片的软件,多少钱翻译,简要概括自建网站的优缺点单机可以搭建伪分布式hadoop环境#xff0c;用来测试和开发使用#xff0c;hadoop包括#xff1a; hdfs服务器 yarn服务器#xff0c;yarn的前提是hdfs服务器#xff0c; 在前面两个的基础上#xff0c;课可以搭建hive服务器#xff0c;不过hive不属于hadoop的必须部…单机可以搭建伪分布式hadoop环境用来测试和开发使用hadoop包括 hdfs服务器 yarn服务器yarn的前提是hdfs服务器 在前面两个的基础上课可以搭建hive服务器不过hive不属于hadoop的必须部分。 过程不要想的太复杂其实挺简单这里用最糙最快最直接的方法在我的单节点虚拟机上搭建一个hdfsyarnhive 首先要配置好Java的JAVA_HOME和PATHetc/hadoop/hadoop-env.sh里的JAVA_HOME要改为本机的JAVA_HOME还是有ssh本机的免密码登录。 然后下载hadoop安装包这个包就包括了hdfs服务器和yarn服务器的执行文件和配置脚本。解压后先配置 hdfs 服务器端主要是两个配置文件core-site.xml 和 hdfs-site.xml 这个site我估计就是服务器端配置的意思。我是用root用户配置和执行的 etc/hadoop/core-site.xml 这里9000是hfds服务器监听端口号这里要用自己的IP地址如果用127.0.0.1远程集群连不进来 configurationpropertynamefs.defaultFS/namevaluehdfs://172.32.155.57:9000/value/property/configuration etc/hadoop/hdfs-site.xml dfs.namenode.name.dir 和 dfs.namenode.data.dir是服务器上存储元数据和数据的目录。 configurationpropertynamedfs.replication/namevalue1/value/propertypropertynamedfs.namenode.name.dir/namevalue/mnt/disk01/hadoop/dfs/name/value/propertypropertynamedfs.datanode.data.dir/namevalue/mnt/disk01/hadoop/dfs/data/value/property/configuration对上面配置的目录进行初始化/格式化 $ bin/hdfs namenode -format 执行sbin里的start-dfs.sh就可以启动hdfs文件系统服务器了,可以jps查看一下有哪些java进程 如果在本地服务器上执行 hdfs dfs -ls / 就可以查看hdfs上的文件了还可以用其它命令操作hdfs hdfs dfs -mkdir /user/root hdfs dfs -mkdir input 上面只是配置了hdfs服务器要想跑hive或mapreduce还需要配置和启动调度器yarn etcd/hadoop/mapred-site.xml  configurationpropertynamemapreduce.framework.name/namevalueyarn/value/propertypropertynamemapreduce.application.classpath/namevalue$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*/value/property /configurationetcd/hadoop/yarn-site.xml (这里 yarn.resourcemanager.hostname 要写自己的IPyarn.nodemanager.env-whitelist 设置Container的能继承NodeManager的哪些环境变量) configuration!-- Site specific YARN configuration properties --propertynameyarn.resourcemanager.hostname/namevalue172.32.155.57/value/propertypropertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value/propertypropertynameyarn.nodemanager.env-whitelist/namevalueJAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME/value/property/configurationMapReducer执行时会在NodeManager上创建Container在Container上执行TaskJAVA程序该程序需要环境变量如JDK、HADOOP_MAPRED_HOME…该参数就是 设置Container的能继承NodeManager的哪些环境变量。 -- 引自  HADOOP_MAPRED_HOME${full path of your hadoop distribution directory}-CSDN博客 启动yarn start-yarn.sh [rootneoap082 hadoop-3.3.6]# jps 430131 Jps 422691 ResourceManager 416862 NameNode 417388 SecondaryNameNode 422874 NodeManager 417082 DataNode 执行 mapreduce 任务java程序 $ bin/hdfs dfs -mkdir -p /user/root$ bin/hdfs dfs -mkdir input$ bin/hdfs dfs -put etc/hadoop/*.xml input$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.6.jar grep input output dfs[a-z.]$ bin/hdfs dfs -cat output/* 安装hive hive的元数据一般使用mysql存储也可以使用hive自带的数据库derby如果使用derby那么hive的安装、配置、启动非常简单 先要单独下载hive 不需要修改任何hive的配置文件就是最简情况下只要配置好hdfs和yarn不需要配置hive。 但是第一次使用以前需要初始化 hive hdfs dfs -mkdir -p /user/hive/warehouse bin/schematool -dbType derby -initSchema然后直接执行 bin目录下的hive这样就进入了hive命令行也启动了hive服务器这种只能用来学习测试不过也足够了。 CREATE TABLE basic_data_textfile (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \| ; # 从本地文件加载 load data local inpath /opt/doris_2.0/basic_data.csv into table basic_data; # 从hdfs路径加载 load data inpath /user/root/basic_data.csv into table basic_data_lzo; hive表数据是一个hdfs目录下的文件可以设置这些文件存储时的格式和压缩算法例如下面的basic_data_lzop表一lzo压缩压缩文件格式为lzop set hive.exec.compress.outputtrue; set mapred.output.compression.codeccom.hadoop.compression.lzo.LzopCodec; set io.compression.codecscom.hadoop.compression.lzo.LzopCodec; CREATE TABLE basic_data_lzop (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \| ; insert into basic_data_lzop select * from basic_data; basic_data_orc_snappy 表以orc格式存储数据块以snappy压缩 CREATE TABLE basic_data_orc_snappy (     k00 INT,     k01 DATE,     k02 BOOLEAN,     k03 TINYINT,     k04 SMALLINT,     k05 INT    ,     k06 BIGINT ,     k07 BIGINT,     k08 FLOAT  ,     k09 DOUBLE ,     k10 DECIMAL(9,1) ,     k11 DECIMAL(9,1) ,     k12 TIMESTAMP,     k13 DATE ,     k14 TIMESTAMP,     k15 CHAR(2),     k16 STRING,     k17 STRING ,     k18 STRING    )  row format delimited fields terminated by \|  stored as orc tblproperties (orc.compressSNAPPY); insert into basic_data_orc_snappy select * from basic_data_textfile;
http://www.hkea.cn/news/14274115/

相关文章:

  • 公司网站怎么做百度竞价桂林网站制作公司华彩
  • 网站验证码系统龙岗网站建设设计服务
  • 建设网站的网站安全wordpress 全局字段
  • 工作室网站广东建设信息网成绩查询
  • 广州建设六马路小学网站o2o网站建设计划书
  • 深圳招聘网站前十排名搬搬屋源码网
  • php投资网站源码wordpress调整配置文件怎么写
  • 给女朋友做的网站wordpress自动超链接
  • 做网站有哪些项目学院网站建设作用
  • 苏州网站建立公司平顶山河南网站建设
  • 佛山网站建设哪家评价高网站几个关键词
  • wordpress建站资源中国纪检监察报数字报
  • 网站开发现状都用php兰州模板网站seo价格
  • 营销型网站建设要点网站整合营销推广
  • 怎么用电脑自带软件做网站页面如何创建网站?
  • 肇庆网站建设方案外包佛山网站建设哪里有
  • 外贸网站 phphtml模板图片
  • 邯郸网站制作个人北京建设官方网站
  • 石台做网站免费静态网站模板
  • wordpress 广告关闭新塘网站seo优化
  • 移动网站设计logo网站推介
  • 做视频网站赚做视频网站赚优设网址导航属于网络导航吗
  • 客户网站 备案网站和搜索引擎
  • 虾皮跨境电商网站厦门网站开发公司找哪家
  • 网站数据分析视频宠物美容师宠物美容培训学校
  • 网站开发建设账务处理程序高性能网站建设指南 书
  • 上海静安网站建设人设生成器网站
  • 网站制作租用空间网站建设策划书的主要内容
  • 哪有做机械设计的网站制作网站教程
  • 企业网站建设客户需求调查问卷网站设计 素材