当前位置: 首页 > news >正文

淮安网站开发网络营销的主要工作有哪些

淮安网站开发,网络营销的主要工作有哪些,服务周到的网站建设,公众号创建好了怎么在微信里搜索文章目录 FusionInsight HD 6.5.1 集群中遇到的问题(01)Spark-on-HBase认证问题Failed to find any Kerberos tgt服务端配置修改客户端配置修改 Spark-on-HBase依赖包问题phoenix-core-4.13.1-HBase-1.3.jar数据读取问题数据写入问题 FusionInsight HD 6…

文章目录

  • FusionInsight HD 6.5.1 集群中遇到的问题(01)
    • Spark-on-HBase认证问题
      • Failed to find any Kerberos tgt
        • 服务端配置修改
        • 客户端配置修改
    • Spark-on-HBase依赖包问题
      • phoenix-core-4.13.1-HBase-1.3.jar
        • 数据读取问题
        • 数据写入问题

FusionInsight HD 6.5.1 集群中遇到的问题(01)

Spark-on-HBase认证问题

Failed to find any Kerberos tgt

在Spark应用程序中,如果操作了HBase或者Phoenix,那么在提交程序到集群运行的时候可能会遇到认证失败的问题。

org.apache.hadoop.hbase.DoNotRetryIOException: GSSException: No valid credentials provided (Mechanism level: Failed to find any Kerberos tgt)

image-20230714102223766

这个问题的主要原因是:在安全模式下,如果需要通过Spark操作HBase,即Spark-on-HBase,则需要启动HBase的验证功能,该配置默认是false的,需要将其修改为true。

服务端配置修改

在Spark2x服务下,找到配置,找到配置项spark.yarn.security.credentials.hbase.enabled将其值设置为true

  • ”基础配置“选项卡下的对应界面

image-20230713170457820

  • ”全部配置“选项卡下的对应界面

image-20230713165029694

设置完成之后,需要点击”保存“按钮,将配置信息进行保存。

在弹出的”保存配置“对话框中,确认修改的信息后,点击”确定“按钮进行保存。

image-20230713165134025

等待保存进度结束。

image-20230713165219052

修改完配置后,集群中Spark2x服务的配置状态会变成”配置过期“。此时,需要重启服务才能让配置生效。通过【更多】->【重启】菜单重启Spark2x服务。

image-20230713165317542

在弹出的”验证身份“对话框中输入密码,身份验证通过后FusionInsight才会重启Spark2x服务。

image-20230713165353260

在弹出的”重启服务“对话框中,点击”确定“按钮,以对重启Spark2x服务进行确认。

尽量确保在没有Spark作业运行的情况下再去重启服务,因为服务重启过程中Spark2x服务将不可用。

image-20230713165414092

确认重启后,等待服务重启完成。

image-20230713165822851

客户端配置修改

修改完服务端的配置后,重新提交Spark作业,可能还是会遇到同样的认证问题。这是因为我们仅修改了服务端的配置,但是客户端的配置还未修改。

还记得下载客户端的时候的”仅配置文件“选项吗?

我们的客户端已经安装完成,但是后来又修改了服务端的配置!

此时,就需要将服务端的配置同步到客户端。

可以重新安装客户端,选择”仅配置文件“,然后将配置文件覆盖到客户端。

另外,由于我们仅修改了一个配置项,比较简单,也可以直接手工修改客户端本地的配置文件即可。

修改客户端的/opt/hadoopclient/Spark2x/spark/conf/spark-defaults.conf配置文件。

目前该配置文件中的配置项还是false

image-20230714105007364

将该配置项修改为true

image-20230714105141645

修改完成客户端的配置后,再次提交Spark作业到集群运行,就不会遇到这个问题了。

但是,你有可能还会遇到其他问题~~~

Spark-on-HBase依赖包问题

phoenix-core-4.13.1-HBase-1.3.jar

数据读取问题

在Spark应用程序中,如果操读取了HBase或者Phoenix的数据,那么在提交程序到集群运行的时候可能会遇到JDBC驱动包缺失的问题。

java.lang.NoClassDefFoundError: org/apache/phoenix/jdbc/PhoenixDriver

image-20230714110311520

这是由于:Spark读取HBase的数据的时候,通过Phoenix使用JDBC的方式进行读取,需要添加依赖包phoenix-core-4.13.1-HBase-1.3.jar,这里面提供了JDBC驱动程序。

该包在客户端安装目录中有官方提供的版本,直接复制到自己的Spark应用程序的依赖软件包中即可,然后spark-submit的时候,使用--jars包含该jar包即可。

cp /opt/hadoopclient/HBase/hbase/lib/phoenix-core-4.13.1-HBase-1.3.jar ~/spark_job/lib/
数据写入问题

复制了jar包之后,再次提交Spark作业运行,数据读取问题会得到解决,但是数据写入还是会有问题。

java.lang.RuntimeException: java.lang.ClassNotFoundException: Class org.apache.phoenix.mapreduce.PhoenixOutputFormat not found

image-20230714111610081

这是一个非常神奇的问题!

这是一个非常神奇的问题,神奇在哪里呢?

在读取数据的时候,我们遇到了org.apache.phoenix.jdbc.PhoenixDriver类不存在的问题,我们添加了依赖包phoenix-core-4.13.1-HBase-1.3.jar。

在写入数据的时候,我们遇到了org.apache.phoenix.mapreduce.PhoenixOutputFormat类不存在的问题。

神奇之处在于:

  • phoenix-core-4.13.1-HBase-1.3.jar是客户端安装后的HBase下的包,属于华为官方提供的jar包。
  • 打开phoenix-core-4.13.1-HBase-1.3.jar包,可以看到这个包中同时包含了org.apache.phoenix.jdbc.PhoenixDriver类和org.apache.phoenix.mapreduce.PhoenixOutputFormat类。
  • 既然该jar包中同时包含了这两个类,并且读取数据正常,说明该jar包已正常加载,并读取到了org.apache.phoenix.jdbc.PhoenixDriver类。既然都已经正常加载了该jar包,那么为什么在写数据的时候还无法找到org.apache.phoenix.mapreduce.PhoenixOutputFormat类呢?

既然通过--jars提交phoenix-core-4.13.1-HBase-1.3.jar无法解决数据写入时的依赖问题,那么就只有将该jar包上传到Spark集群节点的classpath下了。

通过HDFS Web UI,找到文件hdfs://user/spark2x/jars/6.5.1.7/spark-archive-2x.zip文件,下载该文件,并将phoenix-core-4.13.1-HBase-1.3.jar添加到该压缩文件中,重新上传覆盖原文件。

image-20230714112528870

由于压缩包比较大312MB,所以直接在服务器上进行操作。

 hdfs dfs -get /user/spark2x/jars/6.5.1.7/spark-archive-2x.zip
unzip spark-archive-2x.zip

image-20230714113115440

解压完成后,将phoenix-core-4.13.1-HBase-1.3.jar添加到目录中再进行压缩。

cp /opt/hadoopclient/HBase/hbase/lib/phoenix-core-4.13.1-HBase-1.3.jar ./
zip spark-archive-2x.zip *.jar

image-20230714113902105

添加完成后,备份原始压缩文件,将新的压缩文件上传到相同路径,并修改文件所属用户、组、权限,以确保文件跟原文件的权限保持一致。

hdfs dfs -mv /user/spark2x/jars/6.5.1.7/spark-archive-2x.zip /user/spark2x/jars/6.5.1.7/spark-archive-2x.zip.bak
hdfs dfs -put spark-archive-2x.zip /user/spark2x/jars/6.5.1.7/spark-archive-2x.zip
hdfs dfs -chown spark2x:hadoop /user/spark2x/jars/6.5.1.7/spark-archive-2x.zip
hdfs dfs -chmod 744 /user/spark2x/jars/6.5.1.7/spark-archive-2x.zip

image-20230714114928304

确保文件具有相同路径、相同用户、组、权限等。

image-20230714115009983

再次提交Spark作业运行,运行成功。

image-20230714115500321

至此,依赖问题解决。

http://www.hkea.cn/news/279143/

相关文章:

  • 做网站背景音乐管理课程培训
  • 网站建设可以自学吗品牌软文范文
  • 网站风格对比哪里有学计算机培训班
  • 做mla的网站网站优化哪家好
  • 网站注册的账号怎么注销线上营销活动有哪些
  • 国内做进口的电商网站网站推广软件哪个好
  • 谁有做那事的网站百度投诉中心入口
  • 免费单页网站在线制作沈阳seo排名优化教程
  • 廊坊网站建大型网站建站公司
  • 远程桌面做网站sem和seo区别与联系
  • 做贷款网站优化大师有用吗
  • 有没有便宜的网站制作制作网页教程
  • 医院网站制作优化关键词的方法有哪些
  • wordpress安装到网站吗泰安seo
  • 长春网站开发培训价格google play三件套
  • 做生存分析的网站有哪些国外新闻最新消息
  • 济南网站优化收费百度互联网营销
  • bootstrap响应网站模板下载发帖推广百度首页
  • 动态网站上的查询怎么做新媒体运营培训学校
  • 网站开发人员必备技能百度优化推广
  • 花都 网站建设百度推广怎么添加关键词
  • 开发公司成本部职责岗位职责和流程苏州网站建设优化
  • 湛江网站制作系统seo排名需要多少钱
  • 城乡现代社区建设seo关键词推广案例
  • 旅游网站开发外文文献关键洞察力
  • 大学生asp网站开发的实训周长沙百度快速优化
  • 黑龙江省建设网站百度投流运营
  • 网站关键词太多好不好兰州seo整站优化服务商
  • 义乌网站设计网店推广策划方案
  • 无锡网站优化工作室网站关键词排名优化推广软件