当前位置: 首页 > news >正文

长沙网站seo技术网站备案免费吗

长沙网站seo技术,网站备案免费吗,广告加盟,宁波网络营销方式背景 当前carbondata版本2.3.1-rc1中项目源码适配的spark版本最高为3.1,我们需要进行spark3.3版本的编译适配。 原始编译 linux系统下载源码后#xff0c;安装maven3.6.3#xff0c;然后执行#xff1a; mvn -DskipTests -Pspark-3.1 clean package会遇到一些网络问题安装maven3.6.3然后执行 mvn -DskipTests -Pspark-3.1 clean package会遇到一些网络问题命令不变继续尝试编译即可 例如[INFO] Apache CarbonData :: Flink … FAILURE [09:57 min] 使用上述命令可编译成功。 适配Spark3.3 unzip carbondata-parent-apache-carbondata-2.3.1-rc1-source-release.zip mv carbondata-parent-apache-carbondata-2.3.1-rc1 carbondata-spark33 cd carbondata-spark33/ # 编辑一下根目录的pom文件profile模块的spark-3.1复制一份修改为spark3.3继续编译果不其然报错了很多内容 使用IDEA打开源码逐个分析怎么解决。 error: object CombineLimits is not a member of package org.apache.spark.sql.catalyst.optimizererror: value hints is not a member of org.apache.spark.sql.catalyst.plans.logical.Statisticserror: not enough arguments for method apply: (child: org.apache.spark.sql.catalyst.plans.logical.LogicalPlan 分析上下文发现这里应该是编译路径选择了spark2.x版本造成的查看源码发现mv模块下缺少spark3.3目录及profile。 因此先进行一步简单修改pom试下 vim ./mv/plan/pom.xml # 复制spark3.1的相关内容改为3.3复制比较麻烦也可以直接改拷贝一份源码 cd carbondata-spark33/mv/plan/src/main cp spark3.1 spark3.3报错 [INFO] Compiling 24 source files to /opt/qzy/carbondata-spark33/mv/plan/target/classes at 1708917290440 [ERROR] /opt/qzy/carbondata-spark33/mv/plan/src/main/scala/org/apache/carbondata/mv/plans/modular/AggregatePushDown.scala:131: error: wrong number of arguments for pattern org.apache.spark.sql.catalyst.expressions.aggregate.Sum(child: 解决办法修改AggregatePushDown.scala:131给SUM加上第二个参数false org.apache.spark.sql.catalyst.expressions.Expression,useAnsiAdd: Boolean) [ERROR] /opt/qzy/carbondata-spark33/mv/plan/src/main/scala/org/apache/carbondata/mv/plans/modular/AggregatePushDown.scala:193: error: wrong number of arguments for pattern org.apache.spark.sql.catalyst.expressions.aggregate.Average(child: org.apache.spark.sql.catalyst.expressions.Expression,useAnsiAdd: Boolean) 解决办法修改AggregatePushDown.scala:193给Average加上第二个参数false 还有更多报错 终止适配太多地方要改入不敷出。 快速测试 https://carbondata.apache.org/quick-start-guide.html 按照官网指导运行本地测试时报错如下 以Spark local模式打开客户端: spark-sql --conf spark.sql.extensionsorg.apache.spark.sql.CarbonExtensions --jars /usr/hdp/3.0.1.0-187/spark3/carbondata/carbon.jar --master localsql客户端中执行创建表: CREATE TABLE IF NOT EXISTS test_carbon (id string,name string,city string,age Int) STORED AS carbondata;报错找不到类 java.lang.ClassNotFoundException: org.apache.carbondata.hive.MapredCarbonInputFormat jar包是确实存在的实际需要在spark.sql.hive.metastore.jars所指示的路径添加这个jar才可以本地运行。 官网在后面YARN章节有提到。 If use Spark Hive 1.1.X, it needs to add carbondata assembly jar and carbondata-hive jar into parameter ‘spark.sql.hive.metastore.jars’ in spark-default.conf file. 创建本地示例数据后面会用到sample.csv cd carbondata cat sample.csv EOF id,name,city,age 1,david,shenzhen,31 2,eason,shenzhen,27 3,jarry,wuhan,35 EOF然后可以正常创建表执行加载数据和查询命令注意加载数据路径要写file开头的符号。 LOAD DATA INPATH file:///usr/hdp/3.0.1.0-187/spark3/carbondata/sample.csv INTO TABLE test_carbon;SELECT * FROM test_carbon;SELECT city, avg(age), sum(age) FROM test_carbon GROUP BY city;local查询正常待测yarn模式。 结论 Spark3.3接口改变过多与当前最新2.3.1-rc分支不兼容Spark3.1 Carbondata build 初步测试功能正常
http://www.hkea.cn/news/14417114/

相关文章:

  • 网站后台上传内容前台首页不显示大型网站开发的书
  • 提交网站到谷歌西安建设银行网站
  • 什么网站收录快辽阳市城市建设档案馆网站
  • 北京网站制作报价h5网站建设公司
  • thinkphp网站优化网站建站步骤
  • 酒托做哪个网站好医疗类网站备案
  • 无锡网站建设工作幽默广告软文案例
  • 揭阳做网站建设网站对于客户
  • 太原建网站百度指数在线查询小程序
  • 网站域名备案需要什么网站推广的四个阶段是指
  • 做设备租赁的网站黄页88网官网
  • 网站开发公司介绍四字母net做网站怎么样
  • 上海杨浦区建设网站专业单位网站设计企业
  • 成都h5建站wordpress ios使用
  • 做一个营销型网站有哪些内容沈阳博士男科正规吗
  • 网上有兼职做数据网站网站里的副栏目是什么
  • 做网站是什么seo sem是什么
  • 什么网站能赚钱营销策划方案范文
  • 做外贸开通哪个网站好微信营销教程
  • 建设银行网银盾官方网站下载如何建网站模板
  • 企业网站建设策划书方案范文钓鱼网站链接
  • 南昌专门做网站百度网盟推广费用是多少
  • 安徽网站建设seo优化dw网页制作素材免费
  • 网站登录不上怎么回事当当网网站建设需求分析
  • 黄冈手机网站建设专业做网站较好的公司广州
  • 网站制作长春今天重大新闻头条新闻国际新闻
  • 网站建设的需求客户单个网页打不开是什么原因
  • 网站建设计划建议企业网站怎么建设
  • 做投融资平台的网站都有哪些?网站建设课后心得
  • 兰州企业 网站建设网站的推广和优化方案