当前位置: 首页 > news >正文

郑州网站建设汉狮网站搭建修改收费依据

郑州网站建设汉狮,网站搭建修改收费依据,公司网站建设 阿里,单机游戏大全网站开发6.7 rdbms 数据 回顾在SparkCore中读取MySQL表的数据通过JdbcRDD来读取的#xff0c;在SparkSQL模块中提供对应接口#xff0c;提供三种方式读取数据#xff1a; 方式一#xff1a;单分区模式 方式二#xff1a;多分区模式#xff0c;可以设置列的名称#xff0c;作为…6.7 rdbms 数据 回顾在SparkCore中读取MySQL表的数据通过JdbcRDD来读取的在SparkSQL模块中提供对应接口提供三种方式读取数据 方式一单分区模式 方式二多分区模式可以设置列的名称作为分区字段及列的值范围和分区数目 方式三高度自由分区模式通过设置条件语句设置分区数据及各个分区数据范围 当加载读取RDBMS表的数据量不大时可以直接使用单分区模式加载当数据量很多时考虑使用多分区及自由分区方式加载。 从RDBMS表中读取数据需要设置连接数据库相关信息基本属性选项如下 范例演示以MySQL数据库为例加载订单表so数据首先添加数据库驱动依赖包 dependency groupIdmysql/groupId artifactIdmysql-connector-java/artifactId version8.0.19/version /dependency完整演示代码如下 import java.util.Properties import org.apache.spark.sql.{DataFrame, SparkSession} /** * 使用SparkSession从RDBMS 表中读取数据此处以MySQL数据库为例 */ object SparkSQLMySQL { def main(args: Array[String]): Unit { // 在SparkSQL中程序的同一入口为SparkSession实例对象构建采用是建造者模式 val spark: SparkSession SparkSession.builder() .master(local[4]) .appName(SparkSQLMySQL) .config(spark.sql.shuffle.partitions, 4) .getOrCreate() // 导入隐式转换 import spark.implicits._ // 连接数据库三要素信息 val url: String jdbc:mysql://node1.itcast.cn:3306/?serverTimezoneUTCcharacterEncodingut f8useUnicodetrue val table: String db_shop.so // 存储用户和密码等属性 val props: Properties new Properties() props.put(driver, com.mysql.cj.jdbc.Driver) props.put(user, root) props.put(password, 123456) // TODO: 从MySQL数据库表销售订单表 so // def jdbc(url: String, table: String, properties: Properties): DataFrame val sosDF: DataFrame spark.read.jdbc(url, table, props) println(sCount ${sosDF.count()}) sosDF.printSchema() sosDF.show(10, truncate false) // 关闭资源 spark.stop() } }可以使用option方法设置连接数据库信息而不使用Properties传递代码如下 // TODO 使用option设置参数 val dataframe: DataFrame spark.read .format(jdbc) .option(driver, com.mysql.cj.jdbc.Driver) .option(url, jdbc:mysql://node1.itcast.cn:3306/?serverTimezoneUTCcharacterEncodingutf8useUnicodetrue) .option(user, root) .option(password, 123456) .option(dbtable, db_shop.so) .load() dataframe.show(5, truncate false)6.8 hive 数据 Spark SQL模块从发展来说从Apache Hive框架而来发展历程HiveMapReduce- Shark (Hive on Spark) - Spark SQLSchemaRDD - DataFrame - Dataset)所以SparkSQL天然无缝集成Hive可以加载Hive表数据进行分析。 官方文档http://spark.apache.org/docs/2.4.5/sql-data-sources-hive-tables.html spark-shell 集成 Hive 第一步、当编译Spark源码时需要指定集成Hive命令如下 官方文档http://spark.apache.org/docs/2.4.5/building-spark.html#building-with-hive-and-jdbc-support 第二步、SparkSQL集成Hive本质就是读取Hive框架元数据MetaStore此处启动Hive MetaStore服务即可。 Hive 元数据MetaStore读取方式JDBC连接四要素和HiveMetaStore服务 启动Hive MetaStore 服务脚本【metastore-start.sh】内容如下 #!/bin/sh HIVE_HOME/export/server/hive ## 启动服务的时间 DATE_STR/bin/date %Y%m%d%H%M%S # 日志文件名称(包含存储路径) HIVE_SERVER2_LOG${HIVE_HOME}/hivemetastore-${DATE_STR}.log ## 启动服务 /usr/bin/nohup ${HIVE_HOME}/bin/hive --service metastore ${HIVE_SERVER2_LOG} 21 第三步、连接HiveMetaStore服务配置文件hive-site.xml放于【$SPARK_HOME/conf】目录 ?xml version1.0? ?xml-stylesheet typetext/xsl hrefconfiguration.xsl? configuration property namehive.metastore.uris/name valuethrift://node1.itcast.cn:9083/value /property /configuration将hive-site.xml配置发送到集群中所有Spark按照配置目录此时任意机器启动应用都可以访问Hive表数据。 第四步、案例演示读取Hive中db_hive.emp表数据分析数据 其一、读取表的数据使用DSL分析 其二、直接编写SQL语句 复杂SQL分析语句执行 spark.sql(select e.ename, e.sal, d.dname from db_hive.emp e join db_hive.dept d on e.deptno d.dept no).show()IDEA 集成 Hive 在IDEA中开发应用集成Hive读取表的数据进行分析构建SparkSession时需要设置HiveMetaStore服务器地址及集成Hive选项首先添加MAVEN依赖包 !-- Spark SQL 与 Hive 集成 依赖 -- dependency groupIdorg.apache.spark/groupId artifactIdspark-hive_${scala.binary.version}/artifactId version${spark.version}/version /dependency范例演示代码如下 import org.apache.spark.sql.SparkSession /** * SparkSQL集成Hive读取Hive表的数据进行分析 */ object SparkSQLHive { def main(args: Array[String]): Unit { // TODO: 构建SparkSession实例对象 val spark: SparkSession SparkSession.builder() .appName(this.getClass.getSimpleName.stripSuffix($)) .master(local[4]) .config(spark.sql.shuffle.partitions, 4) // 指定Hive MetaStore服务地址 .config(hive.metastore.uris, thrift://node1.itcast.cn:9083) // TODO: 表示集成Hive读取Hive表的数据 .enableHiveSupport() .getOrCreate() // 导入隐式转换 import spark.implicits._ // 导入函数库 import org.apache.spark.sql.functions._ // TODO 读取Hive表的数据 spark.sql(|SELECT deptno, ROUND(AVG(sal), 2) AS avg_sal FROM db_hive.emp GROUP BY deptno .stripMargin) .show(10, truncate false) println() import org.apache.spark.sql.functions._ spark.read .table(db_hive.emp) .groupBy($deptno) .agg(round(avg($sal), 2).alias(avg_sal)) .show(10, truncate false) // 应用结束关闭资源 spark.stop() } }运行程序结果如下
http://www.hkea.cn/news/14582234/

相关文章:

  • 400电话网络推广商城网站网页设计培训教程
  • 江苏城乡住房建设厅网站洛阳建设网站制作
  • 做暧暧视频免费视频中国网站网站视频封面怎么做
  • 做相似网站POS机网站怎么做
  • 自己做网站 怎么赚钱广告公司女员工深夜兼职
  • 郑州网站优化汉狮做时间轴的在线网站
  • 上海做网站汉狮网络网站建设 推广全流程
  • 网站说服力 营销型网站策划wordpress更好用吗
  • 石家庄电商网站开发天津seo推广方法
  • 网站建设的需求是什么意思前端入门先学什么
  • 福州网站建设 联系yanktcn 05衡阳seo优化报价
  • 钓鱼网站在线生成网站建设柒金手指下拉二一
  • 北京工地网站建设网站后台开发语言
  • 网站建设策划书事物选题网站跳出率高的原因
  • 正保建设工程网站一级建设造师网站
  • 昆明网站建设是什么标志设计图片
  • 淄博免费建站搜索引擎的使用方法和技巧
  • 网站建设立项申请书郑州正规公司网站建设服务
  • 网站建设推广哪里好上海办公室装修设计公司
  • 邯郸市天气预报做网站优化推广
  • 做网站广告语网站建设经
  • 松滋市住房和城乡建设局网站阿里企业邮箱登录
  • 江西建设信息港网站绵阳优化网站排名
  • python免费自学网站如何识别网站建设
  • 华北建设招标网官方网站网站信息
  • 响应网站和模板网站有哪些做信息发布类网站
  • 网站的建设方法做阀门网站效果怎么样
  • 网站建设哪家售后做的好免费无版权图片网站
  • 网站推广策划书目录设计方案表达
  • 2017网站建设方案成都展览展示有限公司