当前位置: 首页 > news >正文

tp5 网站开发文章列表插件wordpress

tp5 网站开发,文章列表插件wordpress,陕西网,亿唐网不做网站做品牌原因迁移类型 同时迁移表及其数据#xff08;使用import和export#xff09; 迁移步骤 将表和数据从 Hive 导出到 HDFS将表和数据从 HDFS 导出到本地服务器将表和数据从本地服务器复制到目标服务器将表和数据从目标服务器上传到目标 HDFS将表和数据从目标 HDFS 上传到目标 Hiv…迁移类型 同时迁移表及其数据使用import和export 迁移步骤 将表和数据从 Hive 导出到 HDFS将表和数据从 HDFS 导出到本地服务器将表和数据从本地服务器复制到目标服务器将表和数据从目标服务器上传到目标 HDFS将表和数据从目标 HDFS 上传到目标 Hive 库如果原始 HDFS 和目标 HDFS 集群连通可使用 DiskCP 工具直接跨集群复制而跳过2~4步 一、Export、Import Export导出将Hive表中的数据导出到外部 Import导入将外部数据导入Hive表中二、Export 1、语法 EXPORT TABLE tablename TO export_target_path;2、用法 #把tshang表导出到hdfs上 hive (default) EXPORT TABLE lijia.tshang TO /tmp/hive_data/lijia; hive (default) exit [root /opt/PE/hive_data]# hadoop fs -ls /tmp/hive_data/lijia/tshang Found 2 items -rw-r--r-- 3 hive hdfs 1262 2024-03-18 17:35 /tmp/hive_data/lijia/tshang/_metadata drwxr-xr-x - hive hdfs 0 2024-03-18 17:35 /tmp/hive_data/lijia/tshang/data HDFS 集群连通时使用 DiskCP 进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp HDFS 集群不连通 hadoop fs -get /tmp/hive_data scp -r hive_data roottargetAP:/tmp/ 上传到目标 HDFS hadoop fs -put /tmp/hive_data /tmp/ 三、Import 1、语法 IMPORT TABLE tablename FROM source_path;2、用法 #先创建lijia库导入数据 hive (default) create database lijia; OK Time taken: 0.012 seconds#导入 hive (db_hive) import table lijia.tshang from /tmp/hive_data/lijia;hive (db_hive) select * from lijia.tshang; OK emp.empno emp.ename emp.job emp.mgr emp.hiredate emp.sal emp.comm emp.deptno 7369 SMITH CLERK 7902 1980-12-17 800.0 NULL 20 7499 ALLEN SALESMAN 7698 1981-2-20 1600.0 300.0 30 7521 WARD SALESMAN 7698 1981-2-22 1250.0 500.0 30 7566 JONES MANAGER 7839 1981-4-2 2975.0 NULL 20 7654 MARTIN SALESMAN 7698 1981-9-28 1250.0 1400.0 30 7698 BLAKE MANAGER 7839 1981-5-1 2850.0 NULL 30 7782 CLARK MANAGER 7839 1981-6-9 2450.0 NULL 10 7788 SCOTT ANALYST 7566 1987-4-19 3000.0 NULL 20 7839 KING PRESIDENT NULL 1981-11-17 5000.0 NULL 10 7844 TURNER SALESMAN 7698 1981-9-8 1500.0 0.0 30 7876 ADAMS CLERK 7788 1987-5-23 1100.0 NULL 20 7900 JAMES CLERK 7698 1981-12-3 950.0 NULL 30 7902 FORD ANALYST 7566 1981-12-3 3000.0 NULL 20 7934 MILLER CLERK 7782 1982-1-23 1300.0 NULL 10 Time taken: 0.029 seconds, Fetched: 14 row(s) 实施过程,迁移数据库不在是一个表 目标集群和服务器检查 df -lh # 查看本地空间使用情况 hadoop dfsadmin -report # 查看HDFS集群使用情况 hadoop fs -find / -name warehouse # 查找Hive库位置 hadoop fs -du -h /user/hive/warehouse # 查看Hive库占用同时迁移表及其数据使用import和export export 工具导出时会同时导出元数据和数据import 工具会根据元数据自行创建表并导入数据如果涉及事物表需要预先开启目标库的事物机制 -- 开启事务 -- https://cwiki.apache.org/confluence/display/Hive/HiveTransactions#HiveTransactions-Configuration SET hive.support.concurrency true; SET hive.enforce.bucketing true; SET hive.exec.dynamic.partition.mode nonstrict; SET hive.txn.manager org.apache.hadoop.hive.ql.lockmgr.DbTxnManager; SET hive.compactor.initiator.on true; SET hive.compactor.worker.threads 1;迁移步骤 #输入需要迁移的数据库default 执行 cat EOF /opt/lijia/hive_sel_tables.HQL use default; show tables; EOF# 罗列要迁移的表清单 执行 beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_sel_tables.HQL \ | grep -e ^| \ | grep -v tab_name \ | sed s/|//g \ | sed s/ //g \/opt/lijia/hive_table_list.txt# 生成导出脚本 cat /opt/lijia/hive_table_list.txt \ | awk {printf export table db_name.%s to |\/tmp/lijia/db_name/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_export_table.HQL执行 cat /opt/lijia/hive_table_list.txt \ | awk {printf export table default.%s to |\/tmp/lijia/default/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_export_table.HQL# 生成导入脚本 cat /opt/lijia/hive_table_list.txt \ | awk {printf import table db_name.%s from |\/tmp/lijia/db_name/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_import_table.HQL执行 cat /opt/lijia/hive_table_list.txt \ | awk {printf import table default.%s from |\/tmp/lijia/default/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_import_table.HQL# 创建 HDFS 导出目录 hadoop fs -mkdir -p /tmp/lijia/db_name/ hadoop fs -mkdir -p /tmp/lijia/default/# 导出表结构到数据到 HDFS beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_export_table.HQL## HDFS 集群连通时使用 DiskCP 进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp## HDFS 集群不连通 hadoop fs -get /tmp/lijia/default/ scp -r /tmp/lijia/default/ roottargetAP:/tmp/lijia/## 目标服务器# 创建 HDFS 导出目录 hadoop fs -mkdir -p /tmp/lijia/# 上传到目标 HDFS hadoop fs -put /tmp/lijia/default /tmp/lijia/# 导入到目标 Hive beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_import_table.HQL
http://www.hkea.cn/news/14431226/

相关文章:

  • 信息网站建设方案wordpress 所有标签
  • 网站都可以做哪些主题巴彦淖尔网站建设
  • 网站建设 佛山市自己做民宿在什么网站上投放
  • 小松 建设项目 网站关于网页设计的网站
  • 建设企业网站地址河北省建设工程安全生产监督管理网站
  • 苏州网站开发建设服务电子商务网络运营
  • 湛江有网站的公司名称深圳产品型网站建设
  • 企业网站建设方案策划wordpress 单栏 宽屏
  • 菜谱分享网站开发开题报告衡水 网站开发
  • 网站建设要做什么记事本做网站如何排版
  • 网站备案期间打不开营销型网站的好处
  • 昆明制作手机网站吉林省建设信息网电话
  • 外贸出口公司网站建设方案商城网站离不开支付系统
  • 网站建设中的图片wordpress备案申请
  • 正规网站备案信息表网站视频转码软件
  • 北京网站建设公司华网天下官网苏州工业园区属于哪个区
  • 沁阳网站建设wordpress显示当前文章的分类
  • 徐州网站seo公司计算机网络技术就业方向专科
  • lnmp网站开发seo是免费推广吗?
  • 怎样做旅游网站遵义在百度做个网站多少钱
  • 工业和信息化部发短信什么意思海外网站优化
  • 建网站需要软件增城手机网站建设
  • 哪些网站可以用gif做头像菏泽+网站建设公司
  • 微网站搭建流程台州网站建设设计
  • 雄安 网站建设上海专业高端网站建设服务
  • 做网站每个月可以赚多少钱wordpress音频播放不了
  • 中信建设有限责任公司官方网站快速制作网站的方法
  • dedecms网站关键词厦门建设局公维金网站
  • 公司做网站的费用用途写什么wordpress企业末班
  • google seo网站 被k专业网站定制设计公司