当前位置: 首页 > news >正文

软件开发网站能做seo吗中国建筑集团网站

软件开发网站能做seo吗,中国建筑集团网站,中国商标注册查询官网,aspx网站开发教程导语 Hive是基于Hadoop构建的一套数据仓库分析系统#xff0c;可以将结构化的数据文件映射为一张数据库表#xff0c;并提供完整的SQL查询功能。它的优点是可以通过类SQL语句快速实现简单的MapReduce统计#xff0c;不用再开发专门的MapReduce应用程序#xff0c;从而降低…导语 Hive是基于Hadoop构建的一套数据仓库分析系统可以将结构化的数据文件映射为一张数据库表并提供完整的SQL查询功能。它的优点是可以通过类SQL语句快速实现简单的MapReduce统计不用再开发专门的MapReduce应用程序从而降低学习成本十分适合对数据仓库进行统计分析。 近几年随着行业内数据体量的不断增大再加上国产化的趋势下很多企业都开始着手对自己已有的大数据平台进行扩容、升级、产品更换等一系列操作以期可以赶上潮流。因此就会有很多项目需要进行数据库迁移本文主要总结了一些在项目上遇到Hive迁移时可以使用的方式方法供大家参考借鉴。 目录 ● 1. Hive迁移类型 ● 2. Hive迁移步骤 ● 3. Hive迁移实施步骤 ● 4. 结语 1. Hive迁移类型 ■ 表和数据整体迁移 一般在企业进行大数据平台产品的升级更换如国产化、机房搬迁、物理机转向云平台等情况下会进行整库迁移那么此时Hive迁移建议使用表和数据整体迁移的方式进行迁移。 ■ 表和数据分步迁移 一般在企业进行数据库改造、历史数据库区域创建、业务条线改造等或是数据库出现瓶颈的情况下会进行部分数据迁移那么此时Hive迁移建议使用表和数据分步迁移的方式进行迁移。 2. Hive迁移步骤 1将表和数据从老集群Hive导出到老集群HDFS 2将表和数据从老集群HDFS导出到老集群本地磁盘或共享磁盘 3将表和数据从老集群本地磁盘复制到新集群本地磁盘如共享磁盘此步骤省略 4将表和数据从新集群本地磁盘或共享磁盘上传到新集群HDFS 5修复新集群Hive数据库元数据 如果老集群HDFS和新集群HDFS连通可使用DistCp工具跨集群复制跳过中间步骤直接执行第5步。 3. Hive迁移实施步骤 ■ 新集群和服务器检查 #查看本地空间使用情况是否足够 df -h #查看HDFS集群使用情况是否满足   hadoop dfsadmin -report #查找Hive库存储位置 hadoop fs -find / -name warehouse #查看Hive库占用情况 hadoop fs -du -h /user/hive/warehouse ■ 表和数据整体迁移 一般Hive整体迁移时使用HDFS文件迁移然后再进行数据表与数据文件关联即可新老集群Hive版本即使不一致的情况下也支持该步骤详细操作步骤如下 ​ 老集群备份 # 罗列迁移表清单 cat EOF /home/data/backup/hive_sel_tables.hql use db_name; show tables; EOF # 清洗迁移表清单 beeline -f /home/data/backup/hive_sel_tables.hql \ | grep -e ^| \ | grep -v tab_name \ | sed s/|//g \ | sed s/ //g \/home/data/backup/hive_table_list.txt # 拼接建表语句命令及清洗无用字符 cat /home/data/backup/hive_table_list.txt \ | awk {printf show create table db_name.%s;\n,$1,$1} \ | sed s/|//g \ | sed s///g \ | grep -v tab_name \/home/data/backup/hive_show_create_table.hql # 导出建表语句 beeline -e /home/data/backup/hive_show_create_table.hql/home/data/backup/hive_table_ddl.sql # 清洗建表语句 sed -i s/^|//g /home/data/backup/hive_table_ddl.sql sed -i s/|$//g /home/data/backup/hive_table_ddl.sql sed -i s/-//g /home/data/backup/hive_table_ddl.sql sed -i s///g /home/data/backup/hive_table_ddl.sql sed -i s/createtab_stmt//g /home/data/backup/hive_table_ddl.sql sed -i s/.*0: jdbc:hive2:.*/;/ /home/data/backup/hive_table_ddl.sql sed -i /^$/d /home/data/backup/hive_table_ddl.sql # 拼接修复Hive元数据语句 cat /home/data/backup/hive_table_list.txt \ | awk {printf msck repair table archive.%s;\n,$1,$1} \ | sed s/|//g \ | sed s///g \ | grep -v tab_name \/home/data/backup/hive_repair_table.hql # 将Hive在HDFS中的文件导出到HDFS临时目录 hadoop fs -get /user/hive/warehouse/db_name /tmp # HDFS集群连通时使用DistCp进行拷贝 hadoop distcp hdfs://scrNameNode/tmp/db_name hdfs://user/hive/warehouse/db_name # HDFS集群不连通导出HDFS文件到本地磁盘或者共享NAS hadoop fs -get /tmp/db_name /home/data/backup/ # 如果是共享磁盘忽略此步  scp -r /home/data/backup/ roottargetAP:/home/data/backup/ 新集群恢复 # 登录生产环境Hive并创建表 beeline -f /home/data/backup/hive_table_ddl.sql/home/data/backup/hive_table_ddl.log # 检查新集群数据库新表是否创建成功 beeline use db_name show tables; # 将数据文件上传到HDFS的Hive存储路径下 hadoop fs -put /home/data/backup/db_name /user/hive/warehouse/db_name # 关联Hive表和数据 beeline -f /home/data/backup/hive_repair_table.hql # 查看HDFS所有目录检查是否都导入成功 hadoop fs -lsr /home # 查看所有表大小验证新旧表大小是否一致 hadoop fs -du -h /user/hive/warehouse/db_name ■ 表和数据分步迁移 一般Hive分步迁移时使用Import和Export新老集群Hive版本不一致的情况下也支持该步骤。 Export工具导出时会同时导出元数据和数据 Import工具会根据元数据自行创建表并导入数据。 老集群备份 # 罗列迁移表清单 cat EOF /home/data/backup/hive_sel_tables.hql use db_name; show tables; EOF # 罗列要迁移的表清单 beeline -f /home/data/backup/hive_sel_tables.hql\ | grep -e ^| \ | grep -v tab_name \ | sed s/|//g \ | sed s/ //g \/home/data/backup/hive_table_list.txt # 生成导出脚本 cat /home/data/backup/hive_table_list.txt \ | awk {printf export table db_name.%s to |/tmp/db_name/%s|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/home/data/backup/hive_export_table.hql # 生成导入脚本 cat /home/data/backup/hive_table_list.txt \ | awk {printf import table db_name.%s from |/tmp/db_name/%s|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/home/data/backup/hive_import_table.hql # 创建HDFS导出目录 hadoop fs -mkdir -p /tmp/db_name/ # 导出表结构到数据到HDFS beeline -f /home/data/backup/hive_export_table.hql #HDFS集群连通时使用DistCp进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp # HDFS集群不连通导出HDFS文件到本地磁盘或者共享NAS hadoop fs -get /tmp/db_name /home/data/backup/ # 如果是共享磁盘忽略此步  scp -r /home/data/backup/ roottargetAP:/home/data/backup/ 新集群恢复 # 创建HDFS导出目录 hadoop fs -mkdir -p /tmp/db_name/ #上传到目标HDFS hadoop fs -put /home/data/backup/db_name /tmp # 导入到目标Hive beeline -f /home/data/backup/hive_import_table.hql # 查看HDFS所有目录检查是否都导入成功 hadoop fs -lsr /home # 查看所有表大小验证新旧表大小是否一致 hadoop fs -du -h /user/hive/warehouse/db_name 4. 总结 Hive的数据迁移其实有多种方式根据需求不同采用的迁移方式也不尽相同每种迁移的优势也是不同的其中数据量是影响迁移的重要因素之一。 在数据量不大的情况下Hive迁移一般常用的方式是使用Export、Import进行数据和元数据的导出导入Export会将数据和元数据写到一起并且元数据在恢复时是直接关联数据的不需要再做其他的操作。同时还直接关联分区不需要再使用MSCK进行分区修复。需要注意的一点的是Import和Export在进行数据恢复的时候只会关注到表层的文件夹不用和旧集群的文件路径一摸一样。 在数据量比较大的情况下建议使用整体迁移的方式这样Hive迁移的速度较快但是注意要保证新旧集群数据目录的一致性。
http://www.lakalapos1.cn/news/42674/

相关文章:

  • 图书馆评估定级关于网站建设标准网站页面布局设计
  • 上海网站建设案例铁建设文件在什么网站下载
  • 郑州网站建设商城定制贸易型企业网站建设
  • 选择好的佛山网站建设WordPress批量修改用户
  • 目前做网站thinkcmf做网站快不快
  • 盐城网站建设优化建站商城平台建设
  • 培训学校类网站建设方案取名字网站如何做
  • 公司注销后 网站备案吗成全看免费观看
  • 镇江网站外包关键词优化的作用
  • 网站建设数据库软件英文wordpress修改省略图
  • 哪个网站可以做1040成都 html5网站
  • 长春制作网站定制蓟州农家院如何做网站
  • 莆田网站制作设计有电脑网站怎样建手机
  • 网站seo优化教程黑龙江城乡建设厅官网
  • 网站title标点改动 影响做哪些网站比较好的
  • 做美容美容院网站的费用如何用wordpress做产品介绍
  • 国内简洁网站设计百度网站回档怎么能恢复
  • 公司网站制作设计联系方式wordpress标题优化
  • 建设一个视频网站需要多少钱如何做微信公众号
  • 免费一键生成个人网站西安网站建设易网宣
  • 网站开发维护专员岗位职责建设厅网站如何查询企业信息网
  • 网站上全景云台怎么做的网站搭建吧
  • 网站建设进度表下载怎么查公司网站有没有中文域名
  • 导航网站系统无锡网站建设书生商友
  • 做网站好做吗北京网站建设价格便宜
  • h5网站制作工具冷门且好听的公司名字
  • 站群源码php网站开发技术论文
  • 建设一个网站需要什么手续团总支网站建设宣传
  • h5网站模板源码广东专业网站优化制作公司
  • 广东海外建设监理有限公司官方网站网络服务器是指为网络提供资源