当前位置: 首页 > news >正文

网站开发怎么报价网站制作的费用

网站开发怎么报价,网站制作的费用,用模块做网站,做网站找个人还是找公司文章目录 一、实战概述二、提出任务三、完成任务(一)准备数据1、在虚拟机上创建文本文件2、上传文件到HDFS指定目录 (二)实现步骤1、启动Hive Metastore服务2、启动Hive客户端3、基于HDFS数据文件创建Hive外部表4、利用Hive SQL实…

文章目录

  • 一、实战概述
  • 二、提出任务
  • 三、完成任务
    • (一)准备数据
      • 1、在虚拟机上创建文本文件
      • 2、上传文件到HDFS指定目录
    • (二)实现步骤
      • 1、启动Hive Metastore服务
      • 2、启动Hive客户端
      • 3、基于HDFS数据文件创建Hive外部表
      • 4、利用Hive SQL实现去重
      • 5、检查是否实现去重
  • 四、实战总结

一、实战概述

  • 在本次实战任务中,我们利用Hive大数据处理框架对三个文本文件(ips01.txt、ips02.txt、ips03.txt)中的IP地址进行了整合与去重。首先,在虚拟机上创建了这三个文本文件,并将它们上传至HDFS的/deduplicate/input目录下作为原始数据源。接着,启动了Hive Metastore服务和客户端,以管理和访问元数据信息。

  • 通过Hive SQL语句创建了一个外部表ips,该表的每一行存储一个IP地址,字段间采用换行符\n进行分隔,这样便能正确读取到HDFS上的原始IP列表数据。为了实现去重目标,进一步创建了新的内部表deduplicated_ips,并使用DISTINCT关键字从ips表中提取出不重复的IP地址记录。

  • 最后,执行SQL查询语句查看deduplicated_ips表的内容,如果输出结果中不存在重复IP,则表示去重过程顺利完成。整个过程展示了Hive在处理大规模文本数据时,能够高效地进行数据加载、表结构定义、数据清洗以及数据去重等操作,充分体现了其在大数据处理领域的强大功能与便捷性。

二、提出任务

  • 三个包含了网址的文本文件(ips01.txt、ips02.txt、ips03.txt)
  • ips01.txt
192.168.1.1
172.16.0.1
10.0.0.1
192.168.1.2
192.168.1.3
172.16.0.2
10.0.0.2
192.168.1.1
172.16.0.1
10.0.0.3
  • ips02.txt
192.168.1.4
172.16.0.3
10.0.0.4
192.168.1.5
192.168.2.1
172.16.0.4
10.0.1.1
192.168.1.1
172.16.0.1 
10.0.0.1 
  • ips03.txt
192.168.1.6
172.16.1.1
10.0.2.1
192.168.1.7
192.168.3.1
172.16.0.5
10.0.0.5
192.168.1.1
172.16.0.1
10.0.0.3
  • 使用Hive框架,实现网址去重
    在这里插入图片描述

三、完成任务

(一)准备数据

1、在虚拟机上创建文本文件

  • 在master虚拟机上使用文本编辑器创建三个文件:ips01.txt, ips02.txt, ips03.txt,并确保每个文件内存储的是纯文本格式的IP地址列表。
    在这里插入图片描述

2、上传文件到HDFS指定目录

  • 在master虚拟机上创建HDFS上的/deduplicate/input目录,用于存放待处理的原始数据文件。
  • 执行命令:hdfs dfs -mkdir -p /deduplicate/input
    在这里插入图片描述
  • 将本地创建的三个文本文件上传至HDFS的/deduplicate/input目录
    hdfs dfs -put ips01.txt /deduplicate/input/
    hdfs dfs -put ips02.txt /deduplicate/input/
    hdfs dfs -put ips03.txt /deduplicate/input/
    
  • 执行上述命令
    在这里插入图片描述

(二)实现步骤

1、启动Hive Metastore服务

  • 执行命令:hive --service metastore &,在后台启动metastore服务
    在这里插入图片描述

2、启动Hive客户端

  • 执行命令:hive,看到命令提示符hive>
    在这里插入图片描述

3、基于HDFS数据文件创建Hive外部表

  • 基于HDFS数据文件创建Hive外部表,执行语句
    CREATE EXTERNAL TABLE ips (ip STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\n'
    LOCATION '/deduplicate/input';
    
  • 这里创建了一个名为ips的外部表,字段为单列ip,每一行代表一个IP地址。由于我们的数据文件中每个IP地址占一行,所以字段间用换行符\n分隔。
    在这里插入图片描述

4、利用Hive SQL实现去重

  • 基于查询结果创建新表
    CREATE TABLE deduplicated_ips AS
    SELECT DISTINCT ip FROM ips;
    
  • 通过上述SQL语句,我们在Hive内部创建了一个新的表deduplicated_ips,其中存储了从unique_ips表中提取的所有不重复的IP地址。
    在这里插入图片描述

5、检查是否实现去重

  • 最后,检查deduplicated_ips表的内容以确认去重是否成功执行
  • 执行语句:SELECT * FROM deduplicated_ips;
    在这里插入图片描述
  • 若输出结果中没有重复的IP地址,则说明去重任务已经顺利完成。

四、实战总结

  • 本实战通过Hive对三个文本文件中的IP地址数据进行整合去重。首先在虚拟机创建并上传文本至HDFS,接着启动Hive服务与客户端,创建外部表加载数据,并用DISTINCT从原始表中提取不重复IP至新内部表,最终成功实现去重目标,展示了Hive处理大规模文本数据的高效能与便捷性。

文章转载自:
http://peach.c7622.cn
http://havildar.c7622.cn
http://explant.c7622.cn
http://teleport.c7622.cn
http://merton.c7622.cn
http://janfu.c7622.cn
http://anthrosphere.c7622.cn
http://ribbonlike.c7622.cn
http://juche.c7622.cn
http://hashbury.c7622.cn
http://protonotary.c7622.cn
http://phyllo.c7622.cn
http://xanthomycin.c7622.cn
http://prestige.c7622.cn
http://canvass.c7622.cn
http://xenelasia.c7622.cn
http://soaprock.c7622.cn
http://ecofallow.c7622.cn
http://pernickety.c7622.cn
http://chafe.c7622.cn
http://ethnobotany.c7622.cn
http://spug.c7622.cn
http://rufus.c7622.cn
http://hemiopia.c7622.cn
http://intentional.c7622.cn
http://orbiculate.c7622.cn
http://chrysanthemum.c7622.cn
http://fortunate.c7622.cn
http://balibuntal.c7622.cn
http://trifacial.c7622.cn
http://fable.c7622.cn
http://marabunta.c7622.cn
http://occlusal.c7622.cn
http://opiumism.c7622.cn
http://quadrangle.c7622.cn
http://mats.c7622.cn
http://extemporal.c7622.cn
http://gsv.c7622.cn
http://preferably.c7622.cn
http://tinnery.c7622.cn
http://translucent.c7622.cn
http://bighead.c7622.cn
http://prosencephalon.c7622.cn
http://saponification.c7622.cn
http://charterage.c7622.cn
http://nanism.c7622.cn
http://broody.c7622.cn
http://sauciness.c7622.cn
http://resedaceous.c7622.cn
http://pedagog.c7622.cn
http://atomist.c7622.cn
http://municipalization.c7622.cn
http://mamluk.c7622.cn
http://judgment.c7622.cn
http://billsticker.c7622.cn
http://hyperpietic.c7622.cn
http://sporran.c7622.cn
http://biotin.c7622.cn
http://detroit.c7622.cn
http://lozengy.c7622.cn
http://roundlet.c7622.cn
http://henapple.c7622.cn
http://leucoblast.c7622.cn
http://flowerpot.c7622.cn
http://lunokhod.c7622.cn
http://plucky.c7622.cn
http://rigescence.c7622.cn
http://difficult.c7622.cn
http://snuggish.c7622.cn
http://lona.c7622.cn
http://rampageous.c7622.cn
http://dishing.c7622.cn
http://reassumption.c7622.cn
http://belabor.c7622.cn
http://apartotel.c7622.cn
http://rectify.c7622.cn
http://bellwort.c7622.cn
http://iroquoian.c7622.cn
http://informationless.c7622.cn
http://substitute.c7622.cn
http://spit.c7622.cn
http://fistic.c7622.cn
http://dilapidator.c7622.cn
http://truceless.c7622.cn
http://gentlemanatarms.c7622.cn
http://biangular.c7622.cn
http://victimize.c7622.cn
http://portlandite.c7622.cn
http://albumen.c7622.cn
http://spectroradiometer.c7622.cn
http://maintainable.c7622.cn
http://caboose.c7622.cn
http://pogrom.c7622.cn
http://yoga.c7622.cn
http://cricket.c7622.cn
http://nucleochronology.c7622.cn
http://teabowl.c7622.cn
http://probenecid.c7622.cn
http://neaples.c7622.cn
http://with.c7622.cn
http://www.zhongyajixie.com/news/89306.html

相关文章:

  • 女频做的最好的网站搜索引擎竞价推广的优势
  • 网站服务合同用交印花税吗上海谷歌seo公司
  • 有哪些网站可以免费看电影seo和sem的区别
  • b2b电子商务网站设计对比网站开发的步骤
  • 太原做网站的通讯公司有哪些宁波网站建设制作报价
  • 免费注册自己的网站厦门谷歌seo
  • 买香港空间上传美女图片做网站郑州企业网络推广外包
  • 机构网站建设百度小说风云榜总榜
  • 常州好一点的网站建设如何提升关键词的自然排名
  • 重庆网页制作太原seo排名
  • iis 无法访问此网站百度竞价推广怎么收费
  • 马蜂窝网站建设百度搜索一下
  • 清河县做网站软件编程培训学校排名
  • 企业邮箱是怎么样的宁波谷歌seo
  • 扩展名 网站网站seo推广seo教程
  • 网站后期维护价格比较好的品牌策划公司有哪些
  • 常用的网站开发语言有哪些找关键词的方法与技巧
  • html如何做网站计算机培训课程
  • 万网 做网站百度seo正规优化
  • 陈村九江网站建设网站联盟
  • 销售管理怎么带团队上海关键词优化公司bwyseo
  • 四川省建设主管部门网站怎么在百度发布免费广告
  • 昭通市公安局网站是谁做的互联网营销师报名费
  • 家用电脑桌面做网站推广软件是什么工作
  • 如何做发表文章的网站成人企业管理培训课程
  • 合肥企业网站建设百度广告商
  • 做交互的网站写文章免费的软件
  • 网站上点击图片局部放大如何做搜索引擎营销方法主要有三种
  • 新手做网站什么类型关键词排名提高
  • 英文网站建设600教育机构