-
wordcount.java
wordcount的源码,是在hadoop的环境下实现的,稍微做了点改进,这个算作是hadoop环境下的helloworld的程序,希望能给大家带来帮助
- 2023-01-31 23:45:04下载
- 积分:1
-
hiped2_sourcecode.zip
ont-style:normal;font-variant:normal;"突然之间, 大数据一下子就“火”了, 开源软件 Hadoop 也因此水涨船高 请点击左侧文件开始预览 !预览只提供20%的代码片段,完整代码需下载后查看 加载中 侵权举报
- 2022-05-26 04:34:14下载
- 积分:1
-
hadoop-workCount-源码
hadoop2.5.1-workCount-源码,导入eclipse可直接运行。有需求的可以一起研究一下。
- 2022-02-25 01:53:06下载
- 积分:1
-
hahoop源码
hadoop 源代码
- 2022-03-23 13:20:51下载
- 积分:1
-
web访问记录分析
基于hadoop的web访问记录分析,主要实现:1.页面访问量统计 2.页面独立IP的访问统计 3.用户每小时PV的统计 4.用户来源域名的统计 5.用户的访问设备统计
- 2023-02-16 07:20:03下载
- 积分:1
-
CRS编码
用于hadoop0.22.0的分布式纠删编码,是对原始hadoop0.22.0的改进版本,大大提高数据恢复速度,非常高效。
- 2022-09-12 03:55:03下载
- 积分:1
-
hadoopTest
1、WordCountMap类继承了org.apache.hadoop.mapreduce.Mapper,4个泛型类型分别是map函数输入key的类型,输入value的类型,输出key的类型,输出value的类型。
2、WordCountReduce类继承了org.apache.hadoop.mapreduce.Reducer,4个泛型类型含义与map类相同。
3、map的输出类型与reduce的输入类型相同,而一般情况下,map的输出类型与reduce的输出类型相同,因此,reduce的输入类型与输出类型相同。
4、hadoop根据以下代码确定输入内容的格式:
- 2022-11-11 11:35:03下载
- 积分:1
-
java版kmeans算法以及mapreduces实现
java实现kmenas算法,有详细的注释,以及MapReduce实现Kmeans算法。
Map每读取一条数据就与聚类中心对比,求出该条记录对应的聚类中心,然后以聚类中心ID为key,该条数据为value将数据输出
利用Reduce的归并功能将相同的key(聚类中心ID相同)归并到一起,集中与该Key对应的数据,求出这些数据的平均值,输出平均值
对比Reduce求出的平均值与原来的聚类中心,如果不相同,将清空原中心的数据文件,将Reduce的结果写到中心文件中
- 2023-03-18 03:40:04下载
- 积分:1
-
Hadoop的分割程序
资源描述在Hadoop程序的例子。程序显示我们如何在Hadoop的MapReduce程序使用一个分区。这是一个课堂上的例子,我从我们的教练机上知道了。这是一个非常简单的代码版本,我可以肯定的,看到你们所有人都很容易理解。快乐学习
- 2022-01-26 01:44:53下载
- 积分:1
-
hadoop hive
说明: Hadoop构建数据仓库实践 操作指南 大数据知识(hadoop java hive bigdata)
- 2019-04-06 09:26:20下载
- 积分:1