-
基于hadoop的单词计数
package org.apache.hadoop;
import java.io.IOException;
import java.text.DecimalFormat;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.DoubleWritable;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.Reducer.Context;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.jobcontrol.ControlledJob;
import org.apache.hadoop.mapreduce.lib.jobcontrol.JobControl;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import org.apache.hadoop.util.GenericOptionsParser;
public class WordCount {
- 2022-03-24 10:24:54下载
- 积分:1
-
爵士音乐家网络数据标签传播算法实现社团分析
在 gephi 提供的数据集上随便选一个实现标签传播算法五次. 比较五次算法结果的差别.
下载爵士音乐家网络数据:
NET file.
Jazz musicians network: List of edges of the network of Jazzmusicians.
P.Gleiser and L. Danon , Adv. Complex Syst.6, 565 (2003).
网络文件。爵士音乐家网络:爵士音乐家网络边表列表。
*Vertices (顶点) 198
*Arcs弧
*Edges边缘
- 2022-01-28 15:25:33下载
- 积分:1
-
hahoop源码
hadoop 源代码
- 2022-03-23 13:20:51下载
- 积分:1
-
基于MapReduce的大量数据求和
使用Hadoop中的MapReduce计算框架可以对数字文本分析及求和,当遇到大规模数据时,使用别的编程语言会使得计算过程变得复杂,但使用MapReduce并行计算框架只需编写map函数和reduce函数即可,简单方便。
- 2022-02-28 22:28:59下载
- 积分:1
-
java版kmeans算法以及mapreduces实现
java实现kmenas算法,有详细的注释,以及MapReduce实现Kmeans算法。
Map每读取一条数据就与聚类中心对比,求出该条记录对应的聚类中心,然后以聚类中心ID为key,该条数据为value将数据输出
利用Reduce的归并功能将相同的key(聚类中心ID相同)归并到一起,集中与该Key对应的数据,求出这些数据的平均值,输出平均值
对比Reduce求出的平均值与原来的聚类中心,如果不相同,将清空原中心的数据文件,将Reduce的结果写到中心文件中
- 2023-03-18 03:40:04下载
- 积分:1
-
hadoop入门程序
hadoop入门程序,方便学习。Hadoop的核心就是HDFS和MapReduce,而两者只是理论基础,不是具体可使用的高级应用,Hadoop旗下有很多经典子项目,比如HBase、Hive等,这些都是基于HDFS和MapReduce发展出来的。要想了解Hadoop,就必须知道HDFS和MapReduce是什么。我的程序里有入门介绍
- 2022-03-12 04:55:40下载
- 积分:1
-
hadoop-workCount-源码
hadoop2.5.1-workCount-源码,导入eclipse可直接运行。有需求的可以一起研究一下。
- 2022-02-25 01:53:06下载
- 积分:1
-
日志合并代码
将电信实时日志 根据正则提取 然后通过mr合并,按类区分。
第一类:2016-06-02 23:44:32[02 00:27:16,496 INFO ] - [Topic2Queue.java]-[com.tydic.rtaBc.msgPrep.Topic2Queue$TopicThread]-[run]-[140] -
[消息发送完成****开始时间:1464798436495 结束时间:1464798436496 发送耗时毫秒:1 消息内容:PROD_OFFER_STRA_INST_553#|20160602002715000#|1588772703#|2#|2#|553#|52404686#~256902779#~0#~1763220#~20120829000000#~20170731000000#~48819113#~#~0#~1#~55302972867#~#~24#~1000#~553#~20120829175149#~#~20120829175102#~1#~11] 103002103002009103002009001Topic2Queue174_58_61134.64.115.174file
第二类:[0624 17:12:40 047 INFO ] com.tydic.rtaBc.msgPrep.MsgPrep - [@PH] [2016-06-24 17:12:40] [40-92815B5A8001-RTA1-29928958696021756] [P_1_MR] [1] [OFFER_PROD_INST_REL_554#|20160624170210000#|823943705#|1#|2#|554#|179490421#~286955326#~277480107#~554#~20160624170210#~20160624170210#~555913462#~A1#~286955326#~0#~#~#~#~#~70911#~12#~0#~0]
第三类:103002103002009
- 2022-02-04 07:56:15下载
- 积分:1
-
hadoopTest
1、WordCountMap类继承了org.apache.hadoop.mapreduce.Mapper,4个泛型类型分别是map函数输入key的类型,输入value的类型,输出key的类型,输出value的类型。
2、WordCountReduce类继承了org.apache.hadoop.mapreduce.Reducer,4个泛型类型含义与map类相同。
3、map的输出类型与reduce的输入类型相同,而一般情况下,map的输出类型与reduce的输出类型相同,因此,reduce的输入类型与输出类型相同。
4、hadoop根据以下代码确定输入内容的格式:
- 2022-11-11 11:35:03下载
- 积分:1
-
hadoop hive
Hadoop构建数据仓库实践 操作指南 大数据知识(hadoop java hive bigdata)
- 2019-04-06 09:26:20下载
- 积分:1