spark快速大数据分析-[美]卡劳等著pdf高清扫描版
分享到:
spark快速大数据分析2015年9月由人民邮电出版社出版发行,是一本非常经典的spark快速大数据分析方面的学习书籍。近年来大数据逐渐升温,我们呢处在一个数据爆炸的时代大量涌现的智能手机,平板等等设备每时每刻都在产生新的数据。小编推荐的这本Spark快速大数据分析由Spark开发者及核心成员共同打造,讲解了网络大数据时代应运而生的、能高效迅捷地分析处理数据的工具——Spark,它带领读者快速掌握用Spark收集、计算、简化和保存海量数据的方法,学会交互、迭代和增量式分析,解决分区、数据本地化和自定义序列化等问题。感兴趣的朋友欢迎免费下载并阅读。
Andy Konwinski,是Databricks联合创始人,Apache Spark项目技术专家,还是Apache Mesos项目的联合发起人。
Patrick Wendell,是Databricks联合创始人,也是Apache Spark项目技术专家。他还负责维护Spark核心引擎的几个子系统。
Matei Zaharia,是Databricks的CTO,同时也是Apache Spark项目发起人以及Apache基金会副主席。
禁用于商业用途!如果您喜欢《spark快速大数据分析》,请购买正版,谢谢合作。
爱学习,请到3322软件站查找资源自行下载!
译者序 xiv
序 xvi
前言 xvii
第1章 Spark数据分析导论 1
1.1 Spark是什么 1
1.2 一个大一统的软件栈 2
1.2.1 Spark Core 2
1.2.2 Spark SQL 3
1.2.3 Spark Streaming 3
1.2.4 MLlib 3
1.2.5 GraphX 3
1.2.6 集群管理器 4
1.3 Spark的用户和用途 4
1.3.1 数据科学任务 4
1.3.2 数据处理应用 5
1.4 Spark简史 5
1.5 Spark的版本和发布 6
1.6 Spark的存储层次 6
第2章 Spark下载与入门 7
2.1 下载Spark 7
2.2 Spark中Python和Scala的shell 9
2.3 Spark 核心概念简介 12
2.4 独立应用 14
2.4.1 初始化SparkContext 15
2.4.2 构建独立应用 16
2.5 总结 19
第3章 RDD编程 21
3.1 RDD基础 21
3.2 创建RDD 23
3.3 RDD操作 24
3.3.1 转化操作 24
3.3.2 行动操作 26
3.3.3 惰性求值 27
3.4 向Spark传递函数 27
3.4.1 Python 27
3.4.2 Scala 28
3.4.3 Java 29
3.5 常见的转化操作和行动操作 30
3.5.1 基本RDD 30
3.5.2 在不同RDD类型间转换 37
3.6 持久化( 缓存) 39
3.7 总结 40
第4章 键值对操作 41
4.1 动机 41
4.2 创建Pair RDD 42
4.3 Pair RDD的转化操作 42
4.3.1 聚合操作 45
4.3.2 数据分组 49
4.3.3 连接 50
4.3.4 数据排序 51
4.4 Pair RDD的行动操作 52
4.5 数据分区(进阶) 52
4.5.1 获取RDD的分区方式 55
4.5.2 从分区中获益的操作 56
4.5.3 影响分区方式的操作 57
4.5.4 示例:PageRank 57
4.5.5 自定义分区方式 59
4.6 总结 61
第5章 数据读取与保存 63
5.1 动机 63
5.2 文件格式 64
5.2.1 文本文件 64
5.2.2 JSON 66
5.2.3 逗号分隔值与制表符分隔值 68
5.2.4 SequenceFile 71
5.2.5 对象文件 73
5.2.6 Hadoop输入输出格式 73
5.2.7 文件压缩 77
5.3 文件系统 78
5.3.1 本地/“常规”文件系统 78
5.3.2 Amazon S3 78
5.3.3 HDFS 79
5.4 Spark SQL中的结构化数据 79
5.4.1 Apache Hive 80
5.4.2 JSON 80
5.5 数据库 81
5.5.1 Java数据库连接 81
5.5.2 Cassandra 82
5.5.3 HBase 84
5.5.4 Elasticsearch 85
5.6 总结 86
第6章 Spark编程进阶 87
6.1 简介 87
6.2 累加器 88
6.2.1 累加器与容错性 90
6.2.2 自定义累加器 91
6.3 广播变量 91
6.4 基于分区进行操作 94
6.5 与外部程序间的管道 96
6.6 数值RDD 的操作 99
6.7 总结 100
第7章 在集群上运行Spark 101
......
第8章 Spark调优与调试 123
......
第9章 Spark SQL 141
......
第10章 Spark Streaming 161
......
第11章 基于MLlib的机器学习 187
......
作者简介 210
封面介绍 210
Spark简史
Spark是由一个强大而活跃的开源社区开发和维护的,社区中的开发者们来自许许多多不同的机构。如果你或者你所在的机构是第一次尝试使用Spark,也许你会对Spark这个项目的历史感兴趣。Spark是于2009年作为一个研究项目在加州大学伯克利分校RAD实验室(AMPLab的前身)诞生。实验室中的一些研究人员曾经用过HadoopMapReduce。他们发现MapReduce在迭代计算和交互计算的任务上表现得效率低下。因此,Spark从一开始就是为交互式查询和迭代算法设计的,同时还支持内存式存储和高效的容错机制。
2009 年,关于 Spark 的研究论文在学术会议上发表,同年 Spark 项目正式诞生。其后不久,相比于 MapReduce,Spark 在某些任务上已经获得了 10 ~ 20 倍的性能提升。
Spark最早的一部分用户来自加州伯克利分校的其他研究小组,其中比较著名的有Mobile.Millennium。作为机器学习领域的研究项目,他们利用Spark来监控并预测旧金山湾区的交通拥堵情况。仅仅过了短短的一段时间,许多外部机构也开始使用 Spark。如今,有超过 50 个机构将自己添加到了使用Spark的机构列表页面。在Spark社区如火如荼的社区活动Spark.Meetups和Spark峰会中,许多机构也向大家积极分享他们特有的Spark应用场景。除了加州大学伯克利分校,对 Spark 作出贡献的主要机构还有 Databricks、雅虎以及英特尔。
2011 年,AMPLab 开始基于 Spark 开发更高层的组件,比如 Shark(Spark 上的 Hive)1 和 Spark Streaming。这些组件和其他一些组件一起被称为伯克利数据分析工具栈(BDAS,https://amplab.cs.berkeley.edu/software/)。1Shark 已经被 Spark SQL 所取代。
Spark 最早在 2010 年 3 月开源,并且在 2013 年 6 月交给了 Apache 基金会,现在已经成了 Apache 开源基金会的顶级项目。
Spark的版本和发布
自其出现以来,Spark 就一直是一个非常活跃的项目,Spark 社区也一直保持着非常繁荣的态势。随着版本号的不断更迭,Spark的贡献者也与日俱增。Spark1.0吸引了100多个开源程序员参与开发。尽管项目活跃度在飞速地提升,Spark 社区依然保持着常规的发布新版本的节奏。2014 年 5 月,Spark 1.0 正式发布,而本书则主要关注 Spark 1.1.0 以及后续的版本。不过,大多数概念在老版本的 Spark 中依然适用,而大多数示例也能运行在老版本的 Spark 上。
Spark的存储层次
Spark 不仅可以将任何 Hadoop 分布式文件系统(HDFS)上的文件读取为分布式数据集,也可以支持其他支持 Hadoop 接口的系统,比如本地文件、亚马逊 S3、Cassandra、Hive、HBase等。我们需要弄清楚的是,Hadoop并非Spark 的必要条件,Spark 支持任何实现了 Hadoop 接口的存储系统。Spark 支持的 Hadoop 输入格式包括文本文件、SequenceFile、Avro、Parquet 等。我们会在第 5 章讨论读取和存储时详细介绍如何与这些数据源进行交互。
……
1、下载并解压,得出pdf文件
2、如果打不开本文件,别着急,这时候请务必在3322软件站选择一款阅读器下载哦
3、安装后,再打开解压得出的pdf文件
4、以上都完成后,接下来双击进行阅读就可以啦,朋友们开启你们的阅读之旅吧。
方法二:
1、可以在手机里下载3322软件站中的阅读器和百度网盘
2、接下来直接将pdf传输到百度网盘
3、用阅读器打开即可阅读
作者简介:
Holden Karau,是Databricks的软件开发工程师,活跃于开源社区。她还著有《Spark快速数据处理》。Andy Konwinski,是Databricks联合创始人,Apache Spark项目技术专家,还是Apache Mesos项目的联合发起人。
Patrick Wendell,是Databricks联合创始人,也是Apache Spark项目技术专家。他还负责维护Spark核心引擎的几个子系统。
Matei Zaharia,是Databricks的CTO,同时也是Apache Spark项目发起人以及Apache基金会副主席。
免责声明:
来源于网络,仅用于分享知识,学习和交流!请下载完在24小时内删除。禁用于商业用途!如果您喜欢《spark快速大数据分析》,请购买正版,谢谢合作。
爱学习,请到3322软件站查找资源自行下载!
spark快速大数据分析目录:
推荐序 xi译者序 xiv
序 xvi
前言 xvii
第1章 Spark数据分析导论 1
1.1 Spark是什么 1
1.2 一个大一统的软件栈 2
1.2.1 Spark Core 2
1.2.2 Spark SQL 3
1.2.3 Spark Streaming 3
1.2.4 MLlib 3
1.2.5 GraphX 3
1.2.6 集群管理器 4
1.3 Spark的用户和用途 4
1.3.1 数据科学任务 4
1.3.2 数据处理应用 5
1.4 Spark简史 5
1.5 Spark的版本和发布 6
1.6 Spark的存储层次 6
第2章 Spark下载与入门 7
2.1 下载Spark 7
2.2 Spark中Python和Scala的shell 9
2.3 Spark 核心概念简介 12
2.4 独立应用 14
2.4.1 初始化SparkContext 15
2.4.2 构建独立应用 16
2.5 总结 19
第3章 RDD编程 21
3.1 RDD基础 21
3.2 创建RDD 23
3.3 RDD操作 24
3.3.1 转化操作 24
3.3.2 行动操作 26
3.3.3 惰性求值 27
3.4 向Spark传递函数 27
3.4.1 Python 27
3.4.2 Scala 28
3.4.3 Java 29
3.5 常见的转化操作和行动操作 30
3.5.1 基本RDD 30
3.5.2 在不同RDD类型间转换 37
3.6 持久化( 缓存) 39
3.7 总结 40
第4章 键值对操作 41
4.1 动机 41
4.2 创建Pair RDD 42
4.3 Pair RDD的转化操作 42
4.3.1 聚合操作 45
4.3.2 数据分组 49
4.3.3 连接 50
4.3.4 数据排序 51
4.4 Pair RDD的行动操作 52
4.5 数据分区(进阶) 52
4.5.1 获取RDD的分区方式 55
4.5.2 从分区中获益的操作 56
4.5.3 影响分区方式的操作 57
4.5.4 示例:PageRank 57
4.5.5 自定义分区方式 59
4.6 总结 61
第5章 数据读取与保存 63
5.1 动机 63
5.2 文件格式 64
5.2.1 文本文件 64
5.2.2 JSON 66
5.2.3 逗号分隔值与制表符分隔值 68
5.2.4 SequenceFile 71
5.2.5 对象文件 73
5.2.6 Hadoop输入输出格式 73
5.2.7 文件压缩 77
5.3 文件系统 78
5.3.1 本地/“常规”文件系统 78
5.3.2 Amazon S3 78
5.3.3 HDFS 79
5.4 Spark SQL中的结构化数据 79
5.4.1 Apache Hive 80
5.4.2 JSON 80
5.5 数据库 81
5.5.1 Java数据库连接 81
5.5.2 Cassandra 82
5.5.3 HBase 84
5.5.4 Elasticsearch 85
5.6 总结 86
第6章 Spark编程进阶 87
6.1 简介 87
6.2 累加器 88
6.2.1 累加器与容错性 90
6.2.2 自定义累加器 91
6.3 广播变量 91
6.4 基于分区进行操作 94
6.5 与外部程序间的管道 96
6.6 数值RDD 的操作 99
6.7 总结 100
第7章 在集群上运行Spark 101
......
第8章 Spark调优与调试 123
......
第9章 Spark SQL 141
......
第10章 Spark Streaming 161
......
第11章 基于MLlib的机器学习 187
......
作者简介 210
封面介绍 210
精彩书摘:
......Spark简史
Spark是由一个强大而活跃的开源社区开发和维护的,社区中的开发者们来自许许多多不同的机构。如果你或者你所在的机构是第一次尝试使用Spark,也许你会对Spark这个项目的历史感兴趣。Spark是于2009年作为一个研究项目在加州大学伯克利分校RAD实验室(AMPLab的前身)诞生。实验室中的一些研究人员曾经用过HadoopMapReduce。他们发现MapReduce在迭代计算和交互计算的任务上表现得效率低下。因此,Spark从一开始就是为交互式查询和迭代算法设计的,同时还支持内存式存储和高效的容错机制。
2009 年,关于 Spark 的研究论文在学术会议上发表,同年 Spark 项目正式诞生。其后不久,相比于 MapReduce,Spark 在某些任务上已经获得了 10 ~ 20 倍的性能提升。
Spark最早的一部分用户来自加州伯克利分校的其他研究小组,其中比较著名的有Mobile.Millennium。作为机器学习领域的研究项目,他们利用Spark来监控并预测旧金山湾区的交通拥堵情况。仅仅过了短短的一段时间,许多外部机构也开始使用 Spark。如今,有超过 50 个机构将自己添加到了使用Spark的机构列表页面。在Spark社区如火如荼的社区活动Spark.Meetups和Spark峰会中,许多机构也向大家积极分享他们特有的Spark应用场景。除了加州大学伯克利分校,对 Spark 作出贡献的主要机构还有 Databricks、雅虎以及英特尔。
2011 年,AMPLab 开始基于 Spark 开发更高层的组件,比如 Shark(Spark 上的 Hive)1 和 Spark Streaming。这些组件和其他一些组件一起被称为伯克利数据分析工具栈(BDAS,https://amplab.cs.berkeley.edu/software/)。1Shark 已经被 Spark SQL 所取代。
Spark 最早在 2010 年 3 月开源,并且在 2013 年 6 月交给了 Apache 基金会,现在已经成了 Apache 开源基金会的顶级项目。
Spark的版本和发布
自其出现以来,Spark 就一直是一个非常活跃的项目,Spark 社区也一直保持着非常繁荣的态势。随着版本号的不断更迭,Spark的贡献者也与日俱增。Spark1.0吸引了100多个开源程序员参与开发。尽管项目活跃度在飞速地提升,Spark 社区依然保持着常规的发布新版本的节奏。2014 年 5 月,Spark 1.0 正式发布,而本书则主要关注 Spark 1.1.0 以及后续的版本。不过,大多数概念在老版本的 Spark 中依然适用,而大多数示例也能运行在老版本的 Spark 上。
Spark的存储层次
Spark 不仅可以将任何 Hadoop 分布式文件系统(HDFS)上的文件读取为分布式数据集,也可以支持其他支持 Hadoop 接口的系统,比如本地文件、亚马逊 S3、Cassandra、Hive、HBase等。我们需要弄清楚的是,Hadoop并非Spark 的必要条件,Spark 支持任何实现了 Hadoop 接口的存储系统。Spark 支持的 Hadoop 输入格式包括文本文件、SequenceFile、Avro、Parquet 等。我们会在第 5 章讨论读取和存储时详细介绍如何与这些数据源进行交互。
……
下载说明:
方法一:1、下载并解压,得出pdf文件
2、如果打不开本文件,别着急,这时候请务必在3322软件站选择一款阅读器下载哦
3、安装后,再打开解压得出的pdf文件
4、以上都完成后,接下来双击进行阅读就可以啦,朋友们开启你们的阅读之旅吧。
方法二:
1、可以在手机里下载3322软件站中的阅读器和百度网盘
2、接下来直接将pdf传输到百度网盘
3、用阅读器打开即可阅读
展开更多
spark快速大数据分析-[美]卡劳等著pdf高清扫描版下载地址
- 需先下载高速下载器:
- 专用下载:
- 其它下载: