百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

大数据每周分享第 3 期(大数据每周分享第 3 期内容)

nanshan 2024-11-17 00:16 16 浏览 0 评论

这里记录过去一周,大数据相关值得分享的东西,每周日发布。

欢迎投稿,或推荐你自己的项目,请前往 GitHub 的 aikuyun/bt_weekly 提交 issue。

今天尝试写第三期,记录过去一周一点所见所闻。上周好像忘记发了?是的...

技术一瞥

1、Kafka 的分区数?数据发送为什么要带上 key?

在回答第一个问题之前,先来看一段 kafka 的简单描述:

① Kafka官网上标榜自己是"high-throughput distributed messaging system",即一个高吞吐量的分布式消息引擎。那么怎么达到高吞吐量呢?Kafka在底层摒弃了Java堆缓存机制,采用了操作系统级别的页缓存,同时将随机写操作改为顺序写,再结合Zero-Copy的特性极大地改善了IO性能。但是,这只是一个方面,毕竟单机优化的能力是有上限的。如何通过水平扩展甚至是线性扩展来进一步提升吞吐量呢? Kafka就是使用了分区(partition),通过将topic的消息打散到多个分区并分布保存在不同的broker上实现了消息处理(不管是producer还是consumer)的高吞吐量。

② Kafka的生产者和消费者都可以多线程地并行操作,而每个线程处理的是一个分区的数据。因此分区实际上是调优Kafka并行度的最小单元。对于producer而言,它实际上是用多个线程并发地向不同分区所在的broker发起Socket连接同时给这些分区发送消息;而consumer呢,同一个消费组内的所有consumer线程都被指定topic的某一个分区进行消费(具体如何确定consumer线程数目我们后面会详细说明)。所以说,如果一个topic分区越多,理论上整个集群所能达到的吞吐量就越大。

但分区是否越多越好呢?显然也不是,因为每个分区都有自己的开销:

一是客户端、服务端需要的内存会变多(需要维护一些分区的信息,如果分区越多,这些信息所占的内存就越大)

二是文件句柄的开销(每个分区在底层文件系统都有属于自己的一个目录。该目录下通常会有两个文件: base_offset.log和base_offset.index。Kafak的controller和ReplicaManager会为每个broker都保存这两个文件句柄(file handler)。很明显,如果分区数越多,所需要保持打开状态的文件句柄数也就越多,最终可能会突破你的ulimit -n的限制。)

三是降低了高可用 (如果你有10000个分区,10个broker,也就是说平均每个broker上有1000个分区。此时这个broker挂掉了,那么zookeeper和controller需要立即对这1000个分区进行leader选举。比起很少的分区leader选举而言,这必然要花更长的时间,并且通常不是线性累加的。如果这个broker还同时是controller情况就更糟了)。

默认情况下,Kafka根据传递消息的key来进行分区的分配,即hash(key) % numPartitions,如下图所示:

def partition(key: Any, numPartitions: Int): Int = {
 Utils.abs(key.hashCode) % numPartitions
}

这就保证了相同key的消息一定会被路由到相同的分区。如果你没有指定key,那么Kafka是如何确定这条消息去往哪个分区的呢?

if(key == null) { // 如果没有指定key
 val id = sendPartitionPerTopicCache.get(topic) // 先看看Kafka有没有缓存的现成的分区Id
 id match {
 case Some(partitionId) => 
 partitionId // 如果有的话直接使用这个分区Id就好了
 case None => // 如果没有的话,
 val availablePartitions = topicPartitionList.filter(_.leaderBrokerIdOpt.isDefined) //找出所有可用分区的leader所在的broker
 if (availablePartitions.isEmpty)
 throw new LeaderNotAvailableException("No leader for any partition in topic " + topic)
 val index = Utils.abs(Random.nextInt) % availablePartitions.size // 从中随机挑一个
 val partitionId = availablePartitions(index).partitionId
 sendPartitionPerTopicCache.put(topic, partitionId) // 更新缓存以备下一次直接使用
 partitionId
 }
}

2、开发 Spark 流式程序,少不了写 scala 代码,其语法相当简介,如果不写注释一定会挨骂的!

官网Scala 文档

官网Spark 文档

编写一个流式的工具类:

Spark 相关:

protected val sparkConf = new SparkConf
protected var ssc: StreamingContext = _
protected var sc: SparkContext = _
protected var fs: FileSystem = _
protected var spark: SparkSession = _

设置 Spark 的一系列参数:

// 设置任务名称
def setJobName(name: String): SparkConf = {
 sparkConf.setAppName(name)
}
// 设置任务参数
def set(key: String, value: String): SparkConf = {
 sparkConf.set(key, value)
}

初始化任务:

// 初始化
spark = SparkSession.builder().config(sparkConf).getOrCreate()
sc = spark.sparkContext
ssc = new StreamingContext(spark.sparkContext, Seconds(sec))
fs = FileSystem.get(ssc.sparkContext.hadoopConfiguration)

Zookeeper 相关:

// 获取配置文件的 zk 服务地址信息
protected val zkHosts: String = PropertiesUtils.get("zookeeper.hosts")
// zookeeper 客户端
protected lazy val zkClient = new ZkClient(zkHosts)

实例化 stream:

 /**
 * 实例化一个Stream
 * @param kafkaParams 参数
 * @param offsets 消费位移
 * @param topicArr 主题数组
 * @return
 */
protected def getStream(kafkaParams: Map[String, Object],offsets: Map[TopicPartition, Long],
topicArr: Array[String]): InputDStream[ConsumerRecord[String, String]] =
KafkaUtils.createDirectStream[String, String](ssc,
 PreferConsistent,
 // 1-首次启动;2-其他次启动
 if (offsets.nonEmpty) Subscribe[String, String](topicArr, kafkaParams, offsets)
 else Subscribe[String, String](topicArr, kafkaParams))

读取、保存 offset 到 zk 的一个目录

/**
 * 读取zookeeper中保存的kafka主题消费位移,partition1:offset1,...,partitionN:offsetN
 * Zookeeper保存Kafka数据消费位移,路径格式:/kafka/offsets/groupId/topic,数据格式:partitionId1:offset1,partitionId2:offset2,partitionId3:offset3
 *
 * @param zkClient zookeeper客户端
 * @param zkPath zookeeper保存路径
 * @param topic kafka主题
 * @return
 */
protected def readOffsetsTopic(zkClient: ZkClient, zkPath: String, topic: String): Map[TopicPartition, Long] = {
 val (offsetsRangesStrOpt, _) = ZkUtils.readDataMaybeNull(zkClient, zkPath + s"/$topic")
 offsetsRangesStrOpt match {
 case Some(offsetsRangesStr) =>
 offsetsRangesStr.split(',')
 .map(s => s.split(':'))
 .map(p => new TopicPartition(topic, p(0).toInt) -> p(1).toLong)
 .toMap
 case None => Map[TopicPartition, Long]()
 }
}
/**
 * 保存kafka主题消费位移到zookeeper中,partition1:offset1,...,partitionN:offsetN
 * Zookeeper保存Kafka数据消费位移,路径格式:/kafka/offsets/groupId/topic,数据格式:partitionId1:offset1,partitionId2:offset2,partitionId3:offset3
 *
 * @param zkClient zookeeper客户端
 * @param zkPath zookeeper保存路径
 * @param topic kafka主题
 * @param rdd 待保存位置的RDD
 */
protected def saveOffsetsTopic(zkClient: ZkClient, zkPath: String, topic: String, rdd: RDD[_]): Unit =
ZkUtils.updatePersistentPath(zkClient, zkPath + s"/$topic", rdd.asInstanceOf[HasOffsetRanges].offsetRanges
 .map(offsetRange => s"${offsetRange.partition}:${offsetRange.untilOffset}")
 .mkString(","))

Scala 下划线主要用法:

第一点,一个类型数据的默认值,譬如var i: Int = _,这里是0。整形为0,浮点为0.0,引用类型为null。

第二点,匿名函数的参数,一个匿名函数里第一个下划线代表第一个参数,第二个代表第二个参数第三点,import的通配符第四点,重命名import时隐藏某个名称时的用法

第五点,模式匹配中代表会被丢弃的值

图片

1、原则

2、房贷

原话是:

第一,30年等额本息,就是最优解。第二,能贷多久贷多久,不能提前还。第三,房贷不可怕,5年以后云淡风清。

3、周末

真相是: 一边是 LOL, 一边是拖更的文章。

文章

1、Redis进阶实践之Redis和Lua初步整合使用

lua这个脚本是一个好东西,可以运行在任何平台上,也可以嵌入到大多数语言当中,来扩展其功能。lua脚本是用C语言写的,体积很小,运行速度很快,并且每次的执行都是作为一个原子事务来执行的,我们可以在其中做很多的事情。

2、大家所推崇的Redis分布式锁真的就万无一失吗?

在单实例JVM中,常见的处理并发问题的方法有很多,比如synchronized关键字进行访问控制、volatile关键字、ReentrantLock等常用方法。但是在分布式环境中,上述方法却不能在跨JVM场景中用于处理并发问题,当业务场景需要对分布式环境中的并发问题进行处理时,需要使用分布式锁来实现。

资源

1、GitHub大数据/数据挖掘/推荐系统/机器学习相关资源

以数据挖掘、机器学习为主。

2、官网lua 官方文档

它好的哪?

Redis在2.6推出了脚本功能,允许开发者使用Lua语言编写脚本传到Redis中执行。使用脚本的好处如下:

  • 减少网络开销:本来5次网络请求的操作,可以用一个请求完成,原先5次请求的逻辑放在redis服务器上完成。使用脚本,减少了网络往返时延。
  • 原子操作:Redis会将整个脚本作为一个整体执行,中间不会被其他命令插入。
  • 复用:客户端发送的脚本会永久存储在Redis中,意味着其他客户端可以复用这一脚本而不需要使用代码完成同样的逻辑。

附上一个开源的 lua 脚本调试工具:开源ZeroBrane Studio is a lightweight Lua IDE

视频

1、【z说球鞋】看懂球鞋经济学

本期视频35分钟,球鞋经济学内容, 不到一节课时间, 你将收获课堂上从没讲过的重要知识点。 点击量可能很惨,但这不重要, 说给有心人,越早听到,对你的人生也许越有帮助。

此处为视频,点击链接查看:https://www.bilibili.com/video/av36948735

订阅

本专栏也会定期同步到公众号和知识星球,欢迎订阅。直接扫码或者微信搜索 cuteximi

(完)

相关推荐

雷军1994年写的老代码曝光,被称像诗一样优雅

大数据文摘授权转载自程序员的那些事雷军的代码像诗一样优雅↓↓↓有些网友在评论中质疑,说雷军代码不会是“屎”一样优雅吧。说这话的网友,也许是开玩笑的,也许是真没看过雷军写过的代码。在2011年的时候,我...

原创经验分享:低级bug耗费12小时Fix

调试某程序非常简单的程序,简单到认为不可能存在缺陷,但该BUG处理时间超过12小时:程序属于后台进程,监控系统每隔15秒检查外设IO状态,IO异常后发出报警或复位外设,外设都在linux下有/sys/...

SpringBoot实现的简单停车位管理系统附带导入和演示教程视频

这一次为大家带来的是简单的停车位管理系统,基于SpringBoot+Thymeleaf+Mybatis框架,这个系统相对来说比较简单,很容易学习并快速上手,因为逻辑很清晰,没有太复杂的代码逻辑,所以学...

一个开箱即用的代码生成器(代码自动生成工具开源)

今天给大家推荐一个好用的代码生成器,名为renren-generator,该项目附带前端页面,可以很方便的选择我们所需要生成代码的表。首先我们通过git工具克隆下来代码(地址见文末),导入idea。...

【免费开源】JeecgBoot单点登录源码全部开源了

JeecgBoot单点登录源码全部开源了,有需要的朋友可以来薅羊毛了。一、JeecgBoot介绍JeecgBoot是一款企业级的低代码平台!前后端分离架构SpringBoot2.x,SpringCl...

SpringBoot+JWT+Shiro+Mybatis实现Restful快速开发后端脚手架

作者:lywJee来源:cnblogs.com/lywJ/p/11252064.html一、背景前后端分离已经成为互联网项目开发标准,它会为以后的大型分布式架构打下基础。SpringBoot使编码配置...

为什么越来越多的人选择使用idea软件

IDEA软件是什么?IDEA软件是干什么的?为什么越来越多的人选择使用IDEA软件?IDEA软件,全称IntelliJIDEA,它是由JetBrains公司开发开发的一款功能强大的集成开发环境(ID...

开题报告大学生互助系统(附源码)java毕设

本系统(程序+源码)带文档lw万字以上文末可获取一份本项目的java源码和数据库参考。系统程序文件列表开题报告内容选题背景随着互联网技术的飞速发展,大学生群体对信息共享与互助的需求日益增长。关于大...

SpringBoot项目快速开发框架JeecgBoot——项目简介及系统架构!

项目简介及系统架构JeecgBoot是一款基于SpringBoot的开发平台,它采用前后端分离架构,集成的框架有SpringBoot2.x、SpringCloud、AntDesignof...

新手配电脑13代CPU怎么选择(新手配电脑13代cpu怎么选择好)

Intel第13代酷睿i3、i5、i7、i9系列处理器的核心参数、性能差异及适用群体的详细说明(以桌面端为例):一、13代酷睿全系参数对比(桌面端主流型号)参数i3-13100i5-13600Ki7-...

加速 SpringBoot 应用开发,官方热部署神器真带劲

平时使用SpringBoot开发应用时,修改代码后需要重新启动才能生效。如果你的应用足够大的话,启动可能需要好几分钟。有没有什么办法可以加速启动过程,让我们开发应用代码更高效呢?今天给大家推荐一款Sp...

基于微信小程序的移动端物流系统-计算机毕业设计源码+LW文档

摘要随着Internet的发展,人们的日常生活已经离不开网络。未来人们的生活与工作将变得越来越数字化,网络化和电子化。网上管理,它将是直接管理移动端物流系统app的最新形式。本论文是以构建移动端物流系...

springboot教务管理系统+微信小程序云开发附带源码

今天给大家分享的程序是基于springboot的管理,前端是小程序,系统非常的nice,不管是学习还是毕设都非常的靠谱。本系统主要分为pc端后台管理和微信小程序端,pc端有三个角色:管理员、学生、教师...

SpringBoot全家桶:23篇博客加23个可运行项目让你对它了如指掌

SpringBoot现在已经成为Java开发领域的一颗璀璨明珠,它本身是包容万象的,可以跟各种技术集成。本项目对目前Web开发中常用的各个技术,通过和SpringBoot的集成,并且对各种技术通...

Maven+JSP+Servlet+C3P0+Mysql实现的音乐库管理系统

本系统基于Maven+JSP+Servlet+C3P0+Mysql实现的音乐库管理系统。简单实现了充值、购买歌曲、poi数据导入导出、歌曲上传下载、歌曲播放、用户注册登录注销等功能。难度等级:简单技术...

取消回复欢迎 发表评论: