k8s面试题,下面哪个功能是kafka无法保证的
k8s面试题,下面哪个功能是kafka无法保证的详细介绍
本文目录一览: Kubernetes 面试题干货集锦
简述 etcd 及其特点?
答:etcd 是 CoreOS 团队发起的开源项目,是一个管理配置信息和服务发现
(service discovery)的项目,它的目标是构建一个高可用的分布式键值(key-value)
数据库,基于 Go 语言实现。
特点:
l 简单:支持 REST 风格的 HTTP+JSON API
l 安全:支持 HTTPS 方式的访问
l 快速:支持并发 1k/s 的写操作
l 可靠:支持分布式结构,基于 Raft 的一致性算法,Raft 是一套通过选举主节点来
实现分布式系统一致性的算法。
简述 etcd 适应的场景?
答:etcd 基于其优秀的特点,可广泛的应用于以下场景:
l 服务发现(Service Discovery):服务发现主要解决在同一个分布式集群中的进程
或服务,要如何才能找到对方并建立连接。本质上来说,服务发现就是想要了解
集群中是否有进程在监听 udp 或 tcp 端口,并且通过名字就可以查找和连接。
一些配置信息放到 etcd 上进行集中管理。
l 负载均衡:在分布式系统中,为了保证服务的高可用以及数据的一致性,通常都
会把数据和服务部署多份,以此达到对等服务,即使其中的某一个服务失效了,
也不影响使用。etcd 本身分布式架构存储的信息访问支持负载均衡。etcd 集群化
以后,每个 etcd 的核心节点都可以处理用户的请求。所以,把数据量小但是访问
频繁的消息数据直接存储到 etcd 中也可以实现负载均衡的效果。
通过注册与异步通知机制,实现分布式环境下不同系统之间的通知与协调,从而
对数据变更做到实时处理。
l 分布式锁:因为 etcd 使用 Raft 算法保持了数据的强一致性,某次操作存储到集
群中的值必然是全局一致的,所以很容易实现分布式锁。锁服务有两种使用方式,
一是保持独占,二是控制时序。
l 集群监控与 Leader 竞选:通过 etcd 来进行监控实现起来非常简单并且实时性强。
简述 Kubernetes 和 Docker 的关系?
答:Docker 提供容器的生命周期管理和,Docker 镜像构建运行时容器。它的主要优
点是将将软件/应用程序运行所需的设置和依赖项打包到一个容器中,从而实现了可移
植性等优点。
Kubernetes 用于关联和编排在多个主机上运行的容器。
简述 Kubernetes 中什么是 Minikube、Kubectl、Kubelet?
答:Minikube 是一种可以在本地轻松运行一个单节点 Kubernetes 群集的工具。
Kubectl 是一个命令行工具,可以使用该工具控制 Kubernetes 集群管理器,如检查
群集资源,创建、删除和更新组件,查看应用程序。
Kubelet 是一个代理服务,它在每个节点上运行,并使从服务器与主服务器通信。
简述 Kubernetes 常见的部署方式?
答:常见的 Kubernetes 部署方式有:
l kubeadm:也是推荐的一种部署方式;
l 二进制:
l minikube:在本地轻松运行一个单节点 Kubernetes 群集的工具。
简述 Kubernetes 如何实现集群管理?
答:在集群管理方面,Kubernetes 将集群中的机器划分为一个 Master 节点和一群工
作节点 Node。其中,在 Master 节点运行着集群管理相关的一组进程 kube
apiserver、kube-controller-manager 和 kube-scheduler,这些进程实现了整个集
群的资源管理、Pod 调度、弹性伸缩、安全控制、系统监控和纠错等管理能力,并且
都是全自动完成的。
简述 Kubernetes 相关基础概念?
答:
l master:k8s 集群的管理节点,负责管理集群,提供集群的资源数据访问入口。
拥有 Etcd 存储服务(可选),运行 Api Server 进程,Controller Manager 服务
进程及 Scheduler 服务进程。
l node(worker):Node(worker)是 Kubernetes 集群架构中运行 Pod 的服
务节点,是 Kubernetes 集群操作的单元,用来承载被分配 Pod 的运行,是 Pod
运行的宿主机。运行 docker eninge 服务,守护进程 kunelet 及负载均衡器
kube-proxy。
l pod:运行于 Node 节点上,若干相关容器的组合。Pod 内包含的容器运行在同
一宿主机上,使用相同的网络命名空间、IP 地址和端口,能够通过 localhost 进行通信。Pod 是 Kurbernetes 进行创建、调度和管理的最小单位,它提供了比容
器更高层次的抽象,使得部署和管理更加灵活。一个 Pod 可以包含一个容器或者
多个相关容器。
l label:Kubernetes 中的 Label 实质是一系列的 Key/Value 键值对,其中 key 与
value 可自定义。Label 可以附加到各种资源对象上,如 Node、Pod、Service、
RC 等。一个资源对象可以定义任意数量的 Label,同一个 Label 也可以被添加到
任意数量的资源对象上去。Kubernetes 通过 Label Selector(标签选择器)查询
和筛选资源对象。
l Replication Controller:Replication Controller 用来管理 Pod 的副本,保证集
群中存在指定数量的 Pod 副本。集群中副本的数量大于指定数量,则会停止指定
数量之外的多余容器数量。反之,则会启动少于指定数量个数的容器,保证数量
不变。Replication Controller 是实现弹性伸缩、动态扩容和滚动升级的核心。
l Deployment:Deployment 在内部使用了 RS 来实现目的,Deployment 相当
于 RC 的一次升级,其最大的特色为可以随时获知当前 Pod 的部署进度。
l HPA(Horizontal Pod Autoscaler):Pod 的横向自动扩容,也是 Kubernetes
的一种资源,通过追踪分析 RC 控制的所有 Pod 目标的负载变化情况,来确定是
否需要针对性的调整 Pod 副本数量。
l Service:Service 定义了 Pod 的逻辑集合和访问该集合的策略,是真实服务的抽
象。Service 提供了一个统一的服务访问入口以及服务代理和发现机制,关联多个
相同 Label 的 Pod,用户不需要了解后台 Pod 是如何运行。
l Volume:Volume 是 Pod 中能够被多个容器访问的共享目录,Kubernetes 中的
Volume 是定义在 Pod 上,可以被一个或多个 Pod 中的容器挂载到某个目录下。l Namespace:Namespace 用于实现多租户的资源隔离,可将集群内部的资源对
象分配到不同的 Namespace 中,形成逻辑上的不同项目、小组或用户组,便于
不同的 Namespace 在共享使用整个集群的资源的同时还能被分别管理。
简述 Kubernetes RC 的机制?
答:Replication Controller 用来管理 Pod 的副本,保证集群中存在指定数量的 Pod
副本。当定义了 RC 并提交至 Kubernetes 集群中之后,Master 节点上的 Controller
Manager 组件获悉,并同时巡检系统中当前存活的目标 Pod,并确保目标 Pod 实例的数量刚好等于此 RC 的期望值,若存在过多的 Pod 副本在运行,系统会停止一些
Pod,反之则自动创建一些 Pod。
简述 Kubernetes 中 Pod 的重启策略?
答:Pod 重启策略(RestartPolicy)应用于 Pod 内的所有容器,并且仅在 Pod 所处
的 Node 上由 kubelet 进行判断和重启操作。当某个容器异常退出或者 健康 检查失败
时,kubelet 将根据 RestartPolicy 的设置来进行相应操作。
Pod 的重启策略包括 Always、OnFailure 和 Never,默认值为 Always。
l Always:当容器失效时,由 kubelet 自动重启该容器;
l OnFailure:当容器终止运行且退出码不为 0 时,由 kubelet 自动重启该容器;
l Never:不论容器运行状态如何,kubelet 都不会重启该容器。
同时 Pod 的重启策略与控制方式关联,当前可用于管理 Pod 的控制器包括
ReplicationController、Job、DaemonSet 及直接管理 kubelet 管理(静态 Pod)。
不同控制器的重启策略限制如下:
l RC 和 DaemonSet:必须设置为 Always,需要保证该容器持续运行;
l Job:OnFailure 或 Never,确保容器执行完成后不再重启;
l kubelet:在 Pod 失效时重启,不论将 RestartPolicy 设置为何值,也不会对 Pod
进行 健康 检查。
简述 Kubernetes Pod 的 LivenessProbe 探针的常见方式?
答:kubelet 定期执行 LivenessProbe 探针来诊断容器的 健康 状态,通常有以下三种
方式:
l ExecAction:在容器内执行一个命令,若返回码为 0,则表明容器 健康 。
l TCPSocketAction:通过容器的 IP 地址和端口号执行 TCP 检查,若能建立 TCP
连接,则表明容器 健康 。
l HTTPGetAction:通过容器的 IP 地址、端口号及路径调用 HTTP Get 方法,若响
应的状态码大于等于 200 且小于 400,则表明容器 健康 。
. 简述 Kubernetes Pod 的常见调度方式?
答:Kubernetes 中,Pod 通常是容器的载体,主要有如下常见调度方式:
l Deployment 或 RC:该调度策略主要功能就是自动部署一个容器应用的多份副本,
以及持续监控副本的数量,在集群内始终维持用户指定的副本数量。
l NodeSelector:定向调度,当需要手动指定将 Pod 调度到特定 Node 上,可以
通过 Node 的标签(Label)和 Pod 的 nodeSelector 属性相匹配。
l NodeAffinity 亲和性调度:亲和性调度机制极大的扩展了 Pod 的调度能力,目前
有两种节点亲和力表达:
l requiredDuringSchedulingIgnoredDuringExecution:硬规则,必须满足指定
的规则,调度器才可以调度 Pod 至 Node 上(类似 nodeSelector,语法不同)。
l preferredDuringSchedulingIgnoredDuringExecution:软规则,优先调度至满
足的 Node 的节点,但不强求,多个优先级规则还可以设置权重值。
l Taints 和 Tolerations(污点和容忍):
l Taint:使 Node 拒绝特定 Pod 运行;
l Toleration:为 Pod 的属性,表示 Pod 能容忍(运行)标注了 Taint 的 Node。
简述 Kubernetes DaemonSet 类型的资源特性?
答:DaemonSet 资源对象会在每个 Kubernetes 集群中的节点上运行,并且每个节
点只能运行一个 pod,这是它和 deployment 资源对象的最大也是唯一的区别。因此,
在定义 yaml 文件中,不支持定义 replicas。
它的一般使用场景如下:
l 在去做每个节点的日志收集工作。
l 监控每个节点的的运行状态。
简述 Kubernetes Service 分发后端的策略?
答:Service 负载分发的策略有:RoundRobin 和 SessionAffinity
l RoundRobin:默认为轮询模式,即轮询将请求转发到后端的各个 Pod 上。
l SessionAffinity:基于客户端 IP 地址进行会话保持的模式,即第 1 次将某个客户
端发起的请求转发到后端的某个 Pod 上,之后从相同的客户端发起的请求都将被
转发到后端相同的 Pod 上。
简述 Kubernetes Scheduler 使用哪两种算法将 Pod 绑定到 worker 节点?
答:Kubernetes Scheduler 根据如下两种调度算法将 Pod 绑定到最合适的工作节点:
l 预选(Predicates):输入是所有节点,输出是满足预选条件的节点。kube
scheduler 根据预选策略过滤掉不满足策略的 Nodes。如果某节点的资源不足或
者不满足预选策略的条件则无法通过预选。如“Node 的 label 必须与 Pod 的
Selector 一致”。
l 优选(Priorities):输入是预选阶段筛选出的节点,优选会根据优先策略为通过
预选的 Nodes 进行打分排名,选择得分最高的 Node。例如,资源越富裕、负载
越小的 Node 可能具有越高的排名。
简述 Kubernetes Secret 有哪些使用方式?
答:创建完 secret 之后,可通过如下三种方式使用:
l 在创建 Pod 时,通过为 Pod 指定 Service Account 来自动使用该 Secret。
l 通过挂载该 Secret 到 Pod 来使用它。
l 在 Docker 镜像下载时使用,通过指定 Pod 的 spc.ImagePullSecrets 来引用它。
简述 Kubernetes 网络策略原理?
答:Network Policy 的工作原理主要为:policy controller 需要实现一个 API
Listener,监听用户设置的 Network Policy 定义,并将网络访问规则通过各 Node 的
Agent 进行实际设置(Agent 则需要通过 CNI 网络插件实现)。
简述 Kubernetes 集群联邦?
答:Kubernetes 集群联邦可以将多个 Kubernetes 集群作为一个集群进行管理。因此,
可以在一个数据中心/云中创建多个 Kubernetes 集群,并使用集群联邦在一个地方控
制/管理所有集群。
简述 Kubernetes 如何进行优雅的节点关机维护?
答:由于 Kubernetes 节点运行大量 Pod,因此在进行关机维护之前,建议先使用
kubectl drain 将该节点的 Pod 进行驱逐,然后进行关机维护。
. 简述 Kubernetes 中,如何使用 EFK 实现日志的统一管理?
答:在 Kubernetes 集群环境中,通常一个完整的应用或服务涉及组件过多,建议对
日志系统进行集中化管理,通常采用 EFK 实现。
EFK 是 Elasticsearch、Fluentd 和 Kibana 的组合,其各组件功能如下:
l Elasticsearch:是一个搜索引擎,负责存储日志并提供查询接口;
l Fluentd:负责从 Kubernetes 搜集日志,每个 node 节点上面的 fluentd 监控并
收集该节点上面的系统日志,并将处理过后的日志信息发送给 Elasticsearch;
l Kibana:提供了一个 Web GUI,用户可以浏览和搜索存储在 Elasticsearch 中的
日志。通过在每台 node 上部署一个以 DaemonSet 方式运行的 fluentd 来收集每台 node
上的日志。Fluentd 将 docker 日志目录/var/lib/docker/containers 和/var/log 目录
挂载到 Pod 中,然后 Pod 会在 node 节点的/var/log/pods 目录中创建新的目录,可
以区别不同的容器日志输出,该目录下有一个日志文件链接到
/var/lib/docker/contianers 目录下的容器日志输出。
关于k8s运维的面试问题
最近正在找工作,面试了很多运维相关的岗位,基本都要求有k8s经验,虽然目前k8s基本趋于成熟化,但对于传统运维工作人员和刚毕业的学生来讲,这确实太过于复杂;但在面试中,面试官往往最喜欢问就是k8s相关技术问题,然而因为各种原因,我有近3年的运维工作空档期,于是乎我掌握的技术都太过时了;在面试碰壁中总结了关于k8s的面试问题,所以在这里提前为1000万要毕业的大学生做点力所能及的。
从业有11年多,也为公司招过不少人。现在的面试官与年龄无关,在选人上太注重这个人的面试成绩或者这个人的匹配度。其实往往忽略了人本身,技术是靠人做出来的,人本身才是最重要的。你有再光鲜华丽的履历,有再多的荣誉都不能改变本性,江山易改本性难移。技术差一点这个没什么,可以给时间,可以培养,但是态度、人品不行,再好的技术都没用,只会是团队中的绊脚石。在面试时,多用心观察对方的行为,思维,态度。
1.人品 2.态度 3.技术思维
1.核心组件或者说是基础组件,需要弄清有哪些,都是有什么作用。
2.会挑一两个问其如何工作,如何实现。
核心组件:etcd、api、controller、scheduler、docker
核心组件:kubelet、docker、kube-proxy
Kafka面试题
1、谈谈你对Kafka幂等性的理解?Producer的幂等性指的是当发送同一条消息时,数据在Server端只会被持久化一次,数据不丢不重,但是这里的幂等性是有条件的:Kafka是在0.11版本开始引入了事务支持。
2、给大家分享一些Linux面试题的笔记,从负载均衡、nginx、MySQL、redis、kafka、zabbix、k8s等方面拆解Linux知识点。用来对个人技术点进行查漏补缺。
3、大型公司,基础架构研发实力较强,用RocketMQ是很好的选择。如果是大数据领域的实时计算、日志采集等场景,用Kafka是业内标准的,绝对没问题,社区活跃度很高,绝对不会黄,何况几乎是全世界这个领域的事实性规范。
4、比如你写了擅长MySQL,Jquery,bootstrap,那么我们就会提问这些内容,当然都不会特别困难,只需要证明你确实知道,不是在吹嘘就行。
5、其包括远程服务框架中间件,例如阿里(Apache)的RPC框架Dubbo等;消息队列中间件,例如:阿里巴巴开源分布式中间件RocketMQ、高吞吐量消息发布和流处理服务Kafka等。
6、人人皆知kafka性能好,但真正了解原因的人就少了很多。说起来也是悲伤的故事,我的某次面试就凉在此题。那么从设计的角度看,kafka是如何实现高性能的呢?Kafka会把消息写入到硬盘,绝对不会丢失数据。
Linux运维工程师会面试哪些
给大家分享一些Linux面试题的笔记,从负载均衡、nginx、MySQL、redis、kafka、zabbix、k8s等方面拆解 Linux 知识点。用来对个人技术点进行查漏补缺。
目录:
1. 磁盘使用率检测(用shell脚本)
2. LVS 负载均衡有哪些策略?
3. 谈谈你对LVS的理解?
4. 负载均衡的原理是什么?
5. LVS由哪两部分组成的?
6. 与lvs相关的术语有哪些?
7. LVS-NAT模式的原理
8. LVS-NAT模型的特性
9. LVS-DR模式原理
10. LVS-DR模型的特性
11. LVS三种负载均衡模式的比较
12. LVS的负载调度算法
13. LVS与nginx的区别
14. 负载均衡的作用有哪些?
15. nginx实现负载均衡的分发策略
16. keepalived 是什么?
17. 你是如何理解VRRP协议的
18. keepalived的工作原理?
19. 出现脑裂的原因
20. 如何解决keepalived脑裂问题?
21. zabbix如何监控脑裂?
22. nginx做负载均衡实现的策略有哪些
23. nginx做负载均衡用到哪些模块
24. 负载均衡有哪些实现方式
25. nginx如何实现四层负载?
26. 你知道的web服务有哪些?
27. 为什么要用nginx
28 . nginx的性能为什么比apache高?
29 . epoll的组成
30 . nginx和apache的区别
31. Tomcat作为web的优缺点?
32. tomcat的三个端口及作用
33. fastcgi 和cgi的区别
34. nginx常用的命令
35. 什么是反向代理,什么是正向代理,以及区别?
36. Squid、Varinsh、Nginx 有什么区别?
37. nginx是如何处理http请求的
38. nginx虚拟主机有哪些?
39. nginx怎么实现后端服务的健康检查
40. apache中的Worker 和 Prefork 之间的区别是什么?
41. Tomcat缺省端口是多少,怎么修改
42. Tomcat的工作模式是什么?
43. Web请求在Tomcat请求中的请求流程是怎么样的?
44. 怎么监控Tomcat的内存使用情况
45. nginx的优化你都做过哪些?
46. Tomcat你做过哪些优化
47. nginx的session不同步怎么办
48. nginx的常用模块有哪些?
49. nginx常用状态码
50. 访问一个网站的流程
51. 三次握手,四次挥手
52. 什么是动态资源,什么是静态资源
53. worker支持的最大并发数是什么?
54. Tomcat和Resin有什么区别,工作中你怎么选择?
55. 什么叫网站灰度发布?56.. 统计ip访问情况,要求分析nginx访问日志,找出访问页面数量在前十位的ip
57. nginx各个版本的区别
58. nginx最新版本
59. 关于nginx access模块的面试题
60. nginx默认配置文件
61. location的规则
62. 配置nginx防盗链
63. drop,delete和truncate删除数据的区别?
64. MySQL主从原理
65. MySQL主从复制存在哪些问题?
66. MySQL复制的方法
67. 主从延迟产生的原因及解决方案?
68. 判断主从延迟的方法
69. MySQL忘记root密码如何找回
70. MySQL的数据备份方式
71. innodb的特性
72. varchar(100) 和varchar(200)的区别
73. MySQL主要的索引类型
74. 请说出非关系型数据库的典型产品、特点及应用场景?
75. 如何加强MySQL安全,请给出可行的具体措施?
76. Binlog工作模式有哪些?各什么特点,企业如何选择?
77. 生产一主多从从库宕机,如何手工恢复?
78. MySQL中MyISAM与InnoDB的区别,至少5点
79. 网站打开慢,请给出排查方法,如是数据库慢导致,如何排查并解决,请分析并举例?
80. xtrabackup的备份,增量备份及恢复的工作原理
81.误执行drop数据,如何通过xtrabackup恢复?
82. 如何做主从数据一致性校验?
83. MySQL有多少日志
84. MySQL binlog的几种日志录入格式以及区别
85. MySQL数据库cpu飙升到500%的话他怎么处理?
86. redis是单线程还是多线程?
87. redis常用的版本是?
88. redis 的使用场景?
89. redis常见的数据结构
90. redis持久化你们怎么做的?
91. 主从复制实现的原理
92. redis哨兵模式原理
93. memcache和redis的区别
94. redis有哪些架构模式?
95. 缓存雪崩?
96. 缓存穿透
97. 缓存击穿
98. redis为什么这么快
99. memcache有哪些应用场景
100. memcache 服务特点及工作原理
101. memcached是如何做身份验证的?
102. mongoDB是什么?
103. mongodb的优势
104. mongodb使用场景
105. kafka 中的ISR,AR代表什么,ISR伸缩又代表什么
106.kafka中的broker 是干什么的
107. kafka中的 zookeeper 起到什么作用,可以不用zookeeper么
108. kafka follower如何与leader同步数据
109. kafka 为什么那么快
110. Kafka中的消息是否会丢失和重复消费?
111. 为什么Kafka不支持读写分离?
112. 什么是消费者组?
113. Kafka 中的术语114. kafka适用于哪些场景
115. Kafka写入流程:
116. zabbix有哪些组件
117. zabbix的两种监控模式
118. 一个监控系统的运行流程
119. zabbix的工作进程
120. zabbix常用术语
121. zabbix自定义发现是怎么做的?
122. 微信报警
123. zabbix客户端如何批量安装
124. zabbix分布式是如何做的
125. zabbix proxy 的使用场景
126. prometheus工作原理
127. prometheus组件
128. ELK工作流程
129. logstash的输入源有哪些?
130. logstash的架构
131. ELK相关的概念
132. es常用的插件
134. zabbix你都监控哪些参数
135. MySQL同步和半同步
136. CI/CD
137 K8S监控指标
138. k8s是怎么做日志监控的
139. 【运维面试】k8s中service和ingress的区别
140. k8s组件的梳理
141. 关于tcp/IP协议
142. 谈谈你对CDN的理解
下面哪个功能是kafka无法保证的
Kafka工作流程1、一般是先会创建一个主题,比如说TopicA,有三个分区,有两个副本(leader+follower总共2个),同一个分区的两个副本肯定不在一个服务器。
2、Kafka工作流程基础总结:1)broker:broker代表kafka的节点,Broker是分布式部署并且相互之间相互独立的,启动的时候向zookeeper注册,在Zookeeper上会有一个专门用来进行Broker服务器列表记录的节点:/brokers/ids。
3、流程描述:用户首先构建待发送的消息对象ProducerRecord,然后调用KafkaProducer#send方法进行发送。
4、Kafka的工作流程Kafka中消息是以Topic进行分类的,生产者生产消息,消费者消费消息,读取和消费的都是同一个Topic。
5、和其他的中间件一样,kafka每次发送数据都是向Leader分区发送数据,并顺序写入到磁盘,然后Leader分区会将数据同步到各个从分区Follower,即使主分区挂了,也不会影响服务的正常运行。
Kafka——分区partition在之前的例子里(Kafka生产者——向Kafka写入数据),ProducerRecord对象包含了目标主题、键和值。
第一步:将所有主题分区组成TopicAndPartition列表,然后对TopicAndPartition列表按照hashCode进行排序,最后按照轮询的方式发给每一个消费线程。
在Kafka中,每个Topic会包含多个分区,默认情况下个分区只能被个消费组下的个消费者消费,这就产了分区分配的问题。
分区越多所需要的文件句柄也就越多,可以通过配置操作系统的参数增加打开文件句柄数。
一句话,Kafka的Message存储采用了分区(partition),分段(LogSegment)和稀疏索引这几个手段来达到了高效性。
kafka是一个分布式的、支持分区的(partition)、多副本的(replica),基于zookeeper协调的分布式消息系统。
消息队列(三)kafka的一致性和失败处理策略服务器处理消息需要是幂等的,消息的生产方和接收方都需要做到幂等性;发送放需要添加一个定时器来遍历重推未处理的消息,避免消息丢失,造成的事务执行断裂。
高吞吐:Kafka拥有很高的吞吐量,即使是在单节点性能比较低下的商用集群中,也能保证单节点每秒10万条消息的传输。高容错:Kafka在设计上支持多分区、多副本的策略,拥有很强的容错性。
如果要保证一致性,需要生产者在失败后重试,不过重试又会导致消息重复的问题,一个解决方案是每个消息给一个唯一的id,通过服务端的主动去重来避免重复消息的问题,不过这一机制目前Kafka还未实现。
这时rahbitMQ会立即将消息删除,这种情况下如果消费者出现异常而没能处理该消息(但是消息队列那边已经认为消息被消费了),就会丢失该消息。至于解决方案,采用手动确认消息即可。
Kafka存储机制此时Producer端生产的消息会不断追加到log文件末尾,这样文件就会越来越大,为了防止log文件过大导致数据定位效率低下,那么Kafka采取了分片和索引机制。
Kafka是一个分布式消息队列,具有高性能、持久化、多副本备份、横向扩展能力。生产者往队列里写消息,消费者从队列里取消息进行业务逻辑。一般在架构设计中起到解耦、削峰、异步处理的作用。
kafka的原理是什么?1、Kafka是一个消息系统,原本开发自LinkedIn,用作LinkedIn的活动流数据(ActivityStream)和运营数据处理管道(Pipeline)的基础。现在它已被多家公司作为多种类型的数据管道和消息系统使用。
2、Kafka的副本机制是多个服务端节点对其他节点的主题分区的日志进行复制。当集群中的某个节点出现故障,访问故障节点的请求会被转移到其他正常节点(这一过程通常叫Reblance)。
3、Kafka使用了全局唯一的数字来指代每个Broker服务器,不同的Broker必须使用不同的BrokerID进行注册,创建完节点后,每个Broker就会将自己的IP地址和端口信息记录到该节点中去。
4、kafka消息的有序性,是采用消息键保序策略来实现的。一个topic,一个partition(分割),一个consumer,内部单线程消费,写N个内存queue,然后N个线程分别消费一个内存queue。
Kafka面试题1、谈谈你对Kafka幂等性的理解?Producer的幂等性指的是当发送同一条消息时,数据在Server端只会被持久化一次,数据不丢不重,但是这里的幂等性是有条件的:Kafka是在0.11版本开始引入了事务支持。
2、给大家分享一些Linux面试题的笔记,从负载均衡、nginx、MySQL、redis、kafka、zabbix、k8s等方面拆解Linux知识点。用来对个人技术点进行查漏补缺。
3、大型公司,基础架构研发实力较强,用RocketMQ是很好的选择。如果是大数据领域的实时计算、日志采集等场景,用Kafka是业内标准的,绝对没问题,社区活跃度很高,绝对不会黄,何况几乎是全世界这个领域的事实性规范。
4、比如你写了擅长MySQL,Jquery,bootstrap,那么我们就会提问这些内容,当然都不会特别困难,只需要证明你确实知道,不是在吹嘘就行。
5、其包括远程服务框架中间件,例如阿里(Apache)的RPC框架Dubbo等;消息队列中间件,例如:阿里巴巴开源分布式中间件RocketMQ、高吞吐量消息发布和流处理服务Kafka等。
6、人人皆知kafka性能好,但真正了解原因的人就少了很多。说起来也是悲伤的故事,我的某次面试就凉在此题。那么从设计的角度看,kafka是如何实现高性能的呢?Kafka会把消息写入到硬盘,绝对不会丢失数据。
2021面试网络工程师的题目
面试 的目的是确定面试者如何处理他们所选择的研究领域的问题,以及他们如何批判性地思考问题。下面我给大家带来2021面试网络工程师的题目参考,希望能帮助到大家!
Java多线程 面试题 目
1、什么是线程?
线程是 操作系统 能够进行运算调度的最小单位,它被包含在进程之中,是进程中的实际运作单位。程序员可以通过它进行多处理器编程,你可以使用多线程对运算密集型任务提速。比如,如果一个线程完成一个任务要100毫秒,那么用十个线程完成改任务只需10毫秒。
2、线程和进程有什么区别?
线程是进程的子集,一个进程可以有很多线程,每条线程并行执行不同的任务。不同的进程使用不同的内存空间,而所有的线程共享一片相同的内存空间。每个线程都拥有单独的栈内存用来存储本地数据。
3、如何在Java中实现线程?
两种方式:java.lang.Thread 类的实例就是一个线程但是它需要调用java.lang.Runnable接口来执行,由于线程类本身就是调用的Runnable接口所以你可以继承java.lang.Thread 类或者直接调用Runnable接口来重写run() 方法 实现线程。
4、Java 关键字volatile 与 synchronized 作用与区别?
Volatile:
它所修饰的变量不保留拷贝,直接访问主内存中的。
在Java内存模型中,有main memory,每个线程也有自己的memory (例如寄存器)。为了性能,一个线程会在自己的memory中保持要访问的变量的副本。这样就会出现同一个变量在某个瞬间,在一个线程的memory中的值可能与另外一个线程memory中的值,或者main memory中的值不一致的情况。 一个变量声明为volatile,就意味着这个变量是随时会被其他线程修改的,因此不能将它cache在线程memory中。
synchronized:
当它用来修饰一个方法或者一个代码块的时候,能够保证在同一时刻最多只有一个线程执行该段代码。
一、当两个并发线程访问同一个对象object中的这个synchronized(this)同步代码块时,一个时间内只能有一个线程得到执行。另一个线程必须等待当前线程执行完这个代码块以后才能执行该代码块。
二、然而,当一个线程访问object的一个synchronized(this)同步代码块时,另一个线程仍然可以访问该object中的非synchronized(this)同步代码块。
三、尤其关键的是,当一个线程访问object的一个synchronized(this)同步代码块时,其他线程对object中所有 其它 synchronized(this)同步代码块的访问将被阻塞。
四、当一个线程访问object的一个synchronized(this)同步代码块时,它就获得了这个object的对象锁。结果,其它线程对该object对象所有同步代码部分的访问都被暂时阻塞。
五、以上规则对其它对象锁同样适用。
5、有哪些不同的线程生命周期?
当我们在Java程序中新建一个线程时,它的状态是New。当我们调用线程的start()方法时,状态被改变为Runnable。线程调度器会为Runnable线程池中的线程分配CPU时间并且讲它们的状态改变为Running。其他的线程状态还有Waiting,Blocked 和Dead。
6、你对线程优先级的理解是什么?
每一个线程都是有优先级的,一般来说,高优先级的线程在运行时会具有优先权,但这依赖于线程调度的实现,这个实现是和操作系统相关的(OS dependent)。
我们可以定义线程的优先级,但是这并不能保证高优先级的线程会在低优先级的线程前执行。线程优先级是一个int变量(从1-10),1代表最低优先级,10代表最高优先级。
7、什么是死锁(Deadlock)?如何分析和避免死锁?
死锁是指两个以上的线程永远阻塞的情况,这种情况产生至少需要两个以上的线程和两个以上的资源。
分析死锁,我们需要查看Java应用程序的线程转储。我们需要找出那些状态为BLOCKED的线程和他们等待的资源。每个资源都有一个唯一的id,用这个id我们可以找出哪些线程已经拥有了它的对象锁。
避免嵌套锁,只在需要的地方使用锁和避免无限期等待是避免死锁的通常办法。
8、什么是线程安全?Vector是一个线程安全类吗?
如果你的代码所在的进程中有多个线程在同时运行,而这些线程可能会同时运行这段代码。如果每次运行结果和单线程运行的结果是一样的,而且其他的变量的值也和预期的是一样的,就是线程安全的。
一个线程安全的计数器类的同一个实例对象在被多个线程使用的情况下也不会出现计算失误。很显然你可以将集合类分成两组,线程安全和非线程安全的。Vector 是用同步方法来实现线程安全的, 而和它相似的ArrayList不是线程安全的。
9、Java中如何停止一个线程?
Java提供了很丰富的API但没有为停止线程提供API。JDK 1.0本来有一些像stop(), suspend()和resume()的控制方法但是由于潜在的死锁威胁因此在后续的JDK版本中他们被弃用了,之后Java API的设计者就没有提供一个兼容且线程安全的方法来停止一个线程。
当run()或者 call()方法执行完的时候线程会自动结束,如果要手动结束一个线程,你可以用volatile 布尔变量来退出run()方法的循环或者是取消任务来中断线程。
10、什么是ThreadLocal?
ThreadLocal用于创建线程的本地变量,我们知道一个对象的所有线程会共享它的全局变量,所以这些变量不是线程安全的,我们可以使用同步技术。但是当我们不想使用同步的时候,我们可以选择ThreadLocal变量。
每个线程都会拥有他们自己的Thread变量,它们可以使用get()set()方法去获取他们的默认值或者在线程内部改变他们的值。ThreadLocal实例通常是希望它们同线程状态关联起来是private static属性。
Kubernetes面试题汇总
1、什么是Kubernetes?
Kubernetes是一个开源容器管理工具,负责容器部署,容器扩缩容以及负载平衡。作为Google的创意之作,它提供了出色的社区,并与所有云提供商合作。因此,我们可以说Kubernetes不是一个容器化平台,而是一个多容器管理解决方案。
2、Kubernetes与Docker有什么关系?
众所周知,Docker提供容器的生命周期管理,Docker镜像构建运行时容器。但是,由于这些单独的容器必须通信,因此使用Kubernetes。因此,我们说Docker构建容器,这些容器通过Kubernetes相互通信。因此,可以使用Kubernetes手动关联和编排在多个主机上运行的容器。
3、什么是Container Orchestration?
考虑一个应用程序有5-6个微服务的场景。现在,这些微服务被放在单独的容器中,但如果没有容器编排就无法进行通信。因此,由于编排意味着所有乐器在音乐中和谐共处,所以类似的容器编排意味着各个容器中的所有服务协同工作以满足单个服务器的需求。
4、Kubernetes如何简化容器化部署?
由于典型应用程序将具有跨多个主机运行的容器集群,因此所有这些容器都需要相互通信。因此,要做到这一点,你需要一些能够负载平衡,扩展和监控容器的东西。由于Kubernetes与云无关并且可以在任何公共/私有提供商上运行,因此必须是您简化容器化部署的选择。
5、您对Kubernetes的集群了解多少?
Kubernetes背后的基础是我们可以实施所需的状态管理,我的意思是我们可以提供特定配置的集群服务,并且集群服务将在基础架构中运行并运行该配置。
因此,正如您所看到的,部署文件将具有提供给集群服务所需的所有配置。现在,部署文件将被提供给API,然后由集群服务决定如何在环境中安排这些pod,并确保正确运行的pod数量。
因此,位于服务前面的API,工作节点和节点运行的Kubelet进程,共同构成了Kubernetes集群。
6、Kubernetes Architecture的不同组件有哪些?
Kubernetes Architecture主要有两个组件 - 主节点和工作节点。如下图所示,master和worker节点中包含许多内置组件。主节点具有kube-controller-manager,kube-apiserver,kube-scheduler等。而工作节点具有在每个节点上运行的kubelet和kube-proxy。
7、您能否介绍一下Kubernetes中主节点的工作情况?
Kubernetes master控制容器存在的节点和节点内部。现在,这些单独的容器包含在容器内部和每个容器内部,您可以根据配置和要求拥有不同数量的容器。
因此,如果必须部署pod,则可以使用用户界面或命令行界面部署它们。然后,在节点上调度这些pod,并根据资源需求,将pod分配给这些节点。kube-apiserver确保在Kubernetes节点和主组件之间建立通信。
8、kube-apiserver和kube-scheduler的作用是什么?
kube -apiserver遵循横向扩展架构,是主节点控制面板的前端。这将公开Kubernetes主节点组件的所有API,并负责在Kubernetes节点和Kubernetes主组件之间建立通信。
kube-scheduler负责工作节点上工作负载的分配和管理。因此,它根据资源需求选择最合适的节点来运行未调度的pod,并跟踪资源利用率。它确保不在已满的节点上调度工作负载。
9、你对Kubernetes的负载均衡器有什么了解?
负载均衡器是暴露服务的最常见和标准方式之一。根据工作环境使用两种类型的负载均衡器,即内部负载均衡器或外部负载均衡器。内部负载均衡器自动平衡负载并使用所需配置分配容器,而外部负载均衡器将流量从外部负载引导至后端容器。
10、Replica Set 和 Replication Controller之间有什么区别?
Replica Set 和 Replication Controller几乎完全相同。它们都确保在任何给定时间运行指定数量的pod副本。不同之处在于复制pod使用的选择器。Replica Set使用基于集合的选择器,而Replication Controller使用基于权限的选择器。
Equity-Based选择器:这种类型的选择器允许按标签键和值进行过滤。因此,在外行术语中,基于Equity的选择器将仅查找与标签具有完全相同 短语 的pod。
示例:假设您的标签键表示app = nginx,那么,使用此选择器,您只能查找标签应用程序等于nginx的那些pod。
Selector-Based选择器:此类型的选择器允许根据一组值过滤键。因此,换句话说,基于Selector的选择器将查找已在集合中提及其标签的pod。
示例:假设您的标签键在(nginx,NPS,Apache)中显示应用程序。然后,使用此选择器,如果您的应用程序等于任何nginx,NPS或Apache,则选择器将其视为真实结果。
渗透攻击的测试步骤
1.如果原始值为2,我们使用(1+1)或(3-1),程序作出相同回应,表明易受攻击
2.如果单引号被过滤掉,我们可以用ASCII命令,使它返回字符的数字化代码,如51-ASCII(1)
3.在URL编码中,&和=用于链接名称/值对,建立查询字符串应当分别使用%26和%3d进行编码
4.如查询字符串不允许使用空格,使用+或%20编码
5.分号被用于分割cookie自读,使用%3d编码
2021面试网络工程师的题目相关 文章 :
关于网络工程师的面试题有哪些
网络管理员面试题及答案大全
最新的运维工程师面试题目整理
网络测试工程师面试题及答案
计算机网络面试题及参考答案
网络工程师面试自我介绍范文五篇
面试网络技术工程师的有哪些提问
最新的it运维工程师面试题整理
接口异常是什么意思?
>>号外:关注“Java精选”公众号,回复“2021面试题”,领取免费资料!“Java精选面试题”小程序,3000+ 道面试题在线刷,最新、最全 Java 面试题!
博主之前做过恒丰银行代收付系统(相当于支付接口),包括现在的oltpapi交易接口和虚拟业务的对外提供数据接口。总之,当你做了很多项目写了很多代码的时候,就需要回过头来,多总结总结,这样你会看到更多之前写代码的时候看不到的东西,也能更明白为什么要这样做。
做接口需要考虑的问题
什么是接口
接口无非就是客户端请求你的接口地址,并传入一堆该接口定义好的参数,通过接口自身的逻辑处理,返回接口约定好的数据以及相应的数据格式。
接口怎么开发
接口由于本身的性质,由于和合作方对接数据,所以有以下几点需要在开发的时候注意:
1、定义接口入参:写好接口文档
2、定义接口返回数据类型:一般都需要封装成一定格式,确定返回json还是xml报文等
见如下返回数据定义格式:
package com.caiex.vb.model;
import java.io.Serializable;
import javax.xml.bind.annotation.XmlAccessType;
import javax.xml.bind.annotation.XmlAccessorType;
import javax.xml.bind.annotation.XmlType;
@XmlAccessorType(XmlAccessType.FIELD)
@XmlType(name = "Result", propOrder = { "resultCode", "resultMsg" })
public class Result implements Serializable {
private static final long serialVersionUID = 10L;
protected int resultCode;
protected String resultMsg;
public int getResultCode() {
return this.resultCode;
}
public void setResultCode(int value) {
this.resultCode = value;
}
public String getResultMsg() {
return this.resultMsg;
}
public void setResultMsg(String value) {
this.resultMsg = value;
}
}package com.caiex.vb.model;
import java.io.Serializable;
public class Response implements Serializable {
private static final long serialVersionUID = 2360867989280235575L;
private Result result;
private Object data;
public Result getResult() {
if (this.result == null) {
this.result = new Result();
}
return result;
}
public void setResult(Result result) {
this.result = result;
}
public Object getData() {
return data;
}
public void setData(Object data) {
this.data = data;
}
}
3、确定访问接口的方式,get or post等等,可以根据restful接口定义规则RESTful API。
4、定义一套全局统一并通用的返回码,以帮助排查问题;
public static int NO_AGENT_RATE = 1119; //未找到兑换率
public static int SCHEME_COMMIT_FAIL = 4000; //方案提交失败
public static int SCHEME_CONFIRMATION = 4001; //方案确认中
public static int SCHEME_NOT_EXIST = 4002; //方案不存在
public static int SCHEME_CANCEL= 4005; //方案不存在
//。。。。
5、统一的异常处理:应该每个系统都需要一套统一的异常处理
package com.caiex.vb.interceptor;
import javax.servlet.http.HttpServletRequest;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
import org.springframework.web.bind.annotation.ControllerAdvice;
import org.springframework.web.bind.annotation.ExceptionHandler;
import org.springframework.web.bind.annotation.ResponseBody;
import com.caiex.vb.model.Response;
@ControllerAdvice
@ResponseBody
public class GlobalExceptionHandler {
private Logger logger = LoggerFactory.getLogger(this.getClass());
/**
* 所有异常报错
* @param request
* @param exception
* @return
* @throws Exception
*/
@ExceptionHandler(value=Exception.class)
public Response allExceptionHandler(HttpServletRequest request,
Exception exception) throws Exception
{
logger.error("拦截到异常:", exception);
Response response = new Response();
response.setData(null);
response.getResult().setResultCode(9999);
response.getResult().setResultMsg("系统繁忙");
return response;
}
}
6、拦截器链设置
合作方访问接口的时候,会根据你接口定义好的传参访问你的接口服务器,但是会存在接口参数类型错误或者格式不对,必传参数没传的问题,甚至一些恶意请求,都可以通过拦截器链进行前期拦截,避免造成接口服务的压力。还有很重要的一点,加签验签也可以在拦截器设置。继承WebMvcConfigurerAdapter实现springboot的拦截器链。实现HandlerInterceptor方法编写业务拦截器。
package com.caiex.vb.interceptor;
import javax.annotation.Resource;
import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpServletResponse;
import org.apache.commons.lang3.StringUtils;
import org.apache.logging.log4j.LogManager;
import org.apache.logging.log4j.Logger;
import org.springframework.stereotype.Component;
import org.springframework.web.servlet.HandlerInterceptor;
import org.springframework.web.servlet.ModelAndView;
import com.alibaba.fastjson.JSON;
import com.caiex.redis.service.api.RedisApi;
import com.caiex.vb.model.Response;
import com.caiex.vb.utils.CaiexCheckUtils;
@Component
public class SignInterceptor extends BaseValidator implements HandlerInterceptor{
private Logger logger = LogManager.getLogger(this.getClass());
@Resource
private RedisApi redisApi;
public void afterCompletion(HttpServletRequest arg0,
HttpServletResponse arg1, Object arg2, Exception arg3)
throws Exception {
// TODO Auto-generated method stub
public void postHandle(HttpServletRequest arg0, HttpServletResponse arg1,
Object arg2, ModelAndView arg3) throws Exception {
// TODO Auto-generated method stub
public boolean preHandle(HttpServletRequest arg0, HttpServletResponse arg1,
Object arg2) throws Exception {
if(isTestIpAddr(arg0)){
return true;
}
String securityKey = redisApi.hGet("securityKey", arg0.getParameter("agentid"));
if(StringUtils.isEmpty(securityKey)){
Response response = new Response();
response.setData(null);
response.getResult().setResultCode(8001);
response.getResult().setResultMsg("缺少私钥, 渠道号:" + arg0.getParameter("agentid"));
logger.error("缺少私钥, 渠道号:" + arg0.getParameter("agentid"));
InterceptorResp.printJson(arg1, response);
return false;
}
if(StringUtils.isEmpty(arg0.getParameter("sign")) || !arg0.getParameter("sign").equals(CaiexCheckUtils.getSign(arg0.getParameterMap(), securityKey))){
Response response = new Response();
response.setData(null);
response.getResult().setResultCode(3203);
response.getResult().setResultMsg("参数签名认证失败");
logger.error("参数签名认证失败:" + JSON.toJSONString(arg0.getParameterMap()) + " securityKey = " + securityKey);
InterceptorResp.printJson(arg1, response);
return false;
}else{
return true;
}
}package com.caiex.oltp.config;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.ComponentScan;
import org.springframework.context.annotation.Configuration;
import org.springframework.web.servlet.config.annotation.EnableWebMvc;
import org.springframework.web.servlet.config.annotation.InterceptorRegistry;
import org.springframework.web.servlet.config.annotation.WebMvcConfigurerAdapter;
import com.caiex.oltp.interceptor.APILimitRateValidator;
import com.caiex.oltp.interceptor.CommonValidator;
import com.caiex.oltp.interceptor.DDSAuthValidator;
import com.caiex.oltp.interceptor.QueryPriceParamsValidator;
import com.caiex.oltp.interceptor.TradeParamsValidator;
@EnableWebMvc
@Configuration
@ComponentScan
public class WebAppConfigurer extends WebMvcConfigurerAdapter {
@Bean
CommonValidator commonInterceptor() {
return new CommonValidator();
}
@Bean
DDSAuthValidator ddsAuthInterceptor() {
return new DDSAuthValidator();
}
@Bean
QueryPriceParamsValidator queryPriceParamsInterceptor() {
return new QueryPriceParamsValidator();
}
@Bean
TradeParamsValidator tradeParamsInterceptor() {
return new TradeParamsValidator();
}
@Bean
APILimitRateValidator aPILimitRateInterceptor() {
return new APILimitRateValidator();
}
@Override
public void addInterceptors(InterceptorRegistry registry) {
//访问速率限制
registry.addInterceptor(aPILimitRateInterceptor())
.addPathPatterns("/*/*");
//.addPathPatterns("/price/getPriceParam");
//参数签名认证
registry.addInterceptor(ddsAuthInterceptor())
.addPathPatterns("/tradeState/*")
.addPathPatterns("/recycle/*")
.addPathPatterns("/matchInfo/*")
.addPathPatterns("/price/tradeTicketParam");
//公共参数检查
registry.addInterceptor(commonInterceptor())
.addPathPatterns("/price/tradeTicketParam")
.addPathPatterns("/tradeState/*")
.addPathPatterns("/recycle/*");
//询价参数校验
registry.addInterceptor(queryPriceParamsInterceptor())
.addPathPatterns("/price/getPriceParam");
//交易参数检查
registry.addInterceptor(tradeParamsInterceptor())
.addPathPatterns("/price/tradeTicketParam");
super.addInterceptors(registry);
}
}
7、token令牌和sign数字签名实现数据保密性。
创建令牌(Token)
为保证请求的合法性,我们提供第三方创建令牌接口,某些接口需要通过token验证消息的合法性,以免遭受非法攻击。
token过期时间目前暂时定为1天,由于考虑到合作方往往是分布式环境,多台机器都有可能申请token,为了降低合作方保证token一致性的难度,调用接口创建token成功以后一分钟以内,再次请求token返回的数据是一样的。
获取私钥
获取用于数字签名的私钥,第三方获取的私钥需妥善保存,并定期更新,私钥只参与数字签名,不作为参数传输。
数字签名方式:
参数签名;签名方式:所有值不为null的参数(不包括本参数)均参与数字签名,按照“参数名+参数值+私钥”的格式得到一个字符串,再将这个字符串MD5一次就是这个参数的值。(示例:h15adc39y9ba59abbe56e057e60f883g),所以需要先获取私钥。
验签方式:
将用户的所有非null参数放入定义好排序规则的TreeSet中进行排序,再用StringBuilder按照按照“参数名+参数值+私钥”的格式得到一个字符串(私钥从redis拿),再将这个字符串MD5一次就是这个参数的值。将这个值与用户传来的sign签名对比,相同则通过,否则不通过。
private String createToken(){
String utk = "Msk!D*"+System.currentTimeMillis()+"UBR&FLP";
logger.info("create token --- "+Md5Util.md5(utk));
return Md5Util.md5(utk);
8、接口限流
有时候服务器压力真的太大,以防交易接口被挤死,就可以对一些其他不影响主要业务功能并且计算量大的接口做限流处理。RateLimit--使用guava来做接口限流,当接口超过指定的流量时,就不处理该接口的请求。详细可看RateLimit。也可参考其他限流框架。
9、协议加密,http升级成https;
为什么要升级呢,为了保证数据的安全性。当使用https访问时,数据从客户端到服务断,服务端到客户端都加密,即使黑客抓包也看不到传输内容。当然还有其他好处,这里不多讲。但这也是开发接口项目需要注意的一个问题。
如何提高接口的高并发和高可用
接口开发好了,接下来就讨论接口的可用性问题。首先我们要将高并发和高可用区分一下,毕竟高可用是在可用的情况,只是很慢或者效率不高。其实也可以归为一类问题,但是不重要啦,重要的是怎么提高你写的接口的访问速度和性能。
1、接口的高并发解决方案(其实没有唯一答案,业界针对不同业务也有很多不同的方法)
当访问一个接口获取数据时,发现返回很慢,或者总是超时,如果排除网络的原因,那就是接口服务器压力太大,处理不过来了。在世界杯期间,我们查看后台日志总是connection by reset和borker pipe和一些超时问题。这时候,你可能遇到了高并发和高可用问题。但是,不管遇到什么问题,都不能臆断和乱改,你得需要找到慢的原因,才能对症下药,乱改可能会导致其他问题的出现。首先,解决高并发问题的三个方向是负载均衡,缓存和集群。
1)负载均衡
我们使用的是阿里云服务器的负载均衡,后台分布式服务管理,我们运维小哥哥搭建了一套k8s,可以自由在k8s上扩展服务节点,各个服务结点也能随内存的使用自动漂移,不用多说,k8s真的很厉害,感兴趣的同学可以详细去学。那么问题来了,阿里云的负载均衡怎么对应到k8s的负载均衡呢?这个涉及到了k8s的service暴露的一些特点,简单说就是k8s把所有集群的服务都通过指定的内部负载均衡,在指定的服务器上暴露,然后我们又把这几个服务器接在阿里云负载均衡下,这个涉及的细节和配置很多。当然,除nginx外,还有其他负载均衡解决方案,软件硬件都有,硬件如f5等。
阿里云的nginx负载均衡,我们使用的是加权轮询策略,其实轮询是最低效的方式;
这就是最基本的负载均衡实例,但这不足以满足实际需求;目前Nginx服务器的upstream模块支持6种方式的分配:
负载均衡策略
轮询 默认方式 weight 权重方式 ip_hash 依据ip分配方式 least_conn 最少连接方式 fair(第三方) 响应时间方式 url_hash(第三方) 依据URL分配方式
2)集群
首先,通过排查问题,发现是oltpapi接口服务处理请求很慢,大量请求过来,总是超时和中断连接,这时候,我们想着最简单的方法就是加机器,给oltp接口服务多加几台机器。嗯,一切都很完美,如预期进行,但是加到一定数量,你发现,怎么不起效果,异步响应还是很慢,或者更直观的说,消息队列出现了严重的消息堆积。这时候,你发现出现了新的问题或者瓶颈,这个问题已经不是说加oltp服务器能解决了,那么,就需要去重新定位问题。发现是消息堆积,消息堆积就是生产者过快,导致消费者消费不过来,这时候,你就需要增加消费者的消费数量。给风控系统多加几台机器,让消费者和生产者达到一定平衡。这里有个误区,你可能以为是rocketmq的broker数量过少,增加broker数量,其实当消费者和生产者保持一样的速度时,消息肯定不对堆积,按照原始的broker数量就足够。但是增加broker也会使得消息得到尽快的处理,提升一定效率。
3)缓存
当加机器不能解决问题时,或者说没那么多服务器可使用时,那么就要重代码层面解决高并发问题。Redis 是一个高性能的key-value数据库,当获取数据从数据库拿很慢时,就可以存储到redis,从redis取值。
1、用ConcurrentHashMap缓存对象,并设置过期时间 2、redis缓存数据,结合spring定时任务定时获取不会经常改动的key 3、提高使用redis的效率:比如使用mGet一次获取多个key 4、…等
2、接口高可用问题
高可用问题应该上升到整个服务的架构问题上,就是说在搭建整体系统是就应该考虑到。高可用问题是以单点故障,访问速度慢的问题为主导。见 服务高可用
1、redis主从分布式(redis的单点故障和访问速度的提高和主从备份) 2、分布式dubbo服务的zookeeper主从集群 3、strom的主从集群 4、…等
总结
下面对接口开发服务做一些总结:
1、是拉还是推:
当接口作为数据源时,还要考虑数据是让合作方主动过来拉还是数据有变化就推送呢,当然是推的效果更好,但是如何有效的推数据,不推重复数据等都是需要根据实际业务考虑的问题。
2、多台分布式服务器上,怎么保证交易的幂等和订单的唯一性
当接口服务和合作方都处于分布式情况下,就很容易出现一个订单号申请多次交易请求,但是根据幂等性,一张彩票只能交易一次,并且每次不管何时请求,结果都应该一样不会改变。这种情况下,我们怎么保证唯一性呢,我们需要把该订单和订单状态存redis,每次请求时去看是否订单已存在。但可能这次交易不成功,下次这张票还可以继续交易,可以生成新的订单号啊。redis的setNX是一个很好的解决方案,意思是当存在该key时,返回false,当没有时,该key和value插入成功。用作检查订单是否正在提交,如果是,则阻塞本次请求,避免重复提交 ,可以设置过期时间3s。提交之前锁定订单,防止重复提交。
3、处理时间超过10s,自动返回该订单交易失败
总之,博主发现,在高并发场景下,导致服务崩溃的原因还是redis和数据库,可能是redis读写太慢,或者数据库的一些sql使用不当,或者没建索引导致读写很慢。总之,这是一条很漫长的路,我们都需要慢慢积累经验和学习前人更优秀的解决办法。
作者:xiaolizh blog.csdn.net/xiaolizh/article/details/83011031
往期精选 点击标题可跳转
点个赞,就知道你“在看”!
接口异常是指接触的位置出现了异常,比如说插口撒松动啊,或者线路未连接上去 。
要看出现的是哪种异常了。如果是使用某些定义好的函数,并且函数本身会产生异常处理方法一般两种:1.自己用try{}catch(){}语句捕获异常并处理。2.在定义接口的后面写上throw Exception。把异常抛出让使用接口的人处理异常。两种方法都可以。。但如果是RuntimeException异常,那就是自己程序某些地方写错了,那你就必须找到并修改程序。
就是插入设备的那个孔坏了或者没插好 或者里面有异物 服务器问题
接口异常的意思就是服务器崩了,网络导致视频播放失败,接口出现了异常。
检查自己的网路是不是已经连接成功了,网速限速没,连接成功后再次登录,就可以看自己想要看的视频了。
联想ideapad300-15isk加内存条
换内存条很简单,只需要把下图红圈圈的两个螺丝卸下,然后往下推(不要掰),就可以取下后盖 步骤阅读 2 按下图箭头指示,取下原内存条,新内存条斜插,然后按下,完成,只换内存到这里就结束了,剩下的就是把盖子装回去 步骤阅读 END 1 把下图红圈圈的两个螺丝卸下,然后往下推(不要掰),就可以取下后盖 步骤阅读 2 把原装机械硬盘拆下来,少拍一张照片,但是位置是对的 步骤阅读 3 卸下硬盘托架四周的小螺丝,取下机械硬盘,装上固态硬盘,如果不加光驱的话到这里就可以把固态硬盘装上结束了,加光驱的话不要着急装固态硬盘,继续拆机
查看更多
换内存条很简单,只需要把红圈圈的两个螺丝卸下,然后往下推(不要掰),就可以取下后盖,取下原内存条,新内存条斜插,然后按下,完成,只换内存到这里就结束了,剩下的就是把盖子装回去
查看接口型号等参数
打开cmd窗口执行wmic memphysical get maxcapacity,查询结果/1024/1024就是最大支持多少G内存,比如结果为16777216,那么电脑最大支持的内存就是16777216/1024/1024=16
查询接口参数,最简单的就是直接去官网查询,或者可以用鲁大师查看cpu型号,然后百度搜索这个型号,看支持的内存接口和硬盘接口
当前电脑的参数
内存,接口类型:DDR3L(DDR3的低电压版,1.35V),两个插槽,最大内存:16G
硬盘,SATA3,没有光驱,但是有光驱位
工具和材料
材料 规格 数量 备注
这篇博客 - 1篇 ***收藏到手机或者另一台电脑,不然拆了电脑,还得重新找教程~~
拆机螺丝刀 0#或者1#,没注意 1个 买内存条或者硬盘都有赠送,质量不好说,想提前拆机也可以自己买一套,各种规格都有
塑料或金属卡片 薄且硬 1个 博主用的一字螺丝刀,主要用来撬键盘和C面
装机U盘 - 1个 博主用的老毛桃,其他也可以,制作好之后先测试一下能不能正常进入winpe系统,把系统镜像拷到U盘
内存条 DDR3L,8G 2个 感觉双通道应该比较快
固态硬盘 SATA3,250G 1个 如果想直接替换主硬盘,可以买个大的,安装也简单,博主是用固态替换,原机械硬盘移到光驱位,所以250G够用了
光驱小板 ideapad300-15isk 1个 某宝搜索笔记本的型号就可以找到,如果只用固态替换主硬盘就不需要这个了,买个移动硬盘盒吧
光驱托架 ideapad300-15isk 1个 某宝搜索笔记本的型号就可以找到,如果只用固态替换主硬盘就不需要这个了,买个移动硬盘盒吧
操作步骤
首先说一下螺丝,总共有4种,下图红圈标记的四个较粗,其他位置的螺丝较细且多,主要区别这两种,硬盘托架和硬盘连接的四个螺丝特征很明显,就不说了
?
换内存
换内存条很简单,只需要把下图红圈圈的两个螺丝卸下,然后往下推(不要掰),就可以取下后盖?
按下图箭头指示,取下原内存条,新内存条斜插,然后按下,完成,只换内存到这里就结束了,剩下的就是把盖子装回去
?
加固态
把下图红圈圈的两个螺丝卸下,然后往下推(不要掰),就可以取下后盖
?
把原装机械硬盘拆下来,少拍一张照片,但是位置是对的
?
卸下硬盘托架四周的小螺丝,取下机械硬盘,装上固态硬盘,如果不加光驱的话到这里就可以把固态硬盘装上结束了,加光驱的话不要着急装固态硬盘,继续拆机
?
与外壳连接的螺丝卸下
拆键盘,将笔记本翻转到正面,按下图标记顺序撬开键盘,由于下部卡扣较长,所以先撬上部,然后左右,撬开之后不要直接拿下,里面有排线
?
打开排线
?
卸下螺丝
?
撬开C面,和撬键盘差不多,从顺手的位置开始一个一个撬卡扣就行,如果有撬不开的,看看背面是不是有没有卸下的螺丝,C面打开之后如下图,假光驱一目了然,等下就是要改造这个区域
?
把假光驱抽出来,光驱小板装上,注意小板上配了螺丝,在小板的配件里可以找到,固定好螺丝,压上排线
?
把原机械硬盘装到光驱托架上,插好接口
?
反面四个螺丝固定好
?
光驱托架插到假光驱的位置,接口和光驱小板的接口插上,光驱托架里面貌似有螺丝可以固定,但是应该是不配套的原因,所以里面固定不了,以后再想办法固定一下,到这里安装就结束了,装电脑的时候一定要仔细,装完多了几个螺丝再返工怪麻烦的
?
插上装机U盘,用细针捅一下电源口旁边的针孔,进入bios,选择boot menu,进入U盘winpe系统
打开分区工具,如下图所示,显示两个磁盘,说明安装成功了
?
前面都没有问题的话,剩下的就是磁盘分区,安装系统,这里强调一下,系统和软件安装在固态硬盘才能提速
总结
这次改造的效果还是不错的,以前开机一分钟多,现在只需要9秒,最重要的是软件运行速度快了很多,以后可以安心撸代码了。
不足的就是风扇没有清理,因为需要拆主板,博主只是个外行,看到那一堆细线就不敢弄了,将就着用注射器给风扇上了上润滑油,算是个心理安慰吧,等以后电脑要报废了,再拆开风扇研究一下,或者有哪位大神愿意指教一下就更好了。
感谢王泽朋大神一直以来的技术支持。
参考链接
https://zhuanlan.zhihu.com/p/83931625
来源网络,如有侵犯到您的权益请联系zengyin969@gmail.com进行下架处理
分类:
技术点:
相关文章:
v3 572g 51mr 拆机加SSD和内存2021-04-19
联想lxh-ekb-10ya键盘拆机2021-10-19
华为matebook x pro蓝屏和拆机更换固态硬盘2021-12-15
【加装固态硬盘】联想小新Air15-IKBR 2018款加装固态硬盘教程2021-07-07
ThinkPad T470P拆机加固态硬盘 建兴 T11 plus2021-07-09
联想z510笔记本拆机2021-12-15
Dell笔记本拆机加内存条2021-06-18
华硕VM510L拆机换固态硬盘2021-11-17
联想Z485拆机完全图解2021-11-08
Thinkpad T14 锐龙版加固态硬盘和内存2021-12-29
猜你喜欢
菜鸟笔记本拆机—(包含加内存换固态硬盘)2021-06-04
联想Y7000P添加内存条以及固态硬盘2021-08-11
笔记本联想(LenovoG40-70M加装内存和SSD固态硬盘2021-11-08
联想电脑ideapad700-15ISK拆机清灰加装内存条2021-08-06
联想Y40加装固态硬盘2021-07-12
笔记本联想(Lenovo)G40-70M加装内存和SSD固态硬盘2021-10-18
拆机联想ideapad s5002022-01-02
联想拯救者y520拆机装内存条2021-05-17
相似解决方案
Openstack 安装的详细步骤2015-12-11
HBase表中批量加载的详细步骤2016-07-08
从Android到硬件层的write()步骤详解2013-08-15
从 AWS Step Functions 控制台隐藏执行详细信息和步骤详细信息2017-08-07
获取 XAML 生成定义中的详细步骤2020-11-23
如何生成 TFS 2010 详细构建步骤报告2012-04-01
Curl 安装过程中出错 - 详细步骤如下2016-07-18
硬盘驱动器和 RAM 内存 - 动态电源管理2010-12-18
如何在 Windows 上获取有关硬盘的详细信息2019-09-13
详细 p4 同步2011-03-15
热门标签
Java Python linux javascript Mysql C# Docker 算法 前端 SpringBoot Redis Vue spring .net core 设计模式 .net 数据库 c++ kubernetes js 数据结构 微服务 大数据 机器学习 Android 程序员 Go 面试 JVM PHP ASP.net core git CSS 后端 k8s mybatis 多线程 Nginx 爬虫 golang React Django devops Spring Boot 云计算 深度学习 容器 架构 分布式 云原生
常用小工具更多
JSON格式美化工具
在线XML转JSON/JSON转XML工具
JSON格式化编辑和美化工具
密码安全性在线检测
在线计算器
在线高级科学计算器
贷款计算器/房贷计算器
在线RGB、HEX颜色代码生成器
在线WEB安全色查询工具
网页颜色搭配表及颜色搭配技巧
By ? 2022 likecs 版权所有,
本站所有数据收集于网络如有侵犯到您的权益请联系zengyin969@gmail.com进行下架处理。粤
联想ideapad300-15isk加内存
联想ideapad300-15isk这款笔记本的配置已经无法满足现在的使用需求了,通过官网查询参数:内存,接口类型:DDR3L(DDR3的低电压版,1.35V),两个插槽,最大内存:16G;硬盘,SATA3,没有光驱,但是有光驱位,所以还有扩展空间,目前来说,扩展之后再用两年应该是没问题的。
...展开
工具原料拆机螺丝刀塑料或金属卡片或一字螺丝刀装机U盘内存条固态硬盘光驱小板光驱托架联想ideapad300-15isk笔记本
/1
首先说一下螺丝,总共有4种,下图红圈标记的四个较粗,其他位置的螺丝较细且多,主要区别这两种,硬盘托架和硬盘连接的四个螺丝特征很明显,就不说了
加内存
1
/2
换内存条很简单,只需要把下图红圈圈的两个螺丝卸下,然后往下推(不要掰),就可以取下后盖
2
/2
按下图箭头指示,取下原内存条,新内存条斜插,然后按下,完成,只换内存到这里就结束了,剩下的就是把盖子装回去
如何在 Kubernetes 集群中部署ceph-csi
写在前面:2020年面试必备的Java后端进阶面试题总结了一份复习指南在Github上,内容详细,图文并茂,有需要学习的朋友可以Star一下!
GitHub地址: https://github.com/abel-max/Java-Study-Note/tree/master
本文详细介绍了如何在 Kubernetes 集群中部署 ceph-csi (v3.1.0),并使用 RBD 作为持久化存储。
需要的环境参考下图:
Kubernetes 版本:
Ceph 版本:
以下是详细部署过程:
创建一个新的 ceph 存储池(pool) 给 Kubernetes 使用:
查看所有的 pool :
为 Kubernetes 和 ceph-csi 单独创建一个新用户:
后面的配置需要用到这里的 key,如果忘了可以通过以下命令来获取:
拉取 ceph-csi 的 最新 release 分支(v3.1.0) [1] :
获取 Ceph 集群的信息:
这里需要用到两个信息:
进入 ceph-csi 的 deploy/rbd/kubernetes 目录:
将以上获取的信息写入 csi-config-map.yaml :
创建一个新的 namespace 专门用来部署 ceph-csi:
将此 Configmap 存储到 Kubernetes 集群中:
使用创建的 kubernetes 用户 ID 和 cephx 密钥生成 Secret :
部署 Secret:
将所有配置清单中的 namespace 改成 ceph-csi :
创建必须的 ServiceAccount 和 RBAC ClusterRole/ClusterRoleBinding 资源对象:
创建 PodSecurityPolicy:
将 csi-rbdplugin-provisioner.yaml 和 csi-rbdplugin.yaml 中的 kms 部分配置:
部署 csi-rbdplugin-provisioner :
这里面包含了 6 个 Sidecar 容器,包括 external-provisioner 、 external-attacher、 csi-resizer 和 csi-rbdplugin 。
最后部署 RBD CSI Driver :
Pod 中包含两个容器: CSI node-driver-registrar 和 CSI RBD driver 。
Kubernetes 通过 PersistentVolume 子系统为用户和管理员提供了一组 API,将存储如何供应的细节从其如何被使用中抽象出来,其中 PV (PersistentVolume) 是实际的存储, PVC (PersistentVolumeClaim) 是用户对存储的请求。
下面通过官方仓库的示例来演示如何使用 ceph-csi。
先进入 ceph-csi 项目的 example/rbd 目录,然后直接创建 PVC:
查看 PVC 和申请成功的 PV:
再创建示例 Pod:
进入 Pod 里面测试读写数据:
列出 kubernetes pool 中的 rbd images :
查看该 image 的特征:
可以看到对 image 的特征限制生效了,这里只有 layering 。
实际上这个 image 会被挂载到 node 中作为一个块设备,可以通过 rbd 命令查看映射信息:
在 node 上查看挂载信息:
在 容器中查看挂载信息:
一切正常!