欢迎访问 生活随笔!

凯发ag旗舰厅登录网址下载

当前位置: 凯发ag旗舰厅登录网址下载 > 运维知识 > windows >内容正文

windows

《k8s与云原生应用》之k8s的系统架构与设计理念 -凯发ag旗舰厅登录网址下载

发布时间:2023/12/20 windows 53 豆豆
凯发ag旗舰厅登录网址下载 收集整理的这篇文章主要介绍了 《k8s与云原生应用》之k8s的系统架构与设计理念 小编觉得挺不错的,现在分享给大家,帮大家做个参考.
http://mp.weixin.qq.com/s?__biz=mzi4mje3mtcwna==&mid=2664334723&idx=1&sn=6a5b727b066469dc9f26ca73cc0c37e1&scene=21#wechat_redirect

《kubernetes与云原生应用》专栏是infoq向轻元科技首席架构师王昕约稿的系列文章。本专栏包含8篇内容,将会从介绍和分析kubernetes系统以及云原生应用入手,逐步推出基于kubernetes的容器设计模式实践案例,希望对计划应用kubernetes的朋友有所帮助。本文是该专栏的第一篇。

  • kubernetes系统架构与设计理念

  • 云原生应用的设计理念与挑战

  • kubernetes与云原生应用的容器设计模式

  • kubernetes容器设计模式实践案例-单节点多容器模式

  • kubernetes容器设计模式实践案例-多节点选举模式

  • kubernetes容器设计模式实践案例-工作队列模式

  • kubernetes容器设计模式实践案例-分散收集模式

  • 云原生应用的容器设计模式综述与展望

  • kubernetes与云原生应用简介

    随着docker技术的发展和广泛流行,云原生应用和容器调度管理系统也成为it领域大热的词汇。事实上,云原生应用的思想,在docker技术火爆之前,已经由云计算技术的领导者和分布式系统架构的推广者广泛传播,例如云原生应用的12要素早在2011年就由heroku的工程师提出了;只不过以虚拟机技术作为云原生应用的基础实施,由于虚拟机镜像大、镜像标准不统一以及打包流程和工具不统一,无法业界广泛接受的云原生应用标准,限制了云原生应用的流行。而docker的出现正好解决了这些限制云原生应用构建、交付和运行的瓶颈,使得构建云原生应用成为了使用docker的开发者自然而然的选择。

    单机的docker引擎和单一的容器镜像只能解决单一服务的打包和测试问题。而要运行生产级的企业级应用,就需要容器调度管理系统。在这里面,docker技术就仿佛运送系统零件的集装箱,把云原生应用的各个标准化零件交付到各个企业的不同码头,而容器调度管理系统就是企业应用的运行车间,把不同的零件组装、运行、维护起来。

    kubernetes是为生产环境而设计的容器调度管理系统,对于负载均衡、服务发现、高可用、滚动升级、自动伸缩等容器云平台的功能要求有原生支持。由于kubernetes在k和s间有8个字母,因此常简称k8s。事实上,随着对k8s系统架构与设计理念的了解深入,我们会发现k8s系统正是处处为运行云原生应用而设计考虑;同时,随着对k8s系统使用的加深和加广,也会有越来越多有关云原生应用的设计模式产生出来,使得基于k8s系统设计和开发生产级的复杂云原生应用变得像启动一个单机版容器服务那样简单易用。

    本系列文章将会从介绍和分析k8s系统以及云原生应用入手,逐步推出基于k8s的容器设计模式实践案例,希望对计划应用k8s的朋友有所帮助。

    kubernetes的最新进展

    k8s于2016年7月发布了1.3的正式版,带来了3个实验性的新功能:基于角色的权限控制rbac,跨地区跨云的联合集群服务federation和有状态应用微服务集合petset,让大家可以对k8s集群本身的技术发展趋势窥豹一斑。本文的系统架构和核心技术解析部分会包含这几项功能的详细介绍。

    kubernetes与容器设计模式

    k8s在2016年6月的云计算大会上发表了有关容器设计模式的论文《design patterns for container-based distributed systems》,介绍了基于k8s设计云原生应用的容器设计模式,为基于k8s的云原生应用的设计模式划定了蓝图。在k8s与云原生应用系列文章中我们会结合具体应用案例解析这些设计模式。

    kubernetes的系统架构

    kubernetes的系统架构

    一个k8s集群是由分布式存储(etcd)、服务节点(minion,etcd现在称为node)和控制节点(master)构成的。所有的集群状态都保存在etcd中,master节点上则运行集群的管理控制模块。node节点是真正运行应用容器的主机节点,在每个minion节点上都会运行一个kubelet代理,控制该节点上的容器、镜像和存储卷等。

    kubernetes的架构实现理念

    k8s在实现上述架构时要基于以下架构理念:

    • 只有api server与存储通信,其他模块通过api server访问集群状态。这样第一,是为了保证集群状态访问的安全。第二,是为了隔离集群状态访问的方式和后端存储实现的方式:api server是状态访问的方式,不会因为后端存储技术etcd的改变而改变。加入以后将etcd更换成其他的存储方式,并不会影响依赖依赖api server的其他k8s系统模块。

    • 一个工作节点被攻破不能导致整个k8s集群被攻破。这是所有分布式系统架构设计中都应该考虑的问题。

    • 考虑网络随时可能断开的情况,没有新配置声明时各模块按照之前的配置声明继续工作。在k8s集群中,所有的配置管理操作都声明式而非命令式的,因为声明式操作对于网络故障等分布式系统常见的故障情况更加稳定。

    • 各个模块在内存中缓存自己的相关状态以提高系统性能。

    • 需要监控某个系统状态来做下一步动作的时候,优先考虑观察通知模式,其次再考虑轮询模式,这也是为了提高系统的响应速度。

    k8s的核心技术概念和api对象

    api对象是k8s集群中的管理操作单元。k8s集群系统每支持一项新功能,引入一项新技术,一定会新引入对应的api对象,支持对该功能的管理操作。例如副本集replica set对应的api对象是rs。

    每个api对象都有3大类属性:元数据metadata、规范spec和状态status。元数据是用来标识api对象的,每个对象都至少有3个元数据:namespace,name和uid;除此以外还有各种各样的标签labels用来标识和匹配不同的对象,例如用户可以用标签env来标识区分不同的服务部署环境,分别用env=dev、env=testing、env=production来标识开发、测试、生产的不同服务。规范描述了用户期望k8s集群中的分布式系统达到的理想状态(desired state),例如用户可以通过复制控制器replication controller设置期望的pod副本数为3;status描述了系统实际当前达到的状态(status),例如系统当前实际的pod副本数为2;那么复制控制器当前的程序逻辑就是自动启动新的pod,争取达到副本数为3。

    k8s中所有的配置都是通过api对象的spec去设置的,也就是用户通过配置系统的理想状态来改变系统,这是k8s重要设计理念之一,即所有的操作都是声明式(declarative)的而不是命令式(imperative)的。声明式操作在分布式系统中的好处是稳定,不怕丢操作或运行多次,例如设置副本数为3的操作运行多次也还是一个结果,而给副本数加1的操作就不是声明式的,运行多次结果就错了。

    微服务豆荚(pod)

    k8s有很多技术概念,同时对应很多api对象,最重要的也是最基础的是微服务豆荚pod。pod是在k8s集群中运行部署应用或服务的最小单元,它是可以支持多容器的。pod的设计理念是支持多个容器在一个pod中共享网络地址和文件系统,可以通过进程间通信和文件共享这种简单高效的方式组合完成服务。pod对多容器的支持是k8最基础的设计理念。比如你运行一个操作系统发行版的软件仓库,一个nginx容器用来发布软件,另一个容器专门用来从源仓库做同步,这两个容器的镜像不太可能是一个团队开发的,但是他们一块儿工作才能提供一个微服务;这种情况下,不同的团队各自开发构建自己的容器镜像,在部署的时候组合成一个微服务对外提供服务。

    pod是k8s集群中所有业务类型的基础,可以看作运行在k8集群中的小机器人,不同类型的业务就需要不同类型的小机器人去执行。目前k8s中的业务主要可以分为长期伺服型(long-running)、批处理型(batch)、节点后台支撑型(node-daemon)和有状态应用型(stateful application);分别对应的小机器人控制器为deployment、job、daemonset和petset,本文后面会一一介绍。

    复制控制器(replication controller,rc)

    rc是k8s集群中最早的保证pod高可用的api对象。通过监控运行中的pod来保证集群中运行指定数目的pod副本。指定的数目可以是多个也可以是1个;少于指定数目,rc就会启动运行新的pod副本;多于指定数目,rc就会杀死多余的pod副本。即使在指定数目为1的情况下,通过rc运行pod也比直接运行pod更明智,因为rc也可以发挥它高可用的能力,保证永远有1个pod在运行。rc是k8s较早期的技术概念,只适用于长期伺服型的业务类型,比如控制小机器人提供高可用的web服务。

    副本集(replica set,rs)

    rs是新一代rc,提供同样的高可用能力,区别主要在于rs后来居上,能支持更多中的匹配模式。副本集对象一般不单独使用,而是作为部署的理想状态参数使用。

    部署(deployment)

    部署表示用户对k8s集群的一次更新操作。部署是一个比rs应用模式更广的api对象,可以是创建一个新的服务,更新一个新的服务,也可以是滚动升级一个服务。滚动升级一个服务,实际是创建一个新的rs,然后逐渐将新rs中副本数增加到理想状态,将旧rs中的副本数减小到0的复合操作;这样一个复合操作用一个rs是不太好描述的,所以用一个更通用的deployment来描述。以k8s的发展方向,未来对所有长期伺服型的的业务的管理,都会通过deployment来管理。

    服务(service)

    rc、rs和deployment只是保证了支撑服务的微服务豆荚的数量,但是没有解决如何访问这些服务的问题。一个pod只是一个运行服务的实例,随时可能在一个节点上停止,在另一个节点以一个新的ip启动一个新的pod,因此不能以确定的ip和端口号提供服务。要稳定地提供服务需要服务发现和负载均衡能力。服务发现完成的工作,是针对客户端访问的服务,找到对应的的后端服务实例。在k8集群中,客户端需要访问的服务就是service对象。每个service会对应一个集群内部有效的虚拟ip,集群内部通过虚拟ip访问一个服务。在k8s集群中微服务的负载均衡是由kube-proxy实现的。kube-proxy是k8s集群内部的负载均衡器。它是一个分布式代理服务器,在k8s的每个节点上都有一个;这一设计体现了它的伸缩性优势,需要访问服务的节点越多,提供负载均衡能力的kube-proxy就越多,高可用节点也随之增多。与之相比,我们平时在服务器端做个反向代理做负载均衡,还要进一步解决反向代理的负载均衡和高可用问题。

    任务(job)

    job是k8s用来控制批处理型任务的api对象。批处理业务与长期伺服业务的主要区别是批处理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。job管理的pod根据用户的设置把任务成功完成就自动退出了。成功完成的标志根据不同的spec.completions策略而不同:单pod型任务有一个pod成功就标志完成;定数成功型任务保证有n个任务全部成功;工作队列型任务根据应用确认的全局成功而标志成功。

    后台支撑服务集(daemonset)

    长期伺服型和批处理型服务的核心在业务应用,可能有些节点运行多个同类业务的pod,有些节点上又没有这类pod运行;而后台支撑型服务的核心关注点在k8s集群中的节点(物理机或虚拟机),要保证每个节点上都有一个此类pod运行。节点可能是所有集群节点也可能是通过nodeselector选定的一些特定节点。典型的后台支撑型服务包括,存储,日志和监控等在每个节点上支持k8s集群运行的服务。

    有状态服务集(petset)

    k8s在1.3版本里发布了alpha版的petset功能。在云原生应用的体系里,有下面两组近义词;第一组是无状态(stateless)、牲畜(cattle)、无名(nameless)、可丢弃(disposable);第二组是有状态(stateful)、宠物(pet)、有名(having name)、不可丢弃(non-disposable)。rc和rs主要是控制提供无状态服务的,其所控制的pod的名字是随机设置的,一个pod出故障了就被丢弃掉,在另一个地方重启一个新的pod,名字变了、名字和启动在哪儿都不重要,重要的只是pod总数;而petset是用来控制有状态服务,petset中的每个pod的名字都是事先确定的,不能更改。petset中pod的名字的作用,并不是《千与千寻》的人性原因,而是关联与该pod对应的状态。

    对于rc和rs中的pod,一般不挂载存储或者挂载共享存储,保存的是所有pod共享的状态,pod像牲畜一样没有分别(这似乎也确实意味着失去了人性特征);对于petset中的pod,每个pod挂载自己独立的存储,如果一个pod出现故障,从其他节点启动一个同样名字的pod,要挂在上原来pod的存储继续以它的状态提供服务。

    适合于petset的业务包括数据库服务mysql和postgresql,集群化管理服务zookeeper、etcd等有状态服务。petset的另一种典型应用场景是作为一种比普通容器更稳定可靠的模拟虚拟机的机制。传统的虚拟机正是一种有状态的宠物,运维人员需要不断地维护它,容器刚开始流行时,我们用容器来模拟虚拟机使用,所有状态都保存在容器里,而这已被证明是非常不安全、不可靠的。使用petset,pod仍然可以通过漂移到不同节点提供高可用,而存储也可以通过外挂的存储来提供高可靠性,petset做的只是将确定的pod与确定的存储关联起来保证状态的连续性。petset还只在alpha阶段,后面的设计如何演变,我们还要继续观察。

    联合集群服务(federation)

    k8s在1.3版本里发布了beta版的federation功能。在云计算环境中,服务的作用距离范围从近到远一般可以有:同主机(host,node)、跨主机同可用区(available zone)、跨可用区同地区(region)、跨地区同服务商(cloud service provider)、跨云平台。k8s的设计定位是单一集群在同一个地域内,因为同一个地区的网络性能才能满足k8s的调度和计算存储连接要求。而联合集群服务就是为提供跨region跨服务商k8s集群服务而设计的。

    每个k8s federation有自己的分布式存储、api server和controller manager。用户可以通过federation的api server注册该federation的成员k8s cluster。当用户通过federation的api server创建、更改api对象时,federation api server会在自己所有注册的子k8s cluster都创建一份对应的api对象。在提供业务请求服务时,k8s federation会先在自己的各个子cluster之间做负载均衡,而对于发送到某个具体k8s cluster的业务请求,会依照这个k8s cluster独立提供服务时一样的调度模式去做k8s cluster内部的负载均衡。而cluster之间的负载均衡是通过域名服务的负载均衡来实现的。

    所有的设计都尽量不影响k8s cluster现有的工作机制,这样对于每个子k8s集群来说,并不需要更外层的有一个k8s federation,也就是意味着所有现有的k8s代码和机制不需要因为federation功能有任何变化。

    存储卷(volumn)

    k8s集群中的存储卷跟docker的存储卷有些类似,只不过docker的存储卷作用范围为一个容器,而k8s的存储卷的生命周期和作用范围是一个pod。每个pod中声明的存储卷由pod中的所有容器共享。k8s支持非常多的存储卷类型,特别的,支持多种公有云平台的存储,包括aws,google和azure云;支持多种分布式存储包括glusterfs和ceph;也支持较容易使用的主机本地目录hostpath和nfs。k8s还支持使用persistent volumn claim即pvc这种逻辑存储,使用这种存储,使得存储的使用者可以忽略后台的实际存储技术(例如aws,google或glusterfs和ceph),而将有关存储实际技术的配置交给存储管理员通过persistent volumn来配置。

    持久存储卷(persistent volumn,pv)和持久存储卷声明(persistent volumn claim,pvc)

    pv和pvc使得k8s集群具备了存储的逻辑抽象能力,使得在配置pod的逻辑里可以忽略对实际后台存储技术的配置,而把这项配置的工作交给pv的配置者,即集群的管理者。存储的pv和pvc的这种关系,跟计算的node和pod的关系是非常类似的;pv和node是资源的提供者,根据集群的基础设施变化而变化,由k8s集群管理员配置;而pvc和pod是资源的使用者,根据业务服务的需求变化而变化,有k8s集群的使用者即服务的管理员来配置。

    节点(node)

    k8s集群中的计算能力由node提供,最初node称为服务节点minion,后来改名为node。k8s集群中的node也就等同于mesos集群中的slave节点,是所有pod运行所在的工作主机,可以是物理机也可以是虚拟机。不论是物理机还是虚拟机,工作主机的统一特征是上面要运行kubelet管理节点上运行的容器。

    k8s集群中与安全相关的技术概念

    秘盒对象(secret)

    secret是用来保存和传递密码、密钥、认证凭证这些敏感信息的对象。使用secret的好处是可以避免把敏感信息明文写在配置文件里。在k8s集群中配置和使用服务不可避免的要用到各种敏感信息实现登录、认证等功能,例如访问aws存储的用户名密码。为了避免将类似的敏感信息明文写在所有需要使用的配置文件中,可以将这些信息存入一个secret对象,而在配置文件中通过secret对象引用这些敏感信息。这种方式的好处包括:意图明确,避免重复,减少暴漏机会。

    用户帐户(user account)和服务帐户(service account)

    顾名思义,用户帐户为人提供账户标识,而服务账户为计算机进程和k8s集群中运行的pod提供账户标识。用户帐户和服务帐户的一个区别是作用范围;用户帐户对应的是人的身份,人的身份与服务的namespace无关,所以用户账户是跨namespace的;而服务帐户对应的是一个运行中程序的身份,与特定namespace是相关的。

    名字空间(namespace)

    名字空间为k8s集群提供虚拟的隔离作用,k8s集群初始有两个名字空间,分别是默认名字空间default和系统名字空间kube-system,除此以外,管理员可以可以创建新的名字空间满足需要。

    rbac模式授权和abac模式授权

    k8s在1.3版本中发布了alpha版的基于角色的访问控制(role-based access control,rbac)的授权模式。相对于基于属性的访问控制(attribute-based access control,abac),rbac主要是引入了角色(role)和角色绑定(rolebinding)的抽象概念。在abac中,k8s集群中的访问策略只能跟用户直接关联;而在rbac中,访问策略可以跟某个角色关联,具体的用户在跟一个或多个角色相关联。显然,rbac像其他新功能一样,每次引入新功能,都会引入新的api对象,从而引入新的概念抽象,而这一新的概念抽象一定会使集群服务管理和使用更容易扩展和重用。

    kubernetes的设计理念

    kubernetes设计理念与分布式系统

    分析和理解k8s的设计理念对设计和实现分布式系统有两方面的益处。一方面,可以使我们更深入地了解k8s系统,更好地利用它管理分布式部署的云原生应用;另一方面,k8s集群管理平台本身也是个分布式系统,分析和理解它可以让我们借鉴其在分布式系统设计方面的经验。

    kubernetes系统api的设计原则

    对于云计算系统,系统api实际上处于系统设计的统领地位,正如本文前面所说,k8s集群系统每支持一项新功能,引入一项新技术,一定会新引入对应的api对象,支持对该功能的管理操作,理解掌握的api,就好比抓住了k8s系统的牛鼻子。k8s系统api的设计有以下几条原则:

  • 所有api应该是声明式的。正如前文所说,声明式的操作,相对于命令式操作,对于重复操作的效果是稳定的,这对于容易出现数据丢失或重复的分布式环境来说是很重要的。另外,声明式操作更容易被用户使用,可以使系统向用户隐藏实现的细节,隐藏实现的细节的同时,也就保留了系统未来持续优化的可能性。此外,声明式的api,同时隐含了所有的api对象都是名词性质的,例如service、volumn这些api都是名词,这些名词描述了用户所期望得到的一个目标分布式对象。

  • api对象是彼此互补而且可组合的。这里面实际是鼓励api对象尽量实现面向对象设计时的要求,即“高内聚,松耦合”,对业务相关的概念有一个合适的分解,提高分解出来的对象的可重用性。事实上,k8s这种分布式系统管理平台,也是一种业务系统,只不过它的业务就是调度和管理容器服务。

  • 高层api以操作意图为基础设计。如何能够设计好api,跟如何能用面向对象的方法设计好应用系统有相通的地方,高层设计一定是从业务出发,而不是过早的从技术实现出发。因此,针对k8s的高层api设计,一定是以k8s的业务为基础出发,也就是以系统调度管理容器的操作意图为基础设计。

  • 低层api根据高层api的控制需要设计。设计实现低层api的目的,是为了被高层api使用,考虑减少冗余、提高重用性的目的,低层api的设计也要以需求为基础,要尽量抵抗受技术实现影响的诱惑。

  • 尽量避免简单封装,不要有在外部api无法显式知道的内部隐藏的机制。简单的封装,实际没有提供新的功能,反而增加了对所封装api的依赖性。内部隐藏的机制也是非常不利于系统维护的设计方式,例如petset和replicaset,本来就是两种pod集合,那么k8s就用不同api对象来定义它们,而不会说只用同一个replicaset,内部通过特殊的算法再来区分这个replicaset是有状态的还是无状态。

  • api操作复杂度与对象数量成正比。这一条主要是从系统性能角度考虑,要保证整个系统随着系统规模的扩大,性能不会迅速变慢到无法使用,那么最低的限定就是api的操作复杂度不能超过o(n),n是对象的数量,否则系统就不具备水平伸缩性了。

  • api对象状态不能依赖于网络连接状态。由于众所周知,在分布式环境下,网络连接断开是经常发生的事情,因此要保证api对象状态能应对网络的不稳定,api对象的状态就不能依赖于网络连接状态。

  • 尽量避免让操作机制依赖于全局状态,因为在分布式系统中要保证全局状态的同步是非常困难的

  • kubernetes系统的控制机制的设计原则

    • 控制逻辑应该只依赖于当前状态。这是为了保证分布式系统的稳定可靠,对于经常出现局部错误的分布式系统,如果控制逻辑只依赖当前状态,那么就非常容易将一个暂时出现故障的系统恢复到正常状态,因为你只要将该系统重置到某个稳定状态,就可以自信的知道系统的所有控制逻辑会开始按照正常方式运行。

    • 假设任何错误的可能,并做容错处理。在一个分布式系统中出现局部和临时错误是大概率事件。错误可能来自于物理系统故障,外部系统故障也可能来自于系统自身的代码错误,依靠自己实现的代码不会出错来保证系统稳定其实也是难以实现的,因此要设计对任何可能错误的容错处理。

    • 尽量避免复杂状态机,控制逻辑不要依赖无法监控的内部状态。因为分布式系统各个子系统都是不能严格通过程序内部保持同步的,所以如果两个子系统的控制逻辑如果互相有影响,那么子系统就一定要能互相访问到影响控制逻辑的状态,否则,就等同于系统里存在不确定的控制逻辑。

    • 假设任何操作都可能被任何操作对象拒绝,甚至被错误解析。由于分布式系统的复杂性以及各子系统的相对独立性,不同子系统经常来自不同的开发团队,所以不能奢望任何操作被另一个子系统以正确的方式处理,要保证出现错误的时候,操作级别的错误不会影响到系统稳定性。

    • 每个模块都可以在出错后自动恢复。由于分布式系统中无法保证系统各个模块是始终连接的,因此每个模块要有自我修复的能力,保证不会因为连接不到其他模块而自我崩溃。

    • 每个模块都可以在必要时优雅地降级服务。所谓优雅地降级服务,是对系统鲁棒性的要求,即要求在设计实现模块时划分清楚基本功能和高级功能,保证基本功能不会依赖高级功能,这样同时就保证了不会因为高级功能出现故障而导致整个模块崩溃。根据这种理念实现的系统,也更容易快速地增加新的高级功能,以为不必担心引入高级功能影响原有的基本功能。

    kubernetes系统核心理念总结

    从k8s的系统架构、技术概念和设计理念,我们可以看到k8s系统最核心的两个设计理念:一个是容错性,一个是易扩展性。容错性实际是保证k8s系统稳定性和安全性的基础,易扩展性是保证k8s对变更友好,可以快速迭代增加新功能的基础。

    按照分布式系统一致性算法paxos发明人计算机科学家leslie lamport的理念,一个分布式系统有两类特性:安全性safety和活性liveness。安全性保证系统的稳定,保证系统不会崩溃,不会出现业务错误,不会做坏事,是严格约束的;活性使得系统可以提供功能,提高性能,增加易用性,让系统可以在用户“看到的时间内”做些好事,是尽力而为的。k8s系统的设计理念正好与lamport安全性与活性的理念不谋而合,也正是因为k8s在引入功能和技术的时候,非常好地划分了安全性和活性,才可以让k8s能有这么快版本迭代,快速引入像rbac、federation和petset这种新功能。


    总结

    以上是凯发ag旗舰厅登录网址下载为你收集整理的《k8s与云原生应用》之k8s的系统架构与设计理念的全部内容,希望文章能够帮你解决所遇到的问题。

    如果觉得凯发ag旗舰厅登录网址下载网站内容还不错,欢迎将凯发ag旗舰厅登录网址下载推荐给好友。

    • 上一篇:
    • 下一篇:
    网站地图