Id
int64 1
278
| Title
stringlengths 7
81
| Content
stringlengths 560
16.9k
⌀ | View
int64 342
28.8k
| PublishTime
int64 1,605B
1,695B
| Site
stringclasses 1
value |
---|---|---|---|---|---|
101 |
Kubecost开源OpenCost:Kubernetes成本监控的开源标准
|
Kubecost最近开源了OpenCost,这是Kubernetes工作负载的开源成本标准。OpenCost能够使用单一模型跨不同环境对Kubernetes成本进行实时监控、度量和管理。 OpenCost引入了一个新规范和实现来监控和管理Kubernetes 1.8以上环境中的成本。 在KubeCon+CloudNativeCon NA 2022大会上,InfoQ采访了Kubecost的首席执行官Webb Brown,探讨了OpenCost,其与开发人员的相关性,以及Kubernetes成本管理的现状。 InfoQ:你能告诉我们关于OpenCost及其意义吗? Webb Brown:我们与一群贡献者一起为Kubernetes或基于容器的成本分配和成本监控构建了第一个开放标准或开放规范。我们曾与红帽、亚马逊云科技、谷歌、New Relic等公司的团队合作过。在今年早些时候,我们将其开源了,并将其贡献给了CNCF。OpenCost被CNCF接受,它是一个沙盒项目。 我们认为这一点非常重要,因为目前还没有统一的通用语言或定义来判定命名空间、pod或部署等成本。我们看到,对于这个社区构建的标准,越来越多的人支持将它集中在一组公共定义上。 今天,我们有了越来越多的集成。本周我们刚刚进行了第四次集成发布,还有很多工作要做。看到社区聚集在一起,并将其视为一个公认的定义,真是令人兴奋。 InfoQ:OpenCost为这个生态系统带来了什么,为最终用户提供了哪些集成? Webb Brown:我们可以看到许多不同的产品都采用了成本度量,无论是Grafana还是其他FinOps平台,如Vantage,它最近推出了对EKS的OpenCost成本监控的支持。 我们已经看到了大量的采用,并得到了积极的反馈。我认为这是开源带给我们的。我们还有很多集成和数据,准备把它用到更令人兴奋的地方。 InfoQ:Kubernetes成本管理的现状如何?发展方向是什么? Webb Brown:回顾一下历史是有帮助的。当我们在2019年启动Kubecost开源项目时,我们调查的超过90%的团队报告称,对Kubernetes集群没有准确的成本可见性。 去年,CNCF做了一项研究,这个数字约为70%。今天我们认为已经接近50%了。现在,我们看到越来越多的团队有了可见性,而在一两年前,大多数团队都处于黑盒状态。Kubernetes成本管理就是让团队准确、实时地了解其所有基础设施的成本。 现在我们正在进入第二阶段,在这个阶段中,我们有了很好的可见性,那么如何确保高效地运行基础设施呢?我们如何在考虑应用程序和组织目标的情况下,在优化性能、可靠性和成本之间进行平衡? 这非常令人兴奋。同样,我们认为成本本身就是一个独立的重要指标,但它与所有其他因素都有着密切的联系。我们看到越来越多的团队进入了第二阶段,目前我们正在与成千上万的团队密切合作。 InfoQ:是否有与其他云供应商集成的计划? Webb Brown:我们目前支持AWS、Azure和GCP,以及本地(on-prem)集群和气隙(air-gapped )环境。我们计划很快增加对其他几家云提供商的支持。我相信对阿里巴巴的支持将是下一个,预计将在今年推出。我们正在与其他几家供应商进行谈判,以支持OpenCost和Kubecost。 InfoQ:你最近宣布Kubecost将对无限制集群免费开放,可以告诉我们更多这方面的信息吗? Webb Brown:在五年前离开谷歌不久创办Kubecost时,我们预计一个小团队的集群数量会非常少,3个、4个,甚至更少。集群数量的增长速度远远超过了我们的预期。我们看到的一些小团队,他们说自己有25个集群。 我们认为KubeCost最初的免费产品可以安装在一个集群上,对于小型团队来说已经足够了。最近,我们决定将产品免费提供给无限制数量的集群,以便各种规模的团队都能获得成本可见性和管理解决方案。 Kubecost为Kubernetes构建实时成本监控和管理工具。OpenCost是一个与供应商无关的开源项目,用于度量和分配基础设施和容器成本。 用户可以通过该公司的网站免费开始使用Kubecost无限制的单个集群。 作者简介:Mostafa Radwan是一名专注于云和云原生技术的技术顾问。在从事应用程序和生产支持工作之前,他的职业生涯是从Java软件工程师开始的。在过去的几年里,他一直在帮助企业采用DevOps和云原生技术,以推动更好的业务成果。在不摆弄技术或服务客户的时候,他喜欢阅读、骑自行车,并与家人一起环游世界。 原文链接:https://www.infoq.com/news/2022/11/kubecost-opencost/相关阅读:降本之源——云原生成本管理白皮书上云成本控制:AWS、Azure 与谷歌云的定价模型对比
| 5,196 | 1,668,902,400,049 |
InfoQ
|
102 |
InfoQ 中国技术力量2022年度榜单开启!深入数字经济,洞见技术价值
|
实体经济与虚拟经济的融合已经成为必然趋势。在“十四五”规划中,数字经济被视为核心发展目标。过去几年,我们看到越来越多的企业通过开源、上云等模式,加速融合与转型。不过,对于企业而言,如何确定一个好的选型策略?哪些技术方案,在数字化转型中呈现出更鲜明的业务价值?什么样的技术团队,才是能够适应未来挑战的数字人才团队?都是需要被进一步解答的问题。为了让更多优秀解决方案的价值被发现,InfoQ 2022中国技术力量年度榜单评选正式开启。本次榜单聚焦选择为数字化转型做出实际贡献的项目和团队,分为开源新锐项目TOP10、高价值技术团队TOP10、云原生创新技术TOP10、数智化科技创新TOP20、数智化企业服务创新TOP15、数智化消费创新TOP15六大榜单,希望推动这些优质项目在实际业务场景中的落地,进而为推动数字经济发展贡献一份力量。目前,十大开源新锐项目、十大高价值技术团队、十大云原生创新技术方案三大榜单正式开启项目征集,本轮征集从 11 月 15 日开始到11月28日截止,榜单结果将于 12 月 28 日通过InfoQ官网、视频号、公众号等全渠道对外正式揭晓。整个评选活动由自主报名(11 月 15 日 -11 月 28 日)、公开评选(11 月 29 日 -12 月 12 日)、榜单公布(12 月 28 日)三个环节组成。任何企业或者个人都可以通过 2022 中国技术力量年度榜单评选活动官方网站进行报名,所有报名结果经过初步筛选后,将通过专家评审团专业打分、用户公开投票以及 InfoQ 主编团队打分,公正、公平、公开得出最终结果。2022 年, 全行业的数字化、智能化转型升级如火如荼。在这一过程中,企业“上云、用数、赋智”的需求被进一步激发,越来越多的企业开始思考借助优质创新技术,提升自身业务水平。然而在数字化技术变得越来越为重要的当下,国内 IT 产业的发展却正面临着全新的挑战。在技术供给侧,不同技术方案的性能良莠不齐,国内 IT 软件行业的发展面临资源错配、内耗严重等挑战,而这些乱象往往又会导致用户在选择技术方案时犹豫不决,进一步削弱数字化转型意愿。此次 InfoQ 正式推出的 2022 中国技术力量年度评选榜单,正是一次致力于消除技术型企业与最终用户之前“鸿沟”,以“桥梁”形式嫁接起技术与用户之间合作关系的开创性尝试。在本次榜单评选过程中,我们将秉承 InfoQ 一直以来坚守的内容价值观:提供可信赖的内容。作为第三方独立媒体,我们一直承诺并践行向用户输出不偏执且真实可靠的内容。目前,各方工作已在紧锣密鼓组织推进过程中,欢迎企业及个人自荐、推荐,参与 2022 中国技术力量年度榜单评选活动。
| 5,614 | 1,668,577,726,212 |
InfoQ
|
103 |
数据库“焕然新生”:架构视角下,云原生数据库的创新实践
|
从传统关系型数据库到云数据库,数据库在不断演进。与此同时,它也发挥着越来越重要的作用。从云计算、新媒体、音视频、云游戏到移动 App,几乎各行各业都离不开数据库。一方面,数据库作为 IT 基础设施的关键一环,对企业业务的发展起着支撑作用;另一方面,数字化在经济社会中不断深入,数据成为核心要素,围绕数据的生产、存储和消费均依赖数据库。IDC 报告显示,数据库、AI、大数据三者消耗了最多的 IT 基础设施资源,并且在所有类型的工作负载中增长最快。由此可见,数据库已经成为云中最重要的工作负载之一。随着企业数字化转型的深入,业务与数据的关系越来越紧密,数据库市场呈现蓬勃发展之势。根据 IDC 预测,到 2024 年,中国关系型数据库软件市场规模将达到 38.2 亿美元,未来 5 年整体市场年复合增长率为 23.3%。除市场快速发展外,数据库自身也在变化。云计算的出现和发展,让企业 IT 基础设施云化,应用转向云端。与此同时,从单体到微服务架构再到 Serverless 架构,系统架构不断演进。这一方面为用户提供了更优秀的特性,另一方面也对云计算的组件提出更高要求。作为云计算关键技术和最基础的组件之一,数据库也需要适应这种架构变化。云数据库应运而生。“数据库 + 云”还是“云 + 数据库”?云计算自 2006 年出现后,随着企业上云进程的加速,传统数据库逐渐从私有部署转化为云上部署,但变化主要集中在部署模式的不同,并未充分利用云计算理论为大数据技术本身赋能。而云原生概念的兴起,让数据库迎来重大变革,云原生数据库开始成为行业“主角”。经久不衰的关系型数据库众所周知,数据库起源于 20 世纪 60 年代。在 70 年代,关系型数据库诞生,并成为沿用至今的数据库存储计算系统。即使随着移动互联网的发展,大数据技术的广泛应用,涌现出越来越多新型数据库,但关系型数据库依旧占据主导地位。据 DB-Engines 统计,截至 2020 年 5 月,在收录的 357 种数据库中,关系型数据库占比高达 75.2%。它之所以能经久不衰,是因为其满足数据库的 ACID 特性,能帮助应用开发且简化应用开发的复杂性。同时,它采用 SQL 标准,业务人员很容易看懂开发人员写的代码,代码可读性和可维护性非常强,降低了沟通成本。在云计算出现前,关系型数据库通常采用本地部署方式(On-Premises),其中,商业数据库代表有 Oracle、Microsoft SQL Server、IBM Db2,开源数据库代表则是 MySQL、PostgreSQL。那时,大多数企业都是自行采购硬件和租用 IDC。除服务器外,机柜、交换机、网络配置和软件安装等底层很多事情都需要专业人士负责。数据库方面,只有资金充裕的大企业(如电信、金融等)主要用 Oracle、IBM DB2 等商业关系型数据库,它们的特点是性能强大、稳定性好,但价格贵、维护成本高。传统数据库架构依赖于高端硬件,每套数据库系统服务器少、架构相对简单,且无法支持新业务的扩展需求。如果想提升性能,主要靠采用配置更高、更先进的硬件。当然,这样的机器也更昂贵。除了扩展性差,传统关系型数据库还面临一些挑战:一是部署成本高,维护难度大;二是由于私有化部署,数据库内核迭代升级比较缓慢。并且,它无法应对高并发读写。像以 Web 2.0 为代表的网站,其数据库负载非常高,本地部署的传统关系型数据库往往无法应对每秒上万次的读写请求,硬盘 I/O 成为性能瓶颈。云计算兴起,关系型数据库演化到云托管关系型数据库云计算出现后,传统关系型数据库遇到的问题部分得到缓解。借助 IaaS,企业开始将传统数据库“搬迁”到云上,因此出现了云托管关系型数据库,云厂商称之为 RDS 服务,如 Amazon RDS、阿里云 RDS 等。与传统关系型数据库相比,云托管关系型数据库在外部交互层面上,保持了和传统“原版”数据库几乎完全一致的编程接口和使用体验。在搭建、运维和管理层面,云托管关系型数据库门槛更低,对用户更友好,且实现了相当程度的智能化和自动化。许多在传统数据库中需借额外工具或产品的功能,在云托管关系型数据库中默认内置,开箱即用。本质上,云托管是将原本部署于 IDC 机房内物理服务器(也可能是虚拟出来的服务器)上的传统数据库软件部署在云主机上。图由作者绘制以 Amazon RDS 为例。其架构类似在底层的数据库上构建了一个中间层。这个中间层负责路由客户端的 SQL 请求发往实际的数据库存储节点。因为将业务端的请求通过中间层代理,所以可对底层的数据库实例进行很多运维工作。这些工作由于隐藏在中间层后边,业务层可以做到基本无感知。另外,这个中间路由层基本只是简单的转发请求,所以底层可以连接各种类型的数据库。其缺点在于,它本质上还是一个单机主从架构,无法适用超过最大配置物理机容量、CPU 负载和 IO 的场景。尤其是移动互联网时代,很多企业业务快速增长,数据库并发量越来越高,也愈加重视可扩展性。云托管关系型数据库虽然能部分实现“弹性”与“自愈”,但是这种方案存在资源利用率低、维护成本高、可用性低等问题。以阿里云为例,阿里 PolarDB 之所以会诞生,原因之一是阿里云数据库团队在业务中遇到很大挑战:它们在云上维护了庞大的 MySQL 云服务(RDS)集群,包含成千上万个实例,面临很多棘手问题:云服务一般使用云硬盘,导致数据库的性能没物理机实例好,比如 I/O 延时过高;RDS 实例集群很大,可能同时有很多实例在备份,从而占用云服务巨大的网络和 I/O 带宽,导致云服务不稳定;大实例恢复需重建时,耗时太长,影响服务可用性;对需要读写分离,且要求部署多个只读节点的用户,最明显的感觉是每增加一个只读实例,成本是线性增长。针对这些问题,可选解决方案是基于共享存储,即数据库共享存储方案:RDS 实例(一般指一主一从的高可用实例)和只读实例共享同一份数据。好处是实例故障或只读扩展时,不用拷贝数据,只需新建只读计算节点或把故障节点重新拉起来。并且,通过快照技术和写时拷贝解决数据备份和误操作恢复问题。不过,业内可用的共享存储方案非常少,即使可用,性能也达不到要求。因此,想解决云托管关系型数据库服务面临的问题,必须改变思路,从架构入手。架构“革命”,云原生数据库出现虽然在数据库扩展方面存在不同的常规方法(如分区、无共享或共享磁盘等),但这些方法都基于同样的基本数据库架构。正如亚马逊云科技在博客中写道:“这些方法无法解决大规模性能、弹性和爆炸半径问题,因为严密耦合型整体式堆栈的基本局限性依然存在。”为解决云托管关系型数据库面临的问题,适应云特性的云原生数据库就此诞生。云原生数据库完全为云设计,能充分发挥云的特点和优势。具体说来,云原生数据库有三大特点:第一,计算、存储分离,由于对存储与计算进行解耦合,实现了存储与计算分离;第二,无状态,计算节点无状态或较少状态;第三,存储节点灵巧化,因采用小存储块方式组织副本,用以减少平均恢复时间,多副本共识算法,实现存储的高可用与故障“自愈”能力。目前,业内云原生数据库的代表有亚马逊云科技 Aurora、阿里 PolarDB、Azure CosmosDB、腾讯 TDSQL-C 等。从上述各种云原生数据库的实践和发展来看,我们总结出数据库技术的几个发展趋势:第一,从 scale up 到 scale out。打个比方,这就像从传统火车到动车一样,scale out 不仅可以降低用户 TCO,而且该架构可以支撑系统扩展。尤其是如今的网络已经从百兆迈向 100G、200G,协议从 socket 迈向 RDMA,因此 scale out 架构已经完全成为可能。其次,从物理机到云原生。正如英特尔大数据首席工程师程从超所言,“我们原来的数据库从物理机逐步走向云平台,充分利用云平台底层的分布式存储,以及计算资源池、存储资源池的无限扩展能力,让数据库关注上层业务逻辑,与云平台充分地结合,形成云原生。”第三,从计算存储分离到逻辑和执行引擎分离,走向 Serverless 架构。好处在于 CPU 可以动态扩展或缩容,为用户提供 on demand 服务。第四,数据计算将放在内存里,数据存储可能采用块存储、对象存储。这样,在计算过程中,避免和底层存储“打交道”。最后是 AIOps。通过 AI 技术自动的对前端业务系统进行调优。这可以在提高性能的同时,降低成本、预防 IT 事故,并提高业务的敏捷性。发挥极致性能,云原生数据库的创新实践如今人工智能、低代码、即时数据分析等技术的加速创新意味着云上工作负载日趋多元化、动态化。如何应对这种变化,对云原生数据库是非常大的考验。在架构设计上,现有云原生数据库最显著的特点是将原本一体运行的数据库拆解,让计算、存储资源完全解耦,使用分布式云存储替代本地存储,将计算层变成无状态。云原生数据库将承载每层服务的资源池化,独立、实时地伸缩资源池的大小,以匹配实时的工作负载,使得资源利用率最大化。图由作者绘制如上图所示,大部分云原生数据库将 SQL 语句解析、物理计划执行、事务处理等都放在一层,统称为计算层。而将事务产生的日志、数据的存储放在共享存储层,统称为存储层。在存储层,数据采用多副本确保数据的可靠性,并通过 Raft 等协议保证数据的一致性。由此可见,高性能的分布式存储是云原生数据库实现的关键。此外,计算节点与存储节点之间采用高速网络互联,并通过 RDMA 协议传输数据,让 I/O 性能不再成为瓶颈。值得注意的是,Amazon Aurora 并未使用 RDMA。除架构外,云原生数据库还需要与硬件搭配,软硬协同,才能发挥出最大潜力。新硬件的发展为数据库技术注入了更多的可能性,充分发挥硬件性能成了所有数据库系统提升效率的重要手段。云原生数据库拆解了计算、存储,并利用网络发挥分布式的能力,在这三个层面都充分结合新硬件的特性进行设计。通过腾讯云 TDSQL-C 的实践,我们可以深入了解云原生数据库的创新思路。TDSQL-C 是腾讯云自研的新一代云原生关系型数据库,采用计算和存储分离的架构,所有计算节点共享一份数据,存储容量高达 128TB,单库最高可扩展至 16 节点,提供秒级的配置升降级、秒级的故障恢复和数据备份容灾服务,兼具商用的性能和稳定性以及开源的灵活和低成本。大体上,TDSQL-C 核心技术创新表现在两方面:一方面是架构创新,另一方面是性能优化。TDSQL-C 云原生架构(图由作者绘制)在架构上,TDSQL-C 存算分离,把计算层和存储层进行解耦,做分层处理,分层过后通过池化让计算、存储的能力变得无限大。存算分离后,存储可以使用集群化的云存储,大大提升存储上限,计算资源可以跨实例、跨物理机调度,按需使用,弹性大大增加。其次,TDSQL-C 共享存储。如上图所示,传统上,Master 和 RO 虽然对应的是同一份数据,但实际存储时有六份数据。而每增加一个 RO 节点,就会多出三份数据,这也让整个集群的存储副本数近一步放大。并且,高吞吐的数量使网络问题成为瓶颈,在共享存储侧也有大量网络浪费。而 TDSQL-C 采用共享存储方式,如下图所示,Master 和 RO 是基于一份数据放在共享存储中,RO 只从共享存储中读取所需的 page,不需要写入存储,并且 RO 可以从主库接收 WAL 在缓存中重放,以此保持缓存中 Page 持续更新。如此,TDSQL-C 就解决了业务容量和计算节点的扩容问题。第三,TDSQL-C 使用“log is database”方案,把一部分数据库计算逻辑下沉到存储层完成, 实现网络数据传输减少 90%+,计算层资源更聚焦于 SQL 处理,提升系统性能,分布式刷脏基本上规避 BP 刷脏的影响,加快了系统启动速度。除了架构创新,TDSQL-C 在性能优化方面,不仅很好地利用云原生数据库自身特点,而且充分结合英特尔产品和技术,实现极致性能。具体而言,腾讯云 TDSQL-C 团队首次深入底层软件的设计层面,利用英特尔 oneAPI 收集软件运行过程中的函数开销等,通过反馈优化技术进行再编译。这样,TDSQL-C 性能得到进一步提升,在大部分用户场景下都有更好的效果,甚至在某个方面,性能提升可以达到 85%。在这个过程中,英特尔 oneAPI 发挥着重要作用。作为一种开放、统一的编程模型,oneAPI 用于 CPU 和加速器,并支持多个厂商的计算机架构。其次,为优化读取性能和写入性能,腾讯云 TDSQL-C 团队基于英特尔傲腾持久化内存设计了一个二级缓存方案,因为由计算和存储分离带来的远程 I/O 成为不小的挑战。同时,根据数据温度,智能存储分层:热数据放在内存,冷数据放在磁盘。在使用傲腾持久化内存后,团队重新定义温数据,实行低冗余度存储。在计算节点,通过对温数据进行缓存,团队极大提高了数据库在 IO 密集型场景下的访问速度。如上图所示,TDSQL-C 团队在远程存储和 buffer pool 之间实现了二级缓存层,它使用本地存储介质。从 buffer pool 中淘汰的页面缓存在该层——实际上并非淘汰,而是把从 buffer pool 移出的数据缓存到本地的 SSD 存储或 AEP 存储。下次访问该数据时,满足一定的条件下,可以直接从本地读取,这样就能最大限度地降低网络 I/O 的消耗。通过与 英特尔 技术团队的联合创新,结合最新一代英特尔® 至强® 可扩展处理器以及英特尔® 傲腾™ 持久内存 (PMem) 的硬件特性,TDSQL-C 团队重构了二级缓存设计方案,在 IO bound 场景中的读写性能提升 2 倍以上。同时,TDSQL-C 团队携手英特尔多方位优化存储方案设计,如加入轮询、算法优化、消除锁等机制,优化存储引擎等,并引入由英特尔提供的 SPDK 开发套件,优化 NVMe 固态盘的 IOPS 和时延性能。并且,对网络架构全面升级,TDSQL-C 新版本采用全链路 RDMA 网络,依靠零拷贝、内核旁路、无 CPU 干预等特性,进一步优化了存储层与计算层以及存储层多副本间关键路径的系统性能,降低请求延迟最高达 80%,使 I/O 性能不再成为瓶颈。简言之,TDSQL-C 新版本对云原生数据库场景进行了大量优化,极大提升了数据库性能,能更好地满足企业对数据库性能的极致追求。从腾讯云与英特尔合作的创新实践中,我们发现未来的数据库将步入全栈优化时代,从硬件平台优化到架构层优化再到上面的应用层优化。所谓“软件优化三年不如硬件更新一代”,比如算力上,一定是充分利用 CPU 最底层的指令集和最新的加速器。据悉,最新的英特尔® 至强® 可扩展处理器(Sapphire Rapids)一代,已经从单纯的提高主频和增加核数逐步走向更多的加速器,包括 QAT 和 SGX 以及 DSA 等。在英特尔大数据首席工程师程从超看来,这些新的加速器会对数据库的整个优化设计带来很大的影响,这也是未来需要充分重视的。以硬件到基础设施的优化为例,算力优化方面,需采用最新的处理器和最新的软件版本,并选择高主频的核。同时,还要避免 NUMA,即非一致性内存访问,因为它对数据库的性能影响较大。并且,可以充分利用底层 CPU 最新的指令集,如 SIMD。在存储优化方面,实行数据封层存放,把 redo log 和 binlog 等日志存储在低延时设备上,以及通过 PMEM 在物理存储(HDD、SSD、NAND)和内存间增加一个 cache 层,作为应用的热数据存储,从而扩展内容容量,弥补存储性能。为进一步优化存储,企业还可以利用 LSM 的多版本管理机制增强系统的性能。网络优化上,可以采用 ADQ,通过 SPDK/DPDK 等技术提高网络性能,绕过 kernel space 的性能瓶颈。写在最后随着数字化不断发展,数据的价值正不断显现。毫无疑问,围绕数据的生产、存储和消费构成的系列服务,将成为数字经济社会的核心价值链条,而其背后的支撑正是数据库。这也意味着,数据库将比以前发挥更大的作用。从传统关系型数据库到云托管关系型数据库再到云原生数据库,数据库不断变革。我们看到,当企业业务从本地到上云再到原生发展时,云原生数据库也将成为云时代数据库的主角之一。作为支撑企业业务的关键 IT 基础设施,云原生数据库只有发挥出最大的价值,才能推动业务发展。而这需要不断创新,不仅是先进的架构设计,而且与其他前沿的软硬件产品和技术搭配,软硬协同,从而实现最佳效用。想了解更多关于数据库的知识吗?扫描下方海报二维码,预约观看英特尔联合国际学术期刊《科学》共同推出的“架构师成长计划”第九期《软硬一体实现数据库性能优化》,了解更多技术干货~
| 3,468 | 1,668,483,501,367 |
InfoQ
|
104 |
CDKTF通过增加命名空间来提升性能
|
HashiCorp发布了CDK for Terraform(CDKTF)0.13版本,在性能上有了显著的改进。这个版本引入了命名空间,极大提升了基础设施的性能。这个版本基于0.12版本,而0.12版本见证了CDKTF的普遍可用。CDK允许用户使用多种编程语言编写Terraform配置,包括C#、Python、TypeScript、Go语言和Java。它支持现有所有的Terraform提供程序和模块。CDKTF应用程序代码生成JSON输出,可以直接使用Terraform部署。0.13版本为生成的提供程序绑定中的每个类引入了命名空间的概念。这些命名空间是自动从Terraform资源或数据来源派生出来的。以前,每个提供程序的导出结果都是扁平的组件列表,其结果是各种语言编译器难以处理这些很大的包。CDKTF的用户表示,处理过程可能非常慢,对于Python用户来说,可能会导致IDE发生崩溃。有了命名空间,就会生成许多小的包,这样编译器处理起来会更快。根据Hashicorp工程经理Nara Kasbergen Kwon的说法,这已经带来了处理时间上的一些显著改善。Kwon表示,最近的基准测试显示:在使用Go语言和Azure提供程序时,cdktf处理时间减少了96.8%;在使用Java和谷歌云提供程序时,cdktf处理时间减少了83%;在使用C#和AWS提供程序时,cdktf处理时间减少了36.8%;在使用TypeScript和Kubernetes提供程序时,cdktf处理时间减少了61.5%。命名空间的引入是一个突破性的变化,不过0.13版本也向后兼容0.12版本生成的提供程序绑定。这样可以根据需要混合使用命名空间和非命名空间提供程序。注意,0.13版本生成的提供程序将包含命名空间。这种向后兼容性将在0.14版本中被删除,届时将只支持命名空间提供程序。AWS提供程序以前是有命名空间的,只是实现方式不同于新的命名空间。因此,它的导入方式已更改为与新的命名空间模型保持一致。以前,AWS提供程序可以按如下方式导入(Go语言):import (
// ... 其他导入
"github.com/cdktf/cdktf-provider-aws-go/aws"
)
func NewMyStack(/* ... */) cdktf.TerraformStack {
stack := cdktf.NewTerraformStack(/* ... */)
aws.NewAwsProvider(/* ... */)
aws.NewCloudfrontDistribution(/* ... */)
aws.NewAcmCertificate(/* ... */)
}
在新的命名空间模型中,现在需要按以下方式导入:import (
// ... 其他导入
"github.com/cdktf/cdktf-provider-aws-go/aws/cloudfrontdistribution"
"github.com/cdktf/cdktf-provider-aws-go/aws/provider"
"github.com/cdktf/cdktf-provider-aws-go/aws/acmcertificate"
)
func NewMyStack(/* ... */) cdktf.TerraformStack {
stack := cdktf.NewTerraformStack(/* ... */)
provider.NewAwsProvider(/* ... */)
cloudfrontdistribution.NewCloudfrontDistribution(/* ... */)
acmcertificate.NewAcmCertificate(/* ... */)
}
据Kwon透露,0.14版本将于2022年11月中旬发布。Kwon表示,这一版本“将主要关注易用性的改善,让使用预构建提供程序变得更容易。”开发团队发现,与在本地使用cdktf get在生成提供程序相比,预构建提供程序提供了更好的开发者体验。关于这个版本更多的信息可以在博文和升级指南中找到。Hashicorp主持Community Office Hours,并提供了一个讨论问题的论坛。对于刚接触CDK的用户,可以参考CDK for Terraform学习指南。原文链接:https://www.infoq.com/news/2022/10/cdk-terraform-performance/相关阅读:Terraform 1.3,简化重构体验为什么说 DevOps 治理是实现快速开发的关键
| 4,172 | 1,668,470,400,218 |
InfoQ
|
105 |
亚马逊云科技向Well-Architected Framework添加容器透镜
|
亚马逊云科技在其Well-Architected框架添加了一个新的容器透镜。这份新的技术白皮书概述了来自社区、亚马逊云科技合作伙伴和其内部容器技术专家的最佳实践。这些最佳实践为运行高性能、可靠和安全的容器工作负载提供了指导。白皮书中还提供了一些常见用例的参考架构。 AWS Well-Architected框架以六大支柱为基础——卓越的运营、安全性、可靠性、性能效率、成本优化和可持续性。它为AWS用户提供了特定的信息,帮助他们采用AWS的最佳构建实践。新的容器透镜加入了其他特定于领域的透镜,如物联网、无服务器、AI、ML和SAP。 运营卓越支柱专注于系统的运行和监控,交付业务价值,提供洞见,推动持续改进。容器透镜关注的是容器生命周期管理和可观察性。例如,在准备阶段的建议包括确保了解容器的基本镜像是由什么组成的。这与最近对供应链安全性的关注和更好地了解应用程序中使用的组件是保持一致的。 这一支柱的其他建议还包括建立父镜像或烘焙镜像,然后用于创建所有下游的镜像。这种方法可以更好地控制和治理被包含在基础镜像中的内容。他们建议在构建了下游镜像后,将其用在所有的环境中。随着通过每个阶段的验证,不断在各种环境中推广使用。 安全性支柱的建议包括关注容器应用程序的最小特权,实现所有构建基础设施的访问控制,以及最小化镜像的攻击表面。他们建议在没有shell或包管理器的情况下运行distroless镜像,防止不良行为者随意修改镜像。最近,谷歌宣布他们的distroless构建达到了软件工件供应链级别(Supply chain Levels for Software Artifacts,SLSA)2级。类似地,Chainguard发布了Wolfi技术预览版,在设计上提供了最小化的攻击表面。 性能效率支柱的建议主要关注容器的构建时性能。他们指出,运行时性能超出了容器透镜的范畴,应该包含在性能效率支柱白皮书中。 可靠性支柱主要关注监控应用程序的运行状况、构建和测试镜像的自动化以及对父容器镜像的自动化更新。这个支柱以使用基础父镜像的建议为基础,建议使用分层的方式来管理容器镜像。这应该从通用共享的基础镜像开始,然后安装特定于应用程序的工件,并在最后一层安装应用程序所需的二进制文件。 他们进一步建议,所有这些镜像都要在源码控制系统中进行维护和标记。他们建议使用“持续集成过程,在源码控制系统中的容器镜像和镜像标签之间创建直接关联”。根据白皮书的说法,这种方法有助于确定在不同的镜像发布之间发生了什么变化。 成本优化支柱主要关注镜像的效率、自动伸缩和快速启动时间。这三个建议将有助于减少所需的容器数量和运行时间。可持续性支柱提出的建议与成本优化支柱类似。 最后,白皮书提供了许多用于解决常见用例的参考架构,例如,关于如何确保容器构建管道安全的架构。他们指出,这个架构应该与运行任意类型管道相关的安全实践一起实现。安全容器化构建管道的参考架构(来源:亚马逊云科技) 容器透镜现在可以在Well-Architected Framework文档中找到。Well-Architected Framework 的部分内容在Well-Architected Tool中可用,但容器透镜只提供了技术白皮书。 原文链接:https://www.infoq.com/news/2022/11/container-well-architected/相关阅读:亚马逊云科技开源Event RulerStack Overflow 2022报告:亚马逊云科技的软件开发“武器库”
| 3,540 | 1,667,952,000,810 |
InfoQ
|
106 |
从人工智能到应用智能,AIoT 在万物互联时代创造了“新可能”
|
随着5G、人工智能、传感器等技术的演进,世界正在实现万物互融。AI 与 IoT 两种强大技术的结合增加了应用的敏捷性和灵活性。AIoT 的最大优势,就是让“人工智能”走向“应用智能”。 近日举办的 2022 OGeek 技术峰会设置了“AIoT,智联生活新未来”主题专场,OPPO智能视觉云服务研发负责人宋佳洋、亚马逊云科技物联网产品专家蔡裕正、OPPO智能物联架构师陈松三位技术大牛,基于端云协同的实践案例展开了 AIoT 在各场景下技术发展的讨论。 值得一提的是,“OGeek Day”是由OPPO数智工程事业部主办的行业技术沙龙品牌,旨在为技术爱好者搭建一个技术交流和分享的开放平台。沙龙主要围绕“科技为人、以善天下”的品牌使命,聚焦于为智能终端提供安全高效的数据、算力、算法、云服务方面的前沿技术,打造技术互动的行业生态,探索技术在行业应用的实践、突破及未来发展方向。2022年10月29日、30日,OGeek 技术峰会在InfoQ视频号进行直播,本届峰会以“云无界、端无边”为主题,与各位开发者一起探讨音视频、云渲染、AIoT、一站式应用开发等热门技术的演进方向,共建端云协同生态。 以下为“AIoT,智联生活新未来”专场的精彩内容回顾: 一、OPPO 智能视觉在智能家居中的应用 当前市面上的智能视觉家居产品已经有十余种品类,智能视觉技术在智能家居中的重要性与日俱增。于是在本专场中,OPPO 智能视觉云服务后端研发的高级工程师宋佳洋为我们深度解读了 OPPO 智能视觉技术在智能家居中的应用。 在具体技术实践中,企业构建智能家居视觉产品时主要会面临三大挑战。第一,场景化的 AI 需求,像场景化原子 AI 能力的需求点较多、根据不同场景有 AI 的定制化需求等。第二,准实时推理需求日益增长。例如智能车库识别车牌自动开门,陪护机器人监测到老人心肌梗塞后快速送药等,这些需求都需要接近实时的 AI 推理能力。第三,当前的智能视觉产品缺少人与人之间的关联互动及娱乐社交属性,应用场景比较单一狭窄。 针对上述挑战,宋佳洋介绍 OPPO 团队提出了对应的解决思路。首先是针对场景化的 AI 需求: 根据场景化 AI 需求针对性做模型训练,其次利用机器学习平台实现分布式训练和优化。训练出的模型要有一个较好的评测机制。评测完成后要落地应用,对模型做统一封装,提供给各种应用层来接入。我们支持多种协议接入,并采用低代码的思路,根据业务的不同要求定制对应的工作流,最后根据这个工作流与 OPPO 云函数计算平台结合,实现任意AI原子能力的组合式调用和推理。自动反哺。在整个 AI 应用过程中会有很多边缘场景,需要不断打磨模型,针对边缘场景优化。我们研发了异常数据统一导入和自动标注平台,异常数据导入和标注后模型会自动训练、发布版本,最终通过测试数据集生成评测结果。如果模型确实有优化就能投入实用。这样就实现了场景化AI从训练到应用再持续迭代的成果。其次,针对准实时推理需求,OPPO 打通了 ORTC 服务,实现端侧从触发推流到云通信 200 毫秒的延迟。为提升推理性能,研发团队采用了数据预处理等方法,并对模型本身做更多优化,引入多卡联合优化。团队还利用英特尔 OMP 加速指令改进了暗光增强等场景的性能。 针对智能视觉产品娱乐功能不强的现状,OPPO 推出了智能内容索引及内容创作服务,例如可以使用录制视频中的宠物片段快速生成 Vlog 等。 智能终端设备的能力离不开强大的云服务提供的支持。OPPO 构建了统一的智能视觉云服务,为智能手机、智能电视、AR 眼镜等终端产品解决了算力、场景建设、安全隐私等方面的需求。图:OPPO 智能视觉云 值得一提的是,针对智能视觉产品,OPPO 还构建了智能摄像头通用解决方案。这套方案可以应用于各种场景,不同场景依赖的原子 AI 能力、联动场景及触发行为各有不同。 图:解决方案场景应用 未来,这套智能视觉云服务将在不同的场景下发挥更多作用,例如在全屋智能方面带来更多创造力、在 AR/VR 的手势识别、体感、姿势识别等方面带来更多创新应用,或是通过智能视觉技术更好地呵护老人等。在智能视觉技术的帮助下,OPPO 的智能家居产品也将为用户带来更好的体验。 二、亚马逊智能硬件新品“家庭机器人 Astro”背后的技术解密 2010 年以来,亚马逊云科技开发了很多仓储机器人、无人送货机器人、智能监控无人机等产品。去年亚马逊云科技推出了服务型机器人 Astro,可以用来监控家庭安全状况、联动控制其他智能家居产品等。亚马逊云科技物联网产品专家蔡裕正在本专场中解读了 Astro 背后的技术。 如今的亚马逊云科技提供了机器学习、物联网、数据湖、数据库、数仓等能力及多达 200 种服务,包括分析服务、管理服务甚至游戏数据库服务,为开发者提供了多样化的技术底座,从而大幅减少上述时间和人力成本。 以智能机器人为例,其背后涵盖了许多服务。例如开发者可以利用 AWS RoboMaker 进行云端模拟仿真,利用 Amazon SageMaker、Amazon Rekognition 实现机器学习需求等。开发者可以像积木一样堆叠或添加所需的功能。 AWS RoboMaker 是亚马逊云科技的云端机器人服务。开发者可以用 RoboMaker 来开发和模拟机器人程序、控制管理多台机器人、进行固件更新或远程分析等。开发者还可以调用语音、对讲、视频等服务来为机器人快速添加功能。RoboMaker 可以生成许多随机模拟世界,构建机器人的仿真运行环境,开发者可以调整地面材质、家具摆放等参数,或模拟空中、海面等环境,或控制多台机器人进行联动测试等,进而快速收集运行数据。 Alexa 也是 Astro 背后的一项关键技术。Alexa 在欧美是非常流行的语音服务,在音箱、电视、智能手机、穿戴设备、电脑、安防、电器、玩具等设备上都有应用。除硬件集成外,软件开发者也可以利用 Alexa 给客户带来新的体验,例如 TikTok 便是通过 Alexa 语音控制短视频播放等。亚马逊云科技还同 NXP、高通等硬件厂商合作,制造集成 Alexa 的 IoT 开发板,帮助智能设备厂商提升开发速度。这些开发板能够将边缘侧的算力需求交由云端完成,从而减少成本。 此外,亚马逊云科技的 Kinesis Video Streams 服务能够获取存储媒体流,在云端播放、分析,或调用Rekognition服务进行场景或图像检测、人员识别,进而应用在机器人设备上。Astro 机器人的场景和人员识别能力背后都有这一服务的身影。 亚马逊云科技物联网服务是 Astro 机器人背后的另一大基础设施。物联网服务可以通过连接控制服务接入云端数据分析、AI 等服务上,最后再将机器学习模型部署到设备上,形成了 AIoT 的闭环应用。在物联网服务的帮助下,Astro 机器人能够利用亚马逊云科技云端强大的机器学习能力,改善与用户的交互体验。 Astro 机器人是亚马逊云科技云端技术能力在终端的一次集中体现。如今,越来越多的厂商开始使用亚马逊云科技提供的众多云端能力,为自己的智能硬件带来竞争优势。由此可以看出,终端硬件与云端能力的结合是智能硬件产品的“取胜之道”,Astro 机器人的成功经验非常值得其他厂商学习总结。三、极致体验:OPPO 智能家居生态实践 智能家居产业是近年的热点,因国家政策和用户需求拉动,发展速度较快。OPPO 几年前就提出了围绕智慧学习、智慧生产、智慧文娱和智慧健康这四个主题来寻求突破的技术战略。其中智能家居能够给用户带来实实在在地便利,例如语音控制能够解放双手,及时提醒功能可以避免浪费和遗忘,远程操控在外出时带来便利等。但在实践中,用户的多种智能设备可能来自不同品牌,各自需要自己的 APP 来控制,无法实现联动,体验非常割裂。这一问题的根本原因在于不同平台标准不同、底层协议不互通。OPPO 进入智能家居领域后就在设法解决这一问题。本专场中,OPPO 智能物联架构师陈松就围绕这一主题展开了分享。 如今,“标准混乱”是智能家居用户体验领域的常见问题。为此,OPPO 在“统一标准”这件事儿上做了许多努力,除了自研并对外推广 Heythings 家居互联协议外,OPPO 还对众多巨头发起的 Matter 协议做了深度支持。这意味着 OPPO 的智能家居产品能够与其他厂商兼容 Matter 协议的产品互联互通,最大程度得缓解了用户在使用过程中的“厂商绑定”尴尬。 标准统一后要解决的是设备配网的体验。传统的智能家居设备初次接入家庭局域网的操作复杂且缓慢,往往让用户头痛不已。对此,OPPO 实现了设备一键闪连,并通过系统内部架构和交互流程的优化提升了系统稳定性并降低了延迟。 一键闪连本质上是基于Heythings协议对Wifi网络所做的优化。值得一提的是,普通的配网流程分为 5 个步骤,Heythings 协议的配网流程也类似,有 7 步,1、5、6、7是绑定过程,2、3、4 是配网流程。“一键闪连”就是针对 2、3、4 步做的优化。 需要注意的是,Wifi 协议是帧格式,分为管理帧、控制帧和数据帧。管理帧有 11 种类型,有关联的请求响应、重关联请求响应、探测请求响应、信标帧、ATIM 帧、接触认证等。Wifi 协议的 Probe 探测帧和信标帧中有一信息元素叫 Vendor Specific,允许厂商自定义数据,且这个元素在同一帧里可以重复,意味着它可以传输较多数据。一键闪连就是利用该特性来自定义交互数据,实现设备的自动发现和配网。 一键闪连的流程中,配置提供端是手机 APP,配置接收端是智能设备。设备主动发出热点给 APP 探测,后者选择热点后可以通过探测帧携带经过 ECDH 密钥协商加密的配网数据发送给设备。设备解密数据就可以连接 Wifi。作为对比,普通设备配网流程需要 20 步左右,而一键闪连是一步到位。前者需要 20-30 秒,后者只需 10 秒左右,大大提升了用户体验。 除了C端用户,B端开发者也对智能家居产品生态有着巨大影响。OPPO 针对开发者体验做了很多优化工作,例如开发者可以一键式同步模型和流程配置,UI 工作台可以一键生成配网页、控制页设备卡片等。 OPPO 还提供了成熟的设备 SDK 和 APP 插件,以及强大的 IoT 平台,可以极大减少开发工作量。 OPPO IoT 平台的目标是实现高可用、高性能、高安全、易扩展等特性。平台业务架构分为三大业务域,各自有一系列业务能力: 对应的技术架构采用分层设计,上层包括应用层、网关、接入层和微服务层,下层是缓存和持久化层。该架构依托于 OPPO 强大的云平台,包括自研API网关、自研消息队列OMQ、自研对象存储OCS、自研的服务治理、自动化运维和全链路监控等。 APP 后端的核心模块交互,则具体描述了云云接入和直连接入两种方式的交互流程。APP 经过网关接入到云端业务服务,这里的模型转换会将 Heythings 指令转换成厂商能识别的模型、指令再接入到设备。直连的业务则经过 MQ 到消息分发再到接入服务,下发指令到设备。可以看到设备也可以上报状态,云端随之更新设备影子,用户也可以做固件升级。 为实现高安全性,需要从全局考虑,包括架构设计、流程制度、生产营销等各个环节,上述架构的网关接入层有权限校验、接口鉴权,业务服务有敏感字段的加密存储和日志脱敏处理等常规设计。设备接入使用三级证书做双向认证,安全套件使用的则是 TLS_ECDH_ECDSA_WITH_AES_256_GCM_SHA256。 为实现高性能,上述架构做了全链路优化。接入层使用高性能网关,各个中间件做了调优,业务服务器使用的 CPU、网络、IO、存储、内存等都做了相应优化。业务逻辑根据具体情况做了延后处理、提前处理、并行处理、异步处理、缓存、批处理等针对性的优化。 为实现高可用,IoT平台从架构设计、容量规划、安全性、项目管理与流程制度上等都有相应考虑。例如在架构设计上,OPPO 在网关接入层做了限流、RPC 超时设置,针对一些核心和非核心服务做了降级,对一些依赖服务做了熔断,以及进程隔离、线程隔离等。全链路涉及的组件还升级到同城双活和异地多活组件,同时做了异地多活的演练。 OPPO 的自研协议是平台很重要的一部分。OPPO 自研的 Heythings 协议主要关注从安全传输层到域网络层、模型层、再到应用层,构建了一整套安全交互,每一层为上层提供支撑,实现安全、兼容性好、可扩展的设备交互逻辑。 Heythings 的设备模型中,每个设备包含多个功能服务,每个服务下包含多个属性、方法和事件。Matter 协议的 Clusters 相当于我们的服务,其属性、方法、事件也同 Heyshings 类似。Heythings 和 Matter 设备可以建立映射来互相转换。 为了提升开发者接入 OPPO 智能家居产品生态的效率,OPPO 还打造了 UI 工作台。工作台覆盖了从产品配网到操控的全流程,通过一系列组件减轻开发者负担。 开发者接入时只需创建产品,在UI 工作台可以一键生成配网页、详情页。页面中的背景、样式都可以调整,开关、按钮等都可自由拖拽。 设备卡片也是工作台一键生成,其快捷功能可以方便地配置。生成的卡片有小卡、中卡的选项,操控功能也能灵活切换。这样的设计不仅可以提升开发者的开发效率,也能提升用户体验。比方说,用户配网成功后,就可以进入详情页控制设备。用户可以直接在卡片上操控多种快捷功能,且卡片样式可以持续升级,并通过规则管控,做到针对不同系统自动适配。 图:卡片结构 卡片的结构分为五部分。基本信息包括状态、版本号;模型信息包括设备模型相关的单位、精度、最大最小值等;布局信息包括颜色、间距、大小、字体等;逻辑信息包含交互逻辑;UI事件是指点击按钮的具体动作等。 这张卡片非常灵活,一次生成之后可以到处使用,很容易实现互联互通,在手机、平板、电视、VR、车机甚至手表上都可以运行,还可以做到一致的视觉体验,可以非常灵活地升级样式。由于逻辑部分也是单独抽象出来的,所以卡片功能要调整时也可以方便地配置、升级。 为了在不同系统间自动适配样式,工作台提供了规则引擎来管控。例如规则引擎可以针对老版本操作系统的旧样式生成一个版本布局,针对新版本操作系统的新样式生成另一个版本布局。通过规则引擎配置实现自动适配。四、写在最后 在本专场中,三位技术大牛的分享让关注 AIoT 领域的开发者们更好地了解了智能硬件和家居产品背后涉及的技术与创新,也为硬件企业开发产品提供了参考意见。从 OPPO 和亚马逊云科技 的经验来看,今天的智能硬件与云服务已经深度绑定,开发者需要从一开始就重视端侧硬件与云端的协同关系,为智能硬件产品的长期迭代升级打下牢固基础。 本场直播评论区互动精华Q:智能家居的用户信息安全隐私怎么保证?OPPO 智能视觉云服务研发负责人宋佳洋:这是一个好问题,看来目前大家对信息隐私安全也越来越重视。总体上看,我们严格遵守国家信息安全与隐私相关法规与政策:个人信息保护法、信息安全技术智能家居通用安全规范等等。我司已通过信息安全管理体系 ISO/IEC 27001、ISO/IEC 27701 以及云安全管理体系 CSA STAR CERTIFICATION(CCM V4) 的认证。 具体来讲,比如智能摄像头业务,我们集成了内部统一的 IoT Core 与 ORTC,实现账号与设备、视频流的统一管理,端到端都有统一鉴权,不会出现跨账号访问资源的情况。云端录制有统一用户授权策略,由用户选择是否开启云端 AI 功能,开启后对用户数据统一加密,自动流转,相关内容会经过我们加密服务器进行安全对称加密,密钥是账户级别的,统一由 KMS 进行管理。事件相关的 AI 推理,内容从加密服务器进行解密,获得关键帧后进行全流程自动化 AI 推理。Q:智能家居目前的行业痛点是让所有的智能家电都能联动起来,OPPO 从这方面是怎么考虑的?除了互联协议外,是否还存在其他解决方案?OPPO 智能物联架构师陈松:OPPO 会加强对 matter 协议的支持,扩展更多的品类,让用户有更多的选择;暂时没有考虑其他方案,底层协议如果不互通,设备厂商依然需要对接多家平台,成本很高,用户购买的设备可能是各个生态的,依然需要下载多个 app、体验割裂。
| 5,116 | 1,667,363,052,721 |
InfoQ
|
107 |
端云协同,打造万物智能化新未来
|
近年来,云计算、大数据、人工智能等技术的高速发展对社会生产生活带来愈加深刻的影响。数量和规模快速增长的数据中心,拥有庞大算力和海量存储的集群,每天都在为各行各业运行类型繁多的服务和应用并创造惊人的价值。 另一方面,移动互联网的全面普及极大推动了智能终端的进步。今天接入移动网络的智能终端数以十亿计,未来甚至可能达到千亿量级。虽然这些终端承载的应用日趋复杂,但受限于设备尺寸、能耗与成本等因素,其本地算力、存储空间并不能无限提升,以至于成为应用体验持续提升的瓶颈。 面对这样的矛盾,行业意识到充分利用云端能力的优势赋能终端,打造端云协同的一体化服务才是最终实现万物智能化未来的解决之道。现如今,端云协同已经成为开发社区竞相研究的前沿技术方向,OPPO 也在积极探索端云一体,并帮助开发者在该领域快速成长。10 月 29 日举办的主题为“云无界、端无边”的 2022 OGeek 技术峰会便是 OPPO 为关注端云协同技术的开发者打造的一个交流平台。 “OGeek Day”是由 OPPO 数智工程系统主办的行业技术沙龙品牌,旨在为技术爱好者搭建一个技术交流和分享的开放平台。沙龙主要围绕“科技为人、以善天下”的品牌使命,聚焦于为智能终端提供安全高效的数据、算力、算法、云服务方面的前沿技术,打造技术互动的行业生态,探索技术在行业应用的实践、突破及未来发展方向。2022 年 10 月 29 日、30 日,2022 OGeek 技术峰会在 InfoQ 视频号进行直播,与各位开发者一起探讨音视频、云渲染、AIoT、一站式应用开发等热门技术的演进方向,共建端云协同生态。 2022 OGeek 技术峰会的主论坛特别邀请到了来自 OPPO、英特尔、阿里云、亚马逊云科技的多位专家,为大家描绘了一幅美好的“端云协同”技术蓝图。以下为精华内容整理:一、端云智能协同,守望万物互融未来 在端云协同的语境中,终端厂商扮演着非常重要的角色。那么终端厂商该如何发挥云计算的作用,又该如何看待云与终端的关系,充分利用云的能力为终端赋能?OPPO 云计算中心总经理鲍永成为我们解答了这个问题。 在打造端云协同生态的道路上,OPPO 首先发力智能云建设方向。OPPO 为实施全球化战略,更好地服务全球亿级活跃用户,需要打造遍布各洲的云基础设施,实现高效率的资源交付、业务部署并保障业务高质量运行。 如今,OPPO 智能云服务于搜索、软件商店、游戏、金融、电商等互联网业务,以及芯片、IoT等领域,月活用户突破 5 亿,数据规模超过 EB 级别。在智能云建设过程中,OPPO 团队打造了高并发、高可靠、高扩展性的全球混合云,拥有了从底层的计算存储网络到中间件、数据库、接入层、智能运维的完整的云服务体系,实现了云、大数据和人工智能的融合。在全球混合云平台的基础上,OPPO 开始打造端云协同的新一代智能云,突破云端与终端原有的交互模式,实现无边界、一体化的端云融合。 新一代 OPPO 智能云包含实时通信、云渲染、端云智能大脑、端云存储和 IoT 平台几大核心技术底座,使智能云成为终端的算力、存储和互联平台。基于这样的平台,OPPO 能够为用户提供大量创新性的服务,例如云端相册视频实时播放、云游戏一点即玩、基于实时云渲染的超写实数字人、 3D云创作、虚拟现实的泛终端服务等,满足用户日益增长的工作、娱乐需求。 OPPO 智能云正在向更贴近终端的方向持续演进,OPPO 将以泛终端智能云为无处不在的元终端提供多样化、个性化、智能化的服务,实现端云协同、万物互融的愿景。 相比终端厂商,云计算厂商更关注云“创新业务”的技术探索。比如阿里云目前非常重视边缘云的创新业务探索与端云一体技术的研究,阿里云还同 OPPO 展开了紧密合作,共同打造端云协同的产品化落地方案。 随着 5G 和新技术相关产业的发展和演进,越来越多的业务场景从中心云下沉到边缘云,或者从终端上移到边缘云。边缘云能够为客户实现成本下降、用户体验提升和业务革新的价值。在本届峰会的主论坛上,阿里云智能边缘云产品负责人佘俊泉解析了阿里云在该领域的实践: 阿里云边缘云矩阵由 CDN 和 ENS 两大产品线组成。其中,边缘应用托管服务 ENS 是 IaaS 产品形态,发展四年来先后定义和统一了边缘云标准、完成了全国省市的全域节点覆盖,并规模落地了众多场景方案。阿里云边缘云采用统一的轻量化产品技术架构提供了计算、网络、存储、安全、中间件的产品能力,构建了 IaaS+PaaS 的边缘云组合产品矩阵。在端云协同场景中,阿里云边缘云主要能够为客户提供三大差异化价值:突破终端的兼容性、性能等限制,达成业务降本提效目标;分布式部署和调度,通过海量边缘云节点极大提升终端用户体验;将流量分发和互动控制在边缘,有效降低带宽成本。 在具体实践中,阿里云边缘云在云化机顶盒、云游戏和云渲染场景中都发挥了预期的作用。云化机顶盒方案帮助用户节省了机顶盒更新换代的成本,云游戏方案有效降低了大型 3D 手游的硬件运行门槛,云渲染方案则在淘宝“造物节”帮助手淘用户获得了实时虚拟互动的体验。此外,阿里云边缘云在交通、公共事业、新零售等领域也在不断挖掘应用场景,推动各行业架构升级。阿里云还与 OPPO 合作,成为了“云端一体”战略共生合作伙伴,在元宇宙时代加速走向虚实共生的数字化新纪元。 二、“硬件创新”将引领云计算的未来 云计算技术的发展与硬件技术的持续创新是分不开的。随着物联网、边缘计算的普及和端云协同理念的推广,行业对底层硬件技术提出了更高的需求。本届峰会主论坛上,以英特尔为代表的多家硬件厂商从硬件研发和创新的角度展望了未来云计算产业的底层演进路径。 在端云协同的大环境中,分布式计算资源非常普遍,大量数据需要在边缘生成和处理。与此同时,异构计算的需求增长需要更多样化的处理器与加速器组合。面对这样的需求,英特尔做了许多技术探索,并取得了战略性技术突破,英特尔中国区云与行业解决方案集团互联网行业总经理胡凯对于英特尔在该领域提出的解决方案做了详细介绍,他提到,“英特尔不仅在继续发展至强、酷睿、凌动等处理器产品线,还提供了 GPU、IPU 等专用加速器”。 随着全球对降低碳排放、减少碳足迹的目标逐渐形成共识,数据中心是碳排放的重要源头之一,为减少云计算产业的碳足迹,硬件厂商需要持续创新来提升服务器集群的能耗比。英特尔的新一代处理器都采用了更先进的制造工艺与一系列节能技术来节约电力、提升运行效率,英特尔公司还与合作伙伴共同研发了数据中心的液冷方案和行业标准。 另外,在云计算场景中,安全性是尤为重要的课题。大量用户的个人数据、知识产权、商业信息存储在云端,任何信息泄露或恶意使用事件都会造成灾难性后果。与此同时,大规模数据中心非常重视稳定性、可管理性与可维护性指标,需要尽可能减少运维成本和服务器离线时间。对此,英特尔公司开发了 SGS 安全指令技术来加密敏感数据,并通过服务器能效管理、智能健康检测、智能问题发现与分析等手段保障云端集群可用性。 在本届峰会主论坛上,亚马逊云科技首席架构师费良宏介绍了亚马逊云科技的软硬一体解决方案 Nitro System,通过定制的加密芯片、专为云计算构建的虚拟机管理程序、专用 SSD 与板卡等手段结合运用,打造了新一代云计算服务器平台。Nitro System 可以简化集群管理难度、提升存储容量、减少网络延迟和抖动、提供安全可靠的服务器运行环境,进而满足客户对安全性、可维护性、可用性的更高需求。 此外,亚马逊云科技升级了自主的 Graviton 处理器,涵盖了常见的 CPU 负载实例,最新的 Graviton 3 处理器在性能和性价比方面都有明显优势。还针对机器学习的推理和训练需求研发了 inferentia 与 trainium 加速芯片,在实践中体现出了显著的能耗比优势。 总体来看,硬件产品如今已经广泛应用在了云端基础设施与边缘计算场景中,并在制造业、零售企业、金融行业等领域构建了大量智能解决方案。其中,人工智能芯片产品为端云协同的 AI 应用提供了强大的算力支持,配套的软件环境也为开发者创造了门槛更低的开发环境。 未来的云计算需要更高的速度、更好的安全性与更突出的性价比,这也是英特尔等厂商持续为云产业量身定制软硬件、不断迭代进化的动力源泉。三、"音视频+”是端云协同实践的主战场 音视频是互联网内容和流量的主要载体。随着网络通信技术的发展,互联网音视频的存在形式也出现了根本变化。本届技术峰会主论坛上,OPPO 音视频技术总监郑晓川为我们解读了端云协同新形势下,互联网实时音视频技术的发展图景,介绍了 OPPO 实时音视频平台 ORTC 的概况,并展望了未来实时音视频的繁荣生态。 3G、4G 时代,音视频应用以直播、点播为主,终端单纯接收内容。后 4G 时代及 5G 技术成熟后,音视频应用向实时音视频形式迭代,出现用户创作内容、多端互联互动、端云实时互动等特点。 未来,实时音视频互动将在社交娱乐、互动游戏、企业通讯、医疗、教育、金融和元宇宙等方向激发巨大市场潜力。 OPPO 对实时音视频技术非常重视,并建设了 ORTC 平台。早期的 ORTC 是为了满足 OPPO 手机之间的屏幕共享与远程操作需求而生,这也是 ORTC 的初代架构。第一代架构基于开源的 WebRTC 框架构建,深度整合大量自研技术,实现了 99.9% 的接通率、60% 的穿透成功率、200ms 以内的延时。在此基础上,ORTC 2.0 通过 SFU+MCU 的架构打造了端边云一体的平台,实现了全球范围的服务覆盖和稳定的服务质量。 在 ORTC 平台建设过程中,OPPO 注意到行业新兴的虚拟场景对端云协同的需求日益增长。ORTC充分利用云端算力弥补终端性能不足的缺陷,通过实时云渲染技术将计算卸载到云端,并通过 ORTC 的超低延时串流在终端呈现内容,为用户提供高精度的虚拟场景。OPPO 将 ORTC 升级为端云协同的实时云渲染平台,从而满足云手机、云游戏等场景的需求。 图:ORTC平台能力全景 ORTC 平台分为最底层的 IaaS 基础资源层、中间的 CPaaS 平台能力层与上层的多场景解决方案。平台覆盖了音频质量保障、AI 降噪、高并发、低延时等基础能力,加入了会议录制、白板协作、多端接入等场景能力,进一步扩展了捏脸换装、虚拟人空间库等元宇宙能力。 未来,ORTC 平台将会在智能家居、远程医疗、数字孪生、云端虚拟空间、CloudXR 等业务场景探索落地可能性。平台将进一步强化边缘计算、GPU 虚拟化、分布式渲染、低延时传播等能力,为上述场景构建技术底座。 四、从“IoT 平台技术架构演进”看端云协同 据相关机构预测,2026 年全球 IoT 市场规模将从目前的 6000 亿美元增长到 1.1 万亿美元,设备总量也将从 250 亿增长到 400 亿级别。OPPO 作为面向消费者的终端设备企业,对 IoT 市场,尤其是智能家居生态投入了大量资源,打造了自主的 IoT 平台。本届技术峰会主论坛的最后,OPPO 智能物联云技术总监夏舰波带来了这一主题的深度解析。 2021 年,全球智能家居产品出货量近 9 亿部,国内市场约 2.2 亿。虽然市场容量巨大,但国内头部厂商竞争颇为激烈,各厂商都开发了私有协议,不同厂商之间的产品难以互联互通,形成了各自封闭的生态孤岛。在这样的环境中,用户购买来自不同厂家的智能家居产品就需要安装多个 APP 进行控制,用户体验极为割裂。 面对这样的现状,OPPO 从 2018 年开始打造一个开放的 IoT 平台,希望能够为开发者赋能,有效连接来自不同厂商的设备和应用,实现设备间的互联互通,为用户提供智美生活的体验。 OPPO 总结了国外三大巨头的 IoT 架构经验,定义了 IoT 平台的几大核心能力:设备(连接)管理+数据管理+应用使能+云云服务。 值得一提的是,OPPO IoT 平台发展伊始就抱持着开放的心态与其他厂家展开合作。具体的合作过程分为云云合作、生态选品、开放赋能和智慧服务几个阶段。在“云云合作”阶段,OPPO 与 IoT 厂家共同制定互联协议,并提供低代码模型与 UI 工作台以方便开发者打造应用。 随着云云合作的推进,OPPO 开始转向生态选品方向,围绕安全守护、智能照明等五大场景重点构建智美生活体验。OPPO 精心打磨了 HeyThings IoT 平台,极大提升了用户体验。 紧接着,OPPO 开始重点攻关开放赋能方向,将 IoT 平台转向云端,面向外部厂家提供开放服务,吸引更多中小厂家参与生态建设。为此,OPPO 构建了一站式 IoT 开发服务云平台,重点打磨了 MQTT Broker、设备引擎与规则引擎三大核心组件。据悉,明年起,OPPO 将继续在IoT领域发力,力求打造更出色的IoT平台。 五、写在最后 本届 OGeek 技术峰会主论坛上,多位技术专家从多个视角解读了端云协同的技术趋势,展望了万物互联、互融、互通的美好未来。通过他们的分享,我们可以预见,在各大厂商的共同努力下,我们将拥有更美好的智慧生活体验。本场直播评论区互动精华Q:大量用户数据、商业信息都存储在云端,信息泄露问题,从硬件层面有什么解决方案吗? 英特尔中国区云与行业解决方案集团互联网行业总经理胡凯:可以用机密计算在数据进行运算的过程中始终保持数据的安全性,隐私性和完整性。机密计算通过在硬件中创建了一块可信环境的计算空间,提升了计算的安全性。英特尔通过在硬件中提供的 Secure Guard Extensions,即 SGX,达成了机密计算的要求。英特尔为了解决数据运行时加密问题,在 CPU 层面提供了 SGX 对加密运行环境支持,也就是说通过 SGX 在硬件层面提供了一个加密运行环境,电脑上任何软件,甚至操作系统,都触碰不到可信环境里面的明文内容。所以我们就可以放心地把想要运算的机密内容在这块可信环境里面做明文计算,这样做的优势是速度比较快,同时还能够保证运行在可信环境里的所有数据的安全性,可以保证云端用户数据和商业信息的安全。 亚马逊云科技首席架构师费良宏:数据安全从来不是一个孤立的问题,不要假设存在一种简单的办法就能够达成数据安全的目的。解决数据安全需要从平台、软件、硬件、架构、网络、存储等全方位入手才有可能满足我们对安全越来越高的要求。至于通过硬件层面实现这个目标,一个潜在的答案是机密计算。例如,我们可以将数据隔离在服务器内存的加密部分中,以确保它不能被访问或篡改。其典型的使用场景就是同态加密,使用加密数据执行复杂处理的。Amazon 的 Nitro Enclaves 就是其中的一个有效的解决方案,这意味着对数据操作可以从本地转移到云端完成诸如多方计算,处理高度敏感数据的任务。今天的机密计算倾向于公有云,但同时也存在多样化的需求,例如公有云、混合和私有云的部署等。任何级别的安全都需要相对应的成本,选择成熟且经济有效的技术方案是实现数据安全的重要环节。Q:ORTC 平台从多终端、跨场景方面有哪些技术突破?OPPO 音视频技术总监郑晓川:ORTC 平台作为 OPPO 实时互动平台,诞生的第一天就致力于多终端互联互通、助力业务多场景融合互动。在技术上,作为端端互联端云互通的桥梁,首先,ORTC 构建了覆盖全球的实时网络,实现全球终端/业务就近接入,端到端时延低于 200ms;其次,ORTC 的实时网络具备完整强大的分段 QoS 机制,在上行、中转、下行、接入等各个服务链路段注入自研的 FEC、RED、动态 Nack、Pacher 等抗弱网技术,保障了全链路 70% 抗丢包、1000ms 抗抖动能力。最后,ORTC 覆盖了几乎所有的软件操作系统和硬件设备的接入 SDK,并做到了轻量化,SDK包括 安卓、iOS、C/C++、JS、Flutter、Electron、RTOS、Unity、Unreal 等等,并支持多人音视频、屏幕共享、互动白板、实时云渲染、富文本远场传输等能力,给业务插上业务场景创新的翅膀。Q:OPPO 与 IoT 厂家一起制定了哪些互联协议?可以仔细讲讲吗? OPPO 智能物联云技术总监夏舰波:OPPO 和美的、VIVO 一起制定了 Heythings 云云对接协议,在此基础上我们扩展支持了海信、中移动、创维、奥克斯等 IoT 厂商的设备。通过云云对接的方式,OPPO 手机可以操控更多智能家居。同时 OPPO 是 CSA 联盟和 OLA 联盟的重要成员,积极参与 matter 标准和 OLA 标准智能家居协议的制定和推进。ColorOS 13开始支持了 matter 设备的发现和操控。
| 6,082 | 1,667,363,033,744 |
InfoQ
|
108 |
新工具爆发式增长,数据工程师的未来在哪?
|
本文最初发布于Airbyte官方博客。当前,数据工程是一个令人兴奋的主题,这是有原因的。自出现以来,数据工程领域的发展脚步就从未放缓。新技术和新概念最近出现得特别快。2022年年底就快到了,现在是时候回过头来评估下数据工程当前的状态了。如今的数据工程角色未来会是什么样子?还会存在吗?在这篇博文中,我将聊下数据工程角色的过去和现在,并分析新出现的趋势,为对未来做一些预测。过去:从商业智能到大数据要把握数据工程的现在和未来,必须了解它的发展历史。因此,让我们首先回顾下数据领域中出现的一些最重要的事件和技术,是它们催生了如今的数据工程角色。数据仓库是我们为了理解数据所进行的最早的现代化尝试之一,可以追溯到20世纪80年代。当时,第一个商业数据仓库已经初具雏形。20世纪80年代末,Bill Inmon开始正式使用“数据仓库”一词,他被认为是数据仓库之父。也是在20世纪80年代,SQL成为一种标准的数据库语言,直到今天我们还在使用!Inmon为数据仓库原理打下了坚实的理论基础,而Ralph Kimball在1996年出版的《数据仓库工具包》一书为维度建模奠定了基础。随着大规模并行处理(MPP)数据库的推出,数据仓库开启了可扩展分析的时代。这使得处理以前无法想象的数据量成为可能。像商业智能工程师这样负责管理数据仓库的工作应运而生。21世纪初,互联网泡沫破裂,只有少数公司——包括雅虎、谷歌和亚马逊——最终成了科技巨头。他们得到了前所未有的发展,受此影响,工程师们开始寻找更复杂的解决方案,以满足更苛刻的数据需求。为什么会这样?因为当时可用的单体数据库和数据仓库不足以处理新的工作负载。就是在上述情况下,谷歌在2003年发布了那篇著名的论文“谷歌文件系统”,介绍了一种“用于大型分布式数据密集型应用的可扩展文件系统”,并在2004年发布了关于MapReduce的论文,介绍了“如何简化大型集群模式上的数据处理”。然后,在2006年,雅虎的开发人员发布了Hadoop分布式文件系统。与此同时,像服务器和RAM这样的硬件也变得便宜而普遍。21世纪的创新,以及各种规模的企业积累的TB甚至PB级的数据,催生了我们所知的大数据,开启了大数据工程师的时代。当时,大数据工程师广泛使用了开源框架Apache Hadoop。Hadoop项目主要包含以下四个模块:Hadoop Common:支持其他Hadoop模块的标准实用程序;Hadoop分布式文件系统(HDFS): 一个分布式文件系统,提供对应用程序数据的高吞吐量访问;Hadoop YARN:一个用于作业调度和集群资源管理的框架;Hadoop MapReduce:一个基于YARN的大数据集并行处理系统。数据工程师需要具备软件开发和底层基础设施操作方面的专业知识,并拥有专门的技能组合,能够充分发挥Hadoop框架的作用。后来,他们又需要具备其他与Hadoop相关的Apache技术(比如Hive以及更近一些的Spark)的使用经验。大约在Hadoop出现的时候,亚马逊决定推出第一个公有云,通过亚马逊云科技(AWS)对外提供其内部技术。其他公有云提供商,如谷歌Cloud和微软Azure,也很快出现。公有云彻底改变了软件和数据应用程序的构建和交付方式,成为这个时代最重要的技术之一。云计算的一个主要优势是,与自行购买硬件相比,可以帮助企业在前期节省大量的固定成本。当使用自己的硬件时,为了保证资源够用,公司必须准确预测他们的工作负载有多大,因为硬件的购买周期很长——这不可避免地会导致过度供应,因为未来很难准确预测。另一方面,使用云,公司只需要为他们使用的资源支付增量成本,而且这些资源很容易随着需求的增加或减少而伸缩。快进到2010年代初,一些以数据为中心的技术出现并崭露头角,例如Amazon Redshift——第一个云原生大规模并行处理数据库——接着是BigQuery,以及更近一些的Snowflake。2010年代早期到中期是数据世界的一段不平凡的时光。那时候,任何公司都可以使用与最著名的IT公司同样先进的数据工具。随着云数据仓库的出现,我们有了管理数据工作流的新工具,其中最受欢迎的有:编排:Airflow转换:dbtBI:Looker、Metabase、Periscope、Mode等所有这些数据产品构成了我们所说的现代数据栈。正如Tristan Handy所言,“现代数据栈促成了2012年10月Amazon Redshift的发布。”最近,Justin Chau采访了Airbyte高级数据工程师Alex Gronemeyer,了解她在数据世界职业生涯的不同阶段亲身经历的所有变化。Alex说,“我对数据工程有比较深入的了解,当时我正在用Spark和Scala编写Hadoop管道,我们还没有真正上云;我们做了很多Hive查询,并直接调用API来获取数据。将新数据存入我们的数据库需要付出很大的努力,所以我非常感激现代数据栈提供的工具。”随着数据产品和现代数据栈的出现,在某种程度上,大数据工程师的头衔有些过时了(毕竟,现如今的数据都很大,对吧?),出现了一个更简单、使用更广泛的术语:数据工程师。2017年,Airflow创建者Maxime Beauchemin写了那篇著名的文章,描述了从商业智能工程师到数据工程师的转变。那时,全世界都意识到了数据工程师的兴起。他2018年发表的文章“函数式数据工程”发挥了进一步的推动作用。现在:当代数据工程师由于数据工具的出现,数据专业人士的职业生涯发生了巨大的变化,以前那些微不足道的任务变得越来越有战略意义。由于大数据框架的特性已经被抽象出来,当代数据工程师可能会更多地关注全局,更多地关心价值链上游的任务,如数据建模、质量、安全、管理、架构和编排。与此同时,数据工程师越来越多地采用软件工程最佳实践。尽管软件工程和数据工程是不同的学科,但它们本质上也有一些相似之处:都是通过编写、部署和维护代码来解决问题。因此,当代数据工程师非常熟悉敏捷开发、代码测试和版本控制实践,诸如此类。除了最佳实践,数据工程还采用了来自软件工程的概念。函数式数据工程就是一个很好的例子,这个叫法源于函数式编程。其主要思想是任务(如将数据从系统A移动到系统B)应该是幂等的,就是说它每次执行的结果都一样。当任务失败或需要修改逻辑时,我们得知道,重新运行任务是安全的,不会导致数据重复或任何其他类型的错误状态。因此,幂等性对于数据管道的可操作性而言至关重要。另一个被数据工程采用的概念是声明式编程,它比命令式编程又高了一个抽象级别,关注的是“做什么”而不是“怎么做”。声明式数据管道会说,“将数据从系统A移动到系统B”,而不指定确切的数据流。在数据工程中,声明式管道很重要,因为它们为可观察性、数据质量监控和数据谱系奠定了良好的基础。这种声明式概念与从数据管道转向数据产品的趋势密切相关——其实现依赖于现代数据编排器提供的抽象。现在,数据工程师考虑更多的是管道要交付的产品,例如特定的仪表板或视图,然后以此为基础构建管道。数据即产品(data as a product)思想是数据网格架构的核心价值所在。Python也崛起并进入了数据工程领域,因为多年来,作为一种非常健壮的编程语言,其地位已经很稳固。由于内置了许多用于数据处理和展示的库,所以Python在数据社区的应用已经相当广泛。一个突出的例子是pandas(专门用于提取和转换数据)。也出现了其他基于Python的重要工具,如PySpark,这是Apache Spark的一个接口,让我们可以在分布式环境中进行交互式数据分析。可以肯定地说,如今,Python和SQL是任何数据工程师都必须知道的语言。多年来,组织组织数据团队的方式已经发生了变化。现在,为了更好地满足每个数据消费者的需求,出现了一些新的趋势,包括去中心化数据团队、自助数据平台以及在数据仓库以外存储数据的方法(如数据湖、数据湖仓或上文提到的数据网格)。尽管人们对组织层面的这种变化还莫衷一是,专家们对于哪种方式最好也还有不同的意见,我们看到的一个趋势是,让领域专家拥有他们使用的数据,而不是由一个中心团队负责“真相来源”。因此,现在许多数据工程师都归属于中心平台团队,负责优化数据栈的不同方面,而不拥有数据。上面提到的架构和组织层面的转变面临的主要挑战是保持对数据的共同理解。这就是人们采用语义层等概念的原因。语义层将复杂的数据映射到熟悉的业务术语,跨系统整合数据,提供统一的数据视图。那么,该如何定义当今的数据工程角色呢?让我们看下《数据工程基础》一书的定义,这是迄今为止最新、最完整的定义之一:“数据工程是开发、实现和维护一些系统和流程,而这些系统和流程会接收原始数据,生成一致的、高质量的信息,为像分析和机器学习这样的下游用例提供支持。数据工程涉及安全、数据管理、数据操作、数据架构、编排和软件工程。”数据工程生命周期,受《数据工程基础》一书启发如今,数据工程师负责监视整个数据工程流程,从收集各种来源的数据到提供给下游流程使用。该角色需要熟悉数据工程生命周期的各个阶段,并具备从多个维度(包括价格、速度、灵活性、可扩展性、简单性、可重用性和互操作性)评估数据工具以获得最佳性能的能力。未来:数据工程师将何去何从?似乎大多数(如果不是全部的话)数据工程都趋向于通过采用软件工程最佳实践来提升该领域的抽象水平、简洁性和成熟度。这对于未来意味着什么?我认为主要有如下四个趋势:数据工具的复杂度降低,而功能和特性增加。专业化程度增加,从而催生新的数据工程角色。数据生产者和消费者之间的差距缩小。采用了DataOps,改进数据管理。下面我们将稍微深入地探讨下以上趋势。退一步看,通过复杂的管道建立和维护数据源和目标之间的连接,一直是数据工程师的主要关注点之一。在这方面,有一个值得注意的发展,可以完美说明“工具易于使用和简洁性”这一趋势,那就是托管数据连接器。在回答关于使用数据连接器的问题时,Alex Gronemeyer提到:“从业务系统引入数据真的很有趣,只需几分钟就可以设置好一个新的连接器并让数据流进来,我以前从未经历过这样的事情。然后,当我开始为一个要在下游报表中使用的新数据集建模时,我的大部分工作集中在数据建模、清理和将数据连接在一起。我不需要再花一周的时间去获取数据,看看它是什么样子。这个问题已经解决了。”Airbyte是一个开源工具,它提供了数百个现成的数据连接器。例如,你可以创建一个从Postgres到Snowflake的数据管道,而无需编写任何代码。这个新一代的数据工具非常令人兴奋,甚至对技术能力很强的专业人员也很有吸引力,因为不需要另外创建一个ELT脚本,所以他们就可以把这块时间和精力用于其他对公司而言更重要的事情上。这一趋势未来似乎也不会放缓。工具的简化使得任何数据从业者(如数据分析师和数据科学家)都可以在几分钟内设置好数据管道,其直接结果是,数据工程师不再是瓶颈。未来,自助式分析可能会继续为下游数据消费者赋能。前面已经提到,数据世界可能会出现新的角色,就像分析工程师角色在21世纪20年代初出现那样。分析工程师是最可能从业务/数据分析师开启职业生涯的专业人士;因此,他们精通SQL和仪表板构建。自助式平台和像dbt这样的转换工具让他们可以从数据工程师那里获得更大的自主权。未来,我们可能会看到更多这样的专门角色出现。企业获取的数据比以往任何时候都要多,这要归功于改进后的数据工具提供了更多的功能。随着在数据生命周期中与数据交互并基于数据做出决策的利益相关方越来越多,数据可信变得至关重要。正因为如此,数据质量仍然是数据团队的首要任务。近来,对数据质量的日益关注催生了一个新的角色:数据可靠性工程师。这是一个专门致力于数据质量和可用性的数据工程角色。我相信,这个角色会继续发展。数据可靠性工程师将DevOps最佳实践应用于数据系统,如CI/CD、服务水平协议(SLA)、监控和可观察性。另一方面,软件工程和数据工程的岗位和职责也会交汇。这种转变可能是由结合了软件和分析的数据应用推动的。未来,软件工程师可能需要精通数据工程。随着流式架构和事件驱动架构的出现,上游后端系统和下游分析系统之间的界限将逐渐消失。数据生产者会越来越关注分析和数据科学用例,这一趋势会继续发展。采用数据契约的人已经越来越多:源系统的所有者和负责将数据输入数据管道的团队之间达成的协议。这意味着,未来生产者和消费者之间的耦合将更加紧密。宏观上看——除了技术或工具之外——数据生态系统正朝着利益相关方之间加强合作的方向发展。这催生了新的思维模式,如DataOps。正如Gartner所定义的那样:“DataOps是一种协作式数据管理实践,致力于改善组织内数据管理者和数据消费者之间的沟通、集成和数据流自动化。”归根结底,新数据工具和实践的爆炸式增长都是为了解决了一个一直存在的问题:数据管理、更好地协同工作及提供价值。未来几年,这一领域将得到显著改善。有人会质疑,上述情况是否会导致未来数据工程师消失。我认为不会。工具的日益成熟,生产者和消费者之间差距的逐步缩小,以及DataOps的实现,意味着数据工程师将专注于更具战略性的任务,不是作为中间人,而是作为自动化顾问和推动者。岗位和职责也将发生变化,“数据工程师”一词可能会被更专业、更具体的头衔所取代。但数据工程不可或缺,因为企业越来越依赖数据,而且要开发新的数据驱动的基础设施和流程。未来,为了适应不断变化的需求,数据工程师将负责设计灵活的数据架构,其中包括针对为业务提供最大价值的工具和流程做决策。声明:本文为InfoQ翻译,未经许可禁止转载。原文链接:https://airbyte.com/blog/data-engineering-past-present-and-future
| 5,270 | 1,667,288,130,578 |
InfoQ
|
109 |
对话甲骨文公司副总裁谢鹏博士:全面数智化大背景下,云和数据库该怎样融合发展?
|
近日,在2022年甲骨文云全球大会(Oracle CloudWorld 2022)上,甲骨文公司宣布推出 MySQL HeatWave Lakehouse,它可基于亚马逊云科技 (Amazon Web Services, AWS) 运行。MySQL HeatWave Lakehouse 是 MySQL HeatWave 产品组合的新产品,能够将事务处理、分析、机器学习和基于机器学习的自动化结合在单一 MySQL 数据库中。MySQL HeatWave Lakehouse 采用大规模并行横向扩展 MySQL HeatWave 架构,客户可以通过单个查询在 MySQL 数据库中查询事务处理数据,并使用标准 MySQL 语法将其与对象存储中的数据组合。甲骨文公司首席企业架构师 Edward Screven 表示:“MySQL HeatWave 是多年研究和开发的成果,我们正在将其转化为突破性创新,以应对MySQL 客户面临的更大挑战。事实上,MySQL HeatWave Lakehouse是我们今年就 MySQL HeatWave 的第三个重大发布。存储在数据库之外的数据急剧增长,借助 MySQL HeatWave Lakehouse,客户可以利用 HeatWave 在各方面的优势,处理驻留在对象存储中的数据。MySQL HeatWave 目前在多个云平台上提供一项集成服务,用于事务处理、跨数据仓库和数据湖的分析以及无需数据仓库技术 (ETL) 的机器学习。在这之前,甲骨文公司发布了可基于亚马逊云科技 (AWS) 运行的 MySQL HeatWave,以支持开放式的多云基础架构战略。MySQL HeatWave能够在单一MySQL数据库中整合联机事务处理(OLTP)、分析、机器学习和基于机器学习的自动化功能。现在,AWS 用户可以在一个服务中运行事务处理、分析和机器学习工作负载,而无需在不同的数据库之间进行耗时的 ETL 复制,比如在用于事务处理的 Amazon Aurora 和用于分析的 Amazon Redshift 之间,或在用于分析的基于 AWS 的 Snowflake 以及用于机器学习的 SageMaker 之间进行 ETL 复制。借此消息宣布之际,InfoQ有幸采访到了甲骨文公司副总裁及中国区技术顾问总经理谢鹏博士,请他来和我们聊一聊当下企业全面上云时代,有关云和数据库融合发展的一些话题。InfoQ:现在数据库上云已经成为大家普遍的共识,据Gartner预测,到2023年全球差不多有3/4数据库都会跑在云上,Oracle该如何应对这一趋势?谢鹏博士: 提到的数据库上云的趋势,无论从应用层到数据库,还是到基础设施,云计算都是一个非常重要的推动因素和变革因素。 首先,从应用层看如果是SaaS平台,其应用一定也是要部署在既定数据库上。第二是从云数据库自身来看,无疑企业级负载向云迁移推动了这个进程。但是如果我们细看一下,这个趋势也非单极和终级的趋势,做为企业的基础设施,都应是多云和混合云环境,我觉得这既是现实也会是常态。 混合云即是将公有云、私有云和本地计算统一构建到企业的IT基础架构,通过跨多个架构扩展的Kubernetes 集群实现服务的使用、管理和编排,从而企业能够构建单一、统一且高效的 IT 基础架构。混合云成为大多数商业系统合理的选择,一是公共云和私有云环境的有机结合,二是对即有IT投资的利用,三是可以满足合规、安全的需要。对数据库部署来说,混合架构也是现实及合理的选择,尤其对企业级的关键应用更是如此。Oracle可以高性价比地提供包括公有云、私有云和专属云的混合架构服务,数据库层也是如此。在总的趋势下,再看差别,进程的差别可以从以下两个方面看:一是行业的因素。在不同的行业中趋势会不太一样。比如说交通、能源、邮电通讯、供水供电和公共事业,还包括金融,同时还有核心制造业。这些行业有着上述大趋势的情况下,相对来说向云数据库迁移会是审慎的,而且需要有一个成熟的过度阶段。如果以互联网为代表的行业,显然这个趋势是显著的,而且是在加速的。这是所说的行业因素。二是要看工作负载。向云数据库迁移时, 工作负载(Workload)是什么?如果你要去看事务型的处理,在同样的云化大趋势下,很多企业级的关键型任务(mission critical system)并没有显现大规模迁移。但是如果要去看分析型的事务,YES!也就是OLTP和OLAP要分开去看,这是从事务负载的角度,但两者又是相辅相成的,有着技术和业务的强关联性。这也是Oracle推出MySQL Heatwave的意义就在于MySQL也支持OLAP了,在一个数据库实例中实现混合计算负载(HTAP)。简单说HeatWave是MySQL Analytic Engine服务中的分析执行引擎。云计算无疑是一个推动变革的因素,这一点是毫无疑问的。但在变革的过程中,就数据库而言,受制于行业因素和负载类型的影响。Oracle也及时洞察到技术和需求的趋势,在不断地变革自己。技术研发上,Oracle依托两个主流数据库:Oracle DB、MySQL,两者近几年都有持续的新功能发布和性能的提升。近日Oracle 2022 CloudWorld上也透露OCI支持MongoDB兼容的数据库服务即将发布。19C是Oracle DB自12C后的成熟、稳定和长期支持的集大成版本,这也是企业跟进最新技术变革,分享Oracle持续研发投入成果的最佳途径。InfoQ:其实金融行业也算是比较偏传统的行业,但是现在很多金融企业他的数据库也在逐渐上云。金融领域对数据库的要求是非常苛刻的,对高可用、低延迟的要求是非常高的。现在很多企业依然选择上云,他们都把核心系统迁移到了云上,是因为他们认为现在云上的数据库也变得很安全了、高可用了。对这样的趋势您是如何看待的呢?Oracle是否流失了一部分传统行业的客户?谢鹏博士:您讲的在金融行业观察到的现象,我们也注意到了,的确有这样的情况。金融行业也是我刚才讲的mission critical业务较为典型的行业之一,对高可用性,数据的强一致,有着非常高的要求,金融企业上云的态势如果从更细分业务层面去看,就会发现,上云速度比较快的是金融行业中的一些像互联网业务、渠道业务、支付业务这样的领域。但是核心业务和核心系统,相对来讲就非常审慎了。互联网业务、渠道、会员管理等等,还有在支付方面,它们的业务性质决定了上云的迫切性和合理性。这些变革背后,是技术和需求的叠加有力地驱动了互联网金融的变革,比如说像支付,大家会知道每到不同的购物节,基本上可以说每秒要达到百万级别的交易,所以当强需求遇到对的技术,变革就水到渠成了。但是在核心业务里面,我们要分解去看,它又呈现出不同的状态。回到Oracle,金融行业继续是Oracle非常重要的领域,许多企业也依然是Oracle的重要客户。我们和客户一起会评估并选择对客户是合适的基础设施和平台,包括数据库,一样在上面提到的混合架构下考量。在其核心业务系统的这一块,我们与包括银行在内的许多金融服务企业,以及所有关键业务重要的企业都在紧密合作,而且这个合作在持续深入,已从数据库方面深入到业务连续性和安全方面。InfoQ:我们看到国内市场差不多有200多家数据库厂商,Oracle是如何看待国内市场这么多家数据库的现象?谢鹏博士:我们要稍微拉开一点看,数据库是属于IT中的基础设施的基础之一,而且是非常关键的基础,就像Database本身的含义一样。但有时候我们往往忽略对数据库认知的升级。进入数字化时代,当万物皆为数字,历史和现实都要装入数据库的背景下,无论数据和库这三个字的内涵与外延都大大拓展了,数据不仅是原来的数据,库也已不仅是存储和管理数据的集合。因此,数据库自然要被重新定义。依托自治管理(Autonomous)实现融合数据库(Converged Database) 并进一步实现融合数据平台(Converged Platform) 就是Oracle对变化万千的数据管理挑战的重新定义。回到您刚才的问题,我觉得这么多款数据库一方面有它存在的合理性和推动力的。当进入了大数据、互联网时代以后,它产生了对数据库分布式的要求。分布式系统的要求来自于互联网对大数据存储、高并发和快响应的需求。当互联网和大数据规模急剧膨胀后,在成本上单机数据库很难承受,所以就需要分布式数据库来分担一些压力,这是一个商业的因素。一个是从市场需求,一个是从商业的因素,这两方面的推动,就产生了很多数据库投资者或者或者是有很多技术创新的想法进入了数据库投资和研发的市场。它带来的一个好处就是使不同的应用都可以找到更适合它的数据库,从这个角度看是有积极面的。但从另一个方面看,即刚才说数据库是最关键的基础设施之一,这个关键就体现在对高可用性和稳定有极高的要求。在这种情况下,一款数据库能否最终走向商用,才是生存下去的根本。但是如果要迈过商用这条槛,实际上对于数据库来讲,最重要的就是你能不能通过长期大量的场景验证,在高可用性和稳定性上面得到验证并有体系性的保证。 数据库百家争鸣这个局面是现实,我们也希望能够看到更优秀的数据库产品可以脱颖而出。但是大部分距离成熟化的商用,应该一段路要走。我们要去看过去关系型数据库,实际上发展都有长达五六十年的历史。如果没有这样长时间的沉淀,很难在成熟应用上得到足够的验证InfoQ:您之前说过,数据库从研发到走向商用要经过五六十年研发的沉淀,才能最终走向商用。在没有经过很长时间沉淀的时候,这个市场上这样的现象只是一个局面。我们真正能够走向商用,还要再经过几十年的时间来验证这个事吗?我们需要多久才能看到结果?谢鹏博士:产品从研发到投入应用,并不需要几十年的周期。数据库它是在技术和应用场景的不断迭代中发展和进化的,然后再投资、再迭代,再继续成熟和发展。如果我们把产品成熟度打分是从1到5制,不是说一定达到5才可以投入应用。它要看满足不同的场景的成熟读度。而在某特定应用场景下,对数据库的要求就可以取得折中和平衡,或者说在平衡的前提下达到可用。比如,它可能在某些实时分析上做得很好,可能在这个场景中就会被有高性能实时分析需求的客户在这个应用所采用。这也是这么多数据库可以存在的原因,它有各自适合的应用场景。谈到这里, 必须谈到的一个问题就是, 微服务架构下自带数据库是解决了不同数据库对不同场景的需求满足,但是带来了新的问题,即数据一致性无法完全由数据库保证,而得由服务调用解决数据的共享。构建数据中台的需求即由此而产生,回到了追求One data, One service。至此,我们 可以思考一下这是我们的初衷吗?InfoQ:是不是我可以理解为,这个数据库能不能商用已经成为了整个数据库市场洗牌的关键,能商用的可能会留下,不能够最终走向商用的可能被淘汰掉?谢鹏博士:这个话题就不是纯技术的话题,我们要从两个角度去看。因为我们从技术的角度,像一些开源的,它总能在开发者社区的参与下不断地去迭代出新版本;但如果从投资的角度和估值的角度去看,需要解决如何平衡开源路线和商业化,一个是精神,一个是未来。InfoQ:因为现在很多企业出海,大家想去海外淘金。目前有的企业像华为云、阿里云、腾讯云都可以为国内的出海企业提供服务,Oracle在这上面有没有布局呢?Oracle相对于其他的厂商有什么区别呢?我们怎么样服务中国客户?谢鹏博士:Oracle为中国的出海业务提供云服务是非常明确的策略,也是Oracle云平台的优势所在。从任务类型看:Oracle云基础设施平台(OCI),既支持Oracle工作负载,也支持NonOracle工作负载。在数据库方面,除支持基于OracleDB的工作负载、数据湖仓一体和MySQL Heatwave及MySQL Heatwave Lakehouse云服务外,更重要是支持各种云原生的应用和服务,用户可在OCI上构建云原生应用,支持基于标准的Kubernetes开源平台。从行业方面,特别聚焦在出海电商, 另外有游戏、HPC和IOT等等。当国内的业务需要有一个支撑业务全球发展的平台,这个时候云平台实际上方便地满足了原来On-premise(本地部署)不能达到一些需求。 在企业出海时,选择Oracle云平台有两个最主要的好处:第一是我们以提供更低的成本让客户去获得所需的云服务且全球一致。第二是提供给企业一个全球合规的云平台和数据的安全保证。Oracle Privacy Assurance 保护客户的数据主权和管控数据不会离开Trust Boundary,同时,OCI目前在全球已拥有40个数据中心保证更经济、更快速和更合规地扩展海外业务。另外,在双引擎的数据库云服务上(Oracle DB和MySQL Heatwave LakeHouse)可以获得超越其他云厂商的极致性能。同时,面向 Microsoft Azure 的 Oracle 直连服务为企业提供了多云环境(包括 Oracle Exadata 数据库服务、自治数据库和 MySQL Heatwave 等 Oracle 数据库功能)的简单迁移之路。近日发布的MySQL Heatwave on AWS又将OLTP、分析、机器学习和基于机器学习的自动化融合到了单个 AWS 实例中。InfoQ:在这个数字化转型的过程中,您觉得Oracle在国内助力企业数字化转型的过程中起到了什么样的作用?谢鹏博士:数字化是一个非常大的题目,而且会比较持久,可能要另谈。这个趋势是不会改变的,且未来已来,整个世界正在向一个数字化的社会演进。现在来讲,我们看到了一些主要的推动的技术因素,包括云、IoT、5G、AI、虚拟现实、实时互动、数字孪生等等。这些都是目前显现出来的一些推动因素,必然还有一些不断新出现的技术会给企业带来很多的新创新方向。不过,具体到一个企业在做未来规划时要更加具体、聚焦。 另外,在数字化转型过程中,除了技术,企业要有数字化转型的思维,要建立数字文化,还要培养数字化人才,这些往往是容易忽略的因素。
| 3,907 | 1,666,947,579,336 |
InfoQ
|
110 |
云原生图数据库在西门子成都工厂的数智化运营实践
|
西门子工业自动化产品(成都)有限公司是西门子在中国建设的首座数字化工厂,它主要负责工业自动化相关的产品,主要的产品是PLC可编程逻辑控制器、HMI人机交互界面和IPC工业电脑,2013年上半年投产。 西门子之所以将这家该工厂定义为数字化工厂,是希望通过数字化软件、套件SIMATIC以及相关硬件实现研发、制造、质量、管理系统的整体联动。 SEWC主要负责生产SIMATIC工业自动化产品核心的控制器,比如PLC,还有人机交互界面HMI和IPC工业电脑,供应中国以及全球的市场。数字化工厂持续致力于通过数字化的解决方案,智能制造为客户提供高质量准时交付的产品。 据西门子工业自动化产品(成都)有限公司信息技术部经理杨健介绍,工厂生产线上用到的系统是OEE系统,技术人员会通过这个系统收集各种设备的状态信息,但发生宕机时,却只能借助自动化或者人工来解决相应故障。为什么要用到图数据库? 以往,解决宕机或设备故障时,更多的是靠人工,因为每一次机器设备故障的代码是不同的,这是极为复杂的问题,就需要经验丰富的资深技术人员进行分析问题、寻找解决办法,同时去更新维修记录。 但生产线上的机台的复杂度是非常高的。随着自动化程度的提高,机台更深的组成会越来越复杂,同时它的知识点又特别多,各种故障代码和故障处理的方法更是多如牛毛。 此外,设备上的信息是分散的,每一个设备之间有组成的关联关系,各个设备之间还有各种复杂的互动式的关联关系。加之由于产能扩展比较迅速,很多设备进厂以后,产线的增长速度也特别快,所以导致产生的资料特别多,依赖人工处理就变得很困难。 所以,西门子在培育备份员工、培养新员工、提升员工知识体系等方面都面临着挑战,迫切需要一个数字化的解决方案,而图数据库正好可以很好地解决上述问题。 杨健表示:“西门子是一家相对比较传统的数字化企业,所以西门子的工厂线上使用的传统型数据库比较多,比如关系型数据库等等。图数据库在于对知识节点之间的连接和它之间的推理,以及以后的查询都有独特的优势,这也是我们拿来做知识图谱类型的维护,以及设备机台相关信息知识沉淀的一个工具”。 但市场上数据库产品众多,据权威机构统计,截至目前,市场上有两百多款数据库产品,数据库的选型问题困扰着各行各业。为什么西门子成都工厂会在众多款数据库中选择了Amazon Neptune? 对此,杨健称:“西门子成都工厂使用了亚马逊云科技的云服务,无需关注底层的实践,更多是直接使用它。我们还在逐渐摸索不断优化的过程中,从使用效果来看,基本上达到了我们预先设想的,能够把关联性和一些分析的推荐呈现到机台的用户端。利用亚马逊云科技图数据库Amazon Neptune后,大大节省了人工要去努力进行判断,系统能够给予一个比较及时正确的故障的判断,我们基于这个系统做进一步的人工处理,大大节省了目前的资源和能力。”Amazon Neptune数据库在西门子成都工厂应用实践 将Amazon Neptune数据库部署到实际生产环境中,具体是怎么实现呢? 杨健介绍:“当遇到故障时,我们会将故障汇报到机台上,然后在机台上做相应的数据采集。根据数据采集的源头来分门别类把这些故障录入到系统里面。Amazon Neptune数据库会根据我们录入的各种机台之间的关联关系,比如贴片机有吸嘴库、吸嘴库里面有吸嘴等等一系列的关联关系,基于这个图数据库,结合西门子引入的机器学习归因分析和内部研发部参与的各种算法的加持,我们就可以快速定位相应的原因,这个原因就会显示在OEE系统的界面上面。这样,普通操作人员也能很快地根据这个故障大概了解到问题的核心在哪里,从而进行有效的处理。” 此外,西门子成都工厂引入了云数据库后,并没有对原有的系统和应用模式进行替换,目前还是主要采取互补的形式。 杨健表示:“至少在工业领域还存在着对实时性、安全性要求比较高的场景,所以我们不太可能把本地化传统的数据全部进行云原生化的替换,所以目前最主要的场景都是互补的。” 将Amazon Neptune部署在实际生产环境也需要和其他基础软件做一些适配工作。云端的服务要通过某种API暴露出来,才能够被边缘端非常好的调用,这个也要适配本地的OE系统,实现API的调用,从而实现结果的互动。 可以看到,从研发、生产制造、运维等角度来讲,Amazon Neptune云原生数据库的应用的确为西门子成都工厂带来了不少好处。 对于研发来说,可以更好地实现市场定位,快速提供决策支持,快速获取各种产品与环境的关系,设计与生产的关系、设备与产品的关系、产品与零部件的关系、零部件与材料的关系以及供应商与采购商的关系,这样就能够及时发现、及时处理。 对于生产制造来说,西门子成都工厂主要处理的是各种核心工艺、设备之间的关系,物料存储之间的关系,质量检测,生产、计划、能力、消耗等等一系列知识结构的体系化,争取能够实现动态自动的处理,为生产人员提供快速准确的应对帮助。 对于运维保障来说,云数据库真正可以做到对运维的支持,比如说结构、使用手册、维护手段等等能够把它很好固化起来,同时能够通过非常友善方便而且及时专时专用的方式提供给使用者。同时还够提供多元化的方式,通过多种渠道进行相关的数据采集定位,找到问题,真正降低整个产线的故障成本。 杨健称:“综合来看,实际上在整个生产的生命周期我们都拥有了这样一个知识体系以后,就能够真正做到知识的不断推进,结合亚马逊云科技图数据库Amazon Neptune技术、Amazon S3存储、计算服务等能够真正实现基于工厂无缝的基础架构的运维支撑,同时,又能够享受到高质量基于人工智能、基于图数据库的服务。”
| 2,875 | 1,666,772,499,009 |
InfoQ
|
111 |
上云“被坑”十年终放弃,寒冬里第一轮“下云潮”要来了?
|
Basecamp 是 37signals 旗下一款流行的基于云服务的项目管理软件,其用户囊括了来自五大洲的 166 个国家的超 75,000 个组织。Basecamp 的上云历程已经超过十年,而且其前两年发布的产品HEY也一直在云端运行。不过近日,Basecamp & HEY 联合创始人 David Heinemeier Hansson 发文表示将要“下云”。 “我们用过亚马逊云科技、也用过谷歌云,试过裸虚拟机、也体验了Kubernetes容器编排。我们知道云能提供哪些功能,其中大部分都有实际应用。现在我们终于得出结论:对于像我们这样一家增长稳定的中型企业来说,租赁基础设施资源总体上看是笔糟糕的买卖。云服务商做出的降低复杂性、控制运营成本等承诺从来就没能实现,所以我们正在筹划脱离云端、重归本地。”“从未适用于Basecamp” 高昂的云成本 “云计算在两种极端情况下确实大有裨益,但只有其中一种跟我们有关。”Hansson 解释道,首先是应用程序极其简单且流量很低的情况,这时选择完全托管服务确实能摆脱大部分复杂性要素。 Heroku就是这样起步的,同是PaaS提供商的Render则证明这条路完全行得通。从零客户到少部分客户,云基础设施既是个良好的起点,也能在一段时期内帮助企业稳稳前行。但随着使用量的增加,账单也会水涨船高,并最终来到某个必须做出改变的时间节点。 另一种就是负载波动几乎毫无规律可言。具体来讲,负载运行期间经常出现剧烈震荡或者高耸的峰值,但基准资源需求却只相当于峰值的一小部分。面对这种情况,大家确实不知道该部署10台服务器、还是100台服务器。于是乎,上云就是最好的选择。 “我们在发布HEY的时候也属于这种情况。当时,突然有30万用户挤在三周之内注册试用我们的服务,这一规模远远大于我们预测的6个月3万用户。”Hansson 说道。 但Hansson 表示,“这两种情况都不再适用于今天的我们,也从未适用于Basecamp。所以如果继续坚持在云端运行,我们相当于既用不上云服务的亮点,又要承担几乎荒谬的夸张溢价。这就像明明住得离地震带很远,却要花四分之一的房屋总价买保险一样。如果真能遇上大灾害,那这钱花得确实有道理。可问题是并没有,这完全是在浪费资源。” Hansson 以 HEY 为例解释道,公司每年需要为亚马逊的数据库(RDS)和搜索(ES)服务支付超50万美元。“确实,在为成千上万客户处理电子邮件时,肯定得分析和存储大量数据。但结合价格来看,这样的状态还是让我觉得很荒谬。大家知道每年50万美元预算能买到多少台功能强大的服务器吗?” “按需计算“并没有更先进 “那样你就得自己管理服务器了。云服务多简单,省下的可都是劳动力成本!”面对可能到来的质疑,Hansson 先发制人:这么说的人肯定没尝试过在云端运行HEY或者Basecamp这类大规模服务。有些环节确实更简单,但有些环节反而更复杂。而且总体来讲,我还没听说过像我们这种体量的组织能单靠上云,就大幅削减自己的运营团队和日常开销。 作为经营者,Hansson 表示“云厂商的营销手段确实高明”。讨论的另一方总有话说,比如“你至少不用自己打理那么多基础设施设备”或者“基础设施服务构成你的核心竞争力”之类。面对这些直击灵魂的发问,云似乎再次闪耀起夺目的光芒,让每个考虑运行自有服务器的决策者都像是活在上个时代的老顽固。 但 Hansson 也指出,与此同时,亚马逊凭借租赁服务器赚取着惊人的利润。尽管一直在做容量和服务升级,但AWS的利润率仍然接近30%(总营收62.2亿美元,利润为18.5亿美元)。而且随着该公司表示“计划在未来将服务器的使用寿命由四年延长至五年,并将网络设备的使用寿命由五年延长至六年”,利润比例势必还会进一步上升。 “我对亚马逊靠云业务赚钱没有意见,毕竟租计算设备本来就不便宜。只是云服务总喜欢搞一大堆专业术语,比如‘按需计算’,听起来很酷,感觉比‘租计算机’整整领先了一个世纪。但二者好像并没什么本质区别。” Hansson 进一步指出,“而且这不只是成本问题,更关乎我们未来要如何运营整个互联网。令人震惊的是,云计算这一堪称人类社会奇观的产物,居然只能运行在少数几家巨头厂商的基础设施当中。如果AWS的某个主区域出现故障,似乎会有近半数网站随之离线。DARPA当初规划互联网的时候,恐怕也想不到会有这样的结果。” 基于以上原因,37signals 觉得有必要带来点不一样的声音。Hansson 表示,Basecamp 多年的商业模式跟自有硬件都能良好协同,业务的增长轨迹也有很好的可预测性。而且即使是用了亚马逊或者谷歌云,也还是得设置专业员工才能操作服务商那边的设备。“相信不只我们,还有很多企业都面临着类似的情况。” “而要想让互联网回归那片成本更低、去中心化度更高的净土之前,我们先得学会从云服务商的那套营销话术中脱离出来。在云计算普及之前,大家都在运行自有服务器,其实连不少号称云优势的功能也完全可以用在本地设施当中。所以千万别被云宣传蒙蔽了双眼,运行自有设施其实没那么可怕。当初我们就是这样一步步走了,才有了如今繁荣兴盛的互联网时代。”Hansson 说道。 Hansson 的决定也引发了开发者们的讨论。其中“降低复杂性、控制运营成本等承诺从来就没实现”这一点也戳中了开发者们敏感的神经。 “仪表板是一个迷宫,许多非常常见的用例都要求您协调部署多个名称奇怪的产品。当云计算在 10 多年前刚出现时,复杂性是可以被原谅的,但从那时起,确实并没有变得更容易使用。”Reddit 账户名为“50653”的开发者道对某云产品吐槽道,“我不会推荐裸机服务器,但我认为中小型公司应该考虑这个云产品的替代品,其中大多数都更容易使用。” 开发者“mwassler”对此表示赞同。“我认为我对这个产品相当了解,有时我用它帮助我所在地区的小公司,我无法告诉你我经常进入某人的仪表盘,他们每个月花费数千美元来托管一些每天收到几千个请求的服务……拥有开发公司的人将他们的登录信息提供给没有经验的开发者,让他们去做任何想做的事情,然后他们进入那里就变得疯狂。我见过有人多年来运行默认大小的实例,但这些实例没有提供流量,某些开发人员只是在某天准备了一些。” 还有开发者评论道,“IT 一直存在集中化(入站)和分发(出站)的循环。服务提供商怎么会每 5~10 年卖给你同样的东西呢。” 没有“下云”成功的GitLab 实际上,Basecamp 并非第一家想要“下云”的企业。GitLab 在2016年底时候就表示计划要“下云”,不过团队“在收到数百条充满建议和警告的评论和邮件后,最后还是决定将 GitLab.com 保留在云端。 GitLab对存储需求较高,因此当时建了一个 CephFS 集群来解决 NFS 的容量和性能问题。但在将大量项目、用户和 CI 工件加载到 CephFS 上运行一段时间后,GitLab发现,CephFS 为了正常运行需要非常快速地读写很多东西,因此其对底层基础设施的性能有非常高的要求。如果其中一台主机延迟写入日志,则队列的其余部分将单独等待该操作,整个文件系统将被阻塞。 另一方面,CephFS 还遵从CAP定理,因此会放弃可用性以换取一致性。如果对系统施加很大压力,那么它会产生热点。例如高负载时,在托管 GitLab CE 存储库的机器集群中,所有读取和写入最终会间出现在同一个位置。GitLab认为,由于GitLab 将系统托管在没有 IO 延迟最低 SLA 的云上,这个问题被放大了。 GitLab 当时的 OSD 日志延迟 GitLab这一计划发出来后也引发了社区的热烈讨论,大家纷纷就GitLab面临的问题进行了探讨,GitLab 首席执行官 Sid Sijbrandij 也认真听取了社区的意见。 Sid 还与一位将多家公司从云端带到裸机领域的人士进行了长谈,他得到的建议是:除非绝对需要,否则不要这么做,即使是将自定义为提供托管服务的公司也不应该这样做。正确处理硬件需要的专业知识庞大、昂贵且难以获得,这意味着要雇佣服务器、网络、备份、安全、电力等方面的专家。 “这与我们董事会成员看到的其他公司情况相似,上述工作花费了他们70%的工程量。对我们来说,首要任务是制作一个大多数人自己托管的出色工具。我们不能让托管主导我们的组织。”Sid 表示。 最后,GitLab 决定将所有存储分散到多个NFS分片(NFS shard),并删除了堆栈中的CephFS,同时创建了Gitaly,这样就不必依赖NFS实现横向扩展,并可以通过缓存来加速Git访问。结束语 在过去的五年中,云计算行业蓬勃发展,加上很多企业在疫情之初开始进行数字化转型,云计算更是“风生水起”。但由于市场动荡、对潜在经济衰退的担忧,企业承担着越来越大的财务和运营压力。据悉,苹果公司每月花在亚马逊云计算上的费用就超过了 3000 万美元。 因此,在人人都讲降本增效的今天,高昂的云计算成本能否带来同样高的回报也成为企业重要的考量。但现实可能是,云计算可能并未给大多数企业带来想象中的收益。 Wanclouds 研究显示,81% 的 IT 管理者表示,随着成本飙升和市场下行,他们的最高管理层已经指示他们要减少或不承担额外的云支出。根据调研结果,39% 的人已经决定将大量的云消耗和高性能工作负载迁移或留在本地,还有 29% 的人表示在 2022 年上半年由于价格贵而更换了公有云厂商。 未来,各种各样的压力是否会逼迫企业开始纷纷“下云”?我们对此也将持续关注。 参考链接:https://world.hey.com/dhh/why-we-re-leaving-the-cloud-654b47e0https://about.gitlab.com/blog/2016/11/10/why-choose-bare-metal/?https://www.infoq.cn/news/mMtEqAXuvF7Weml1GROL
| 12,673 | 1,666,249,203,191 |
InfoQ
|
112 |
探寻技术之美,云上如何自由构建
|
谈及技术,人们很少将其与美感联系在一起,而一旦这么做,神奇的事情就发生了......最早在技术与美感之间建立连接的是《计算机程序设计艺术》一书的作者高德纳 (Donald Knuth),他发现技术和艺术存在共同之处。他说:“计算机编程是一门艺术……一个潜意识地将自己视为艺术家的程序员会喜欢他所做的事情,并且会做得更好。”在近期举办的“亚马逊云科技中国峰会”的 DEV DAY 上,我们再次领略了云时代的技术之美。作为技术构建的基础平台,计算机硬件与软件的发展历程也是通过抽象追求技术之美的历程。这其中包含了如何让开发变得更加简单和高效的内在逻辑,以及自由构建的要素和方法,相信能带给开发者们一些全新的启发。始于抽象,如何理解技术之美高德纳在《计算机程序设计艺术》中曾提到,程序员的心理特征主要是具备在不同的抽象层次之间转换的能力,从低层到高层,能看小的细节,也能看大的整体。可见,抽象是开发者需要具备的关键能力。该如何定义抽象?UCCA 尤伦斯当代艺术中心副馆长、UCCA 集团艺术总监尤洋尝试用三个关键词去涵盖抽象。第一,上下文(Context),抽象源自某种渊源,离不开历史追溯的上下文;第二,技术(Technical),艺术家在创作抽象作品时候,如果关注科技,没有科学技术、计算机技术的支持,很难完成作品;第三,共构(Symbiosis),抽象离不开观众,在艺术家构思的路径之中,会影射作为观众的我们。重新回到技术领域,不难发现艺术与技术有关抽象上的共通之处。编程语言的发展就是通过不断抽象实现技术之美的有效例证。八十年代,C 语言得到长足应用和发展,支持了大多数操作系统的编写,而操作系统是我们得以持续抽象的重要基础。九十年代,互联网日新月异,由于需要更高层次的抽象,大批围绕 Web 的解释性高级语言涌现。移动互联网时代,GO 语言、Rust 语言以及针对大数据、机器学习的一大批新语言出现,更简洁和更高效成为现阶段编程语言的目标。不过本质上看,编程语言仍是开发者改变世界的表达方式,抽象让这种表达更加精准和具象。2008 年图灵奖得主 Barbara Liskov 提出,我们希望从一个抽象中得到的是一种机制,它允许表达相关的细节和抑制不相关的细节。在面向对象的编程理念成为共识后,Liskov 的研究涉足了网络计算,专注表达方式的抽象。此时的 Liskov 一定没有想到,表达对象本身即将经历翻天覆地的变化。云原生时代的开发革命,亚马逊云科技做对了什么?从局域网,到互联网,再到云时代。随着摩尔定律大行其道,产业浪潮一浪高过一浪,业务节奏越来越快,开发者表达的对象逐步变成了云上的基础设施。这时,复杂、繁琐、笨重,在更高的维度上再次涌现。建立更简单、更自由、更高效的云上世界2006 年 3 月 14 日,亚马逊云科技(Amazon Web Services)的第一款产品对象存储 Amazon S3应运而生,同年还发布了虚拟主机服务 Amazon EC2、和消息队列服务 SQS。这就把存储、计算、中间件抽象成为网络服务,以 API 的方式提供给开发者,通过全球分布式的架构,为开发者提供了按需获取资源的基础平台,这样的平台后来被称为“云”。后来,亚马逊云科技通过不断对虚拟机、容器、无服务器抽象,简化底层复杂性,减少基础设施的感知和适配工作。2011 年,亚马逊云科技发布 Amazon ElasticBeanstalk,实现了自动化部署负载均衡、虚拟机实例以及数据库实例,隐藏了底层集群的复杂度。随着软件的抽象层次不断提高,架构构建的方式也在发生很大的改变——容器化已经成为云端构建的主流。2014 年亚马逊云科技发布了容器服务 Amazon ECS。当时,Kubernetes 还没有大行其道,亚马逊云科技选择自己构建框架来管理 Docker 容器;后来,Kubernetes 逐步成熟稳定,并成为很多客户管理容器的首选,亚马逊云科技拥抱开源社区,发布了托管的 Kubernetes 服务 Amazon EKS;2017年发布的Amazon Fargate更进一步,完全托管了运行容器集群的服务器节点,提供基于容器颗粒度的按需部署和自动扩展的能力,让用户关注的计算单元完全抽象到容器层级。除了 Amazon ECS 的发布外,2014 年还有另一款服务的发布也引发了技术圈的无数关注,它就是 Amazon Lambda。事实证明,亚马逊云科技对 Serverless 的投入及预判没有错。如今,无服务器计算已成为云原生时代的共识,大幅提升了云原生的技术美感。Mobvista 技术副总裁 & 首席架构师、亚马逊云科技 Data Hero 蔡超提到,他们在集团的游戏数据分析统计系统上选择迁移到了无服务器架构,利用 Amazon Lambda 简化了开发,提高了迭代速度,并将维护成本降低了 50% 。经过 16 年的发展,亚马逊云科技的服务从 3 个增长到了 200 多个。在技术抽象和发展的历程中,蕴含着与艺术非常类似的逻辑——基于真实的需求进行构建。即使计算环境不断抽象,开发者依旧需要管理数据库、大数据、机器学习等诸多服务类别,解决资源生命周期各个环节的自动化。资源管理代码应运而生。亚马逊云科技的服务都提供 Restful API。2011 年亚马逊云科技发布 Amazon CloudFormation,支持客户用声明格式的 JSON 代码来描述云上资源,后来又支持 YAML 格式。至 2019 年,亚马逊云科技陆续发布了命令行、IDE 工具、SDK 进一步抽象了 API 操作,让开发者可以使用更熟悉的 Shell 脚本、IDE 集成开发环境以及编程语言来管理云上资源,并重磅发布 Amazon CDK,让开发者可以使用命令式的编程方式去编写管理代码。去年,亚马逊云科技发布 Amazon Cloud Control API,让开发者采用自定义 API 的方式灵活管理亚马逊云科技和合作伙伴的第三方服务。值得一提的是,Amazon CDK 的出现如同面向对象在资源管理领域的重生,带来了巨大的效率提升,具有里程碑的意义。至此,对于云资源管理的编程友好达到全新的高度,而不断抽象的成就是技术之美在云资源管理旅程最好的体现。用技术之美成就自由构建云原生时代,亚马逊云科技通过不断抽象,探索出技术之美的实现路径。然而,技术之美在未来又该如何帮助开发者更自由、便捷地构建自己的业务系统呢?亚马逊云科技大中华区解决方案架构部总监代闻将其归结为架构典范之美、组件抽象之美、流程灵动之美三个方面。关于架构之美,以亚马逊电商为例。2001 年之前,亚马逊电商采用的是单体式架构,在业务增长的过程中,单体式架构很快遇到瓶颈。2002 年亚马逊开始着手微服务架构改造,涉及技术、流程、组织等多个方面。截至 2020 年,亚马逊电商内部已有 10 万微服务运行。随着微服务的兴起,领域驱动设计驱动设计(Domain-Driven Design )中相关的模块化服务设计方法论六边形架构得到了广泛的应用。在这个架构设计中任何一个服务的代码逻辑都面向特定领域,对外提供服务端接口。在去年的 re:Invent 上,亚马逊的 CTO Werner Vogels 也分享了亚马逊设计 API 的六条最佳实践。API 永远存在永远不要破坏向后兼容性从客户场景出发,逆向工作创建具有显式有据可查故障模式的 API创建服务于明确目标的自描述 API不惜一切代价避免泄露实现细节如今,云原生应用的架构充分利用按需交付、全球部署、弹性和更高级别的云服务,大大提高了开发人员的工作效率、业务敏捷性、可扩展性、可用性、资源利用率和成本优化。代闻认为,云原生是一个相对的概念,因为云服务本身就在不断演进中。在一个时间点上,如何选用合适的组件,就成为云原生架构落地最基础的一步。亚马逊云科技经过多年发展,在虚拟机、容器、无服务器三个层面都提供了相应的服务支撑,在这三个抽象层次的计算能力也渗透到了各个服务类别中。如今,开发者不仅可以选择应用代码所在的运行环境的抽象层级,还可以根据业务场景选择需要调用的云资源的抽象层级,让不同抽象层级的应用代码和云服务彼此之间无任何阻碍地互相调用,从而真正实现自由构建。有了好的架构、适合的组件,灵动的开发流程让应用得以顺利落地。代闻表示,在构建阶段,快速搭建和验证架构,快速交付 MVP 是非常重要的;治理阶段的关键在于,如果保持良好的可观测性,从而管理数据并且适时的应用安全策略;在应用落地之后,进入到持续的迭代阶段,自动化的部署、更多的组件服务化,以及运维的自动化和智能化转变为核心。在整个历程中,亚马逊云科技提供了一系列的服务和工具,帮助开发者灵活、动态地实现开发流程,让技术之美不止停留在探讨和设计阶段,而是贯穿应用的整个生命周期。面向未来,携手开发者共同成长技术抽象与自由构建让软件开发变得更加方便,开源让技术能力得以普及。如今的现代化应用程序中,我们大量地采用开源服务,亚马逊云科技近年来也在持续通过托管的开源服务加速企业在现代化应用程序上的构建和运营。“我们开源的三大支柱实际上是来自于社区、代码和文化。本身亚马逊的这种文化实际上给了开源社区非常多的指导,我们的员工、用户,也不断地在社区里头去贡献出来他们自己的代码,把他们的一些经验和实践,变成了共享的资源,能够去加速其他客户的迭代和更新。”亚马逊云科技的现代化应用服务产品总监陈展凌表示。可见,开发者社区建设是亚马逊云科技一直以来非常关注的事情。10 月 14 日的 DEV DAY 上,亚马逊云科技也上线了面向中国的亚马逊云科技开发者官网,定位世界级的开发者社区,为国内开发者链接全球资源,帮助国内开发者的内容走向全球。那么,什么才是一个成功的开发者社区?在亚马逊云科技 Community Builder、Juniper 中国区创新事业部资深架构师范桂飓看来,开发者社区是一个有清晰定位、有客户画像、能够解决客户痛点需求的平台型产品,因此,一个成功的开发者社区就需要找准定位,在服务开发者的过程中具有“Serve it and deserve it”的精神。亚马逊云科技 User Group Leader、永乐拾光创始人李欣表示,一个成功的开发者社区是一个专业的、开放的、包容的,能够帮助开发者实现个人价值的平台。从开发者社区对于技术公司的价值维度,亚马逊云科技 Hero、SphereEx 联合创始人 & CTO 潘娟认为,开发者社区是一个公司产品直接沟通开发者的重要渠道,社区内的良性反馈能够帮助公司厘清产品定位,建立技术品牌,帮助公司吸纳贤才。行业发展早期,一些头部公司通过开发者社区的建设也推动了技术的落地。亚马逊云科技资深开发者运营专家郭悦认为,开发者社区的建设,让这些头部公司有了头雁效应,不仅担起了企业责任还提升了品牌形象。“一个技术公司,通过开发者社区,能够把产品与人,公司与人交流的这种行为,变成了人与人交流的一种行为,我觉得这会让一个技术公司看起来更有温度。”一个重视开发者真正诉求的开发者社区才能拥有长久的生命力。那么,开发者社区怎么高效服务开发者?Zilliz 合伙人兼技术总监、LF AI & Data 基金会技术咨询委员会成员栾小凡看来,首先要有很好的服务体验;其次要有足够多优质的内容,并能够帮助建立开发者之间的联系;最后要通过规则激励 UGC 内容的产生,让有潜力的开发者留在社区里,真正成为社区生态的一部分。潘娟则认为,本土化是开发者社区需要关注的事情之一。据她观察,国外的开发者更加注重自身开源经历的打造,将此看作自身的素质能力,国内开发者参与开源课题更多是兴趣使然。在潘娟看来,做好本土化的文化建设,能更加柔和地吸引开发者到社区当中。亚马逊云科技中国开发者网站优先思考的正是本土化、全球性和开放性。其设计包含专栏、视频、问答、社区、活动、大赛六大核心板块,面向不同职业技能阶段的开发者设计不同的形式或内容呈现。一方面,亚马逊云科技全球的客户案例和开发者的分享,都将在亚马逊云科技开发者官网翻译分享给中国的开发者;另一方面,亚马逊云科技在官网上吸纳了很多海外技术大咖,加入社区进行本土化的内容创作。此外,亚马逊云科技鼓励开发者主动运营社区,希望通过双向互动让社区更加活跃、更加健康。毕竟,一个开源开放的社区,才会更有生命力。开发者群体在亚马逊云科技眼中有着特殊的分量。DEV DAY 也始终以开发者为中心。今年是 DEV DAY 植根中国的第七年,亚马逊云科技创新地以技术之美为主题,带领大家探索云时代的开发规律,并分享前沿技术和云上最佳实践,帮助开发者更好地了解云计算,沉浸式地体验云计算技术的魅力。亚马逊云科技中国开发者网站
| 6,283 | 1,666,158,601,817 |
InfoQ
|
113 |
从传统企业角度看我们为什么需要云原生数据库
|
去年,数据作为新型生产要素已经被纳入到“十四五”规划中,IT的发展也产生了越来越多的数据,很多企业把成为一个数据驱动型企业其发展目标。据Forrester的研究指出,数据驱动型的企业每年平均增长可达30%。 数据已经成为企业核心资产和创新的主要驱动力。一个坚实的数据基础是企业获得数据价值的保障。作为数据处理中枢,数据库是数据基础很重要的一部分。 IDC对亚马逊云科技数据库、大数据和AI/ML的产品分析的文章揭示,现有的客户如果采用了数据相关的云服务以后,五年的投资回报率会达到415%,总体运营成本可以降低48%。可以看到,数字化转型给企业的业务带来的增长还是非常有效的。因此,越来越多的企业正在追求数字化转型。 企业数字化转型必将带来的新趋势:产生海量、多样化的数据;现代化应用下的微服务需要专门构建的数据库以获得最佳表现;快速开发与迭代需要平衡数据库的成本与性能。传统企业面临的数据挑战 相比互联网等云原生的企业,传统行业企业由于行业的特定应用需求以及历史遗留数据等原因,面临的数据挑战也更为艰巨: 无法快速扩展:传统IDC资源有限且无法快速扩展,共享存储、MPP等传统数据库的技术架构无法充分利用云的弹性能力,云存储,难以充分发挥云的优势。运维高成本:商业数据库的License也带来了高昂的成本,同时需要大量硬件投资和庞大的运维团队。迭代速度慢:繁琐的部署运维工作分散精力减缓系统迭代速度,减缓创新速度。无法支撑全球业务扩展:不易扩展到多个国家城市配合全球业务扩展。功能/性能瓶颈:传统关系型数据库应对不同业务场景需求的能力存在瓶颈。为什么需要云原生数据库? 而云原生数据库则可以很好地解决以上问题,新架构下的数据库形式能够助力企业更快地扩展业务、专注于创新,并加快新功能的上市时间,主要表现为: 云计算解决了开源数据库在易用性、可靠性、扩展性、性能等方面的问题,相比传统商业数据库,降低了高昂的成本。通过云上托管的数据库服务,客户可以用开源数据库实现媲美商业数据库的性能,而成本通常只有商业数据库的几分之一。专门构建的托管数据库,为企业工作负载,尤其是现代化应用架构下的微服务提供极致性能,不同的问题由专门的数据库来解决。基于云端海量资源池的云数据库可以根据企业工作负载需求快速弹性扩展,无服务器的数据库将这一特性发挥到极致。云原生数据库可以利用云端的其他服务,包括计算、网络、存储、安全、大数据、AI/ML,通过深度集成,将各种能力融会贯通。企业可以按用量付费,无需预置资源。托管数据库服务使客户可以集中精力在高价值的应用开发上,并借助全球数据库配合全球业务扩展。 总的来说,对用户而言,云原生数据库可以帮助他们更快地拓展业务,同时让用户可以摆脱一些底层基础架构繁琐且很难解决的问题,更加专注于业务创新,加快业务上市的时间。亚马逊云科技推出首个云原生数据库Amazon DynamoDB基于以上传统数据库性能上的瓶颈以及数字化转型时企业对于业务上云的迫切需求,亚马逊云科技推出了Amazon DynamoDB数据库。 据亚马逊云科技大中华区产品部总经理陈晓建介绍,推出该款数据库的背后还有一段小故事。 2004年以前,亚马逊一直使用的都是全球最大的商业数据库。但到在2004年美国圣诞季又恰逢“黑五”购物节,导致亚马逊的业务在峰值时中断了几个小时。后来技术人员去检测时发现,造成业务宕机的原因是因为用户的业务请求突破了商业数据库性能的天花板,导致整个业务中断了约四个小时。 事后亚马逊技术团队在分析这个问题的时候发现,70%的数据访问并不需要SQL事务级别的复杂性。因此技术团队开始研究NoSQL非关系型数据库,并于2012年推出第一个云原生NoSQL数据库Amazon DynamoDB。 在Amazon DynamoDB问世后的十年里,亚马逊云科技对其进行的持续完善,不仅涉及底层可用性、持久性、安全性和规模等特性,还包括易用性等。现在Amazon DynamoDB已服务于全球众多客户,也包括亚马逊自身。Amazon DynamoDB十年来的实践证明了云原生数据库是打破传统数据库瓶颈的必然归宿。
| 4,065 | 1,666,061,354,195 |
InfoQ
|
114 |
Serverless 架构的 N 种可能,你 Pick 谁?
|
一个新概念走向万众瞩目的架构需要经历多久的时间?Serverless 用了将近十年。从 2012 年首次进入大众视野,到 2014 年亚马逊云科技发布 Amazon Lambda 完成商业化飞跃,再到如今,越来越多的云产品走向 Serverless 化...... Serverless 架构在推动云计算前进的过程中,扮演着越来越重要的角色,也同时拥有了更丰富的落地场景。有关无服务器的讨论话题,早已悄无声息地从“为什么用”向“如何更好地用”转变。Serverless 架构如何更好的落地实践?在 Serverless 场景下如何做业务创新?亚马逊云科技作为 Serverless 持续发展的先行者与推动者,围绕 “Serverless For Good” 这一主题举办了“亚马逊云科技 2022 编程挑战赛”。本届大赛于 10 月 14 日完美收官,获奖情况如下:冠军:Ouroboros 队(李若然、刘霄鹏)亚军:破浪乘风队(李世峰)季军:Lili 队(李伟玲、周耀伟)优秀奖团队:Dragon-Ponderyao(周泳龙、姚泽鹏)、铸心科技(钟志强、胡桐)、inplayable(方亮,武杰,张彦升,苏子阔,王生财)从一场比赛到玩转 Serverless从初赛到决赛答辩,“亚马逊云科技 2022 Serverless For Good 编程挑战赛”整个赛程历时 3 个多月的时间,汇集了来自全国各地的开发者。亚军获得者李世峰表示,之前对 Amazon EC2 等服务用的比较多,亚马逊云科技的 Serverless 服务对于他来说还比较新,接触的不是特别多。决定参与亚马逊云科技编程挑战赛,对李世峰而言其实是机缘巧合。当时,李世峰正在用某云厂商的无服务器技术做视频转码,刚好看到亚马逊云科技的 Serverless 大赛,也是想体验一下亚马逊云上的 Serverless 开发,于是决定试试。这次比赛接触下来,他表示,体验感非常好,比如,一般开发是基于容器,容器上了云再通过不同方式调度,但是采用 Amazon Lambda 基本不用考虑这些事,上传一个命令就搞定了,并且能够马上调用。用他的话说,简直太爽了。他说 :“亚马逊云科技很多的功能、接口都是开放出来的,确实能做很多事情,相比之前用过的云服务只能做一些比较粗颗粒的事情,亚马逊云提供的 Serverless 服务能够进行更加细粒度和更加精准的控制。”也许每个选手对于 Serverless 的了解程度不尽相同,但对于所有的参赛选手而言,都存在一个共同的特质,那就是愿意接受新技术并勇于面对挑战。冠军获得者是来自戴姆勒大中华区投资有限公司的 Ouroboros 队。Ouroboros 队的两名队员李若然、刘霄鹏本来就是两个典型的技术达人,喜欢“捣鼓”。李若然平常就会自己搭建一些好玩的应用,像智能家居方面通过手机实现家电远程控制的程序、新旧设备管理方面的应用、混沌工程的设计等等。李若然说:“我们都很愿意尝鲜,喜欢尝试新的东西,也都是亚马逊云科技的铁粉,只要亚马逊云科技推出新的服务,我们就想要试一试。”对于这次参赛经历,李若然表示,让他觉得最兴奋的是能够跟其他出色的、对于技术感兴趣的人一起进行交流,如果不是在竞赛的环境里,很容易会停下来,而这次比赛让他们开阔了眼界,了解到行业还有更多有价值的东西值得探索,很多需求是更贴近真实的终端用户,贴近消费者的日常的。本次大赛整体希望参赛选手结合自身工作经历、兴趣爱好、当下现代化应用的构建需求,呈现出完整、精彩的 Serverless 解决方案。初赛的定向赛,主要考察参赛选手们对于 Serverles 架构的了解;决赛阶段难度飙升,不再限定具体的场景,而是需要参赛团队基于自身对于 Serverless 架构的了解,发挥想象力和创造力,自由完成现代化应用场景的搭建,并且每支参赛团队必须完成能够试用的 Demo。参赛选手的作品均基于 Amazon Serverless 架构实现。赛题回顾获奖作品大盘点,你 Pick 谁?基于 Serverless 架构设计的图像处理低代码平台;低成本、低延迟、高可扩展性的视频直播方案;聚焦网络与数据安全开发的漏洞修补服务;基于电商网络海量评论数据的情感与关键词分析平台...... 参赛选手们的作品精彩纷呈。本次大赛的评委之一,亚马逊云科技大中华区产品部无服务器产品经理马平表示,从决赛 10 支队伍的阐述中,他也学到了不少。众多优秀的作品之中,为什么是这三支脱颖而出?到底是什么特质打动了现场的评委老师们。接下来,小编就带你细细盘点下获奖的个三支作品。冠军作品:Serverless for Security Hub【Ouroboros 队】将 Serverless 架构用于解决企业面临安全问题。他们凭借一款基于 Amazon Security Hub 的漏洞修复服务,将本次大赛的冠军稳稳的收入囊中。安全无小事,基于安全方面的问题,业界已有很多非常有效的安全工具,用以进行代码扫描、威胁检测等等,但目前仍面临两大挑战,其一,是跨国公司在中国可能没有销售许可证,导致这些工具对于跨国公司来说没办法采用。其二,是这些安全工具的费用普遍较高,中小型企业很难承受。Ouroboros 提出的解决方案主要基于亚马逊云科技提供的一款 Amazon Security Hub 服务。Amazon Security Hub 可以将云上所有资源里不符合 Amazon 基础安全最佳实践 v1.0.0 和独联体亚马逊基金会基准 v1.2.0 规范的漏洞扫描出来并进行展现,用户可以根据扫描结果对漏洞进行修复和处理。Ouroboros 基于 Amazon Security Hub 的 Findings,开发了一款 Serverless 的漏洞修复 Handler。为什么会考虑开发一款这样的服务?刘霄鹏介绍说,云上资源主要是通过代码管控,Amazon Cloud Formation 等工具能够让开发者快速把云资源调度起来,采用 Serverless 架构能够极大的提升效率,并降低企业在安全方面的资金投入,实现降本增效。Ouroboros 基于 Serverless 设计,不需要真正的服务器不断运行监控 Findings,而是依托于 Amazon Security Hub,只有当 Amazon Security Hub 检测出漏洞,才启动修复。Ouroboros 队作品技术架构图不仅如此,Ouroboros 还考虑到了应用的可扩展性。安全规范与法规通常是不断更新的。在 Ouroboros 中,对于规范里不同的 Findings,设计了不同的 Handler。这些 Handler 在实际应用过程中,可以由整个社区贡献,通过这样的方式,能够不断扩展 Ouroboros 修复漏洞的范围,社区的用户都能贡献自己对于不同类型的 Findings 修复的处理方式,形成一个安全的生态系统。对于 Ouroboros 的作品,现场的四位评委都给予了很高的评价。亚马逊云科技大中华区产品部资深无服务器技术专家孙华非常直接的表示,Ouroboros 提出的安全自动化的方案对于企业是非常实用的,如果真的开源出来,可以直接在国内的客户里进行推广。亚军作品:基于 Amazon Serverless 的低成本、低延迟、高可扩展性的视频直播方案获得本次大赛亚军的选手,破浪乘风队的李世峰,作为个人参赛选手当仁不让,结合来自教育行业的工作经历,设计了一款低成本、低延时、高扩展性的视频直播解决方案。李世峰用一张 Serverless 技术架构图直观的展现了该方案下创建直播的流程。破浪乘风队作品技术架构图用户在浏览器中打开托管于 Amazon S3 的网页,通过 JS SDK 向 Amazon Lambda 发出请求,然后在 Amazon Lambda 中向 Amazon CloudFormation 发起一个创建 Stack 的请求,由于这个步骤是一个比较耗时的操作,所以没有做 blocking wait,而是异步地让 Amazon CloudFormation 将 Stack 创建完成的消息通知给 Amazon SNS,再在另外一个 Amazon Lambda 里处理这个消息,基于新创建的 Stack 启动 Fargate 实例。启动 Fargate 实例同样也是一个耗时的操作,所以方案让 Amazon ECS 状态改变的信息根据指定的过滤规则发送到 Amazon EventBridge,再由 Amazon EventBridge 发送给 Amazon SNS,最后交 Amazon Lambda 处理。当新启动的 Amazon Lambda 实例准备就绪的时候,客户端就可以通过 WebRTC 连接上来,从而实现低延迟的直播收看。低延迟之外,项目的高扩展性又是如何实现的呢?李世峰介绍,每个 Fargate 实例上运行的 OvenMediaEngine 开源流媒体引擎既可作源节点,又可作为边缘节点。作为源节点它可以将流媒体中继到下一层级的节点,作为边缘节点它可以直接接受用户的观看连接,这样,通过增加层级就可以不断地动态调整直播网络,形成一个树状、甚至是更稳定的网状结构,支持直播观众群规模的动态扩大。直播成本方面包括网络流量费用和 Fargate 实例费用(包括 vCPU、内存、磁盘和 IP 地址的成本)。答辩环节,李世峰以一场百万用户同时在线的直播为例,对成本进行了细致的估算。较市面上相同技术指标的某互动直播解决方案,基于 Amazon Serverless 架构的本方案成本可以下降 69%-77%,运维成本几乎为零,即申请即用、用完即停,避免了资源浪费。对于该方案,科大讯飞资深 AI 平台架构师吴义平给与了充分的肯定。他说:“这种偏分布式的推流架构,在技术上拥有很高的可行性,在众多作品中给我留下了非常深刻的印象”。季军作品:Serverless 架构的图像处理低代码平台近年来,如果说到技术圈的热门话题,低代码一定榜上有名。获得本次大赛季军的 Lili 队利用 Serverless 架构开启了低代码的实践之旅。李伟玲和周耀伟共同开发了一款 Serverless 架构的图像处理低代码平台。该方案基于亚马逊云科技 Serverless 架构来进行部署,用户可以用画流程图的方式实现图像处理,几乎不需要编写代码,操作门槛低。Lili 队将技术架构分为后端和前端两个部分来进行介绍。Lili 队作品技术架构图后端架构,图像处理过程通常可由部分基本单元操作组合而成,通常称为“算子”,比如旋转,切割,缩放都是算子,这些算子可以通过函数封装起来,也可以进一步组合成新的更高级的算子。不同算子在运行过程中消耗的内存和 CPU 都是不一样的,传统的基于 Server 的部署方式很难扩展,亚马逊云科技的 Serverless 架构就可以很完善的解决这个问题,将算子通过 Amazon Lambda 来部署,既能满足不同的资源要求,又能按实际使用量进行横向扩展。前端部分,采用前后端分离架构,前端使用 VUE+ElementUI 架构,流程图使用 jsplumb 组件构建,并使用 webpack 进行打包管理。平台的主界面分为菜单栏、所有算子区,工作区三个部分。用户可以直接拖拽算子到工作区,并在右边的编辑界面,设置具体的参数,即可完成图片的一系列处理。目前该平台仅能完成单张图片的加工和处理,无法提供批量处理的能力,导致面向的用户群体不够清晰。吴义平表示,该产品的核心思路非常具有吸引力,并且充分利用了亚马逊云科技云上弹性、资源方面的优势,非常契合 Serverless 的使用场景,但是在应用层面,可以结合其他场景进行创新。对于评委老师的提议,李伟玲表示非常认可。她说,在开发平台时他们就已经考虑到这个问题,但由于时间紧张,因此仅仅做了简单的实现,赛后,他们也将继续对于方案进行优化与完善。丰富的作品,激动人心的对决,志同道合的伙伴间的交流碰撞、指导老师耐心的指导与中肯的建议...... 每位选手都满载收获的同时,也意味着“亚马逊云科技 2022 Serverless For Good 编程挑战赛”正式圆满落下帷幕,期待着明年再见。本次大赛决赛现场答辩的视频回放,可在「自由构建 探索无限」亚马逊云科技中国峰会上在线观看,感兴趣的开发者点击此处可直达峰会现场。峰会还有数百场行业与技术分论坛超干货专场主题分享等待着大家,期待大家解锁更多精彩有趣的内容。
| 7,595 | 1,665,739,853,345 |
InfoQ
|
115 |
亚马逊云科技开发者官网上线,为什么值得关注?
|
作为一名云时代下的开发者,你会从哪里获取技术开发资料、技术实操指南以及前沿技术讨论? 各大云厂商的开发者社区网站是一个不错的选择。 10月14日,亚马逊云科技开发者官网正式上线。进入中国9年后,亚马逊云科技希望通过丰富的技术内容,做到本土化、全球性和开放性,为中国开发者打造链接全球技术资源的平台,助力开发者的成长与成功。 (亚马逊云科技开发者官网) 亚马逊云科技开发者官网的整体设计也基于这样的前提。网站定位在“世界级的开发者社区”,而其中的“世界级”指的是能够链接全球资源与中国开发者的能力,既可以帮助中国开发者方便地获取前沿云知识、云技能,提升个人技术实力;还可以帮助将国内开发者与全球开发者社区相连接,让中国开发实力展现给世界。对于国内开发者而言,无疑是如虎添翼。国内正在使用亚马逊云技术或者云服务的个人开发者、基于亚马逊云技术进行技术创新和提供解决方案的生态开发者将最先受益。 “世界级的技术内容”是亚马逊云科技开发者官网的又一个重要标签。亚马逊云科技开发者官网上的内容,来自亚马逊云科技在全球范围内经年的技术内容积累,包括不限于技术博客、过往技术大会演讲等。大量的技术内容被亚马逊云科技开发者官网重新规划,在官网上线的板块中,设计了专栏、视频、问答、社区、活动、大赛六大核心板块,面向不同职业技能阶段的开发者设计不同的形式或内容呈现。其中,专栏和视频这两个随取随用的技术内容板块值得重点关注。 亚马逊云科技开发者官网的专栏分为技术专栏、Builder专栏、Hero专栏三大版块。其中,技术专栏面向企业或技术团队,Builder专栏和Hero专栏面向个人开发者。在技术专栏中,亚马逊云科技的客户企业和合作伙伴,可以建立技术专栏号,分享在亚马逊云科技上开发的心得,建立技术品牌影响力;在Builder专栏和Hero专栏,个人开发者们可以根据擅长的技术方向,建立个人专栏,与同好交流技术心得。值得国内开发者关注的是,专栏中优质的技术内容会被亚马逊云科技精选推荐给全球的技术布道师,推荐布道师将国内开发者的技术内容分享给全球开发者。 亚马逊云科技开发者官网已经在内测期吸引了一些技术团队和个人开发者。比如在Builder专栏上,《通过亚马逊云新用户入门学习计划快速上手云上无服务器化的MySQL数据库》一文从创建Aurora Serverless数据库集群开始,一步步图文教学了在EC2实例中创建连接MySQL数据库的全过程。 程序在计算机中奔跑,技术在开发者手中流动,更多的技术创新才会在技术社区中发生。 视频板块是整个内容板块中另一大值得关注的板块。该板块包括大会演讲、产品技术、海外大咖访谈等等。比如,亚马逊云科技每次对外公布的最新技术进展中,最新发布的技术工具的使用实操教程,都有可能由专家手把手录制教程,逐一讲解,作为产品技术入门实操课呈现在官网上。此外,开发者们不仅可以从视频专栏中获得具体的技术实践指南,也能看到Java之父James Gosling博士等技术大咖对于未来技术趋势的判断。从浅入深,从微观到宏观的各类技术内容都可以像电视栏目一样随时点播。目前上线的视频专栏内容组块中,有《5分钟云上聊代码》、《ML School》、《This is the Serverless》以及《大咖访谈》等十余个不同风格和内容方向的视频栏目。InfoQ对Java之父James Gosling博士的独家视频专访 就在《大咖访谈》栏目中。他在访谈时提到,Java得以拥有顽强的生命力的原因,除了多线程编程、多种内置安全功能和内存管理机制外,能够在无须停机的前提下修复运行中程序的热补丁修复程序,是Java中非常独特的功能,就来自于亚马逊开发者。具体的视频课程还有如《初创公司开发者之机器学习的101种方法》、《无服务器应用DevOps最新实践》、《无服务器云原生数据库极致弹性伸缩体验》等等都在视频栏目的不同内容组块中。 更多互动性强的活动,聚集在问答、社区、活动、大赛板块。亚马逊云科技每年定期举办的活动如Build On、Meet up、T&C Public Class、Dev Day、Tech Talk和Community Day的大量优质内容,都将以文字或者视频形式精选沉淀在网站上。 根据调研结果显示,国内的开发者群体中,有相当一部分人对于数字化转型和云计算,还处在被普及的学习阶段,需要找到一些渠道去系统学习这方面的内容。这也是亚马逊云科技推出中国开发者官网的初衷之一。 亚马逊云科技开发者官网希望做到本土化、全球性和开放性,不仅链接全球的资源给中国的开发者,也希望承担桥梁的作用,将国内开发者在网站上创作的优质内容,散发到亚马逊云科技全球的技术社区中。一个开源开放的社区,才会更有生命力。 中国云服务市场作为全球第二大云服务市场,一直是云厂商持续深耕的核心市场。我们可以看到,几乎云厂商都在建设开发者社区——不仅是一个技术符号,也是与广大开发者们建立交流的直接载体,或侧重产品、或侧重服务、或侧重内容,对外系统、全面、完整地展现技术实力。粗略划分国内开发者社区,基本也就是云厂商社区、媒体社区和开源组织/基金会的社区了。 如果说技术创新引领行业发展方向,那么开发者社区的建设,就是在肥沃国内技术生态的土壤。从开发者角度来看,此次亚马逊云科技中国开发者官网的上线,一定程度上会刺激国内开发者社区的生态。处于一个良好的开发者社区生态中,开发者们也将因此受益。
| 5,150 | 1,665,729,000,696 |
InfoQ
|
116 |
Java近期新闻:OmniFish简介、Oracle加入Micronaut基金会、OpenJDK升级
|
本期Java近期新闻综述内容主要涉及OpenJDK、JDK 20、Spring里程碑更新、Eclipse Tumerin 19、OmniFaces 4.0、PrimeFaces 12.0、OmniFish简介、Quarkus 2.13.1、Oracle加入Micronaut基金会、Eclipse Vert.x 4.3.4、JobRunr 5.3、Apache Tomcat 9.0.68、Apache Camel 3.19、Apache Tika 2.5、ArchUnit 1.0及Devoxx Morocco和JAX伦敦大会。OpenJDKOracle编程语言设计师Gavin Bierman提交了两份JEP草案,一份是8294285:switch模式匹配(第4个预览版),另一份是8294078:记录模式(第2个预览版)。与它们相对应的上一份JEP已经在JDK 19中交付,它们是在Amber项目的支持下,分别提出了第4和第2个预览版。预览功能可以根据不断增长的经验和反馈进行优化。 JEP草案8294285是JEP 427(switch模式匹配第3个预览版)的升级,包括简化switch 标签语法;在switch 表达式、语句及其他支持模式的结构中支持泛型类型模式和记录模式的类型参数推断。 JEP草案4294087是JEP 405(记录模式第1个预览版)的升级,特性包括:支持泛型记录模式的类型参数推断;支持在增强for循环header中使用记录模式;移除命名记录模式支持。 亚马逊云科技首席工程师Roman Kennke提交了JEP草案8294992:64位对象头。在Lilliput项目的支持下,该JEP草案提出,将Java对象头从96或128位减少到64位。Lilliput是Kennke创建的一个项目,于2022年5月实现了64位头的第一个里程碑。JDK 20JDK 20早期访问构建的Build 18在上周发布,它是Build 17的升级,修复了各种问题。要了解更多细节,请查看发布说明。 对于JDK 20,我们鼓励开发者通过Java Bug数据库报告缺陷。Spring Framework在通往Spring Cloud 2022.0.0(代号Kilburn)的道路上,第5个里程碑版本发布,主要特点是Spring Cloud子项目升级到第4版的第5个里程碑版本,包括Spring Cloud Consul、Spring Cloud Gateway、Spring Cloud OpenFeign 和Spring Cloud Commons。Spring Cloud Netflix 4.0.0-M1的主要特点是将一个依赖项升级到Eureka 2.0.0,使Spring Cloud Netflix可以兼容即将发布的Spring Framework 6.0 和Spring Boot 3.0正式版。要了解更多细节,请查看发布说明。 Spring Shell的点版本和里程碑版本已经面向Java社区发布。2.1.2版本基于Spring Boot 2.7.4构建,并向后移植了一些Bug修复。3.0.0-M1版本有一些显著的变化,主要包括:依赖项升级到Spring Boot 3.x;对GraalVM的支持基本完成;Spring Shell现在是用Gradle构建的。要了解关于这些版本的更多细节,请查看2.1.2版本和3.0.0-M1版本的发布说明。 在通往Spring Batch 5.0.0的道路上,第7个里程碑版本发布,主要特性包括:支持使用任何类型作为作业参数;改进作业参数转换。要了解关于这个版本的更多细节,请查看发布说明。Eclipse TumerinAdoptium工作组发布Eclipse Tumerin 19,这是他们提供的OpenJDK 19下游发行版。OmniFacesOmniFaces发布了Faces实用工具库的4.0版本,主要特点是引入了一个新方法addFacesScriptResource() 。这个方法是在Components 类中定义的,可以兼容Jakarta Faces 3.0 和4.0。一个破坏性的变化是将最小依赖升级到JDK 11 和Jakarta EE 9规范,即Faces 3.0、Expression Language 4.0、Servlet 5.0、Contexts and Dependency Injection 3.0、Enterprise Web Services 2.0 和Bean Validation 3.0。要了解关于这个版本的更多细节,请查看新增内容说明文档。PrimeFacesPrimeFaces 12.0.0发布,主要是升级了许多依赖项,包括hibernate-validator 6.2.1.Final、tomcat.version 9.0.58、slf4j-api 1.7.33、mockito-core 4.2.0、hazelcast 4.2.4及其他Maven相关的模块。OmniFish简介OmniFish是一家新成立的Jakarta EE咨询和支持公司。他们已经向Java社区介绍了自己。该公司致力于提供Jakarta EE、Eclipse GlassFish 和Piranha Cloud支持,并且已经以参与者成员的身份加入了Jakarta EE工作组。Arjan Tijms、Ondro Mihályi 、David Matějček和Web工程师Bauke Scholtz合伙创建了这家公司。他们在GlassFish、Jakarta EE、Java应用程序开发和Java中间件生产支持方面都有多年的经验。他们还是Eclipse GlassFish项目管理团队的成员。InfoQ后续将带来更详细的报道。Quarkus红帽公司发布了Quarkus 2.13.1.Final,主要是修复Bug和改进文档。由于MicroProfile规范的修改,MicroProfile OpenTracing and Metrics规范的实现SmallRye被弃用。要了解关于这个版本的更多细节,请查看变更日志。MicronautMicronaut基金会宣布,Oracle已加入Micronaut基金会,成为其工程合作伙伴。这是一项新计划,旨在“识别出可以开展合作的组织,由他们赞助Micronaut框架核心提交者团队的一名或多名成员的全职工作,关注代码库的关键共享和共用部分。”自2020年以来,Oracle一直在为Micronaut项目提供开源贡献,如Micronaut AOT和Micronaut Serialization。Eclipse Vert.x作为对4.3.3版本中报告的若干问题的回应,Eclipse Vert.x 4.3.4发布,主要是修复了那些Bug,记录了弃用内容和破坏性变化,并继续为虚拟线程孵化项目提供支持。要了解关于这个版本的更多细节,请查看发布说明。HibernateHibernate ORM 6.1.4.Final发布,修复了一些Bug并进行了增强,在从包含分配了标识符的SELECT语句执行INSERT 时不再生成不必要的多表插入。JobRunrJobRunr 5.3.0发布,支持Kotlin 1.7.20、Spring Boot 3.0.0-M5和Spring Boot上下文索引器——一个可以生成Spring组件索引的实用工具,能够加快启动时间。要了解关于这个版本的更多细节,请查看发布说明。Apache软件基金会Apache Tomcat 9.0.68发布,其中包含一些值得注意的Bug修复,例如:破坏JSP includes的重构回归;使用HTTP/2和NIO2过程中客户端断开连接时出现的意外超时。此外,这个版本还执行了RFC 7230——超文本传输协议(HTTP/1.1):消息语法和路由。这样,对于content-length消息头格式错误的请求,总是以400服务器响应拒绝。要了解关于这个版本的更多细节,请查看变更日志。 Apache Camel 3.19.0发布,带来了259项Bug修复、改进和依赖项升级,其中包括gRPC 1.48.1、Spring Boot 2.7.3、JUnit 5.9以及Artemis 2.25.x。hadoop-common模块已升级到3.3.3版本,解决了CVE-2022-26612漏洞(TAR条目可能会创建未解析符号链接,指向预期提取目录下的外部目录)。要了解关于这个版本的更多细节,请查看发布说明。 Apache Tika 2.5.0发布,特性包括:改进了PDF/UA、PDF/VT和PDF/X的PDF子集信息提取;避免从PDF中提取书签时出现无限循环;通过AutoDetectParserConfig类启用提取配置。要了解关于这个版本的更多细节,请查看发布说明。截至2022年9月30日,Apache Tika 1.x版本序列的生命周期已经结束,不再支持了。ArchUnitTNG科技咨询公司发布了ArchUnit 1.0.0版本,这是一个可扩展的开源库,用于检查Java代码的架构,检查包和类、层和片之间的依赖关系,并检查循环依赖关系。该版本带来了多项增强,包括:不再将archunit_ignore_patterns.txt文件中定义的忽略规则与FreezingArchRule类一起填充ViolationStore接口的实例。为了消除歧义,该版本重命名了大量的“getter”方法,导致了一些破坏性的更改。InfoQ后续将带来更详细的报道。JHipsterJHipster Lite 0.17.0发布,带来了Bug修复、增强和依赖项升级,后者主要包括keycloak 19.0.3、mongodb 1.17.5、react-hook-form 7.37.0和vite 3.1.6。会议Devoxx Morocco 2022于上周在摩洛哥阿加迪尔的塔哈泽特湾希尔顿海滩度假酒店举行,来自Java社区的许多演讲者发表了演讲,主题包括:Java与编程语言;架构与安全;Devops、云、容器和基础设施;数据与人工智能。 类似地,Jax London 2022于上周在英国伦敦的商业设计中心举行,吸引了许多来自Java社区的演讲者,他们出席了各分会场和研讨会。 原文链接:https://www.infoq.com/news/2022/10/java-news-roundup-oct03-2022/
| 8,782 | 1,665,705,600,630 |
InfoQ
|
117 |
Cloudflare R2上线:兼容R3的零流量全新对象存储服务
|
Cloudflare近期发布了R2存储,这是一个兼容R3,但零流量费的全新对象存储服务,提供与Cloudflare Workers整合的动态功能。R2存储的设计利用横跨100多国家中275个城市的内容交付网络,提供低延迟、高吞吐量的存储服务。Cloudflare提供三种访问R2对象的方式:用于通过无服务代码访问存储桶的Worker运行时API、兼容S3 API的访问,以及公开桶。Cloudflare产品副总裁Aly Cabral写道: 谁会抱着永远不会读取的目的来存储数据呢?然而,每一次数据读取都会有随之而来的输出费用。R2为开发者提供了自由访问数据的能力,打破了长期以来束缚应用程序构建者手脚的生态系统锁定。 在一年前的预览中首次亮相的R2存储,以“零流量费用对象存储”为招牌,宣称是对象存储最便宜的选择。Cloudflare表示,这个新的选择要比亚马逊S3标准版至少便宜10%。S3标准版是AWS的默认选项,也是最贵的选项,相较而言其他存储级别的价格明显要便宜很多。BukuWarung的软件开发工程师Pratyaksh Singh如此评论: 这项服务很是让人兴奋,它太省钱了。它的API与AWS的S3相兼容,从用例来看,我们似乎只需要在代码中创建S3客户端时修改端点即可。R2虽然允许我们选择区域,但似乎唯一的选项就是自动。R2可以轻松与Cloudflare的边缘计算平台(基于隔离的)Workers匹配。 当前版本的R2会在最近的可用区域内自动选择存储桶的位置,但目前还不支持对象生命周期、不停机实时迁移或管辖限制。Cabral补充道: 虽然我们还没有明确计划支持区域,但我们知道数据的地域性对很多规范用例来说很重要。区域管辖限制支持设置一个类似“欧盟”那样的管辖区以对数据做出限制。 R2的收费标准基于数据存储的总量以及两类操作,“突变状态”和“读取现有状态”,包含10GB的免费存储额度且不收取流量费用。继R2对象存储的普遍可用(GA)后,Cloudflare又推出在R2之上存储并检索Cloudflare日志的能力。在“GA周”中,内容交付网络宣布了威胁运营和研究团队Cloudforce One,以及用于缓解DDoS攻击的流量分析系统Cloudflare自适应DDoS防护的发布。原文链接:Cloudflare R2 Storage Generally Available相关阅读:Cloudflare 放弃 Nginx,使用内部 Rust 编写的 Pingora
| 6,641 | 1,665,619,200,911 |
InfoQ
|
118 |
亚马逊将自有服务数据的压缩从Gzip切换为Zstd
|
最近,亚马逊前副总裁Adrian Cockcroft在推文中特别指出了从gzip切换到Zstandard压缩所带来的好处,这在社区中引发了关于压缩算法的讨论。其他大公司,包括Twitter和Honeycomb,也分享了使用zstd获得的收益。 最近,Dan Luu分析了推特存储节省的情况,并在推特上发起了一场对话:我想知道Yann Collect创建zstd到底消除了多少浪费。我估算了下Twitter的数值(与大型科技公司相比微不足道),从HDFS切换到zstd每年节省的数量大约为8位数的中值。在世界范围内(非年化),这个数值应该不低于9位数? Cockcroft回复说:亚马逊从gzip切换到zstd,压缩S3存储量减少了大约30%,达艾字节的规模。 Zstandard(其C语言实现zstd更为知名)是由Facebook公司的Yann Collet开发的无损数据压缩算法,在多种数据集上提供了很高的压缩比和非常好的性能。该参考实现库是一个遵循BSD许可的开源软件,它提供了一个速度极快的解码器,允许我们在速度和压缩比之间做大范围权衡。 起初,Cockcroft的表述在社区中引发了质疑,一些开发人员询问亚马逊如何在S3上压缩客户数据。亚马逊一名内部员工澄清道:Adrian说错了,或许是所有人都误解了他的意思。他的意思并不是说S3改变了存储压缩客户数据的方式。他的意思是亚马逊改变了在S3中存储自有服务数据(主要是日志)的方式——从gzip日志切换到ztsd日志,我们(作为S3的一个客户)能够将S3存储成本降低30%。 Honeycomb首席开发者大使Liz Fong-Jones赞同切换到zstd:我们不把它用于列文件,因为那太慢了,但我们把它用于Kafka(…),在生产环境中从snappy切换到zstd后,Honeycomb节省了25%的带宽。(…)不仅仅是存储和计算,对我们来说,是网络。亚马逊跨AZ的数据传输非常昂贵。 在Reddit一个热门的帖子中,noirknight是众多提供正反馈的用户之一:我的公司几年前也做过类似的事情,也看到了类似的好处。只要可能,我们都使用zstandard,不仅仅是存储,还有其他东西,比如内部HTTP通信。 以下是用户treffer在Hacker News上的评论:速度特别快的压缩算法(zstd、lz4、snappy、lzo……)是值得我们付出CPU成本的,而且几乎没有什么缺点。问题在于找到最佳契合点,在不产生CPU瓶颈的情况下减少当前的瓶颈,不过在这方面,zstd也提供了最大的灵活性。 亚马逊在一些托管服务的API中公开了Zstandard和对其他压缩算法的支持。例如,在Amazon Redshift中引入Zstandard支持后,这家云提供商针对云数据仓库开发了自己的算法AZ64。按照他们的说法,其专有压缩算法比zstd编码节省5-10%的存储空间,并且速度快70%。 亚马逊官方没有就其内部数据使用的压缩技术或相关的S3存储节省发表任何评论。 原文链接:https://www.infoq.com/news/2022/09/amazon-gzip-zstd/相关阅读:Node.js|使用 zlib 内置模块进行 gzip 压缩一种优于 gzip 的压缩方式 Brotli
| 7,657 | 1,665,300,793,837 |
InfoQ
|
119 |
Terraform 1.3,简化重构体验
|
HashiCorp宣布了Terraform 1.3版本发布,该版本引入带有默认值的可选对象类型属性,并扩展了moved 模块的功能。Terraform的类型约束让模块作者能够对输入变量的值进行验证。为处理复杂情况,开发者常用object 类型以允许命名属性集合拥有各自的类型。然而,这也就意味着模块使用者需要为所有属性赋值,甚至包括那些与当前任务无关的。在1.3版本中可以为对象属性赋默认值,这个功能最初是在Terraform 0.14版本中实验性质加入支持。下面的例子中展示了定义变量时如何设置默认值:variable "buckets" {
type = list(object({
name = string
enabled = optional(bool, true)
website = optional(object({
index_document = optional(string, "index.html")
error_document = optional(string, "error.html")
routing_rules = optional(string)
}), {})
}))
} 默认参数是可选的,如果不进行指定,Terraform将使用类型中对应的null 值为默认值。如果指定了非空值为默认值,那么这个属性在接收模块中永远非空。当调用者没有设置默认值或调用者明确将属性值设置为null时,Terraform都会设置默认值。在1.1版本中引入了moved 移动块,为重构配置文件中的资源提供了程序化的手段。Terraform会通过每个模块或资源的地址对比新配置与先前状态,移动或重命名对象都会导致Terraform销毁旧地址的对象并在新地址创建新的对象。而借助配置文件的移动块可以让Terraform将旧地址的已有对象视为是当前属于新地址的对象。这种行为与terraform state mv 命令相同,但移动块允许直接在配置文件内追踪资源的移动。在最初的版本中,移动块只支持在同一本地路径内的模块间重构。1.3版本中通过新增在第三方及不同来源模块中重构资源的功能,取消了这层限制。这也包括了从Terraform云端托管的私有注册中心,Terraform注册中心,或者任何source 参数中的选项。1.3版本的发布与Terraform v1.0的兼容性承诺相符,该承诺表示,1.x的任何版本更新都不会对工作流产生影响,也不需要升级任何工具。虽然大多用户都不会受这次版本升级的影响,但部分行为可能会需要额外的升级步骤。比如在1.3版本中,一些未维护的状态存储后端将被废弃,包括:artifactory 、etcd 、manta ,以及swift 。更多关于1.3版本发布的细节可以参考文档和版本说明。Terraform 1.3目前可从HashiCorp官网下载,也可以在Terraform云端使用。 原文链接:Terraform 1.3 Release Introduces Simplified Refactoring Experience相关阅读:基础设施即代码:只是漂移管理还不够Docker 之父:Go、Rust 为什么会成为云原生的主导语言?
| 8,513 | 1,664,938,014,140 |
InfoQ
|
120 |
OPPO 在 FaaS 领域的探索与思考
|
ESA Stack(Elastic Service Architecture) 是 OPPO 云计算中心孵化的技术品牌,致力于微服务相关技术栈,帮助用户快速构建高性能,高可用的云原生微服务。产品包含高性能 Web 服务框架、RPC 框架、服务治理框架、注册中心、配置中心、调用链追踪系统,Service Mesh、Serverless 等各类产品及研究方向。当前部分产品已经对外开源:开源主站:https://www.esastack.io/Github: https://github.com/esastack一、Serverless 及 FaaS 简介Serverless 是什么,下面引用的这段来自伯克利大学的论文《A Berkeley View on Serverless Computing》Put simply, serverless computing = FaaS + BaaS. In our definition, for a service to be considered serverless, it must scale automatically with no need for explicit provisioning, and be billed based on usage.我们暂且不管 FaaS 和 BaaS 是什么,这段话提到了 2 个核心的点,自动弹性伸缩和按用量付费,一般来说各大云产商会多强调的一个卖点是少运维甚至免运维,开发者可以少关注机器层面的事情。有一个很形象的比喻是,Serverless 就像网约车,需要的时候我们再叫车,不需要的时候我们也不需要承担汽车的闲置、养护成本,我们只需要按需付费。关于 Serverless 的历史,下面摘录的这段来自 Serverless 白皮书:虽然按需或"pay as you go"模型的想法可以追溯到 2006 年和一个名为 Zimki 的平台,但Serverless一词的第一次出现是 Iron.io 在 2012 年推出了 IronWorker 产品,一个基于容器的分布式按需工作平台。而 Serverless 能真正被大家所熟知,大体是在 2014 年亚马逊云科技推出 Lambda 的时候,后续各大云产商都推出了自己的产品。限于篇幅,本文后述内容会更多的聚焦在 FaaS 的层面。那 FaaS 又是什么,其实并不是一个容易回答的问题,但我还是想先尝试概括性地描述下自己的理解。FaaS 是一种开发模式,相比传统模式,开发者向基础设施平台让渡了一部分选择的自由,比方语言框架、依赖库、函数必须实现云厂商定义的接口规范等等。与之相对的,平台会为开发者提供一些能力,比方按需执行和计费,弹性伸缩,少运维甚至免运维机器等。正如云计算的发展史,总的趋势都是基础设施平台管的或者提供的通用能力越来越多,为开发者屏蔽了越来越多的复杂性。文字描述可能有些苍白,下面的代码是 OPPO FaaS 平台一个基于 Java 语言的 Web 函数示例@Path("/")
public class HelloWorldFunction {
private static final Logger LOGGER = LoggerFactory.getLogger(HelloWorldFunction.class);
@POST
public String handle(@HeaderParam("name") String name) {
LOGGER.info("function is running! name {}", name);
return "hello " + name;
}
}这是一个比较简单的例子,函数收到请求后,打印了一些日志,然后往客户端返回了 "hello ${name}"。上述的开发者对平台让渡了一些选择自由,在这个例子里面。开发者不知道代码底层跑在一个什么样的 web 框架之上,是 Tomcat 还是 jetty 还是其它,多提一句,OPPO FaaS 平台 Java 语言的 Runtime 是基于我们自己开源的 Web 框架 restlight 实现。此外,大部分云厂商的 FaaS 产品是需要开发者实现厂商定义的 API 接口的,这里平台限定了开发者只能使用 JAX-RS 这个社区规范而不是提供私有接口。开发者需要使用平台定义的 logger 来打印日志,这样平台可以做日志路径统一定义方便采集,同时往 logger 里注入诸如 traceid 等方便排查问题的信息。下图引用自文章 《Serverless 选型:深度解读 Serverless 架构及平台选择》图里以业务聚焦程度和运维下放(给云厂商)程度为坐标轴,给市面上的产品大体做了区间划分。 FaaS 产品在这两个维度都是最高的那档,意味着这种形态的产品已经在最大限度上让开发者可以聚焦在自己的业务逻辑处理上而不用关心太多的非功能性需求。当然,正如上面所描述,开发者是需要让渡出很多选择上的自由并且能做的事情有限。此外,想象开发者现在有个普通的 Web 应用提供了十多个接口,如果基于 FaaS 产品函数这种粒度,不得不拆分成十多个函数,这会带来管理和操作上的困难。所以,各大云厂商的 FaaS 产品,慢慢都开始提供了基于镜像或者自定义 Runtime 的方式,让开发者可以将一些老应用低成本的迁移上 FaaS。二、OPPO 在 FaaS 产品上的探索(1)探索阶段笔者自己刚开始做 Serverless\FaaS 相关工作的时候,第一款接触的产品是大名鼎鼎的 Knative。上面是一个简单的例子,helloworld-go 这个镜像本身是个非常简单的 http 服务,访问之后会返回一串文本。但如果跑在了 knative 环境之内,便可以快速地将应用 Serverless 化,knative 可以根据并发访问量(也支持其它指标)给应用做弹性伸缩甚至把实例数缩容到 0。当然,实例从 0 到 1 由于底层机制,应用就绪到提供服务的时间大概是分钟级比较长,这个业界称为冷启动耗时,后文会再展开。这里只涉及 knative 的一小部分功能,其它的限于篇幅不展开阐述。当时体验及研究过一段之后,笔者一直反复思考的问题其实是,如果自己作为一个普通的业务使用方,存量的业务如果仅仅只是为了一个弹性伸缩的能力,在公司内部的弹性伸缩产品已经有这种能力了,自己没有动力将服务迁移到 knative 的环境。所以在经过内部讨论及一些尝试后,我们最终没有选择做存量业务的 Serverlss 化,而是决定专注做 FaaS 产品,拉一些适合这种形态的新业务来落地。事实上,Knative 也并不是 FaaS 产品,关于这点官方也是给出过说明的。当然了,我们是可以基于 Knative 去做 FaaS 产品,国产 FaaS 产品 openFunction 便是一个例子。(2)选型及分析在决定了专注做 FaaS 产品之后,便面临选型问题。云厂商的 FaaS 产品是没有开源的无从得知实现细节,所以只能调研开源产品。市面上大部分的 FaaS 开源框架都是基于 K8s 实现的,像 fission、openfaas、openfunction 等,好处是这样可以最大程度地利用 K8s 的基础能力和整个生态,而不用什么东西都从 0 开始建设。想象一下我们现在需要对外提供一个类似 LeetCode 那样的编程环境,给用户编写一些相对简单的代码然后调试运行。如果使用传统的方式来做,部署一组机器然后多个用户编写的代码在这些机器上分配调度之后去运行,一个是隔离性不好会互相抢占资源,另外是需要自己实现一套把代码根据机器的负载情况把任务调度到某台机器的逻辑,再有还需要考虑这些代码访问量和弹性伸缩、后续运维等。上面提到的痛点,正是 FaaS 产品所擅长解决的,所以当时我们就承接了这么一个需求。如果这个需求我们直接使用k8s来实现,每份代码我们跑在一个 deployment 里面,弹性伸缩我们使用 k8s 的 hpa 解决,pod 提供了一定程度的隔离,功能也是可以实现的。但回想一下我们以前在 LeetCode 改代码提交之后点击测试,基本上可以在一两秒内出结果。如果直接使用 K8 原生的这些能力,用户改完代码之后我们需要走编译、打镜像、k8s 调度、kubelet 拉镜像、起服务的流程,整个过程至少是分钟级,用户体验会比较差。这个问题和上面提到的冷启动问题是很接近的,即服务实例在 0 到 1 的过程是比较耗时的。1)冷启动分析上图是一次实例数从 0 到 1 时冷启动的过程,步骤 1-3 耗时大部分时候远超执行函数的时间。对于步骤1来说,如果底层是基于 K8s 利用其原生的调度能力,不管怎么优化,都不可能到毫秒级。对于步骤 2,云厂商一般会限制上传的代码包\镜像大小,另外则是如果用户使用的依赖已经被做进了运行时 Runtime(一般文档里会有依赖列表),则用户上传的代码不需要带有这些依赖可以小很多,这样下载依赖和代码的时间会短很多。针对步骤 3,这里可能需要岔开单独说一下 Runtime 是个什么东西。2)Runtime是什么由于 FaaS 的模式开发者只提供业务逻辑那一小部分代码,肯定是不足以运行起来的,它需要有个环境去承接运行,我们一般把 FaaS 平台提供的这个运行时环境称为 Runtime。这里又可以分成两部分,一个是代码片段底层运行的语言相关的框架(tomcat、jetty等)。另外一部分是语言无关的环境,像你的服务是跑在容器里面还是 vm 或者其他环境里面。一般来说,函数的调用和执行有两种方式。一种是真的完全按需,每个请求由独立的进程(容器)来执行,执行完就销毁,这种一般也称为 Exec 模式。另外一种是执行完还是会保持一段时间,后续没有请求再销毁,也叫 Runtime 模式。关于这两种模式的讨论,参考链接 5 的文章写的挺好,这里摘抄一段:调用和执行方式。Execl 模式虽然开发成本比较小,但运行效率上有差距,本质上是把所有的语言都当做脚本语言对待,等于放弃了各种语言这么多年性能的优化成果。如果是比较重的事件处理,还可以承受,但如果要承载高并发任务就比较困难,这也是为什么 Azure 后来放弃自己的第一版 Function 实现的原因。当前看来,如果要做通用的 FaaS 兼顾性能和效率,还是要通过 Runtime 的方式。但 Runtime 的方式带来的一个问题是依赖的管理和隔离,如果 Runtime 没有很好的机制隔离用户代码和 Runtime 的代码,二者的依赖就有耦合,导致用户的 Function 的依赖选择上受限于 Runtime 的平台。Runtime的启动速度及隔离性是最重要的两部分。一般来说基于 K8s 的 FaaS 产品底层当前跑的都是容器,启动速度并不慢。而传统上来说我们会觉得 vm 的启动速度远低于容器,但从公开资料来看,一些云厂商会使用轻型 vm 来跑 FaaS,这样可以兼顾启动速度和隔离性。Firecracker 目前已经能提供小于 125ms 的 MircroVM 启动速度,每秒 150 台的启动能力,小于 5MiB 的内存开销,并发运行 4000 台的极限承载容量(AWS i3.metal EC2 作为宿主机),以及热升级能力等。这些都是传统虚拟机所遥不可及,但现代化弹性工作负载又有强烈需求的性能指标。 ——此处引用可参考引用文章4此外,现在业界已经有些项目在调研甚至落地使用 WebAssembly(后文简称wasm)跑 FaaS,公有云暂时没有看到直接支持,但是可以在docker镜像里面跑 wasm 这样的方式间接支持。主要还是考虑隔离性、启动速度、还有 wasm 可以支持多语言编译成 .wasm 文件运行。虽然当前 wasm 技术整个配套并不十分完善,但相信随着发展后面市面上应该会有越来越多的 FaaS 产品支持跑在 wasm 的 Runtime 里面。至此,我们分析了冷启动问题的多个环节,及 Runtime 在 FaaS 产品里的重要性,聊完了问题我们讲讲解决方案。3)热 pod 池技术业界在这个问题上其实大概那么几个手段。一个是实例预留,既不把实例数缩容到 0。还有就是上文描述的,探索极致的 Runtime 启动速度配合调度系统,这个投入比较大。另外就是预先准备实例热池的方案,提前准备好一组实例,在用户请求到来时从中选一个实例绑定用户的代码然后执行逻辑。业界开源的FaaS产品 fission 即实现了热池的方案,并且像 nodejs、python 这样的语言,代码包不大的情况下,冷启动耗时大概在100+ms 左右。4)fission 从 0 到 1 的流程分析上图是从 fission 官方文档拿下来的。左下角 Warm Environment Pool 即是所谓的热 pod 池。里面的 pod 是已经启动了的服务实例,实例已经走完了 K8s 调度、拉镜像、起服务等耗时的步骤。我们这里从步骤3看起,当请求打到入口代理 router 时,其会从 executor 处拿一个函数的访问地址(步骤3),而 executor 若发现函数实例为 0,会从热 pod 池里随机挑一个 pod,然后到 pod 自己去下载代码,利用语言的动态加载机制加载用户代码(步骤5、6、7),完成上述步骤意味着 pod 已经具备提供服务能力,router 拿到返回的地址直接请求函数即可。5)不足分析上述是一个简要的流程分析,实际会更复杂些。看到这里读者可能会有疑问:1、router 请求 executor 取函数地址,是每次请求都需要这么做嘛;2、流程里没有体现弹性伸缩和并发控制的流程,这块是在哪里实现的;关于问题1,是的,fission 原生的流程就是这么做的。而且在 router 和 executor 的流程里还有一些查询 K8s 的操作,每次请求都会做,换句话说核心链路里是强依赖了 K8s 的,不仅稳定性有限,吞吐量也非常有限,设计不合理。关于问题2,并发控制的流程是在 executor 服务里控制的,它的实现是在内存里存了类似下面这个结构来计数做并发控制,由于把数据存在内存里,executor 服务只能部署单台,这也是一个非常不合理的设计。这里针对的是 web 函数,fission 事件函数的弹性伸缩限于篇幅,本文就不展开叙述了。考虑到人员投入情况和需要业务落地的牵引,我们决定先使用开源产品来建设自己的 FaaS 产品,后面慢慢建设完善。具体来说我们选用了 fission,它底层基于 kubernetes,像上文描述,其使用了热 pod 池技术解决冷启动的问题,我们另外打通了公司内部许多成熟的产品,支撑了第一个业务落地。1)产品全景图上图是我们 FaaS 产品的概览图,我们是基于公司内部很多成熟的产品来搭建服务。Kubernetes 集群是使用了 OPPO 定制的版本 OKE(OPPO Kubernetes Engine),好处是在多云的环境里我们的服务无须做适配即可部署。此外我们也打通了 CMDB、日志、监控、API网关、注册中心、弹性伸缩等产品,这些都是一个 FaaS 系统必不可少的。限于篇幅,下文主要涉及的还是 Serving 部分。2)函数从 0 到 1 流程图前文提到 fission 存在的问题,我们在自己的流程设计里做了改进和优化。下文会分成几个方面来讨论。3)API网关我们并没有使用 fission 原生的 router 网关,而是使用公司自己的 API 网关。主要是基于以下两点考虑公司的 API 网关已经经过很长时间超大规模流量的考验,远比 fission 的 router 网关来的稳定和可靠。公司的网关本身的功能也丰富的多,事实上我们也利用了网关的分流能力,实现了一套按一定规则路由到函数不同版本的方案,crd 的设计及具体流程为了简洁上图未有体现。4)注册发现机制fission 原生是没有注册发现这套机制的,我们对接了公司的网关及注册中心产品,实现了函数发现功能,实例数的增删可以实时通过注册中心推送给到网关。此时仅在实例数从 0 到 1 时会从调用 executor组件拿一个函数地址,其余的实例增减都是通过函数发现的功能来实现。解决了 fission 原生的缺陷,在核心链路里依赖了 executor 服务及 K8s 带来的吞吐量及稳定性问题。5)弹性伸缩K8s 里面的 deployment 我们都比较熟悉,由于我们的产品实现底层是基于热 pod 池技术,加载完代码之后的 pod 还是需要有一个工作负载来管理。好处是如果 pod 所在宿主机有异常,我们可以感知到并做故障转移。另外出于可扩展性的考虑,我们希望长期来看函数可以在不同的弹性框架上做切换。基于上述考虑,我们实现了一个自定义的工作负载叫 fndeployment 来管理函数的 pod 实例,然后对接了公司的弹性框架产品 burrfish,同时由于实现了 K8s 的 scale 接口,这样后续需要的话可以很容易的对接上 hpa、keda 等其他弹性伸缩产品。函数的指标都采集到了公司的监控产品内,弹性伸缩框架可以基于这些指标做弹性伸缩。由于监控系统对实例的指标采集是周期性的,时效性上会差一些。对于一些需要更加即时扩容的指标,我们在 Runtime 侧做了主动上报的功能,可以实现更加即时的扩容。6)servicemesh 产品集成我们的环境里集成了 linkerd 这个 servicemesh 产品,关于 servermesh 产品是什么这里不多做展开,只聊下我们引入了 servicemesh 是为了解决什么问题,主要基于以下几点考虑:函数针对各种语言需要实现各自的 Runtime,而像可观测、服务治理这些能力是需要多语言重复建设的,使用了 servicemesh 之后这部分的工作可以只建设一次;FaaS 产品和 servicemesh 产品结合在业界并不是一个孤例,除了上述提到的可观测和服务治理,长期来看函数在多语言间还是会有很多共性能力需要建设,引入 servicemesh 之后可以基于其提供的扩展能力来做建设,多语言共用;函数在集群内访问另外一个函数,同样需要灰度分流的功能,这一块由于有 sidecar 的存在,函数可以直接访问另外一个函数而不必绕道网关。可能有读者会好奇为什么在 servicemesh 产品上我们选用了 linkerd 而不是 istio,主要是基于几个方面考虑:linkerd 三大设计原则,简单、够用就行(just work)、最小化资源消耗,istio相对复杂,而当前函数的诉求用不上 istio 那么多功能;linkerd 在性能及资源消耗上相对 istio 更优,数据参考;linkerd 是少数几个 cncf 毕业的项目,linkerd-proxy 基于 rust 开发,相比 envoy 基于 c++,后续若有扩展需求门槛相对低些。三、小结及未来规划本文主要介绍了 OPPO 在 FaaS 领域的探索和思考,包括对选型,冷启动、Runtime、整个 FaaS 产品的思考及分析,针对 fission 不足所做的优化改进。行文至此发现篇幅已经较长,还未涉及到的内容如事件体系又是一大主题,还有关于笔者作为 Serverless 使用者的视角对 FaaS 及 BaaS 产品结合的思考,后续有机会再做分享。我们也会一直持续关注业界动态,对新技术如 wasm 等长期关注,以期做出更优秀的产品。四、附录Serverless 选型:深度解读 Serverless 架构及平台选择:https://zhuanlan.zhihu.com/p/141217056Serverless Whitepaper:https://github.com/cncf/wg-serverless/tree/master/whitepapers/serverless-overview一直在说的冷启动,究竟是个啥子呦:http://bluo.cn/serverless-code-start深度解析 AWS Firecracker 原理篇 – 虚拟化与容器运行时技术:https://aws.amazon.com/cn/blogs/china/deep-analysis-aws-firecracker-principle-virtualization-container-runtime-technology/Serverless\FaaS现在和未来:https://jolestar.com/serverless-faas-current-status-and-future/容器技术之容器引擎与江湖门派:https://developer.aliyun.com/article/778752#slide-13在腾讯云上部署基于 WebAssembly 的高性能 serverless 函数:https://my.oschina.net/u/4532842/blog/5172639wasm对比docker:https://wasmedge.org/wasm_docker/基于 Knative 打造生产级 Serverless 平台:https://www.sofastack.tech/blog/knative-serverless-kubecon-na2019/
| 12,325 | 1,664,536,810,643 |
InfoQ
|
121 |
不要让框架影响你最初的架构设计
|
在之前的文章中,我们探讨了决策如何成为软件系统架构设计的基础。“软件架构可能不是你想象的那个样子”一文认为,软件架构描述的是决策而非结构;而“为什么需要关注软件架构”一文则指出,进一步挖掘架构中隐含的决策,并迫使这些决策变成显式的,有助于开发团队利用他们从冲刺和迭代中获得的经验数据做出更好、更明智的决策。在团队所做的架构决策中,最重要的是选择他们将要使用的框架,将要引入的模式以及将要使用的策略。对其中每一项的好处和局限性的考量将影响团队的决策和系统最终的架构。框架、模式、策略可以帮助团队更快地设计出应用程序的最小可行架构(MVA),但在使用它们时,团队需要考虑一些可能出现的问题,以免在创建完 MVA 后发现框架、模式和策略做了一些不恰当的隐式决策,而不得不大量进行重写。要进一步了解 MVA,可以读下“最小可行产品与最小可行架构”和“最小可行架构实践:构建家庭保险聊天机器人”这两篇文章。软件框架软件框架是抽象、可扩展的代码库,开发人员可以把它们应用于特定的目的。没有软件框架,现代软件系统都没法构建,因为它们让开发人员可以专注于增加价值的特性,而不用开发每个系统都需要的所有辅助性软件。框架可以大幅提升生产力,但也是有代价的,代价就是必须按框架要求的方式工作,这可能会起到副作用,如隐蔽的安全漏洞或架构缺陷。不要让框架接管你的应用程序。框架会有接管应用程序的倾向,有时候甚至会影响开发团队看待问题的方式。例如,团队使用了规则引擎框架,它在处理基于数据的决策逻辑时非常强大,但我们也看到,为了使用框架提供的一些吸引人的特性,团队开始将应用程序的所有东西都改造成规则。如此一来就会错过一些更简单、更直接的解决问题的方式。理解框架替你做的决策。在软件架构场景中,框架有替你做架构决策的效果。大多数框架的问题是,它们所做的架构决策是隐式的,不透明。系统也许能接受这些决策,也许不能接受;这就需要你自己做好功课,确定框架是否适合。你甚至需要使用这个框架构建系统的某个关键部分,以此来验证它是否满足系统的 QAR。例如,你可以使用一个开源、可重用的框架(如 Spring 框架)来开发各种 Java 应用程序,它已经成为 Java 社区中非常流行的框架。由于这个框架很大,而且相当复杂,所以开发人员需要接受相当数量的培训并具备丰富的经验才能有效地使用它。Spring Boot 是 Spring 框架的一个扩展,初级水平的开发人员就可以使用它快速创建独立的生产级应用程序。Spring Boot 开发效率高是因为它做了许多设计决策,它选择了“最佳”配置(Spring Boot 设计人员的说法),使用了 Spring 平台和第三方库。选择一个像 Spring Boot 这样的框架可以大大加速应用程序开发和实现,但是开发人员有必要深入了解框架代替他们做出的“隐藏”决策,因为应用程序是需要持续演进的,随时可能需要调整甚或逆转这些决策。在 Spring Boot 中,这些决策包括使用哪些默认配置,需要安装哪些包来提供应用程序需要的依赖。定期关注框架的发展。和任何代码一样,框架也会有固有的缺陷,包括可能已存在多年但未被发现的安全漏洞。和组织自己管理的代码不同,框架常常依赖外部力量完成升级,比如其他公司或开源项目的维护者。当框架有新版本发布时,组织需要将使用该框架的应用程序升级到最新版本。使用框架的旧版本是安全漏洞的主要来源,它们可能带来不为人所注意的重大风险。不要因为大公司在使用就选择一个框架。有些人在选择框架时会落入这样的陷阱:因为有一些知名的大公司在使用这个框架,甚或是开发了这个框架,所以它必然很好。毫无疑问,它在某些方面确实很好,但那家大公司面对的场景和挑战与你可能并不相同。无论你决定是否评估该框架的质量属性,你都是在做一个架构层面的决策。这时,最好是相信你自己的数据,而不是其他人所做的工作。不要让团队的技能衰退。因为框架是以一种透明的方式来处理复杂的问题,所以,使用框架的开发人员就会丧失甚至永远无法培养起理解或开发被框架接管的那部分代码的能力。结果就是,他们可能不理解他们在选择一个特定的框架时自然做出的架构选择。因此,使用框架不能代替合理的架构设计;做架构决策的开发人员必须了解框架所做的权衡,以及在什么情况下,那些权衡将无法接受。关于这方面的知识,有些可以从同其他使用该框架的开发人员的交流中获得,它们了解框架所做的假设,以及这些假设会带来什么局限。也许从社区获得的知识就可以帮我们将某些框架排除在考虑范围之外,但对于任何框架的终极测试都是根据质量属性需求(QAR)来测试系统。计划好替换框架。如果不得不替换框架,如框架出现了你不希望看到的变化,或者即将到达生命周期的终点 / 不再支持,那么理解选择该框架时所作的决策就尤其重要。框架变化不定,如果没有计划好框架过时后如何替换,那么开发团队将面临成本高昂的重写或替换。即使是商业框架也可能走到生命周期的终点,因为并购或是不断变化的商业条件。了解使用替代框架调整系统的成本始终是架构决策的一项重要内容。编程语言已经成了隐藏的框架。将编程语言视为一种框架,这个值得花点时间来说一下。起初,高级语言的功能只比底层硬件抽象多一点点,但它们的范围逐步扩大,到现在,几乎所有的现代语言都包含了大量处理某些问题的库,有些甚至对处理某些问题的库做了专门优化。即使是像 COBOL 这种相对“古老”的语言,也让使用它们的程序员认识到,如果语言可以有效地解决某类问题,就可以节省时间和精力,如果不能,就会增加工作量,而且会导致某种无法解决的问题(例如使用 COBOL 解决矩阵代数问题)。编程语言的选择是一个团队可以做出的最具架构意义的决策之一。生态系统代表框架的极端情况像亚马逊云科技(AWS)或微软 Azure 这样的生态系统提供了可以完美协同的完整框架族。在选择这样的生态系统时,团队隐式做了大量的决策,关于他们的工作方式,以及他们的系统解决各种问题的方式。我们关于框架的所有观点都适用于生态系统,但到了一个很极端的程度:团队需要了解生态系统及其框架所做的决策,因为放弃该生态系统另选一个的代价将是大量的重写应用程序。在应用程序开发的早期,你需要确定自己是否已经准备好做出这样的承诺。关于生态系统,我们需要考虑的一点是,供应商的终极目标是将生态系统的用户留在生态系统内。为此,迁移到一个不同的生态系统而又不大量的重写应用程序几乎是不可能的。一旦决定加入一个生态系统,组织还需要警惕使用生态系统的成本随着时间的推移上升,因为供应商知道,离开生态系统的成本非常高。不应该认为入门级的价格会永远持续下去。模式模式是可重用、已证明有效的解决方案,旨在解决特定场景下常见的软件设计问题。架构模式可以看作是架构设计决策包,在使用一个模式时需要完全理解这些决策。理解该解决方案的适用场景至关重要。在合适的场景中使用模式会很有效。它们让开发人员可以利用已经在用的合理的设计方法,更快速地构建出更好的软件。也许,更重要的是,如果模式定义和描述以为大部分 IT 从业者所接受,那么它们就可以提供一种有用的通用语言,来描述软件挑战以及克服挑战的潜在方法。模式可能比你最初想的要难用。模式通常”只是“概念性的;也就是说,它们没有用代码实现,仅仅是算法性质的。这不是说它们缺乏价值,因为有时候,有一个看问题的新方法是制定出优秀解决方案的关键。但是,因为模式只是概念性的,所以一般来说,用代码实现它们有时候相当具有挑战性;模式是通用的,为的是可重用;实例化模式,创建适用于特定场景的设计需要相当的经验。此外,如果未能充分隔离问题的话,当模式运用不恰当时,就可能会导致非必要的复杂架构设计和费解的应用程序代码;模式越是通用,潜在的问题就越不可能隔离,这反过来降低了模式的通用性和可重用性。此外,模式可能并未考虑它们提供的解决方案对部分 QAR 的影响,如可扩展性或性能,可能需要辅以适当的策略来解决这种不足。提出诸如“它有帮助吗?”、“它有用吗?”和“它可测试吗?”这样的问题,有助于评估一个模式的潜在用途。模式也做决策。理解与特定模式相关的设计决策,以及在实现模式时需要做出的决策,是成功使用一种模式的关键因素。就像在之前的文章中提到的那样,架构的本质是对产品的技术方面进行定义和限制的一系列决策。不管团队采用什么方法,这些决策都存在。使用一种模式的结果就是团队做出了大量设计决策,有意的或是默许的。例如,分层架构模式是一个在软件架构师、设计人员和开发人员中间非常流行的模式。它将软件系统分成多个单元(“层”),每个层都可以单独开发和演进,层与层之间的交互降至最低。模式本身并没有规定应该使用哪一层,以及应该实现多少层。它也没有指定应该使用什么技术实现这些层,层与层之间如何交互,或者应用程序代码应该如何打包并运行。该模式经常实现为 4 层架构(展现层、业务逻辑层、数据访问层、数据存储层),代码则打包在 3 层中(展示层、应用程序层、数据层),如图 1 所示。分层架构模式实现示例不过,诸如多少逻辑层(layer)、多少物理层(tier)或者应该使用什么技术这样的决策留给了实现团队,他们要根据自己需要满足的 QAR 来做出。因此,使用这个模式可能会产生不同的系统设计,这由上述决策决定。在模式的概念和实现之间,有些东西可能会丢失。不单是模式会如此,但使用模式放大了这个问题:在分层架构模式中,层次本身似乎非常清晰,但在写好的代码中就几乎没什么东西能实际地区分或硬性划分层了,可执行代码中更是如此;层只是开发人员头脑中的一个概念。因此,通常很难测试应用程序开发是否严格遵守了这个模式。如果对团队而言严格遵守模式很重要,就要发明一种方法来评估模式遵守情况。策略策略是实现一个或多个质量属性需求的决策。它们比模式更具体,比实现更简单,但可能产生需要处理的副作用。它们提供了满足 QAR 的有效方法,以软件架构师和工程师多年来获得的知识和经验为基础。务必选择恰当的架构策略。事实证明,架构策略的选择和应用是处理特定质量属性需求的有效方法。架构策略是一个知名的设计理念,这来自卡内基梅隆大学软件工程学院(SEI/CMU)的研究,最初是为了解决架构模式存在的一些不足。一个架构策略是一个影响系统实现一个或多个质量属性需求的决策。通常(遗憾的是并非总是如此),决策会分门别类地记录在文档中,为的是促进这些知识在架构师之间重用。例如,数据分发是一种有效可扩展性策略。数据分发涉及针对具体的服务进行数据分区,根据某些标准划分数据库行,如客户标识。这个策略应该用于处理大型工作负载时可能遇到问题的特定数据库。首先关注数据库可扩展性是处理特定可扩展性需求的好方法,因为数据库通常是软件系统中最难扩展的组件。架构策略帮你解决质量属性需求。功能性需求通常有很好的文档记录,并且经过了业务干系人的仔细审核,而 QAR 可能没有那么好的文档记录,也没有经过那么仔细的审核。它们可能只是通过一个简单的列表提供出来,只有一页。它们没有经过仔细审核,往往都是用一些陈词滥调进行描述,如“必须可扩展”、“必须高可用”。然而,我们的观点是,QAR 推动了架构设计。我们需要确保架构决策能满足质量属性。这些决策常常是折中方法,因为一个可以更好地实现某一项 QAR 的决策可能对实现其他的 QAR 存在不良的影响。准确理解 QAR 和需要做出的权衡是妥善设计系统架构最为重要的前提条件之一。架构决策常常是以找出可以平衡竞争性 QAR 最不坏的方法为目标。每一个决策都可能有副作用,在某种程度上使决策失效。没有所谓的“正确答案”,只有“对于特定场景已足够”的决策。这些决策可以利用架构策略来实现,在使用策略实现它们之前,完全理解决策很重要。还有一点也很重要,就是要时刻记住持续架构原则 #3“延迟设计决策,直到它们绝对必要”,切忌用不必要的策略进行过度设计。小结在真正需要之前,不要对任何特定的框架、模式或策略过多投入。相反,要利用 MVA 的概念做出实现 MVP 所需的最少决策,了解正在做出的每一项决策,然后由自己决定那些决策是否适合实现你的 QAR。在某种程度上,可以将框架、模式和策略进行组合。例如,可以用 Spring Boot 开发使用了分层架构模式的软件系统的某些部分。如果模式没有考虑它提供的解决方案对某些 QAR 的影响,则可以使用策略来处理模式的不足。不过,你要时刻记住,不管是框架还是模式,它们替你做的那些决策,其中有一些在你试图组合框架和模式时可能会相互冲突。随着你演进 MVP,增量地采用框架、模式和策略,满足产品增量演进的需求即可。涉及生态系统的决策尤其要谨慎,因为那是些不从头再来就很难逆转的决策。而且,自始至终都不要忘记自己的目标,要验证关于框架、模式和策略的假设是否有效,你决定使用它们的决策是否有助于满足你的 QAR。作者介绍:Kurt Bittner 拥有超过 30 年短周期交付软件的经验。他帮助过许多采用敏捷软件交付实践的组织,包括大型银行、保险、制造和零售企业,以及大型政府机构。他曾为大型软件交付企业工作,包括甲骨文、惠普、IBM 和微软,并曾是 Forrester Research 公司的技术行业分析师。他的重点领域是帮助组织建立强大、自组织的高效团队,交付受客户欢迎的解决方案。他撰写了 4 本与软件开发相关的书,包括《Nexus 规模化 Scrum 框架》。他现居科罗拉多州博尔德市,并担任 Scrum.org 的企业解决方案副总裁。Pierre Pureur 是一位经验丰富的软件架构师,拥有丰富的创新和应用程序开发背景、广泛的金融服务行业经验、广泛的咨询经验和全面的技术基础设施知识。他曾担任一家大型金融服务公司的首席企业架构师,领导大型架构团队,管理大型并发应用程序开发项目,指导创新计划,以及制定战略和业务计划。他是“Continuous Architecture in Practice: Scalable Software Architecture in the Age of Agility and DevOps”(2021 出版)和“Continuous Architecture: Sustainable Architecture in an Agile and Cloud-Centric World”(2015 出版)的合著者,并发表了许多文章,以及曾在多个软件架构会议上发表相关演讲。原文链接:https://www.infoq.com/articles/frameworks-require-decisions/
| 5,845 | 1,664,415,407,816 |
InfoQ
|
122 |
Oracle正式发布MySQL Heatwave on AWS
|
近日,Oracle正式发布了MySQL Heatwave。该服务将OLTP、分析、机器学习和基于机器学习的自动化融合到了单个AWS实例中。 2020年,Oracle在Oracle云基础设施(OCI)上推出了云数据库服务,为客户提供融合了在线分析和事务处理能力的托管服务。2022年5月底,他们又将autoML添加到了该服务中。现在,他们首次在Oracle云基础设施之外提供了这样的服务——让用户可以在AWS上的单个服务中运行事务处理、分析和机器学习工作负载,而且不需要在独立的OLTP数据库和OLAP数据库之间进行ETL复制。图片来源:https://www.oracle.com/mysql/heatwave/ Percona创始人兼首席执行官Peter Zaitsev发了这样一条推文: Oracle最终承认了没人对Oracle云感兴趣,并将Heatwave带到了AWS上,那之前曾是OCI罕有的比较“完备”的功能之一。在新闻公告中,Oracle宣布了MySQL HeatWave on AWS的多项新功能。该服务提供了AWS原生体验和监控预分配资源性能和使用率的能力,并集成了MySQL Autopilot。后者提供了工作负载感知,基于机器学习的应用程序生命周期自动化,包括数据管理和查询执行。此外,它还提供了全面的安全特性,如服务器端数据屏蔽和去身份标识、非对称数据加密和数据库防火墙。 Sanjmo负责人Sanjeev Mohan在LinkedIn的一篇博文中写道: 数据平面、控制平面和控制台都是在AWS本地运行。用于AWS的代码库和用于OCI的代码库完全相同。不过,Oracle做了多项增强,集成了AWS服务,如监控资源和操作日志及指标的CloudWatch。还是在同一份新闻公告中,Oracle宣称,MySQL HeatWave的性价比优于AWS上的其他系统。比如,在运行来自4TB TPC-H基准测试的查询时,MySQL HeatWave on AWS的性价比是Amazon Redshift的7倍,Snowflake的10倍,Google BigQuery的12倍,Azure Synapse的4倍。 Constellation Research副总裁兼首席分析师Holger Mueller在其中一份关于MySQL on AWS的行业分析报告中指出:事实是,MySQL工程团队不仅在AWS上提供了MySQL Heatwave服务,为了提高性能,他们还进行了架构调整,TCO(总拥有成本)是底层软件架构卓越性的另一个证据。此外,Mueller告诉InfoQ:Oracle正在将其软件移到AWS上,这有助于AWS客户的采用,因为他们的数据就托管在这个颇具竞争力的平台上,那样可以简化迁移工作。现在MySQL HeatWave已在多家云上可用,包括OCI 和AWS,很快Microsoft Azure也会提供。 原文链接:https://www.infoq.com/news/2022/09/oracle-mysql-heatwave-aws/相关阅读:AWS 数据库迁移服务:将 Oracle 数据库迁移到 MySQL
| 4,603 | 1,664,239,968,037 |
InfoQ
|
123 |
亚马逊云科技开源Event Ruler
|
亚马逊云科技最近宣布开源Event Ruler,一个管理EventBridge路由规则的组件。对于需要几乎实时为任意数量事件匹配大量模式、策略或表达式的开发人员来说,这个项目是一个值得考虑的新选择。Event Ruler使用Java开发,提供了用于声明模式匹配规则、显示数据记录(事件)和大规模查找匹配每个事件规则的API,帮助开发人员构建出以每秒几十万个事件的速度匹配任意数量规则与事件的应用程序。事件和规则都是JSON对象,规则还可以通过内置的查询语言(可用于描述自定义匹配模式)来表示。例如,描述图像的JSON事件是这样的:{
"Image" : {
"Width" : 800,
"Height" : 600,
"Title" : "View from 15th Floor",
"Thumbnail" : {
"Url" : "http://www.example.com/image/481989943",
"Height" : 125,
"Width" : 100
},
"Animated" : false,
"IDs" : [116, 943, 234, 38793]
}
}
这个JSON可以使用JSON规则(只过滤静态图像)进行过滤:{
"Image": {
"Animated" : [ false ]
}
}
示例来源:https://aws.amazon.com/blogs/opensource/open-sourcing-event-ruler/亚马逊云科技首席软件工程师Rishi Baldawa解释说:这为需要为任意数量事件匹配大量模式、策略或表达式的人提供了一种新颖的解决方案,而且不影响速度。无论事件是个位数还是几十万个,你都可以对它们进行路由、过滤或与任何流量进行近乎实时的比较。这种速度主要与规则的数量或在这些规则中定义的模式无关。Event Ruler已在多个Amazon服务中生产就绪,包括EventBridge——一种无服务器事件总线服务,帮助开发人员和架构师将应用程序与来自各种来源的数据连接起来。新开源的项目包括了AWS托管服务尚未提供的特性。EventBridge首席产品经理Nick Smit在推特上写道:你会注意到它提供了一些特性,如$or、后缀匹配和忽略大小写的equals比较,这些特性在EventBridge中都还没有。我们计划在未来将其包括在内。我们很高兴看到社区将带来的新想法!Tim Bray是亚马逊云科技的前副总裁和杰出工程师,也是Event Ruler背后的开发人员之一,他在一篇名为“Hello,Ruler”的文章中谈到了新项目的应用场景。这个项目在亚马逊云科技内部被广泛使用。它在云基础设施之外是否也有用?我的答案是肯定的,因为越来越多的应用程序使用松散耦合的事件驱动互连。例如,我认为可能有很多Kafka应用程序可以通过应用这种高性能声明式过滤来提高消费者的效率。在宣布OpenSearch一年之后,亚马逊云科技又推出了新的开源项目和计划,这些项目和计划大多在亚马逊云科技的开源博客和资讯中有介绍,很多人相信亚马逊云科技正在提高其开源声誉。Bray补充说:亚马逊云科技从开源中获益良多,所以很高兴看到他们也向开源社区回馈了一些东西,一些从零开始构建的东西,一些不是只对亚马逊云科技有利的东西。Event Ruler采用了Apache 2.0许可,托管在GitHub上。原文链接:AWS Open Sources Event Ruler相关阅读:AWS 数据库迁移服务:将 Oracle 数据库迁移到 MySQLAWSGoat:对 AWS 云解决方案进行渗透测试亚马逊云科技宣布 Lambda 分级定价
| 5,731 | 1,663,977,600,410 |
InfoQ
|
124 |
AWS数据库迁移服务:将Oracle数据库迁移到MySQL
|
AWS数据库迁移服务(DMS)是在AWS上进行数据库迁移的服务。目标数据库必须是AWS支持的数据库之一,例如由AWS关系数据库服务(RDS)托管的数据库、Amazon DynamoDB或Amazon Redshift。源数据库可以是AWS上的数据库、本地数据库或其他云平台(如Oracle数据库云服务)上的数据库。源数据库在迁移过程中不需要停机。为什么要迁移数据库你可能会因为以下一个或多个原因而迁移数据库。同构迁移——迁移到不同平台但相同类型的数据库引擎。同构迁移可以用于对数据库进行备份。异构迁移——迁移到不同的数据库引擎,如Oracle数据库迁移到MySQL数据库。如果我们需要利用另一个数据库的功能(例如源数据库不支持某些数据类型),就需要进行异构迁移。商业数据库可以迁移到开源数据库,反之亦然。关系数据库可以迁移到NoSQL数据库。数据复制——将数据持续地复制到不同的目标数据库,用于测试和开发以及实现数据库的区域分布。数据库整合——可以将多个源数据库迁移到单个数据库进行整合。平台迁移——本地机器上的数据可以被迁移到云数据库服务。基于云的数据库即服务(Database-as-a-Service,DBaaS)提供了很多好处:不需要DBA的全托管服务、具有故障转移能力的高可用性、可伸缩性以及与其他云服务集成(实现自动化监控和日志记录)。在本文中,我们将把Oracle数据库迁移到MySQL数据库。如果你更喜欢开源MySQL数据库而不是商业Oracle数据库,那就可能需要进行迁移。MySQL和Oracle数据库是完全不同的,你可能会出于一个或多个原因而迁移到MySQL,例如不同的数据类型支持、操作系统支持和部署规模。进行迁移唯一的先决条件是AWS帐户,可以在这里创建。第1步:在RDS上创建Oracle和MySQL DB实例因为我们分别将Oracle和MySQL RDS DB实例作为DMS迁移的源和目标,因此需要创建两个RDS实例,一个用于Oracle数据库,另一个用于MySQL。在创建RDS实例之前,我们需要创建新的VPC(虚拟私有云)、新的DB子网组和安全组(可选)。我们也可以使用默认的VPC安全组。如果AWS帐户的VPC最大数量有限制,请在创建RDS实例前删除部分不使用的VPC。在创建RDS实例时,将公开访问选项设置为“是”,因为我们需要在执行DMS迁移之前直接访问这些实例,运行一些命令,并在迁移完成后验证迁移的数据。由于RDS默认情况下不创建数据库,所以我们需要选择附加配置,并为每个RDS实例指定初始数据库名称。MySQL RDS实例数据库名称为mysqldb,Oracle RDS实例数据库名称为orcl。某些保留关键字,如MySQL RDS实例的“mysql”不能用在配置中(如数据库名称、数据库实例标识符、主用户名、主密码)。Oracle和MySQL的源和目标RDS实例如图1所示。图1. RDS数据库实例如果安全组没有满足需求的入站/出站规则,可能需要修改它们。单击RDS控制台中每个数据库实例的安全组链接。检查安全组的“Type”为“All traffic”、“Protocol”为“All”、“Port Range”为“All”、“Source”为“Anywhere”(0.0.0.0/0),如果不是,单击“Edit inbound rules”按钮并修改设置,然后单击“Save rules”。类似地,出站规则也应该允许所有流量。把每个DB实例的主用户名和主密码记录下来。第2步:为DMS准备Oracle和MySQL数据库为了能够使用RDS上的Oracle DB作为DMS源,我们需要在DB实例上配置一些东西。我们可以在命令行中连接到Oracle实例来进行配置。要在命令行中连接到RDS DB实例,我们需要获取RDS实例的端点。RDS上的DB实例的端点可以从RDS控制台获得。安装Oracle Instant客户端。使用下面的sqlplus命令连接到Oracle DB实例,其中HOST、SID和PORT对于不同的用户来说是不一样的。HOST就是端点移除端口后缀后剩下的部分。sqlplus admin@(DESCRIPTION=(ADDRESS=(PROTOCOL=TCP)(HOST=orcl.crbmlbxmp8qi.us-east-1.rds.amazonaws.com)(PORT=1521))(CONNECT_DATA=(SID=ORCL)))
SQL*Plus命令行连接到RDS上的Oracle DB,并启用DMS数据库级别的补充日志。exec rdsadmin.rdsadmin_util.alter_supplemental_logging('ADD');
PL/SQL过程执行完毕。使用下面的命令启用数据库级别的PRIMARY KEY日志。exec rdsadmin.rdsadmin_util.alter_supplemental_logging('ADD','PRIMARY KEY');
由于源数据库是Oracle,要复制正在进行的变更,需要打开补充日志。我们需要确保存档日志在服务器上保留足够长的时间(通常是24小时)。要在RDS数据库上设置存档日志保留期限,可以使用下面的命令。exec rdsadmin.rdsadmin_util.set_configuration('archivelog retention hours',24);
在迁移数据库时,表和数据也会被迁移。为数据库迁移专门创建一个新的Schema。为新用户授予CREATE SESSION和CREATE TABLE权限。CREATE USER dms_user IDENTIFIED BY dms_user_pw
DEFAULT TABLESPACE users
QUOTA unlimited ON users;
GRANT CREATE SESSION, CREATE TABLE TO dms_user;
在Oracle数据库中创建一张叫作wlslog的数据库表。CREATE TABLE dms_user.wlslog(time_stamp VARCHAR2(255) PRIMARY KEY,category VARCHAR2(255),type VARCHAR2(255),servername VARCHAR2(255), code VARCHAR2(255),msg VARCHAR2(255));
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:16-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000365','Server state changed to STANDBY');
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:17-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000365','Server state changed to STARTING');
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:18-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000365','Server state changed to ADMIN');
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:19-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000365','Server state changed to RESUMING');
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:20-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000361','Started WebLogic AdminServer');
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:21-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000365','Server state changed to RUNNING');
INSERT INTO dms_user.wlslog(time_stamp,category,type,servername,code,msg) VALUES('Apr-8-2014-7:06:22-PM-PDT','Notice','WebLogicServer','AdminServer','BEA-000360','Server started in RUNNING mode');
若要为没有PRIMARY KEY日志的表添加补充日志,或者如果未设置数据库级别的PRIMARY KEY日志,可以为表添加补充日志。alter table dms_user.wlslog add supplemental log data (ALL) columns;
我们还可以直接在CREATE TABLE语句中启用补充日志。CREATE TABLE dms_user.wlslog(time_stamp VARCHAR2(255) PRIMARY KEY,category VARCHAR2(255),type VARCHAR2(255),servername VARCHAR2(255), code VARCHAR2(255),msg VARCHAR2(255),supplemental log data(ALL) columns);
第3步:创建复制实例在本小节中,我们将创建一个复制实例,将RDS上的Oracle DB实例迁移到MySQL DB实例。在AWS控制台中选择DMS服务。单击创建复制实例,如图2所示。图2. 创建复制实例打开“Create replication instance”向导,在“Name”字段中指定复制实例名(ora-mysql-repl)。选择一个Instance class,我们选择了dms.t3.medium。在“引擎版本”下拉框中选择AWS DMS版本(3.4.7)。选择“Allocated storage”(50GiB)。选择运行复制实例的Amazon VPC。将“Multi-AZ”下拉框改为“Single-AZ”,我们只使用单个可用分区。选择“Publicly accessible”选项。在“Advanced security and network configuration”中选择“复制子网组”。保持“Availability zone”默认值“No preference”不变。选择默认的VPC安全组。选择KMS密钥作为默认值(aws/dms)。点击“Create”。创建的复制实例如图3所示。图3. 复制实例第4步:创建端点接下来是配置端点,它们是源和目标数据库的端点。选择左边栏中的“端点”,单击“Create endpoint”。源和目标端点是分别创建的。在“DMS->Endpoints->创建端点向导”中,选择“Endpoint type”为“Source endpoint”,单击“Select RDS DB”复选框,从下拉菜单中选择orcl RDS实例。在“Endpoint configuration”中指定端点标识符orcl。“Source engine”应该为Oracle,因为我们选择了Oracle数据库RDS引擎。在“Access to endpoint database“中选择“Provide access information manually”选项。“Server name”和“Port”应该会自动添加。为ADMIN用户指定密码,用户名必须为大写,因为Oracle数据库是区分大小写的。“Secure Socket Layer (SSL) mode”设置为none。“SID/Service name”应该自动填充为在Oracle RDS实例中配置的值(ORCL)。在“Test endpoint connection (optional) ”中单击Run test。复制实例ora-mysql-repl被用于端点连接。“Status”为“successful”表示连接建立成功。单击“Create endpoint”,源数据库的端点就创建好了,如图4所示。图4. 源端点要创建目标端点,请再次单击“Create endpoint”,启动创建端点向导。这一次,选择“Target endpoint”作为“Endpoint type”。单击“Select RDS DB”复选框并选择mysqldb实例。在“Endpoint configuration”中应该会自动添加“Endpoint identifier”。“Target engine”被设置为MySQL。对于“Access to endpoint database”,选择“Provide access information manually”。“Server name”和“Port”应该会自动添加好。为admin用户指定密码。用户名必须用小写字母指定,因为MySQL使用小写字母。“Secure Socket Layer (SSL) mode”设置为none。在“Test endpoint connection (optional) ”中单击Run test。复制实例ora-mysql-repl被用于端点连接。“Status”为“successful”表示连接建立成功。单击“Create endpoint”,目标数据库的端点就创建好了,如图5所示。图5. 目标端点第5步:创建任务接下来,我们需要创建一个迁移任务,但在此之前,我们需要像前面所说的那样创建一个复制实例。在左边栏中选择“Database migration tasks”。在DMS->Database migration tasks表中单击“Create task”。在“Create database migration task”向导的“Task configuration”中指定一个“Task identifier”(orcl-to-mysql)。在“Replication instance”下拉框中选择前面创建的复制实例。在源数据库端点中选择为Oracle数据库RDS实例创建的orcl端点。对于目标数据库端点,选择前面创建的mysqldb端点。对于“Migration type”,选择“Migrate existing data and replicate ongoing changes”。我们必须至少为一个任务配置一个选择规则,否则创建任务就会失败。在“Table mappings”中单击“Selection rules”下拉框。单击“Add new selection rule”按钮。在规则详细信息中配置“Where”选择规则。在“Schema”下拉框中选择“Enter Schema”。指定“Source name”为DMS_USER,“Source table name”为WLSLOG。模式名/表名/视图名/列名必须是大写的,因为Oracle数据库是区分大小写的。%是模式/表名的通配符,表示所有的模式/表。对于Action字段,我们可以通过选择Include或Exclude来包含或排除对象。排除操作在包含操作之后处理。将“Action”选为“Include”。源过滤器限制了可以添加的从源到目标的记录数量和类型。选择规则配置如图6所示。图6. 选择规则你可以使用转换规则来修改或转换部分或所有选定对象的模式、表或列名。我们可以单击“Add transformation rule”按钮来添加一个转换规则。假设我们要转换表名。在“Rule target”下拉框中选择“Table”。在“Source name”中选择“Enter schema”。将Schema指定为DMS_USER。指定“Source table name”为WLSLOG。在Action下拉框中选择一个可用的操作,例如添加/移除/替换前缀/后缀等。选择Action为“Make lowercase”,因为MySQL以小写形式存储Schema/表名。表名的转换规则如图7所示。图7. 将表名转为小写的转换规则类似地,添加另一个转换规则将Schema名转为小写,如图8所示。图8. 将Schema名称转为小写的转换规则在“Task settings->Advanced task settings->Control table settings”中将“Create control table in target using schema”设置为“mysqldb”。如果选择了“Enable premigration assessment run”复选框,可能会执行预迁移评估。在“Migration task startup configuration”中选择“Manually later”。另一个选项是“Automatically on create”,这个选项只在未启用预迁移时才可用。随后,单击“Create task”。一个新任务就添加好了。任务状态最开始时是“创建”,在创建好以后Status变为“Ready”,如图9所示。图9. 任务状态变为Ready第6步:运行任务要运行迁移任务,请选择表中带有复选框的任务,并单击Actions下拉框中的Restart/Resume。任务的Status应该会变为Starting。在启动之后,Status会变为Running,当迁移完成时,Status将变为Load complete,如图10所示。Table statistics选项卡应该会列出迁移的表。图10. 任务执行完毕第7步:查询迁移的数据库Schema使用MySQL客户端列出迁移的数据库和表。首先,连接到MySQL RDS实例。要连接到MySQL DB,可以从它的配置信息中获取端点,然后使用MySQL客户端的命令行连接MySQL。在出现提示时输入密码:mysql -h mysqldb.crbmlbxmp8qi.us-east-1.rds.amazonaws.com -P 3306 -u admin –p
使用SHOW SCHEMAS命令列出所有Schema,其中包含了dms_user的Schema。~$ mysql -h mysqldb.crbmlbxmp8qi.us-east-1.rds.amazonaws.com -P 3306 -u admin -p
Enter password:
MySQL [(none)]> SHOW SCHEMAS;
+--------------------+
| Database |
+--------------------+
| dms_user |
| information_schema |
| mysql |
| mysqldb |
| performance_schema |
| sys |
+--------------------+
6 rows in set (0.078 sec)
使用use dms_user命令选择dms_user数据库。使用show tables命令列出表,可以看到之前在Oracle数据库中创建的wlslog表已被迁移。MySQL [(none)]> use dms_user;
Reading table information for completion of table and column names
You can turn off this feature to get a quicker startup with -A
Database changed
MySQL [dms_user]> SHOW TABLES;
+--------------------+
| Tables_in_dms_user |
+--------------------+
| wlslog |
+--------------------+
1 row in set (0.078 sec)
迁移的wlslog表中包含了数据,如查询结果所示。MySQL [dms_user]> SELECT * FROM wlslog;
+---------------------------+----------+----------------+-------------+------------+----------------------------------+
| TIME_STAMP | CATEGORY | TYPE | SERVERNAME | CODE | MSG |
+---------------------------+----------+----------------+-------------+------------+----------------------------------+
| Apr-8-2014-7:06:16-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000365 | Server state changed to STANDBY |
| Apr-8-2014-7:06:17-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000365 | Server state changed to STARTING |
| Apr-8-2014-7:06:18-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000365 | Server state changed to ADMIN |
| Apr-8-2014-7:06:19-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000365 | Server state changed to RESUMING |
| Apr-8-2014-7:06:20-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000361 | Started WebLogic AdminServer |
| Apr-8-2014-7:06:21-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000365 | Server state changed to RUNNING |
| Apr-8-2014-7:06:22-PM-PDT | Notice | WebLogicServer | AdminServer | BEA-000360 | Server started in RUNNING mode |
+---------------------------+----------+----------------+-------------+------------+----------------------------------+
7 rows in set (0.078 sec)
MySQL [dms_user]>
默认情况下,迁移进程不会主动轮询源数据库来获取数据变更。如果对源数据库做了修改,例如将数据添加到表中或创建了新表,必须再次运行迁移任务。我们有时候可能需要修改迁移任务,例如添加/删除选择规则或修改其他任务设置。任务在未运行时可以被修改。我们可以单击“Modify”来修改任务。作者简介:Deepak Vohra是Oracle认证Java程序员和Oracle认证Web组件开发人员,出版了20多本书。原文链接:How to Migrate an Oracle Database to MySQL Using AWS Database Migration Service相关阅读:亚马逊云科技宣布 Lambda 分级定价Stack Overflow 2022 报告:亚马逊云科技的软件开发“武器库”TLS 1.2 成为亚马逊云科技最低 TLS 协议级别
| 5,177 | 1,663,804,800,866 |
InfoQ
|
125 |
英伟达RTX 40系显卡重磅来袭!性能实现巨大飞跃,卡皇冲上12999元
|
北京时间 9 月 20 日晚间,英伟达 2022秋季GTC上,英伟达首席执行官黄仁勋在线上主题演讲中,介绍了自然语言理解、虚拟世界、游戏与AI技术方面等领域的一系列最新进展。“计算技术正以令人难以置信的速度向前挺进,而推动这枚火箭的引擎正是加速计算,燃料则是AI”,黄仁勋表示。黄仁勋在演讲中宣布,支持AI工作流的全新云服务与新一代GeForce RTX GPU发布,其中涉及一系列新的系统、芯片及软件成果。他认为,加速计算解开了长期困扰AI进步的枷锁,而AI又反过来影响到世界各地的诸多行业。黄仁勋在演讲最后强调,此番公布的新技术、产品公告乃至用例宣讲,几十种不同元素的结合只为同一个目标 —— “今天,我们公布了新的芯片、平台进展,以及首次亮相的全新云服务。这些平台将推动AI技术的新突破、AI技术的新应用,也将掀起AI在科学和工业领域的新发展。”GeForce RTX 40 系列显卡,终于来了!千呼万唤始出来。英伟达第三代 RTX 显卡 — GeForce RTX 40终于来了!最新显卡性能强劲下一代GeForce RTX 40系列GPU由Ada架构提供支持。黄仁勋将其称为“量子飞跃”,号称能为决意模拟整个世界的创造者们铺平道路。黄仁勋发布下一代GeForce RTX 40系列GPUAda的提升包含一个新的流式多处理器、一个具有双倍光线三角相交吞吐量的新RT核心,外加一个带有Hopper FP8 Transformer引擎与1.4万亿次张量算力的新型张量核心。Ada还引入了最新版本的英伟达DLSS 3技术,其使用AI将新帧与先前帧进行比较,据此生成更多新帧以体现场景变化情况。结果就是,与直接渲染相比,其游戏性能可提高4倍。DLSS 3已经得到多家世界领先游戏开发商的支持,目前超过35款游戏和应用程序宣布引入这项新技术。黄仁勋提到,“DLSS 3是我们最伟大的神经渲染成果之一。”与之前的RTX 3090 Ti相比,新的GeForce RTX 4090凭借上述创新带来了4倍的吞吐量处理能力。黄仁勋宣布,“这款新的旗舰级产品”起售为1599美元,计划于10月12日上市。此外,新的GeForce RTX 4080将于11月推出,届时将提供两种配置选项。其中GeForce RTX 4080 16GB起售价为1199美元,包含9728个CUDA核心与16 GB美光高速GDDR6X显存。在DLSS 3的支持下,其运行现有游戏的速度可达GeForce RTX 3080 Ti的两倍,甚至能够以更低的运行功耗带来超越GeForce RTX 3090 Ti的强劲表现。GeForce RTX 4080 12GB包含7680个CUDA核心和12 GB美光GDDR6X显存,在DLSS 3的支持下速度同样高于上代旗舰GPU RTX 3090Ti。12GB版本的起售价为899美元。价格太贵了?不过,英伟达的 RTX 40系显卡在价格上却招来了不少吐槽。不少人认为,在RTX 30系列推出2年多后,英伟达为下一代 GPU收取了巨额溢价,而且采用了具有“欺骗性的命名,” 这令许多 PC 爱好者并不满意。“到底发生了什么?4080, 12G是899(美元),那哪个是4070?4080 16G 1200(美元),比上一代xx80贵500美元。这些价格太疯狂了。”一位 Redditor 感叹道。一位评论者回顾了2018年的GeForce 20系列的售价,对比之下,新一代显卡的价格确实显得高昂。“最后两代已经失控了,即使在建议零售价上也是如此。多年来,x70的价格是329美元,x80是499美元,x80 Ti是700美元,而专业一级(Titan、x90等)的价格是1199美元。现在,他们把所有的价格都提高了一个级别”。事实上,2018年,英伟达就曾因RTX 20系列卡的定价比之前的10系列卡的价格高了整整一个“级别”而招致批评。例如,RTX 2070的价格几乎与之前的高端GTX 1080一样多,尽管它不是旗舰卡。现在来看,类似的价格层级跳现象仍在继续。10GB RTX 3080的建议零售价是699美元。如今英伟达发布的16GB的RTX 4080,许多观察家认为它是最接近真正的3080的“继任者”,其价格高达1199美元,比上一代高出500美元。而至于售价 899 美元的 12GB RTX 4080 ,一位网友评论说,“他们试图以900美元的价格卖给你一辆改头换面的4070。”有网友认为,12GB 的RTX 4080 看起来只是名义上的“4080”,对于这款产品来说,“RTX 4070”会是一个更“诚实”的名称。因为,这款产品的性能明显较低,而且与16GB的RTX 4080相比,本质上,本质上是一张完全不同的卡。参考硬件规格,我们会发现12 GB版本RTX 4080所使用的芯片(「AD104」,只包含7680个着色器核心)与16 GB版本RTX 4080(「AD103」,包含9728个核心)并不相同。但在价格上,12GB 的RTX 4080的建议零售价仍为 899 美元,比 RTX 3070 的原始建议零售价 499 美元高出 400 美元。而关于定价的考量,英伟达的一位发言人是这样回应的:RTX 4090 的起价为 1599 美元。 相比之下,被RTX 4090取代的RTX 3090 Ti的上市价格为1999美元。RTX 4080 16GB 的性能是 RTX 3080 Ti 在下一代内容上的 3 倍,例如具有 RT Overdrive 模式的 Cyberpunk 或 Racer RTX,价格相同,为 1199 美元。RTX 4080 12GB 售价 899 美元,是 RTX 3080 12GB 性能的 3 倍,价格便宜 100 美元。最强自动驾驶汽车芯片Thor亮相新一代自动驾驶计算芯片在如今的汽车上,主动安全、驻车、驾驶员监控、智能后视镜、仪表盘和车载信息娱乐系统各自由不同的计算机驱动。黄仁勋认为,未来的发展方向应该由集中计算机统一运行,并随软件交付而持续改进。为了达成这个目标,黄仁勋公布了DRIVE Thor,一款将Hopper transformer引擎、Ada GPU与Grace CPU相结合的强大解决方案。新的Thor超级芯片可提供2000万亿次浮点运算性能,将取代DRIVE路线图中的Atlan,并支持从当前DRIVE Orin(性能为每秒254万亿次浮点运算)无缝过渡。黄仁勋介绍称,Thor将主要面向机器人、医疗器械、工业自动化和边缘AI系统等用例。首发中国客户英伟达汽车业务负责人 Danny Shapiro 表示,DRIVE Thor 将能够更换汽车中的大量芯片和电缆,并降低整体系统成本,但他没有给出具体的降本数字。“你可以想象在成本、减少布线、减轻重量、降低整体能耗方面节省了巨大的成本。”英伟达为 DRIVE Thor 宣布的第一个客户是中国吉利旗下 (GEELY.UL) 的 ZEEKR。Shapiro 表示,DRIVE Orin计算机系统将用于中国汽车公司XPeng的新智能SUV和中国自动驾驶初创公司QCraft。值得注意的是,近期由于美国禁止向中国出口英伟达两款用于数据中心的顶级计算芯片,人们担心中国客户能否继续使用英伟达的技术。对此,Shapiro 回应称:“有很多公司做着伟大的工作,做着造福人类的事情,我们想支持他们。”“在我们为数据中心提供的产品受到出口限制的情况下,我们会与这些中国客户合作,提出一种合适的替代产品。”助力大型语言模型发展H100 GPU已全面投产,为超大模型提供强大算力黄仁勋在演讲中再次将系统和软件同广泛的技术发展趋势联系起来,并提到大型语言模型(LLM)和推荐系统已经成为当前最重要的两大AI应用场景。推荐系统“主导整个数字经济”,为电子商务、娱乐以及广告等行业提供动力。可以说,推荐系统“是社交媒体、数字广告、电子商务和搜索业务背后的助推引擎”。而基于2017年亮相的Transformer深度学习模型的各类大型语言模型,同样成为当前AI研究中最具活力的领域之一。它们已经能够在无监督或标注数据集的前提下,尝试理解人类语言。黄仁勋指出,“单一预训练语言模型已经可以执行多种任务,例如问答、文档摘要、文本生成、翻译甚至软件编程。”黄仁勋表示,配备Hopper的下一代Transformer引擎,英伟达H100张量核心GPU将为这些超大体量模型提供必要算力。这款新产品现已全面投入生产,预计未来几周内就将开始出货。“Hopper现已全面投产,很快就会为世界上的各AI项目提供动力。”H100的系统构建合作伙伴包括Atos、思科、戴尔科技、富士通、技嘉、HPE、联想和Supermicro。从明年开始,亚马逊云科技、谷歌云、微软Azure和甲骨文云基础设施也将率先在云端部署基于H100的实例。而Grace Hopper,是将英伟达的Arm架构Grace数据中心CPU与Hooper GPU相结合,把高速内存容量增加到7倍,将给推荐系统带来“巨大飞跃”。搭载Grace Hopper的系统将于2023年上半年推出。推出大型语言模型云服务,推进 AI 和数字生物学发展大型语言模型(LLM)“是目前最重要的AI模型。”以Transformer架构为基础,这些大体量模型能够在无监督或标注数据集的前提下理解语言内容及含义,从而迸发出难以想象的能量。为了让研究人员轻松将这种技术应用到自己的工作成果中,黄仁勋公布了LLM Nemo服务。这是一项由英伟达托管的云服务,可用于调整预训练LLM以执行特定任务。为了加快药物和生物科学研究人员的工作进度,黄仁勋还公布了BioNeMo LLM。这是一项LLM创建服务,生成的大型语言模型能够理解化学物质、蛋白质、DNA及RNA序列。黄仁勋宣布英伟达正与全球最大的人类基因组信息提供商The Broad Institute合作,在后者的Terra Cloud平台上提供英伟达Clara库,其中包含英伟达Parabricks、基因组分析工具包以及BioNemo等服务选项。打造元宇宙新方案L40数据中心GPU与元宇宙全面交融互联网的下一波浪潮正是元宇宙,按照黄仁勋的解释,这波浪潮的核心就是3D化扩展。Omniverse正是英伟达用于构建和运行元宇宙应用的基础平台。黄仁勋还解释道,连接和模拟一个个元宇宙世界,必然需要更强大、更灵活的新型计算机。英伟达OVX服务器就是专门为横向扩展的元宇宙应用程序而生。英伟达的第二代OVX系统将采用Ada Lovelace L40数据中心GPU,目前这款GPU也已全面投产。构建和运行工业元宇宙应用的Omniverse Cloud服务黄仁勋还详尽介绍了英伟达Omniverse Cloud,这是一种能够对接云端、本地或设备上Omniverse应用程序的基础设施即服务。黄仁勋也带来了新的Omniverswe容器选项,在其支持下,用于合成数据生成的Replicator、用于扩展渲染农场的Farm、以及用于构建/训练AI机器人的Isaac Sim现在都可部署在云端。Omniverse已经得到广泛采用,黄仁勋在演讲中分享了几个客户案例及演示:拥有近2000家零售店的劳氏正使用Omniverse设计、构建并运营其实体门店的数字孪生副本;市值500亿美元的电信运营商Charter,正与交互式数据分析供应商HeavyAi共同使用Omniverse为Charter 4G/5G网络创建数字孪生;通用汽车正在Omniverse为其密歇根设计工作室创建数字孪生,设计师、工程师和营销人员可以在这里开展协同。计算机图形和AI特效技术新进展、新工具目前全球大部分互联网流量均为视频,而用户生成的视频流也越来越多地得到了AI特效及计算机图形技术的增强。“数字化身将在云端实时接受计算机视觉、语音AI、语言理解和计算机图形等技术的处理。”黄仁勋表示。为了在实时图形、AI和通信的交叉点上有所创新,他公布了英伟达构建的一系列加速库成果,包括CV-CUDA、作为云运行时引擎的UCF统一计算框架、Omniverse ACE Avatar云引擎,以及Tokkio客户服务化身应用。发布微型机器人计算机Jetson Orin Nano从虚拟世界转向现实世界,机器人计算机可以说是“最新类型的计算机形态”。而此次发布的第二代机器人处理器Orin,则被黄仁勋形容为这类技术的一记本垒打。为了将Orin推向更多市场,英伟达发布了Jetson Orin Nano。这款微型机器人计算机比之前大获好评的Jetson Nano快80倍。Jetson Orin Nano运行有英伟达Isaac机器人堆栈并搭载ROS 2 GPU加速框架,同时配备可在云端使用的英伟达Isaac Sim机器人模拟平台。对于使用AWS RoboMaker的机器人开发者用户,黄仁勋也公布了登陆AWS市场的英伟达Isaac机器人开发平台容器。350万开发者,3000个加速用例黄仁勋宣布要把英伟达的系统/芯片以及加速计算优势,推广到全球各行各业。这是一个涵盖350万开发人员的软件生态系统,他们使用英伟达提供的500款软件开发套件(SDK)及AI模型,创建出约3000个加速用例。参考链接:https://blogs.nvidia.com/blog/2022/09/20/keynote-gtc-nvidia-ceo/https://kotaku.com/pc-nvidia-rtx-4090-4080-gpu-card-prices-crypto-scalping-1849560018
| 1,860 | 1,663,740,303,899 |
InfoQ
|
126 |
如何通过业务集成中心简化系统集成
|
如果你问一个小学生如何解决代数问题,他们会告诉你从化简开始。对于大多数数据集成问题,我们从一开始就让数据变得太过复杂——我们使用了基于标准的XML格式,这看起来似乎很奇怪。来自Merge.dev、Codat.io、Stedi.com等公司的新一代集成工具与这种趋势背道而驰,我非常喜欢他们的解决方案。这些集成工具简化了大多数常见业务数据对象(供应商、客户、员工、票据等)的数据模型,并提供了从流行的软件包(或EDI、电子数据交换、Stedi的格式)中获取数据的连接器,并将其转换为简化的模型。这将使你的集成工作变得更容易,因为你不需要了解每个系统的特性,可以专注于将数据从一种简化格式转换为另一种格式。这种新型集成公司与之前的公司之间的关键区别在于,它们不仅仅是从一个系统到另一个系统的管道,而实际上是以一种简化的格式转换和存储你的数据。你可以不将其视为管道,而将其视为一个中心,它将数据从源系统同步到简化数据中心,再从简化数据中心同步到目标系统。这种“枢纽”极大地改变了集成的经济模式。如果我们只是将其与中心辐式机场模型和点对点机场模型之间的效率效益差异作为类比,实际上低估了中心辐式集成方法的优势。Merge和Codat称自己为通用或统一的API,而Stedi将自己视为构建通用API的工具,但为了强调他们的解决方案和这些解决方案所产生的效率之间的联系,我将在本文中称它们为业务集成中心。本文研究了业务集成中心的出现、这种解决方案的好处和风险,并简要介绍了其中三个案例,并评估了这种解决方案的竞争和未来。集成的四个阶段我认为我们目前正处于集成工具发展的第四个阶段。这四个阶段(彼此之间存在重叠)是:直接集成;定制的管道;API/连接器;转换。在第一阶段(直接集成),直接通过编写针对数据库的SQL查询来连接内部系统,并使用XML或文本分隔标准(如cXML、X12 EDI和OASIS)与客户和供应商系统集成。集成项目只适用于具有大量事务和大量持续手动工作的系统。下一阶段(定制管道)见证了Snaplogic、Jitterbit、Talend等公司的崛起,这些公司通过编写定制的集成管道从遗留系统中推送和提取数据。从这里开始,出现了两条平行的路径,它们都与API有关。一方面,企业开始使用Mulesoft等软件在托管系统上公开API端点。另一方面,Zapier、Tray.io和n8n.io等公司开始将API端点放在SaaS软件上。我们现在处于转换阶段。在这个阶段,参与前几个阶段集成的公司正在构建它们的转换能力,以加速集成。认证和连接器不再是集成系统中最耗时的部分——最耗时的部分是将数据从一个系统转换为适合放入另一个系统的格式。Tray.io和n8n.io正在构建非常好的数据转换能力,使得连接两个系统的速度比以往任何时候都要快。业务集成中心在这方面更进一步,对于许多集成任务,你不需要进行任何数据转换,即使不得不自己进行转换,也只需要从一个简化的数据格式开始,并将其转换为另一个简化的格式。Stedi.com可能是最好的例子。你可能已经猜到,Stedi是一个EDI数据转换系统。他们构建了一个工具,可以将EDI数据转换成JSON文档,然后再转换回来。这是一个相当令人难以置信的壮举,因为EDI数据格式看起来非常枯燥,而且处理起来非常困难。因此,与其浪费时间学习每种EDI文档中的片段是怎么回事,还不如使用它们的工具或你喜欢的编程语言开始编写转换。“在Stedi,我们为开发人员提供了定义他们自己模式的工具,这些模式符合(有时也不符合)各种EDI标准。例如,Stedi Guides帮助开发人员定义他们自己对X12 EDI 810(票据)的‘看法’,并基于该结构构建他们自己的集成。现在,用户可以构建系统,以相同的EDI标准与几乎任何贸易伙伴通信,而不管他们内部使用的是什么系统或API。” ——David Kanter,Stedi.com客户运营Merge.dev和Codat正在解决问题的不同部分。他们为大多数通用财务文档定义了JSON模式,并建立了连接到不同源系统的工作流。完成这些工作后,他们现在正在构建自己的连接器,以覆盖尽可能多的系统。好处使用业务集成中心的最大好处是,一旦将事务系统连接到集成中心,与多个系统集成就变得很简单了。如果你将Netsuite作为财务套件,将Salesforce作为CRM,将BambooHR作为人力资源系统,那么你可以将所有这些连接到你的集成中心,并轻松地在它们之间交换数据。当然,所有这些都可以通过像Tray.io或n8n.io这样的点对点集成工具来实现,但将所有数据存储成通用的简化模型会使这一切变得更加容易。为了更好地理解这些好处,我们以中心辐式机场模型的经济效益作为类比。航空公司在很大程度上是按照中心枢纽的方式组织起来的。当你从田纳西州的纳什维尔飞往新墨西哥州的阿尔伯克基,你无法乘坐直飞航班,你必须经过达拉斯枢纽(美国航空公司)或丹佛枢纽(联合航空公司)。这是因为从纳什维尔到阿尔伯克基的客流量不足,无法使航空公司在经济方面无法直接建立和运营这条航线。但是,他们可以把所有从许多城市前往阿尔伯克基的乘客带到枢纽,然后就可以很容易地在枢纽和阿尔伯克基之间每天提供几次航班。系统集成的原理与之相同。在系统之间建立良好的管道是非常耗时的,使用中心枢纽总会带来经济优效益势。如果说集成中心和机场中心枢纽之间的类比存在突破点,那应该表现在集成中心的优势方面。当你乘坐飞机时,你总是希望选择中途停留次数最少的航线。而在系统集成的世界里,这个并不重要。是直接将数据从源格式转换为目标格式,还是在两者之间使用简化表示,这通常是个个人喜好问题。作为一个做过大量集成的人,我发现将数据从源格式转换为更简单的格式,然后再从更简单的格式转换为目标格式比直接进行转换更容易。集成两个系统最困难的部分是映射和转换数据。解决这个问题的关键是标准化,这就是为什么我们花费数年时间在一些最复杂的财务数据领域(会计和商业)改进我们的数据模型。这是我们的用户能够真正感知到我们所提供的价值和质量的地方。—— Dave Hoare,Codat公司首席技术官兼联合创始人风险但这些好处也伴随着两个重大风险:你所有的数据现在都在一个地方,它们安全吗?你的数据存储成简化的模型,这些能够满足你的需要吗?如果大中型企业开始使用业务集成中心,它们需要确保数据治理和安全性。以下是Merge.dev对这个问题的看法:“保持数据安全不是一件简单的事情。我们有义务向客户证明,我们不仅保护了他们的数据,而且遵守了世界各地的各种法规。Merge对静止和传输中的数据进行加密,然后使用存储在外部服务中的密钥再次加密。我们还将欧盟和美国的数据存储在完全隔离的环境中,以确保我们的客户能够遵守GDPR。”—— Gil Feig,Merge.dev联合创始人竞争集成中心解决方案很有意义,但这并不意味着早期玩家最终会成为赢家。他们将面临以下类型公司的竞争。现有集成公司,如tray.io和n8n.io。微软Azure、谷歌云平台、亚马逊云科技等云平台。Snowflake等数据湖公司;RPA公司,如AutomationAnywhere和UIPath。这是一个赢家通吃的类别吗我们不认为集成中心(每个企业都必须成为集成中心的一部分)会是一个赢家通吃的类别。当然,在每个集成中心中都有网络效应在起作用,但它们很弱。例如,如果你的几个贸易伙伴使用特定的集成中心,并且你使用了相同的集成中心,那么与他们集成就会更容易。但集成中心的竞争对手之间也会有相通的路径,所以这可能不会有太大影响。例如,我们可以很容易地想象未来美国的一家五金连锁店采用Stedi作为他们的EDI平台。如果供应商1使用Codat集成中心,他们可以将连接Codat到Stedi。如果供应商2使用Merge.dev集成中心,他们也可以很容易地连接到Stedi。而且,如果供应商1和供应商2想要一起做一些联合营销,他们将能够在Codat和Merge.dev之间同步他们的CRM数据。来自现有集成供应商的竞争现有的集成公司,如Tray.io和n8n.io将是集成中心要面对的第一批竞争对手(尽管集成中心处理的本质上只是Tray或n8n.io的一个子集)。这几乎是一个哲学问题,是在不同的系统之间进行点对点集成更好,还是将数据同步到集成中心并利用它们的现有连接更好?云平台竞争对手每一家SaaS公司都需要评估一下,如果大型云服务提供商(微软Azure、谷歌云平台和亚马逊云科技)取得成功,它们会有何反应。除了微软可能有点例外,我们不认为这三大云平台会在这个领域扮演重要角色。对于它们来说,这些位于技术栈的上层,所以它们服务不好,这一点可以通过Azure的Dataverse和亚马逊云科技的Appflow看出来。微软Dataverse是一个位于SQL Server数据库之上的层,它定义了常用的表,如供应商、客户、票据和账单。当它第一次出现时,我非常兴奋,但实际上,它并不比实际编写SQL查询容易多少。亚马逊云科技的Appflow是AWS集成服务的起点。看起来它将成为SaaS系统之间非常健壮的管道,但它没有将任何模式强加到集成上,而是将其留给了最终用户。这对于某些场景来说很好,但对于集成中心应用场景来说却不是。GCP的解决方案让我感到困惑(Trifacta、Cloud Composer、Workflow、AA等),所以我把它留给读者来解释给我听:)SnowflakeSnowflake公司在打造真正的集成中心方面处于非常有利的位置。直到最近,Snowflake公司还在专注于分析数据而不是运营数据,但他们最近发布的Unistore公告表明,他们正在向事务性存储解决方案迈进。Snowflake最大的挑战是专注。在吮吸了多年大型企业的乳汁后,他们会考虑销售面向中小企业的产品吗?RPARPA(机器人过程自动化)软件在过去的十年中发生了很大的变化。RPA不仅仅是一种使用用户界面让数据出入遗留系统的方法,它现在也是一种完全成熟的集成工具。为了成为一个可靠的业务集成中心,他们有一些有利的因素。首先,他们有大型的开发者社区,每天与标准的业务数据对象进行交互,如客户、供应商、票据、工单等。这个开发社区对数据从一种形式转换到另一种形式的过程有着深刻的理解。其次,RPA公司的市场提供了一种方式来分发由社区开发的连接器,甚至是为社区构建连接器提供补偿。但是,与Snowflake一样,销售和分发可能会是一个问题。对于RPA销售团队来说,与集成中心展开竞争可能需要迈出非常大的一步。挑战除了上面提到的风险之外,最大的挑战在于如何在易用性和处理大多数集成场景的复杂性之间游走。任何看过“Hello World”教程的人都知道,技术可能看起来很简单,但随着你不断深入,会很快变得非常难。我对集成中心的建议是——让简单的事情变简单,并为更专业的用户提供更多功能,让他们为你完成困难的事情。一个很好的例子就是Merge.dev最近宣布的直通功能。如果你的会计数据位于Merge.dev中,并且需要连接到Merge.dev的财务系统,但你需要的端点尚未为Merge.dev做好配置,你仍然可以使用它们的身份验证功能,但要带上自己的连接器。未来作为一种集成模式,集成中心的未来看起来很光明。对于大多数集成任务(在某些情况下进行立即集成,在不可能进行立即集成时进行简化转换)来说,以简化的格式存储数据的好处是不可忽视的。渐渐地,集成工作将是在集成中心之间进行,而不是在软件系统之间。时间会告诉我们当前这些集成中心最终是否会取得成功,但使用业务集成中心的经济效益肯定会显现出来。作者简介:Doug Hudgeon是Managed Functions的首席执行官。这是一家集成公司,专门帮助SaaS公司扩展集成能力。Managed Functions是解决方案无关的,它会根据客户的需求为每个作业选择最好的工具。他也是Manning《商业机器学习》一书的合著者。原文链接:Business Systems Integration is About to Get a Whole Lot Easier相关阅读:InfoQ 2022 年趋势报告:DevOps 与云计算篇
| 4,463 | 1,663,200,000,135 |
InfoQ
|
127 |
Stack Overflow 2022报告:亚马逊云科技的软件开发“武器库”
|
前不久,备受期待的 Stack Overflow 2022 年度开发者调查报告终于出炉。作为软件开发行业最具专业性和影响力的开发者调研活动,Stack Overflow 收集了全球 180 个国家和地区的开发人员反馈,涵盖流行的操作系统、编程语言、框架和库、云平台、数据库、机器学习技术等多个细分主题。Stack Overflow 在报告中表示,收回的 5 万 6 千份有效回复体现出了一些对塑造当今软件开发和实践的工具和环境的深刻见解(great insights)。这些结果也有助于我们在技术选型和开发环境选型时进行参考,因此我们摘取了部分亮点进行解读。云原生开发Stack Overflow 年度报告的“云平台”调查问题希望了解开发者在过去一年中主要在哪些云平台中进行开发工作。在针对专业开发者群体中,亚马逊云科技以 51.01% 的比例位列第一,其次是 Azure、Google Cloud 以及 Firebase。从本地开发到云原生开发的演进在调查结果中,有的平台在 IDE 和云端开发环境上特别有优势,有的平台是基于云原生的平台即服务(PaaS),使软件开发人员可以无需担心底层基础架构就能轻松部署代码,有的是用于创建移动和 Web 应用程序的统一后端即服务 (BaaS) 平台。处于第一位的是亚马逊云科技。亚马逊多年持续投入建设云开发环境,也有对应的一些产品。亚马逊云科技于 2017 年发布了 Cloud9 IDE,前身是一个著名的 WebIDE 开发平台。2019 年,亚马逊云科技发布了 Cloud Development Kit(CDK)云开发工具包,它是一项基础设施即代码服务,封装了亚马逊云服务的配置细节和粘合逻辑。另外,亚马逊还提供了基于云开发平台的 Serverless 架构、DevOps 一体化等诸多功能,实现生态的闭环。从 Stack Overflow 的报告可以看出,基于云的开发平台,已经成为了各厂商的必争之地。虽然本地化开发目前还很普遍,但是云开发也有一些显著的好处。比如说在传统的软件开发方法中,开发者一般是在自己的电脑上进行开发和测试,然后在物理机或云上运行,但一些 CPU 和内存密集型的任务,在某些情况下编译或测试可能非常耗时且占用大量资源。然而大多数工程师的电脑有 CPU 和内存的限制,编译会浪费大量时间。开发环境上云之后,云服务就足以解决存储、计算资源上的弹性需求,云上按需计费也能节省边际成本。另外,云上协同开发还可以让团队之间共享统一的预定义环境,不需要一而再地处理不同的平台、工具、版本和依赖项,一致的编译、测试环境让团队成员无需配置复杂环境即可上手,甚至可以突破时间、地域限制,让处于全球范围内、不同工作时间的开发团队使用统一的、定制的环境。云开发也意味着应用程序从开发、集成到测试、部署和生产都在使用一致的环境,有助于减少可能在生产中暴露出来的错误和其他问题的数量。自前几年起,Kubernetes 和 Docker 开始流行,容器化技术让应用程序更加具有可移植性,这意味着它可以在任何云环境上运行,并且只需少量集成工作。而随着云原生技术的发展,原始定义现在可以扩展到包括一系列技术,而不是与容器严格相关,例如 Serverless 和流式传输等,能够让开发者更充分利用云计算模型,在云中设计、开发和运行工作负载也更加容易。Serverless 架构Serverless 是云原生技术发展的高级阶段。Serverless 最早的框架产品源于 2014 年亚马逊推出的 Amazon Lambda。Lambda 的推出开启了云计算的新时代,之后所有的大厂都在跟进,比如微软、谷歌、IBM 都先后推出自己的 Serverless 产品。在这之后,Serverless 也从愿景层面逐步走向落地,在企业里应用开来。从最初认为 Serverless 是 FaaS(函数即服务),到 FaaS(函数即服务)和 BaaS(后端即服务)的集合,人们对 Serverless 的认知不断的变得清晰。对亚马逊云科技这样的云厂商而言,Serverless 不仅局限于计算服务,而是指一种端到端的架构。除了我们比较常提起的 Lambda 外,还覆盖了计算、存储、网络、容器、数据库等,集成多个方面的服务,才能快速地构建现代化应用。开发人员在使用 Serverless 服务和架构时,只需要关注业务逻辑,不再需要部署、管理或扩展服务器。云服务本身可以快速、无缝地自动扩展,以适应流量峰值。事件驱动型架构(EDA)是一个典型的 Serverless 架构,常见于使用微服务的现代应用程序,或者有解耦组件的任何应用程序。它以事件为媒介,实现组件或服务之间最大松耦合的方式。现在的企业,普遍采用了微服务架构,而结合微服务和事件驱动架构,能更好地解决关键业务的实时、可扩展等问题。事件驱动型架构有三个主要组成部分:事件发起者、事件路由器和事件使用者。事件源产生事件,并将事件发布至事件路由器。事件路由器进行事件筛选并推送给相应的事件使用者。事件使用者或者处理事件,或者受事件影响,并为之采取相应的操作。通过此架构,事件源和事件使用者解耦,从而使它们能够独立扩展、更新和部署。使用事件驱动型架构的优势也是十分明显的,通过解耦,使服务之间相互独立,利于扩展和提高可用性。同时,使用事件路由器 Amazon EventBridge 或 Amazon Simple Notification Service(SNS)将帮助筛选并将事件推送给使用者,无需编写自定义代码,大幅提升开发的敏捷性。这种架构对于成本的优化也是显著的,事件是按需发生的,这意味着我们无需为空闲资源付费。比如上图中的作为事件使用者的 Lambda 函数,只需要为 Lambda 处理事件时的函数请求数量和执行代码所花费的持续时间付费。随着 Serverless 各方面的功能和性能的提升,其采用率也在持续增长。据 Datadog 2021 年发布的无服务器状态报告,开发人员正加速采用无服务器架构:2019 年之后 Amazon Lambda 的使用率显著增加,2021 年初,Amazon Lambda 函数的平均每天调用频率是两年前的 3.5 倍,且半数 Amazon Web Services 新用户已采用 Amazon Lambda。而据 Amazon Web Services 公布的数据显示,亚马逊已有数十万家客户在各种场景下用 Amazon Lambda 来构建他们的服务。低代码平台Serverless 是一种范式转变,可以减少服务器运维工作,如果再加上减少手动编码的方式,我们就能够更快地进行业务开发和交付。各云厂商近几年都在低代码开发平台上投入了不少力量,亚马逊也于 2017 年发布了 Amazon Amplify。从云计算开始,技术发展在不断将底层平台进行抽象,低代码平台通过将底层平台云化,屏蔽复杂的使用规则,用 BaaS 层接口提供后端服务,让开发者将重心放到业务流程和界面定制上。也因此,低代码的核心部分之一是前端开发。Amazon Amplify 平台采用的是集成 UI 原型设计平台 Figma 的方式,允许设计师和前端开发人员在设计和开发活动上进行协作。例如,开发人员只需将新的组件设计从 Figma 拖放到 Amplify Studio 的应用程序中,设计好的 UI 会自动转换为 JavaScript 或 TypeScript,让开发人员可以完全控制应用程序的设计和功能。低代码开发平台的另一优势是加速全栈开发的速度。我们可以看到 Stack Overflow 的报告涉及的技术越来越多,也说明了随着应用程序的复杂性增加,我们开发人员需要在开发过程中处理越来越多的事情,包括框架和平台的选择、安全配置、数据库、CI/CD 部署等等。对于开发人员来说,全栈开发变得非常复杂,需要具备非常全面的技能。但通过低代码提供的堆栈环境,以及全生命周期管理能力,让开发人员可以以简单的方式管理从 UI 设计、代码开发到部署的端到端应用程序开发,进一步降低全栈开发难度。在 Amazon Amplify 中,它是通过 CLI 命令等方法实现快速地创建后端和数据库(在内部使用 Lamda、S3 和 DynamoDB),从而在短时间内完成一套全栈 Web 和移动应用程序。低代码还能减少对 AI 或机器学习专业人员的依赖,可以降低 AI 应用的失败率。在亚马逊的低代码平台中就提供了如 AI/ML、mapping 等服务。我们可以在构建的全栈应用程序时,轻松调用 Analytics 功能,收集事件数据分析用户操作,然后调用 AI/ML 服务“预测”用户的下一步操作。或者也可以根据自己的需求调用其它比如文字翻译、语音识别、图像处理等云服务。机器学习在低代码平台中,对 AI/ML 服务的调用,也是在释放人工智能的力量。人工智能的应用现在越来越普遍,渗透到了企业的各种业务场景应用当中,发挥着重要且积极的影响。日常开发中,我们也会经常遇到需要应用 AI/ML 技术的地方,而云上的机器学习服务更加齐全,不仅提供了多样性的选择,而且还兼顾了易用性。机器学习技术的普及也和云计算的发展密不可分。一方面,机器学习有着庞大的计算和数据存储需求,几乎机器学习的每一步训练与推断都需要庞大的云端集群来提供算力或存储资源支持。而云服务提供商凭借海量的集群资源,以及按需按消耗付费的计价模型,再加上这几年云服务持续的降低成本,让机器学习与人工智能已经变成了人人都用的服务。另一方面,云服务厂商在机器学习的工具库上,提供了非常好的深度和广度,来满足用户的不同需求。机器学习本身是一个“Right tools for the right job”的事情,需要根据具体的业务和场景,选择最合适的工具。亚马逊云科技采取开放包容的工具选择策略,让云端可以和客户的整个环境做到良好的集成。从机器学习技术栈的 3 个层面分别阐述:在底层机器学习框架方面,云厂商需要支持各种主流的机器学习基础框架和标准接口,如 TensorFlow、PyTorch、Apache MXNet、Gluon、Keras 等。这些框架也都出现在了今年 Stack Overflow 年度报告“受开发者欢迎的库”调查结果中。而亚马逊云科技不仅支持上述机器学习基础框架和接口,还针对 TensorFlow、PyTorch 和 MXNet 三个主流框架进行了专门的优化适配,并支持通过 Amazon Glue、Amazon Kinesis 等数据接口集成来最大限度方便框架的使用。这些设计使其可以方便地支持开发者以及数据科学家们运行流行机器学习框架以及运行使用多种框架。在底层计算层也是如此,无论是 AI 芯片还是计算实例,云厂商也可以让用户根据不同的应用场景,根据自己的实际需求自由选择各种 GPU 实例、ARM 实例、机器学习专用推理芯片。在上层 AI 服务层面,开发者可以根据自身需求,在云上有选择的使用各种 AI/ML 服务,比如文本分析、代码检查、聊天机器人、需求预测、文档分析、企业搜索、反欺诈、图像视频分析、个性化推荐、实时翻译、文本语言转换、转录,等等。为自己的系统应用补充所需要的智能化组件,通过简单的 API 调用即刻补足智能拼图缺失的一角。在承上启下的中间层,像 Amazon SageMaker 这样的工具平台,提供了一项全托管端到端机器学习服务,这也是亚马逊云科技机器学习服务层面的核心产品,可帮助数据科学家、开发人员以及机器学习专家快速构建、训练并托管规模化机器学习模型。开发者只需要关心自己输入什么数据,自己想用什么框架和什么算法,其他的各种参数调优什么的脏活儿就让机器自己用机器学习来做,减轻了机器学习流行中数据清洗、建模等步骤的复杂性。随着机器学习应用变得普遍,各种 MLOps 工具也变得越来越多,而且机器学习项目的开发工作流程仍然非常反复,所以对于开发人员来说,管理工作还具有挑战性。例如,当尝试一种新算法或调整超参数时,开发人员和数据科学家通常在 Amazon SageMaker 上进行成千上万次实验,需要手动管理所有实验。随着时间的流逝,追踪性能最佳的模型和利用在实验过程得出的经验教训变得越来越困难。2020 年, SageMaker Studio 正式发布,这是亚马逊云科技创建的一个全集成的 ML 开发环境——也是业界首创。它统一了 ML 开发所需的所有工具,将数百种机器学习功能,包含训练好的模型、设置好的容器镜像,都集成到基于 Web 的开发环境 Amazon SageMaker Studio 中。开发人员可以通过单个窗格管理整个 ML 工作流,在可视化界面中编写代码、跟踪实验、可视化数据,以及针对 ML 工作流进行调试和监控,不需要切换来切换去,从而极大地提高了开发效率。这种集成并简化后的开发环境对机器学习初学者也特别友好。以 Stack Overflow 报告最受开发者喜爱的 Hugging Face Transformers 为例,其官方网站默认使用 Amazon SageMaker 来训练和部署模型,提供了相应的入门指导。Hugging Face 提供的深度学习容器(DLC)与 SageMaker 结合,可以让开发者跳过从头开始构建和优化训练环境的复杂过程,立即开始训练模型。在亚马逊云服务上,免费注册账户,然后用 Huggingface Sagemaker,只需简单几行代码就可以开始训练并部署 Hugging Face Transformers 模型。云数据库在 Stack Overflow 的报告中,还有一项特别有意思的调查项目,即“薪资待遇最好的技术”,其中在针对编程语言的统计中,使用 Clojure 语言的开发者收入最高;在针对框架和库的统计中,Apache Spark、Apache Kafka 和 Hadoop 排行最高,说明大数据类的工作收入较高;在针对数据库的统计中,DynamoDB 数据库开发者的薪水是最高的。在这里就不得不介绍一下薪酬最高的开发数据库 DynamoDB 是何许人也,DynamoDB 是非关系型数据库的开山鼻祖,它起源于亚马逊于 2007 年发表的一篇划时代论文《Dynamo: Amazon’s Highly Available Key-value Store》。这篇论文影响了很多 NoSQL 数据库的设计,也最大程度地将 consistent hashing 这个概念从学术界引入了工业界。Dynamo 论文推动了行业大规模变迁至非关系型数据库,并最终促成新一代的适用于互联网的云数据库 DynamoDB 的诞生。现在,DynamoDB 可处理每日超过 10 万亿请求和每秒超过 2000 万峰值请求,并且还具有详细的企业级特性,如支持 ACID 事务,使用户能够大规模构建业务关键型应用程序,从而被众多企业应用到核心业务中。今天有许多全球发展最快的企业,如 Lyft、Redfin、Disney、Zoom 等企业,都依靠 DynamoDB 的规模和性能来支持其关键任务负载。在今年 7 月的 USENIX ATC’22 上,Amazon DynamoDB 团队再次发布了他们的新论文《 A Scalable, Predictably Performant, and Fully Managed NoSQL Database Service》,论文里包含了云数据库跨分区吞吐量的均匀分布是如何设计的,如何用多 Paxos 来保持副本同步的机制,MemDS 分布式缓存的设计方法等硬核内容。DynamoDB 的架构更难得的是,这篇论文还涵盖了 DynamoDB 的架构设计,以及它如何不断演进以满足客户的需求,这种涉及演进的论文相对也比较少见。过去 10 多年,该数据库的研发人员加入了包括二级索引支持、可扩展流式数据捕获、自适应容量等等功能。不断增加的功能,不仅涉及底层可用性、持久性、安全性和规模等,还包括易用性等。这些功能让用户不再需要配置集群,只需创建一个表存储数据,即可轻松实现无缝缩放。DynamoDB 的发展从工程角度看,这应该是近年来大规模分布式系统最实用的论文之一,其中包含的那些云数据库设计方法,估计也会给业界带来一些启发。写在最后我们从 Stack Overflow 调查报告出发,介绍了当前的开发工具、开发环境热点技术方向。出色的开发工具也是软件开发者的生产力放大器。现在软件开发几乎渗透到了经济的各个领域,甚至可以说未来每个公司都会是软件公司。而开发软件必须要有好用的开发工具,如果说软件是技术进步的助推器,那么开发工具是技术进步的二阶助推器: 助推器的助推器。随着云原生时代的来临,以及组织代码规模的扩张,开发模式不断变得复杂,也促进一些大型企业,特别是云厂商提供更好的开发环境。同时云服务提供商通过将自己的服务,集成到流行的开发工具中,使得开发者能够使用自己熟悉的工具来管理云服务。对于云厂商来说,开发工具对于开发成本的优化,以及软件交付效率的提升,可以通过用户得到千百倍的放大,为用户带来巨大的经济价值,从而也能进一步促进云厂商自身的发展。“云平台”、云数据库这些排行榜是云计算行业的一个缩影,Stack Overflow 开发者调查报告反馈出亚马逊云科技为开发者提供了称心应手的软件开发“武器库“,而这些开发工具收到了来自不同开发者的多方面的积极评价,这离不开亚马逊云科技对开发者的重视和对开发工具不断打磨与创新。当我们评估用什么云服务时,也不妨同时看看企业是否重视工具的打造,所提供的开发工具是否趁手,毕竟这两个之间是互相促进的,“双驱动”带来的效率提升会更加可观。作为云计算领域的行业风向标活动,2022 亚马逊云科技中国峰会将于 10 月 13 日 -10 月 14 日于线上举办,与会者有机会与国内外尖端技术讲师、构建者、业界领袖面对面深入交流,全面了解亚马逊云科技在云开发、人工智能、机器学习、数据库、大数据分析、物联网、安全等方面最新的云计算解决方案。点击链接了解更多详情:https://summit.awsevents.cn/2022/signin?source=I4txnunRTQh30eQ4v/ulfA==&tab=1&type=2参考链接:参考链接:https://aws.amazon.com/cn/solutions/case-studies/redfin/https://aws.amazon.com/cn/solutions/case-studies/lyft/https://aws.amazon.com/cn/dynamodb/https://aws.amazon.com/cn/blogs/china/machine-learning-plugs-wings-for-digital-transformation/https://aws.amazon.com/cn/amplify/studio/https://www.youtube.com/watch?v=T4MQrRDo20whttps://www.cirrushq.com/wp-content/uploads/2022/03/AWS-UG-EDI-Amplify-Studio.pdfhttps://xie.infoq.cn/article/a1b34421f3183d3bc1d8e59dbhttps://xie.infoq.cn/article/fb833598f8919e89fd1168264https://www.infoq.cn/article/aws-dynamodb-dive-in
| 4,104 | 1,663,038,126,469 |
InfoQ
|
128 |
AWSGoat:对AWS云解决方案进行渗透测试
|
AWSGoat是一个设计漏洞(Vulnerable by Design)基础设施,包含最新发布的OWASP十大Web应用安全风险(2021年),以及IAM、S3、API Gateway、Lambda、EC2和ECS等服务的错误配置。它模拟了有缺陷的真实基础设施,使用了黑盒方法,包含了多个升级路径。INE团队开发了AWSGoat项目,并在最近举行的2022年黑帽大会上(在OWASP新加坡分会之前)展示了它。该团队还针对微软Azure开发了AzureGoat。这两个项目都包含以下漏洞和错误配置。XSS;SQL注入;不安全的直接对象引用;App Function环境的服务器端请求伪造;敏感数据暴露和密码重置;存储帐户配置错误;身份配置错误。彭泰斯学院在推特上表示:AWSGoat是为信息安全社区而开发的,是#AWS安全技术的一个真实的训练场。要使用AWSGoat,用户需要一个AWS帐户(就像AzureGoat需要Azure账户一样)和具有管理权限的AWS Access Key。要使用AWSGoat代码库,用户可以分叉它,将他们的AWS帐户凭证添加到GitHub秘密中,并运行Terraform Apply Action。这个工作流将部署整个基础设施,并输出托管应用程序的URL。除此之外还有一个手动执行流程。安装好以后,用户可以利用项目中包含的一个模块,这是一个使用了AWS Lambda、S3、API Gateway和DynamoDB的无服务器博客应用程序。这个模块包含了各种Web应用程序缺陷,并允许利用配置错误的AWS资源。YouTube上有一个播放列表为此提供了参考。来源:https://github.com/ine-labs/AWSGoat类似地,AzureGoat也包含了一个模块,提供了一个无服务器博客应用程序,使用了Azure App Function、Storage Accounts、CosmosDB和Azure Automation。这两个项目未来都将推出更多的模块。在AWSGoat的一篇INE博文中,INE首席架构师(实验室平台)和项目贡献值之一Jeswin Mathai说:虽然还处于起步阶段,但这个团队对AWSGoat有着雄心勃勃的计划。下一个(第二个)模块已经在开发中,是一个使用了AWS ECS基础设施的内部人力资源薪资应用程序。未来增加防御/缓解功能,包括安全工程、安全编码和监控,以及检测攻击。此外,他还说:这将是未来几年的一个大项目,而且它是开源的,任何人都可以参与贡献。原文链接:AWSGoat Open-Source Project for Pen Testing AWS Cloud Solutions
| 2,880 | 1,662,508,800,743 |
InfoQ
|
129 |
谷歌云IoT Core服务停止公告震惊社区和客户
|
谷歌云IoT Core是一项全托管的服务,可以帮助客户快速、安全地连接、管理和摄取来自全球数百万个设备的数据。最近,谷歌宣布停止这项服务——文档显示,谷歌将于2023年8月16日停止这项服务。谷歌于2017年发布了IoT Core的第一个公开测试版,作为其他云供应商IoT产品的竞争解决方案——微软的Azure IoT Hub和亚马逊云科技的AWS IoT Core。2018年初,这项服务开始普及。现在,谷歌通过电子邮件通知客户——“您将无法访问IoT Core设备管理器API。届时,设备将无法连接到谷歌云IoT Core MQTT和HTTP桥,现有连接将被关闭。”因此,这项服务的寿命只有5年。考虑到物联网目前的发展状态,停止这项服务的决定非常值得我们注意。联网设备数量的增长速度在2021年放缓,但预计在2022年及以后将重新加速。尽管物联网市场出现了通货膨胀和长期供应中断等新的不利因素,但整体人气仍相对乐观。预计到2022年底,联网物联网设备数量将达到144亿件。此外,多年来,许多公司甚至为那些希望围绕托管服务构建物联网产品的人提供了专门的硬件套件。The Duckbill Group云经济学家Cory Quinn在推特上写道:我敢打赌@augurysys对他们发布的谷歌云IoT Core研究案例感到非常震惊。没有什么比公开推荐更能说明你押错了赌注。去年,InfoQ报道了谷歌在企业API和“杀死产品”方面的名声——社区也表达了他们的担忧和看法。一年后,LookDeep Health联合创始人兼首席执行官Narinder Singh在一条推特上再次表达了类似的观点:真不敢相信@Google @googlcloud对企业的支持每况愈下。是的,他们现在更擅长销售,但是他们通过他们的行动反复劝说你应该只使用GCP的核心部分。此外,一位用户在Reddit的一个帖子中写道:有时候我真的不懂谷歌云。Azure和亚马逊云科技的支持者们之所以反对谷歌云,主要原因是他们关闭了一些东西。他们所要做的应该是不要再做这样的事情来留住他们的一些信誉。Hacker News关于谷歌云IoT Core停止服务的帖子中也带了很多评论,有的表示对谷歌的不信任,有的表示多多少少理解谷歌的立场。最后,谷歌合作伙伴ClearBlade宣布了对IoT Core的全面替代服务,包括从谷歌IoT Core到ClearBlade的迁移路径。然而,在Hacker News的帖子中,一位名叫patwolf的用户表示:我已经使用谷歌云IoT Core好几年了。现在我得找个替代方案。有一个叫作ClearBlade的供应商今天宣布了一个直接的迁移路径,不过目前我考虑自己进行迁移。原文链接:The Announcement of Discontinuing Google Cloud IoT Core Service Stirs the Community and Customers延展阅读:《谷歌云又一个服务被扼杀,这次是 IoT Core》
| 3,853 | 1,662,076,800,098 |
InfoQ
|
130 |
亚马逊云科技:安全工作好比消防,与其去救火,不如防患于未然
|
近日,亚马逊云科技一年一度的全球云安全盛会2022 re:Inforce在美国波士顿落下帷幕。这是亚马逊云科技连续第四年举办全球安全大会,今年更是通过主题演讲、技术分享和动手实践等上百场活动,与全球客户分享亚马逊云科技在云安全和合规领域的最新洞察、落地经验及最佳实践,并发布多项新的安全服务及功能,帮助客户更有效地构建云上安全环境及满足合规要求。 亚马逊首席信息安全官 Steve Schmidt在主题演讲中表示,“亚马逊云科技在全球拥有数百万客户,每天追踪的事件达数十亿条,这使得亚马逊云科技能检测到更多的安全威胁。亚马逊云科技会迅速定位和解决这些安全威胁,并将这些能力更新到安全服务中让更多的客户受益。他还分享了亚马逊云科技的安全实践,包括在研发团队设置安全守护者角色以及增设应用安全审查流程将安全融入到产品或服务的开发生命周期和运营中,从人和数据两个角度设计安全,以及提倡构建多层次的纵深防护等”。 亚马逊云科技大中华区产品部总经理陈晓建表示:“云上安全的态势时刻变化,日新月异,我们必须进行前瞻性的思考,保持敏锐的洞察,源源不断为客户提供像水和空气一样无处不在的安全防护。亚马逊云科技始终将安全作为最高优先级的工作,将安全作为一种文化贯穿在亚马逊云科技整个企业运营当中。我们会加速安全理念、新的安全服务及功能在中国区域的落地,与中国客户一起解决云上安全和合规的棘手挑战,为他们云上业务创新保驾护航。”亚马逊云科技大中华区产品部总经理陈晓建艾伦图灵讲了一句话“We can only see a short distance ahead,but we can see plenty there that needs to be done。”中文的意思是:我们每一个人的目力是有限的,我们只能看到有限距离之内的东西,但是仍然留给我们做的东西非常多。安全的问题也是这样,每家企业能做的工作是有限的,我们不可能去预见所有安全的风险,去解决所有安全的漏洞,但是我们能做的工作还是非常多的。 亚马逊云科技的云安全理念是什么?陈晓建做了一个比喻,如果把安全比作消防,消防能解决的问题是火灾发生的时候去救火,但是回过头来看,防患于未然才是解决问题的根本。安全也是这样,与其去救火,更需要做的是提前做好防范,这是亚马逊云科技云安全一直在承诺的理念。 为给用户带来更好的安全防护,亚马逊云科技不断根据客户的需求持续丰富其安全服务及功能。在加密领域,为了应对未来量子计算的快速发展,亚马逊云科技推出混合后量子密钥交换,目前已经为Amazon Key Management Service (Amazon KMS)、Amazon Certificate Manager 和 Amazon Secrets Manager三种服务提供了量子安全算法。亚马逊云科技还借助自动推理,通过数据逻辑的应用来检测可能存在的安全风险和配置错误,为云本身和云中的安全性提供更高的保障,并推动可证明的安全性的发展。亚马逊云科技在此次re:Inforce上发布了众多安全领域的新服务和功能,涵盖威胁检测及响应、身份认证和访问控制、合规等多个方面,并推出安全合作伙伴网络相关的新举措。 推出Amazon GuardDuty Malware Protection,可帮助客户检测运行在其云环境中的的恶意软件。该功能的推出进一步扩展了Amazon GuardDuty的威胁检测范围。Amazon GuardDuty可扫描多种文件系统,包括Windows和Linux 文件、 PDF文件、归档文件、二进制文件、安装文件、邮件等,在扫描过程中,不会对云中相关资源的性能造成影响。当检测到恶意软件时,Amazon GuardDuty Malware Protection可自动向Amazon GuardDuty控制台、Amazon Security Hub、Amazon EventBridge和Amazon Detective发送恶意软件调查结果及其潜在来源,客户可根据相关结果迅速采取对应措施。 推出Amazon Identity and Access Management (Amazon IAM) Roles Anywhere,将Amazon IAM对工作负载的管理能力扩展至客户的云环境之外。通过该服务,客户可为其本地服务器、容器和应用程序等工作负载设置临时凭证,并使用与云端工作负载相同 IAM 角色和策略来访问相关资源。客户可以在云上和本地的工作负载中使用相同的访问控件、部署管道和测试流程,这样不但降低了运维成本和复杂度,还进一步提高了客户工作负载的安全性。 推出Amazon Detective for Elastic Kubernetes Service(Amazon EKS),将Amazon Detective覆盖的数据源扩展至Amazon EKS,可帮助客户更加轻松分析和调查在Amazon EKS集群上的Kubernetes 潜在的安全问题或可疑活动,并找出根本原因,客户以此可以快速采取措施来解决问题,提升安全性。 Amazon Config新增合规性分数功能,帮助客户跟踪资源合规性。该新功能是Amazon Config的一项增强功能,以百分比的形式展现客户相关资源的合规程度,方便客户逐步对照并解决合规问题。 针对亚马逊云科技Marketplace上的第三方应用和服务,亚马逊云科技推出了Marketplace Vendor Insights(预览版),简化对供应商的安全合规评估并实现对风险的持续监测。亚马逊云科技通过该服务,加速了对供应商的评估,缩短了客户对亚马逊云科技Marketplace 服务的采购周期,实现其业务的快速上线。
| 3,349 | 1,662,022,150,822 |
InfoQ
|
131 |
PaaS的祖先Heroku,连相当值钱的“免费套餐”遗产都丢掉了
|
8月25日,Heroku发布通告,表示为了防止欺诈和滥用,将从 2022 年 11 月 28 日开始停止提供免费产品计划,并关闭免费的dynos和数据服务,以后将重点关注核心客户。 Heroku的免费计划,曾为众多想进入科技行业的人打开了一扇门。 Heroku 是一种平台即服务(PaaS),是 2007 年创建的第一批云平台之一,可让开发者将 git 存储库推送到云端,然后神奇地获取在某处运行的应用程序的 URL。一位开发者说,这种魔法对他的职业生涯起到了很大的催化作用,“当年作为学生,没有信用卡,也穷,Heroku的免费计划帮助我打开了真正了解网站如何工作的大门。如果没有Heroku,我永远无法达到今天的水平,以至于现在我真的无法说清它对我的职业生涯曾经有多么重要!” 像他这样通过Heroku学习编程的,不是少数。在今年StackOverflow 2022年度开发者调查报告中,有一个关于“云平台”调查问题,以了解开发者在过去一年中主要在哪些云平台中进行开发工作。在针对“Learning to Code”群体中,Heroku以35.24%的比例位列第一,超过了Google、AWS和Microsoft 。 实际上,这个革命性的产品,从技术上讲已经停滞不前,其产品也名存实亡,一位Heroku前员工在 HN 上写道:“你必须追溯到 Heroku Changelog 才能找到任何不是语言版本升级或特性删除的内容:https://devcenter.heroku.com/changelog。我认为特性冻结是发生在 2018 年。” 今年4 月,Heroku还曾发生一起严重的安全事故,社区反应激烈,当时一名攻击者获取了 Heroku 的主数据库(在我们那个时代称为 core-db)的访问权,并泄露了它的内容,包括哈希密码和用于 GitHub 集成的机密。 现在,短短几个月过去,Heroku再次让社区感到悲伤,它关闭了免费计划。 对此,一位开发者说,“Heroku 对我来说已经死了,我看到一扇又一扇进入科技的门被牢牢地关闭和锁定。” “我只是希望下一个时代能给每个人带来公平的技术。希望资本有点耐心,在它发光之前不要杀死它。” 虽然Heroku在走向衰落,但它也给如今的软件行业留下了很多遗产。 Heroku有哪些遗产 Heroku 由三位 Ruby 开发人员(James Lindenbaum、Adam Wiggins 和 Orion Henry)于 2007 年建立,仅仅三年后就被收购,SaaS 巨头 Salesforce 最终击败 VMware,以 2.12 亿美元的价格将 Heroku 收到囊下,当时该公司只有 30 名员工。 2011 年,Heroku 的联合创始人 Adam Wiggins 根据针对上百万应用托管和运维的经验,发布了著名的“十二要素应用宣言(The Twelve-Factor App)” 。他们那时候绝对不会料到这份宣言会在之后数年时间里,成为 SaaS 应用开发的启蒙书。同时这也奠定了 Heroku 在 PaaS 领域的地位,成为了云上应用开发规范化的基石。 Heroku 的工程负责人 Jason Warner 说:“我相信 Heroku 是在 2014 年到 2017 年之间最具革命性的产品,对 Web 开发产业的推动作用非常大。它也是同时代最受争议的项目之一,因为它实在太超前了。当时它看起来就像魔法一般,人们都被它深深震撼了。” Heroku 的人气一直都归功于其简洁、优雅和可用性的优势,它率先将重心放在了开发人员的体验上,致力于让部署像开发流程那样无缝流畅。 Heroku 是最早喊出“以应用为中心”,大规模帮助应用上云的产品。正是围绕“以应用为中心”这样先进的理念,使得 Heroku 从一开始便拥有了至今看来都非常诱人的功能:用户无需关心应用背后的基础设施是什么,Heroku 负责维护背后的一切。 这句看似简单的话背后隐藏了巨大的复杂性,试想下某个软件或系统爆出安全漏洞后给你带来的窘境,又或者你想使用一个数据库服务时却不得不维护一个数据库实例。而在 Heroku, 这一切麻烦你都无需关心。用户可以直接从开发语言出发,选择对应的技术栈,通过 heroku create 这样简单的命令,将应用托管到云上。主流的开发语言,均能在 Heroku 中找到对应的选择。从代码的变动自动触发软件的部署交付,清晰的工作流、多样的发布策略,直到后来的很多年都是 DevOps 们梦寐以求的功能。 Heroku 的联合创始人,如今是初创企业加速器 Heavybit 的合伙人 Linden baum 说:“震撼人心的是 Git 推送部署,这也是人们从 Heroku 学到的核心思想,大家原本以为必然要做的很多事情都用不着操心了。我们的愿景不是给猪涂口红,而是重新思考怎样彻底解决这个问题。” 卖给Salesforce算是一种成功吗? 之前有人在 Twitter 上提出了一个不那么简单的问题:“Heroku 是成功还是失败?” 对此问题,答案分成了两派,正反双方都有很多人参与。一部分人认为Heroku 已经失败了,但是另一部分人恰恰相反——他们认为Heroku 是一个不折不扣的成功。 从成功的角度来讲,以 2.12 亿美元卖给 Salesforce 是一个明显的胜利。但从产品寿命或持久的行业技术方面来说,它又是失败的。 以 2.12 亿美元卖给 Salesforce ,最显而易见的是,在如此规模的收购中,有些人发了财,也给一些新员工享受着高科技薪酬和优厚待遇的条件。 Heroku 的粘附力出乎意料。鉴于这一产品已经多年基本未变,加上市场中的新成员众多,也接受了更大范围的云计算竞争,但是直到今天,Heroku 依然可以成为可信的平台。很多开发者很了解这个产品,并且它的厂商锁定是最低的,让开发者不需要在企业的非核心服务的运营/基础设施上动手。各大云计算提供商都推出了新的业务,这些业务都是为了满足 PaaS 层(像亚马逊云科技那样,也不只是一家),但是直到现在,几乎没有什么公司可以与 Heroku 的简化工作流程和简单操作相媲美。 除此之外,这家公司还做了许多了不起的工作。 外包运维:长期以来,很难在互联网上部署软件。后来,PHP 问世,它的语法简练,部署过程简单,赢得了整个世界,但是也存在许多缺陷。部署一个通用的栈非常困难,那时候,Rails 需要安装一个负载均衡器,为每个服务器提供反向代理,CGI 进程,并且可以随时监控和执行所有必要的操作。Heroku 使这一问题得到了极大的简化,它使开发者集中精力在构建软件上,而非在配置和运行基础设施上。在当今世界,这显然是一种有利条件,但在那时并非如此。Postgres:Postgres 在过去的十年里的发展得益于很多方面的原因,其中包括其卓越的核心进展以及其竞争对手的相对衰退,但是通过使其成为平台提供的核心部分并高调宣传,Heroku 成了平台的重要组成部分。容器:很少有人记得它,但 Heroku 在容器还不流行的时候就已经开始运行了,使用 LXC 作为其 Cedar 栈的核心技术。CLI:和 Git 本身一样,Heroku 的 CLI 也是该产品中很关键的一环。Unix 命令行工具已有数十年之久,但是一家公司推出一种专用 CLI 还是很有创意的,并且很快就得到了推广。DX 和 CLI:CLI 以及一个广泛的面向开发者的产品,播下了最终发展成 DX 的种子,现在 DX 已经成为科技行业的一个专门分支。Buildpack:Buildpack 是如何部署用特定语言编写的应用的通用公式,是 Dockerfile 的前身,也可以说是一种更合适的抽象层。在 Cedar 栈的初期,自定义 Buildpack 就已经为用户提供了支持。目前,Heroku 之外的其他几个云计算提供商也支持这些技术,比如 Digital Ocean 和 GCP。 这是一份相当令人印象深刻的清单——即便是其中的一两个,也会比大多数科技公司在世界上留下的印记更多。 但是,这些项目也有一个共同的潜在趋势——尽管它们的创意很伟大,并且在未来的服务部署方式中会留下持久的印象,但它们都并没有为 Heroku 产品本身带来持久的剩余价值——其他平台抓住了这些概念并获得了收益,即使撇开商业方面,也没有具体的技术会被归于 Heroku。尽管 Docker 作为一家公司可能注定以失败告终,但它将作为基于容器的部署的始祖而被记住几十年。未来关于 2010 年代的历史将谈论 Docker 到 OCI 的演变,但是 Heroku 充其量只能算是一个注脚。 Heroku 是云计算的终极创意工厂——比如 “十二要素应用宣言(The Twelve-Factor App)” 、抗侵蚀和 DX,这些概念将会经得起时间的检验,但是在它们的受益者中,很少有人会认识到它们与 Heroku 的关系。 想象力与现实 没有多少持久的产品或技术影响是硬币的一面,而另一面,则是对一个拥有无限潜能却从来没有实现过的宏伟愿景感到失望。 Cedar 栈确实是一个真正的天才之作。之前的 Aspen 和 Bamboo 栈都有很大的限制,仅能支持特定栈的特定版本,并且有很多特殊的条件。Cedar 让 Heroku 成为可以运行一切的平台——用户可以通过 Buildpack 和 Procfile 带来自己的栈,它复杂的内部状态机和路由层使得运行在其上的应用变得非常强大。 2012 年,Cedar 的交付势头非常好,虽然取得了巨大的成功,但是它仅仅被认为是一个更加雄心勃勃的项目的第一步。很快,它就会被推广到可以处理不同形状和大小的软件,而现在 512MB 的容器仅仅是附带的第一选项。即使是最大的数据处理应用也可以部署在 10GB 或 100GB 内存的容器上,一直到最小的一次性云 grep 运行只需要几兆字节。如此快速和简单,以至于不在 Heroku 上运行简直就是疯了。 它已经成为模块化。对于大多数用途来说,共享路由器是一个足够的选择,但是大用户可能希望实现自己的路由,从而避开其他企业的云计算,或者提供他们自己高度定制的路由配置。甚至在 Heroku 的“内核”中,你也可以进行交换,因此你仍然可以使用 Heroku 来构建、编排和监控你的应用,但是它们会在你自己的专用单租户服务器上运行。 自托管的奇点 Heroku 云将变得如此可扩展,如此健壮,就像一个自引导的语言编译器一样,它能够自托管。像平台 API、动态状态机和路由器这样的核心组件,都将作为 Heroku 应用运行,并获得所有 DX 的人体工程学和健壮性。这种充满乐观和雄心勃勃的愿景被称为“自托管的奇点”。 它将是反亚马逊云科技的。亚马逊云科技在新用户首次登录时,就向他们展示了成千上万个错综复杂、相互交叉的原始概念,而 Heroku 公司的愿景就是不让新用户看到。他们从基本的 git push heroku master 和单一的 dyno 应用起步,但是当他们的软件不断发展,他们的要求也越来越复杂,当他们需要的时候,新的原语就会逐渐显露出来,比如带有入口/出口规则的 VPC、带有备选基本镜像或架构的可配置主机。SSH 访问、静态 IP 等等。就像洋葱一样,可以一层一层地剥开。 还有一些其他的东西。“十二要素应用宣言(The Twelve-Factor App)”中的“支持服务”描述了诸如数据库等持久性服务的“额外资源”,它作为孤立的资源存在,能够被任意地附加和分离到更短暂的应用中。Heroku用了好几年的时间来开发这一特性,尽管他们成功了,但是 Heroku 在产品领导力方面的黄金时代已经结束,而且他们也没有取得什么进展来说服别人相信它是个好点子。 定价又是一头难以捉摸的野兽。从免费层跳到付费应用的成本是一个巨大的飞跃,从产品推出的第一天起,用户就抱怨过这个问题。最终,一个新的定价模式确实推出了,但是并没有帮助人们消除最初的忧虑。 检查失败 那么,到底发生了什么呢?一切成功的基石都已经就位,因此无法实现其雄心勃勃的愿景并非必然。 运营陷入困境:Cedar 进入后,由于一些不能控制的因素(us-east-1 在那段时期尤其糟糕),以及内部因素(有一段时间,Heroku似乎每隔一天就会有一个糟糕的部署),导致了产品的频繁故障,已经升级到了成为生存责任的地步。产品的工作被取消,取而代之的是对运营的支持——设置指标、警报、安全部署流程,并且广泛地建立运营能力。产品周期:尤其是初期,没有制度上的框架来交付新特性。这是有可能的,但是经常需要你自己发出拉取请求或者给某个人发送一个请求来帮助你修改。即使有推动新特性的强烈动机,它也常常会从组织/服务的边界中消失殆尽。Heroku也存在着令人不齿的退化情形,比如将组织功能构建在核心 API 之上,变成了一个单独的微服务,这是由于没有任何使其更加集成的机制。Docker 视野狭隘:Docker 的第一个版本引起了如此大的轰动和广泛的兴趣,以至于Heroku之中的很多人对它产生了一种不健康的痴迷。Heroku的前员工说道:“我们内化了一种失败主义的态度,认为 Docker 容器是未来,而我们所做的是过去的事。”从某些方面来说,这是对的,但是Dockerfile 仍然是非常低的抽象层次,低到有些不可取。我们现在所见,容器技术已经成为许多部署栈的基石,但更多的是作为一种原始技术,其中有许多技术可以提高其工作效率。在很多方面,Buildpack 对应用开发者来说,是一个更好的抽象层,他们不必为任何事情编写 Dockerfile,只要用 Gemfile、Cargo.toml 或 go.mod 等栈中常用的工具,然后让构建过程找出如何将其“烘焙”成一个可部署的镜像。从那以后,如果说基础层需要更新,或者某种编程语言的次要级别/补丁级别需要更新,都可以广泛地进行,而不必调整每个项目的 Dockerfile。下一个栈的固定性:Heroku 的栈是以树命名的。Aspen、Bamboo、Cedar。Cedar 比 Bamboo 有了质的飞跃,虽然Heroku的下一个目标是建立一个比 Cedar 更好的栈,就像 Cedar 比 Bamboo 好一样,但在这种情况下,员工会把 Cedar 作为一个过去的种子埋在他们的脑海里,从而阻碍了他们对它的大量投资。回顾过去,从目前可用技术的融合情况来看,可能并没有一种栈能比 Cedar 好得多,就像 Cedar 对 Bamboo 那样。最好还是把精力集中在逐步改善 Cedar 上,而不要在地平线上找什么“灵丹妙药”。构思者/运营者的分歧:作为一家大公司内部资金雄厚的小公司,曾经有过一段时期,我们有一个相当独特的情况,就是雇佣了一批员工,他们花费大量的时间进行实验、原型设计和创意,就好像在公司内部开着一个小型的贝尔实验室或者施乐 PARC。隔着篱笆,就是那些顽固的服务工程师,他们经常忙于解决运营问题,很少露面。构思者们没有能力把所有的事情都投入到生产中,同时,运营人员也没有足够的时间和精力去进行实质性的产品改善。这导致了很酷炫的内部演示,但是可以预料的是,他们不会有所动作。 总而言之,特别是考虑到之前发生的安全问题,Heroku 作为一个自维持的产品是一个失败。作为一个多产的思想创造者,以及无数当前和未来工具和平台的直接祖先,Heroku 取得了巨大的成功。 参考资料:Heroku的下一章:https://blog.heroku.com/next-chapterhttps://xeiaso.net/blog/rip-heroku如何理解Heroku提出的12要素应用?https://mp.weixin.qq.com/s/EUPo12ZPpBp_P1b7wouYtwHeroku 的衰落:https://www.infoq.cn/article/gvcgP6XitdHjy169oAk5https://brandur.org/nanoglyphs/033-heroku
| 4,187 | 1,661,931,173,621 |
InfoQ
|
132 |
谷歌宣布扩展3个新的亚太云区域
|
谷歌云在全球拥有34个地区和103个可用区域,为全球200多个国家和地区的客户提供云服务。最近,谷歌宣布将把业务扩展到马来西亚、泰国和新西兰这3个新的云区域。此前宣布的其他6个区域分别是柏林、达曼、多哈、墨西哥、特拉维夫和都灵。 谷歌云亚太区副总裁Karan Bajwa在谷歌云博客上发表的一篇文章中表示,谷歌的云计算扩张是基于IDC的一项预测数据,到2025年,亚太地区(不包括日本)的云服务总支出将达到2820亿美元。此外,文章中引用的另一份研究报告来自Information Services Group于2021年做出的一项调查。调查指出,2021年第三季度,云服务占亚太地区IT和商业服务支出的84%以上,是所有地区中比例最高的。 Bajwa还在博文中解释说,随着数字服务需求的增长,新的云区域出现了。在这些市场的各个行业,尤其是电信、制造业、金融服务和零售领域,云应用正在不断增长。 谷歌云区域是客户可以在云计算环境中部署云资源的地理位置。至少,所有的谷歌云区域都提供诸如计算引擎、谷歌Kubernetes引擎、云存储、持久磁盘、CloudSQL、虚拟私有云、密钥管理系统、云身份和秘密管理器等服务。其他产品通常在新地区启动后的6个月内推出。谷歌目前落后于其他公共云供应商亚马逊云科技和微软Azure。根据IT市场调查机构Synergy Research Group的数据,亚马逊云科技以34%的全球市场份额领先,其次是微软(21%)和谷歌(10%)。在建设新的数据中心方面,这三家公共云供应商加起来也是最主要的投资支出方。例如,仅在2022年,谷歌就打算在数据中心和美国办公室投资95亿美元。 Trade Me的DevOps/云工程师Simon Merrick在推特上表示欢迎云供应商在新西兰推出服务。 现在来了。@GoogleCloud_ANZ加入@awscloud和@Azure在新西兰开设数据中心。 最后,谷歌云预计到今年年底将在整个亚太地区拥有14个云区域,而亚马逊云科技的云区域只有13个,其中3个计划设在印度、澳大利亚和新西兰。此外,阿里巴巴目前有21个云区域,今年没有宣布新的区域。在亚太地区,甲骨文、微软和IBM预计将分别拥有9个、17个和7个云区域。 原文链接:Google Announces Three New Regions in Asia Pacific
| 2,504 | 1,661,904,000,744 |
InfoQ
|
133 |
亚马逊云科技案例研究:爱为物联
|
“自 2014 年开始搭建云平台起,爱为物联就选择与亚马逊云科技合作,并陆续接入了托管类服务和弹性伸缩类服务,运维管理及人力成本减少了 50%,年均毛利率提升 3% 左右。全球商业运营七年多以来,从未出现过安全性问题。”符莎 爱为物联 VP构筑全球物联网服务平台基石爱为物联是一家以视频技术为核心的,拥有全栈物联网能力的公司。在平台团队成立之初就选择了云服务行业引领者亚马逊云科技进行合作,全力打造追求极致安全的平台和产品。对于 IPC 安防视频类产品来说,完整产品包含硬件与软件两个部分。硬件部分,依托爱为物联在 IPC 安防领域多年的积淀能够为客户提供完善的产品服务。而软件部分,无非自建和上云两个选择,出于性能和成本投入方面的考量,爱为物联毫不犹豫的选择了后者。决定上云后,爱为物联横向对比了全球T OP5 的云厂商,综合评估安全、合规、稳定性、成本等关键因素后,最终选择了亚马逊云科技。在基础能力方面,爱为物联希望获得全球化稳定的、安全的、能够动态伸缩的设备连接、管理、存储服务,为平台接入更多安防类、智能家居类产品提供基础能力。亚马逊云科技提供了由业务子系统、推送子系统、云存储子系统三部分组成的解决方案。业务子系统提供账号管理、权限管理、设备管理等功能,作为民用网络摄像机云服务及后续 IoT 服务的基础系统;推送子系统用于接收用户设备的推送告警音视频,实时向用户 APP 推送告警信息以及管理相关信息;云存储子系统用于接收用户设备的音视频并保存,提供音视频查看及回放。云存储部分,爱为物联最初采用的是自研平台与 Amazon Simple Storage Service (Amazon S3) 对接的方式。2014 年,爱为物联曾研发自有的平台,投入了大量的人力、物力,如果后续继续维护,将投入更大的成本。近年来,爱为物联开始转用 Amazon Kinesis Video Streams 对接。相比来说,采用托管式服务能够很大程度的降低成本。此外,采用 Kinesis Video Streams 能够从端侧数据采集到传输、存储、检索,保证整个数据链链路的安全。在面对设备厂商和品牌商等B端客户时,很多客户要求必须用到亚马逊云科技整套的产品和服务,因为客户认为亚马逊云科技的服务能够在稳定性、安全性与海外合规性方面提供更好的保障。爱为物联 VP 符莎说:“亚马逊云科技服务的设备量、客户量都非常巨大,所以在安全性和稳定性方面肯定比我们更加专业,因此我们信赖亚马逊云科技”基于亚马逊云科技提供的托管式基础服务能力,为爱为物联的 IPC 安防视频类产品提供了完整的 C 端服务能力,为其打造全球物联网服务平台提供基础。在接入亚马逊云科技服务后,系统故障、资源弹性伸缩、数据监控等可用性达 99% 以上,网关延时在 10 毫秒以内。从 2015 年至今,年均复合成本下降 3% 左右。不仅如此,基于Kinesis Video Streams 云存储的业务,还通过向客户提供增值服务的商业模式,为爱为物联带来了可观的营收变现。2022 年下半年,在连接方面,爱为物联还计划接入 Amazon IoT Core,方便 IPC 产品与智能家居设备联动,进一步优化全场景智能家居解决方案。低成本实现数据分析处理,让 AI 触手可及爱为物联与亚马逊云科技的合作最初聚焦于广泛通用的基础服务。但随着技术的迭代升级,客户对产品也有了更加多元化的需求。以视频监控为例,近年来,人工智能在安防市场广泛应用,客户对于视频监控产品的需求不仅限于视频存储和记录,还包括在视频调用时能够快速、准确地确定事件节点和目标对象,在发生安全事件时能够及时预警等。在这样的市场需求下,爱为物联希望获得更强大的云端数据分析处理能力,从而为C端用户提供更多、更实用的增值订阅服务,提升用户的体验度。然而,对于满足客户多元化和升级需求类的服务,爱为物联不得不考虑中短期的成本及效益问题。一方面,终端用户希望体验更好的产品,但是如果大幅提升产品价格势必会降低爱为物联客户体验的满意度;另一方面,如果前期支出全部由爱为物联承担,则会为企业运营带来较大的压力。综合考虑产品功能优化与成本控制方面的问题,亚马逊云科技为其定制了专属的 AI 解决方案。2021 年下半年,爱为物联引入了 Amazon Rekognition 技术,在原有功能的基础上,通过图像识别及分析,实现了快速构建AI应用,帮助进行人脸识别、装备检测、视频图片分析等,助力安防视频监控设备在人工智能的赋能之下快速获取数据信息,为客户提供更专业的泛视频解决方案。但是直接采用 Amazon Rekognition,API 调用次数较高,超出了爱为物联原本的成本预算。基于成本方面的考量,亚马逊云科技团队帮助爱为物联训练了人脸识别模型,然后将这个模型部署到 Amazon SageMaker 集群中,过滤设备产生的误报或漏报图片,再将通过 Amazon SageMaker 过滤后的图片推送到 Amazon Rekognition 进行相应的人脸识别检测,从而减少API的调用次数,优化成本,通过数种方案并行的方式,成本最终降低了 50% 左右。采用 Amazon SageMaker 不仅是出于成本方面的考虑,更多是基于其在用户自定义 AI 场景方面的强大能力。Amazon SageMaker 能够对不同对象打标签,通过服务器端 AI 模型训练,用户可以将数据导入进去,训练出用于具体场景的解决方案。谈及为什么采用亚马逊云科技的 AI 服务,符莎说:“事实上,亚马逊云科技的基础服务和 AI 服务之间是解耦的,也就是说,用户也可以选择其他厂商的 AI 服务。但之所以选择亚马逊云科技的 AI 服务,是看中亚马逊云科技全球AI数据的准确性,尤其在人脸识别方面,识别的准确率远高于其他产品。”引入 Amazon Rekognition、Amazon SageMaker 等 AI 服务后,仅 6 个月时间,超过 1 万客户选用该服务,付费订单数量近 2 万单,爱为物联累计收入数十万美元,目前用户数和服务调用数仍在逐月快速上升。借助 Amazon Rekognition,不需要将原有设备固件升级,就能让原有设备具备AI能力,优化了用户体验,并且加快了产品的推广上线,产品落地上线时间节省了70%左右。云端安全合规,助力企业出海远航作为一家 90% 以上业务都在海外的全球化公司,安全合规对爱为物联来说至关重要。在合规安全方面,世界各个地区都有相应的数据隐私法规。最初,爱为物联与海外咨询机构合作,进行合规梳理及相关的认证工作,然后基于反馈自己再进行一系列整改,周期很长,成本过高,且需要花费大量精力对现有云创产品的合规安全性进行打磨。2018 年 《通用数据保护条例》(GDPR)生效,亚马逊云科技较早地完成自身合规化,基于亚马逊云科技安全合规的基础设施层构建爱为物联自身的 GDPR 合规需求,效率大幅提升。据符莎介绍,在 AI 落地之前,合规安全方面的挑战还不算太大,因为数据隐私法规如欧盟的 GDPR 仅要求欧盟境内的个人隐私数据不出境即可,只要在欧洲市场、美国市场以及国内市场分别建立独立的数据中心即可解决问题。亚马逊云科技本身也提供全球本地化合规部署的基础。但在 AI 落地之后,由于各国对AI数据的开放度不同,所以会出现同一个应用在某些国家合规而在某些国家不合规无法上线的情况,如 AI 人脸识别应用。针对 AI 方面合规性的问题,亚马逊云科技团队与爱为物联进行了多次深入探讨,从方案落地到部署上线,提供了全流程的解决方案和安全建议,爱为物联按照亚马逊云科技团队提供的思路进行落地,最终克服了 AI 人脸识别应用的合规安全挑战,将应用成功上线。在数据安全方面,爱为物联拥有自研的 P2P 解决方案,该方案可以让每个设备具有唯一的 UID 和经过 SSL 算法加密的 KEY,APP 连接设备时同时使用非对称加密和对称加密方式,生成动态密钥,完成设备安全连接以及音视频数据的加密传输。而亚马逊云科技提供威胁检测与事件响应、身份认证与访问控制、网络与基础设施安全、数据保护与隐私、风险管控及合规五层洋葱防护体系,对于爱为物联平台的安全保障起到了层层加护的作用。基于亚马逊云科技安全平台提供的技术服务组件和付费安全组件 Amazon WAF 与爱为物联自研的解决方案相互配合,爱为物联平台上线至今七年多的时间里,全球数百万的设备从未出现过重大安全问题和事故。符莎表示,这也得益于亚马逊云科技服务的稳定性和安全性。未来,爱为物联会继续借助亚马逊云科技的平台优势,结合其提供的产品和服务,构建新一代的 Video SaaS 平台,例如,通过 Amazon FreeRTOS 将 MCU 设备连接到云端;通过在芯片中植入 Kinesis Video Streams 、Amazon FreeRTOS 等构建硬件-平台-应用的完整产品和服务;通过 Amazon IoT Core 让互联设备可以轻松、安全地与云应用程序和其他设备交互等。
| 2,907 | 1,661,756,735,216 |
InfoQ
|
134 |
“要什么DevOps,我们开发者根本不想做运维!”
|
“谁构建、谁运行”的口号让开发者们倍感压力,但另一方面,运维团队的日子也不好过。那么,这场席卷全球的开发与运维融合浪潮会不会黯然退场? 根据外媒记者Scott Carey的观察,众多开发者纷纷表示“苦DevOps久矣”。我们将Carey记录的文章在不改变愿意的基础上进行了编译,以飨读者。本文谨代表作者个人观点,不代表InfoQ立场。面对争议问题,希望大家理智讨论。 “在大多数情况下,开发人员并不想处理运维问题。”亚马逊云科技社区参与负责人、《DevOps for Dummies》作者Emily Freeman在推特上坦言。 一石激起千层浪。Freeman的观点引起了广泛共鸣,几百条抱有同样观点的开发人员纷纷留言回应。 “我就是个开发者,我不想处理运维问题。”快餐公司 Chipotle 软件工程师 Scott Pantall直接表示。 “我确实更喜欢回到只需要掌握特定编程技巧的时候,而不是现在这样成为一个万事通,因为多个责任分散了我太多精力。这两者都是全职工作,而我只能各自投入一半的精力。”开发者Mitchell Abbott 说道。 SUSE 开发人员布道师 Andrew Gracey 认为,开发人员和运维人员应该密切合作,同时各自扮演不同的角色,能够让团队成员相互理解的同理心才是DevOps的真正核心。 “强迫开发者身兼太多任务,最终只会搬起石头砸自己的脚。不同场景对应着不同的技能组合。”Kubernetes存储技术提供商 Ondat 的产品负责人James Brown表示。 “人们慢慢意识到,电工和水管工确实不是同一个职位。”Harness公司专项CTO Nick Durkin说道。 当然,也有开发者人认为,当自己全面负责代码、基础设施和监控时,通常会感到自己很有能力。“这就是全才和专家的区别吧。” 职责“大量”增加 2000年代后期,DevOps与敏捷方法随着云计算的兴起而大行其道。作为将开发与运维合并起来的新理念,DevOps希望打通这两支以往长期孤立的软件构建与部署力量,实现“1+1>2”的积极效应。与此同时,当时的软件工程师也恰好需要缩短用户反馈循环、提升生产环境下的更新推送频率,这也在无形中推进了开发与运维间的融合。 不少组织敏锐把握住了这个机会,将两方面的专家汇聚起来,试图以前所未有的速度解决种种常见问题。但也有一些组织把DevOps解读成了“让开发人员负责运维工作”,并据此描绘出一个白日梦般的超级概念——全栈开发人员。 但开发运维受到很多限制。网友“beall49”表示,“我厌倦了一切东西像是从钥匙孔里获取,它令人筋疲力尽。” 领导:我们希望你做开发运维,但我们不会将所有内容直接给你,您必须绕过防火墙才能获得。哦,是的,我们也不会提供一种标准化的方式来访问某些东西。领导:为什么要花这么长时间?我:这不是真正的开发操作。领导:别那么消极。 “有时,你会得到一台被公司严格锁定的开发机器(硬件加速设置已关闭并且没有密码无法使用,严格的操作系统安全策略禁止你从公司存储库以外的任何地方安装软件等),你不能甚至使用虚拟化,使用这台机器就是你进入公司网络的方式。”开发者“FloRup”补充道。 同时,随着企业软件开发者的总体规模达到历史新高,大家对运维侧的关注度却始终不高。更可怕的是,随着软件开发的增长,运维工作量实际上也始终在同步攀升。 正如DevOps工程师、前系统管理员Mathew Duggan去年的观点,虽然运维人员继续承担着之前的所有职责,确保应用程序可用、受控、安全和合规,但现在他们还得负责构建和维护软件交付管道,确保开发人员在无需运维介入的情况下,快速安全地发布代码。 要干的活越来越重、要上的再培训课程越来越多,特别是云工程和基础设施即代码技能,几乎成为当前运维从业者们的必修课。 “在我看来,情况已经恶化到了历史极点。运维团队的职责范围大幅增加,但管理层还是对速度提出不切实际的要求,整个体系已然不堪重负。”Duggan写道。 事实上,压力带来的恶果正开始显现。 戴尔技术资本董事总经理Tyler Jewell在一份研究报告中提到,“要想建立一支能够长期、和谐保持这种稳定迭代水平的团队,其实是个巨大的挑战。随着系统复杂度的提升和最终用户反馈的增加,人们已经很难准确预测某项变更可能给系统造成的影响。” “人人都能成为专家”谬论 当然,情况可能并没Duggan等人描绘的那么糟糕,但对工程团队及其职责做出重大调整确实非常必要。 “转型的目的不是要给开发人员增加负担,而是在正确的时间为开发者提供正确的信息。”Harness公司的Durkin 表示,“开发者最需要的不是额外的配置任务,而是在正确的时间能从系统中快速获取必要信息,这样就能支持运维、安全和基础设施团队的正常工作。除非出现问题,否则运维元素就不应该出现在开发者的视野当中。” 迪士尼公司前企业技术战略总监Nigel Simpson也希望公司能认识到这个问题,并努力让开发人员摆脱对底层基础设施的担忧,重新回到自己最擅长的软件构建上来。 更重要的是,DevOps代表一个连续的统一体,其具体实施会因组织而异。现在的开发者能做一点运维,并不代表他们就该每天都承担运维压力。 Gartner 公司分析师Lydia Leong认为,开发人员对基础设施的控制,并不是“要么全做、要么彻底不做”的命题。企业可以把这部分职责划分到整个应用程序生命周期当中,只有这样“谁构建、谁运行”才能发挥积极作用,而不是把开发者空降到一个他们既不熟悉、也难以驾驭的陌生环境。 粗暴把基础设施和运维团队的问题抛给开发者,不会带来任何好处。 Leong表示,更好的办法应该是放手让开发人员自行访问开发和测试环境,并为他们赋予将基础设施构建为生产代码模板的能力。这才是重点,而不是让他们全面负责生产。 在云计算领域,Kubernetes 容器编排正在成为开发与运维之间的边界。关注这条边界,就能让开发者集中于自己的代码,并让运维人员确保底层基础设施和管理的运行与优化。“但这种独立是以沟通和理解作为基础的,并不是以往那种孤岛式的各自为战。”Ondat公司 Brown 说道。 事实上,根据VMware公司发布的《2022年Kubernetes现状》报告,776名受访者中,54%的人采用Kubertnetes的关键原因就是要提高开发者效率,另有超过三分之一(37%)的受访者称是为了提高运维人员的效率。 “千万别相信那种‘人人都能成为专家’的谬论。在高效团队中,其实很少会有所谓专门的Kubernetes专家。这些团队只是通过极高的抽象度着力缓和了每位成员的认知负担。”Humanitec公司创始人Kaspar von Grunberg表示。 DevOps已死 如果 DevOps 的时代真的走到了尽头,或者至少走过了辉煌时期、来到新的转折点,那接下来事情将如何发展呢? 站点可靠性工程(SRE)诞生自谷歌内部,当时搜索巨头遭遇到了DevOps希望解决的成长阵痛。现在来看,这个职位确实能有效平衡开发与运维间的矛盾。谷歌工程副总裁、SRE之父Ben Treynor曾经坦言,“从本质上讲,如果要求软件工程师设计一项运维功能,那结果就是SRE。” 以 Vanguard 和摩根士丹利两家大型金融机构为例,他们在向着云原生实践过渡时,就发现越来越难以平衡开发和运维两端的职责。而 SRE 就像是缓冲层,把它铺在集中运维团队和各开发者团队之间,就能帮助各方建立信心,感受到既保持良好开发速度、又获得稳定运营状态的可能性。 有开发者现身说法道,“我们有 SRE,他们为我们构建了很好的工具并维护应用程序的基础设施。我们仍然自己做几乎所有的日常部署和运维工作,但是 SRE / 基础设施团队已经做得很好了,我们只需要担心会发生什么而不必担心要如何做。” 然而,SRE也受到过不少批评。摩根士丹利的DevOps和企业技术架构负责人Trevor Brosnan就提到,建立SRE原则“有时会被误读为要对运维团队进行大洗牌。” “这是个需要解决的微妙问题。引入SRE确实会让人有种正在再次剥离运维团队的感觉。”但事实并非如此,Vanguard 站点可靠性工程师 Christina Yakomin 就一直在鼓励公司的开发者和运维人员分担安全责任,并把运营需求整体交由共享平台团队承担。 平台工程才是未来? 如今,不少企业开始尝试建立内部开发者平台或者平台工程部门,这样既能给开发人员提供必要工具,也能通过适当的组织护栏隔开其他事务对开发和运维造成的影响。 内部开发者平台往往由大量API、工具、服务、知识和支持所构成,目的是为开发人员提供代码生产部署所必需的一切助力。至于平台本身,则由公司专门的专家团队或所有者负责维护。 软件工程师兼 DevOps 评论员 Sid Palas 在推特上写道,“DevOps已死,平台工程才是未来。开发者不想跟基础设施打交道,企业在发展过程中又需要控制自己的基础设施。只有平台工程,能将这两个相互矛盾的命题统一起来。” “平台工程部门的实际表现确实不错,能够在消除开发流程摩擦的同时,赋予开发者充分的灵活性。”软件咨询公司Thoughtworks的技术主管Brandon Byars表示,“一旦把这些工作硬塞给缺乏专业知识和工具支持的开发者,情况就会迅速恶化。” 因此面对新的历史阶段,要想在工程团队中贯彻DevOps原则,组织首先需要了解怎样在软件开发与运维团队间寻求平衡。正是因为这一微妙平衡点的存在,才让云原生时代的系统复杂性越来越高。 原文链接: https://www.infoworld.com/article/3669477/devs-don-t-want-to-do-ops.html
| 12,140 | 1,661,410,495,807 |
InfoQ
|
135 |
云原生发展近10年 ,SUSE 观察到了什么?
|
如今数字化转型成为企业发展刚需,越来越多的企业选择应用云原生技术作为数字化转型方案。据 Gartner 预测,到 2025 年,云原生平台将在超过 95% 的新数字计划中作为基础,而 2021 年只有不到 40%。2013 年,Pivotal 公司的技术经理 Matt Stine 首次提出了云原生概念,如今已经过去近 10 年。十年间,云原生技术迅猛发展,云计算的能力从中心向边缘延伸。然而在这个过程中,企业日益发展的业务需求也为底层操作系统调优、系统架构、容器技术演进、云原生安全等提出了新要求。面对“席卷而来”的云原生技术潮流与新挑战,像 SUSE 这样的老牌技术厂商也提出了自己的应对之策,而我们也在近日举办的“SUSECON 北京 2022 暨 SUSE 30 周年庆典”中了解到了 SUSE 这么多年来为云原生技术发展做出的努力。一、云原生技术创新离不开 Linux近些年来,随着企业数字化转型的推进,云计算受到广泛重视。除了互联网等新兴产业,金融、制造业、电力 / 风能基础建设、汽车等传统行业也都纷纷迁移上云。究其原因,是云原生的敏捷、可靠、高弹性、易扩展以及持续更新的特性让开发更便捷,正如 CNCF 中国区总监、Linux Foundation 亚太区战略总监陈泽辉在 SUSECON 北京 2022 中提到的那样:云原生可以提高资源效率,用更少的服务器运行同样数量的服务,同样的服务器运行更多的服务;云原生基础设施建设可以提高整个开发速度,同时还能降低风险;Kubernetes 打通了所有云厂家的资源,使用户可以利用不同云厂商的基础建设无缝地运行应用;云原生架构使“更快部署”成为可能,几个月的部署时间可以减少到几分钟。然而,在云原生技术趋势的影响下,企业对于开源、开放的迫切期望及对“敏捷”的需要,使其无论是构建应用基础架构还是实施多云战略,都处在一个非常复杂多变的底层环境中。面对复杂环境的要求,开源、具有开放性、多用户、多任务、提供丰富网络功能、拥有良好用户界面及可靠的安全系统、具备设备独立性和良好可移植性的 Linux 生态,成为众多企业的优先选择。据相关数据表示,目前国内有超过 95% 的企业使用 Linux 作为底层操作系统。同时,全球 500 强超级计算机几乎都使用 Linux 操作系统。正如一位技术专家在 SUSECON 北京 2022 Linux 分论坛中所说的:“如今许多企业采用多种底层操作系统及虚拟机、容器并存的混合算力,不管结构多复杂,技术的演进都是围绕着 Linux 生态进行的,无论结构如何变化,Linux 作为技术底座,一直在默默地支撑着上层的各项技术。”为此,在全球企业级 Linux 领域有着深厚的技术积淀和实践经验的 SUSE 推出了不少解决方案,比如 SUSE Linux Enterprise 产品系列提供了稳定、安全且良好支持的 Linux 操作系统,专为 SAP S/4HANA 等关键型业务应用和其他各种业务应用而设计。其中 SUSE Linux Enterprise for SAP Applications 是在物理、虚拟、私有或公共云环境中运行 SAP 的首选 Linux 平台,可以降低服务中断的风险,通过维护自动化促进创新,并可在本地和云中更快地部署新服务。SUSE 与 SAP 在过去二十余年的合作中,正是以该产品作为利器持续联合创新,共同帮助客户更快速、更高效地部署 SAP 解决方案,SUSE 将 SAP HANA 数据库系统的可用性提升至 99.995%,70% 部署在 Linux 上的 SAP 应用使用 SUSE Linux。不仅如此,SUSE 还帮助 SAP 夺得了发展先机,目前有 30,000+ SAP 客户正在使用 SUSE,SUSE 占有 SAP HANA 90% 的市场份额,创造了无限商业价值。除此之外,SUSE 一直是亚马逊云科技 Linux 解决方案创新的推动者,是亚马逊合作伙伴网络(APN)的高级技术合作伙伴。SUSE 和亚马逊云科技共同见证了,包括 Phillips 66、Pacific Drilling 在内的成千上万的共同客户及 Wipro 和 Lemongrass 等联合合作伙伴的成功。他们在使用各种亚马逊云科技服务的同时,还在应用 SUSE 开源技术以节省成本,更高效地实现业务发展。值得关注的是,2020 年 12 月,SUSE 完成了对开源企业级 Kubernetes 管理平台供应商 Rancher Labs 的收购,通过混合云 IT 基础架构、云原生转型和 IT 运维解决方案加速企业数字化转型,以此实现了云原生领域布局。二、容器是云原生架构创新的基石沙利文最近新出炉的《中国云原生市场研究报告—容器》显示,容器技术与云原生的发展是相辅相成的,两者的发展历程呈现出互相促进的双螺旋结构,容器与新兴技术架构融合升级并拓宽下游应用场景。容器降低了部署架构各环节的耦合程度,使应用不受环境限制地在不同计算环境间快速、可靠地运行,具有底层资源占用少、可移植性高、敏捷度高、弹性高的优势,是释放云原生价值的关键基础。容器凭借业务价值和技术价值满足了不同行业企业的多层面需求, 容器市场迎来了高速创新与增长。据 IDC 最新发布的《软件定义计算软件市场半年跟踪报告》预测,在数据中心现代化、企业基础架构云化以及云原生应用普及化的趋势下,2023 年容器市场规模将达到 20.3 亿美元。然而,随着企业的容器、Kubernetes 应用大规模使用和落地,如何持续提升 Kubernetes 集群的整体稳定性、解决容器安全问题成为了目前领域内的核心挑战。具有高复杂性的 Kubernetes 集群,在应用、基础设施、部署中的任何一个环节出现 bug 都有可能导致业务系统出现故障。当这样的市场需求迸发后,Kubernetes 企业容器管理市场进入了高速增长阶段,这也为 SUSE 提供了重要的增长机会。针对 Kubernetes 企业容器管理,SUSE 拥有 SUSE Rancher 产品系列,使客户能够跨所有设备和任何环境运行标准化云原生应用。通过提供业界知名的 Kubernetes 管理平台,SUSE Rancher 有能力持续成为市场上应用最广泛的容器管理产品,并以两位数的速度持续增长。去年 10 月,SUSE 又完成了对 NeuVector 的收购。今年 1 月,NeuVector 开源,成为了业界首个端到端的开源容器安全平台、唯一为容器化工作负载提供企业级零信任安全的解决方案,可以为企业提供实时深入的容器网络可视化、东西向容器网络监控、主动隔离和保护、容器主机安全以及容器内部安全,能够与容器管理平台无缝集成并且实现应用级容器安全的自动化,适用于各种云环境、跨云或者本地部署等容器生产环境。目前 NeuVector 已成为 SUSE Rancher v2.6.5 的一部分,用户可通过 SUSE Rancher 控制台来管理 NeuVector,从而简化了其对遍布全球的大规模 Kubernetes 环境的安全管理,尽享完全零信任堆栈的优势。NeuVector 的开源,也标志着 SUSE 顺利完成了安全领域布局。今年 6 月,SUSE 还发布了面向基础设施安全的全方位解决方案。值得一提的是,去年 SUSE 通过 Kubernetes 构建的超融合基础架构(HCI)开源软件 Harvester 正式 GA。该产品是 SUSE 强大容器管理背景的自然延伸,Harvester 建立在包括 Kubernetes、Longhorn 和 Kubevirt 在内的云原生解决方案基础上,它被设计为企业级开箱即用的解决方案,像传统虚拟化软件一样易于安装、理解和操作。而且 Harvester 是一个 100% 免费的开源超融合基础设施解决方案,它采用开放、可互操作的方式来处理超融合基础设施,解决了企业多集群管理、团队和租户隔离、由虚拟化和容器化工作负载构成的现代环境的资源管理等难题。Harvester 供客户和开源社区使用,这也意味着 SUSE 的产品阵容已扩展到了超融合基础设施领域。三、从中心走到边缘,开启云原生新篇章今年 5 月,CNCF 开展的 Kubernetes Edge Day 的研报也给出了预测,到 2025 年边缘计算的规模会比如今的云计算大 4 倍,全球 75% 的数据将来自于边缘计算。基于此预测,SUSE 认为“边缘计算是计算业务的新形态”。“计算”这件事经历了传统的大型计算机时代、C/S 架构的小型计算机时代,紧接着到了包括公有云、私有云、混合云的云计算时代。云计算高速发展了 20 年,中心云成为了普适性基础设施。然而随着 IOT、AI 等技术的不断发展,中心云计算开始“相形见绌”,分散式边缘计算被推向舞台,我们正式进入了边缘计算时代。边缘计算正迅速成为企业以客户为中心的数字化转型战略的关键支柱。根据 MarketsandMarkets 和 Gartner 等知名机构的数据预计,2022 年全球边缘云市场高达 428 亿美元。根据艾瑞咨询的《中国边缘云计算行业展望报告(2021 年)》的数据预计,到 2025 年,中国整体边缘云规模将以 44.0% 的年复合增长率增长至 550 亿元,到 2030 年,中国边缘云计算市场规模将达到接近 2500 亿元。面对高速增长的边缘市场需求,SUSE 在产品打磨和解决方案方面做出了许多努力。SUSE 使 IT 运维在边缘端成为可能。根据边缘计算的属性、位置和承载计算的方式,SUSE 将其分为了三类:NEAR Edge,靠近数据中心或者在数据中心;FAR Edge,主要是商超、银行分支机构或医院分支机构等应用场景;TINY Edge,主要是摄像头、感应设备、温度计等应用场景。针对以上场景,SUSE 提供了任务关键边缘计算解决方案,使用简单、可靠,具备高安全性和合规性。基于 Linux 和 Kubernetes 容器构建的边缘解决方案 SUSE Edge,可以助力客户业务应用尽可能靠近其所在的位置运行,从而实现真正的大规模创新。SUSE Edge 解决方案正在帮助企业扩大创新的边界,包括医疗设备、5G 设备、汽车、飞机、工厂、游轮、零售店,甚至卫星。通过 SUSE Edge,企业可以使用 SUSE 的 Linux 操作系统和 Kubernetes 解决方案大规模构建、部署和管理云本地应用程序。四、开源让云原生技术历久弥新所有技术的演进及创新都离不开开源,云原生技术当然也不例外。曾任 Github India 的总经理 Maneesh Sharma 明确表示,“开源是创新的推动者,使组织能够快速获得全球人才库和开发安全、可靠和可扩展的软件的工具。”从 IT 发展的进程来看,开源为全球数字经济带来的影响不言而喻。我国开源虽然起步较晚,却正在形成燎原之势。尤其是在 2021 年,“开源”首次被写入到国家《十四五规划》之中,中国已成为全球开源生态的重要贡献力量,参与国际开源社区协作的开发者数量排名全球第二。中国信息通信研究院云计算与大数据研究所所长何宝宏在 SUSECON 北京 2022 上表示,“开源是数字时代重要的发展方向,我国拥有全球最大的开发者群体和制造业体系,数字技术应用场景非常丰富,开源所连接的创新链、产业链、价值链范围之广、规模之大是无可比拟的。我们能预见到的是,在未来,开源生态的发展将在推动技术创新、促进产业协作、加快各行业数字化进程方面日益明显。”“开源”也是 SUSE 30 年发展的关键词。作为全球最大的独立开源企业,SUSE 始终致力于为用户提供具备“开放的互操作性”的数字化解决方案。在全球,SUSE 服务 100000+ 客户;在中国,SUSE 为 1000+ 企业的关键应用奠定了坚实基础。2021 年 7 月,SUSE 加入欧拉开源社区,成为首家支持欧拉开源社区的国外企业。SUSE 秉承着“Go China, Go Global”的理念,对内参与 Linux 操作系统国内大循环,发布基于 openEuler 的商业发行版 SUSE Euler Linux,加大本土研发和技术支持;对外推动 Linux 操作系统国内国际双循环,凭借 SUSE 在全球企业级 Linux 领域的领导地位,推动 openEuler 的软硬件国际厂家生态建设,携手欧拉操作系统走向世界。可以说,无论是从国际视角还是国内视角,SUSE 在推动开源发展方面做了很多努力。从 1994 年发布第一个 Linux 发行版,到向大型主机成功导入 Linux,到后来成为 X86 服务器上的主流操作系统,再到如今的 Kubernetes、Cloud Foundry、开源容器、软件定义存储等,SUSE 的产品边界不断拓展,这些技术成果大多受益于开源。正如 SUSE 大中华区董事长江永清在 SUSECON 北京 2022 上发表的主题演讲《开源创新 开放生态 开创未来》中提到的,“在蓬勃发展的 30 年里,'开源'一直是 SUSE 的精神内核,在公司发展的众多历史性时刻,SUSE 始终专注于开源并持续投入。"SUSE 的开源发展史给了我们许多启发,值得我们所有云厂商和正在数字化转型的企业去思考。
| 5,941 | 1,661,319,986,331 |
InfoQ
|
136 |
亚马逊云科技宣布Lambda分级定价
|
最近,亚马逊云科技宣布了Lambda分级定价。Lambda是一种无服务器、事件驱动的计算服务,开发者可以在无需配置或管理服务器的情况下运行任意应用程序或后端服务代码。分级定价可以减少在Lambda上运行大型工作负载的月成本。 在2020年早些时候,亚马逊云科技宣布将Lambda加入到俭省计划中,随后,在re:Invent大会上也将账单粒度降低到1毫秒。此外,在2021年9月,亚马逊云科技发布Graviton2,支持在ARM上运行函数,并对计算资源的价格做了改进。 新的月度Lambda函数(使用量单位为GB-秒)分级定价为客户提供了两个额外的定价级别,针对阅读按需函数使用总和进行折扣。在x86和Arm(由AWS Graviton提供支持)上运行的函数可以获得20%的折扣。 来源: https://aws.amazon.com/blogs/compute/introducing-tiered-pricing-for-aws-lambda/ 亚马逊云科技Serverless Hero Yan Cui在推特上写道: Lambda领域的新举措:分级定价。已经等了很久了。如果你大规模运行Lambda,这就非常有用。例如,6B GB-秒 = 对256MB函数进行120B调用(平均持续时间为200毫秒)。但是,大多数人都达不到折扣标准。 在亚马逊云科技的一篇关于AWS Lambda定价分级的文章中,首席无服务器解决方案架构师Heeki Park提供了一个例子: 在进行分级定价时,计算持续时间部分低于6B GB-秒就没有任何额外的价格折扣。 其他公共云供应商(如微软和谷歌)提供基于消费(无服务器)的函数。客户可以获得Azure函数40000 GB-秒的免费使用权,而谷歌云函数提供了一个免费层,除了200万次调用之外,还提供了400000 GB-秒、200000 GHz-秒的计算时间和每月5GB的互联网出口流量。在节省成本方面,Azure函数和谷歌云函数不像AWS Lambda那样提供分级定价。 Contrast Security首席产品官Steve Wilson告诉InfoQ: 我相信,亚马逊云科技的这一定价变化表明,客户比以往任何时候都更喜欢使用Lambda——随着定价策略的改进,这一趋势将更加明显。在Contrast Security,我们看到开始关注如何保护基于Lambda的工作负载,这说明Lambda已经成为关键任务应用的主流。 此外,用户rmbyrro在Hacker News关于AWS Lambda分级定价的帖子中表示: 这将有助于Lambda的采用。无服务器(财务方面)的要点是用可变成本交换固定成本。 然而,另一位用户arinlen反驳说: 我不确定AWS Lambda是不是这样。它的主要用途是作为AWS服务之间的粘合代码,因此它的免费层有很大的空间。我确信供应商锁定比传统的云计算卖点在其中扮演了更重要的角色。 最后,Lambda定价页面列出了所有区域和架构的定价。 原文链接:AWS Announced Tiered Pricing for Its Serverless Offering Lambda
| 2,437 | 1,661,302,732,671 |
InfoQ
|
137 |
端云协同:怎样才能将“云计算的优势”发挥到极致?
|
过去,在硬件成本逐渐降低、通信带宽及计算能力提升、传感器感知能力不断演进的大背景下,传统计算的处理方式是,将任务聚合到大型机上集中处理,之后再分散到用户终端设备进行处理,最后将大部分计算任务重新返回至云计算中心做处理。现在,在“云服务、大数据、人工智能、5G”等技术不断演进的浪潮下,各种智能应用进入高速发展阶段。本地计算需求呈现指数级增长,将计算任务和数据全部交给集中式的云来处理并不现实,这种处理方式严重依赖网络环境,风险大大提高。于是,既能充分发挥云计算优势、又能调动端计算敏捷性的“端云协同”成为了合理且如今常用的解决方案。再加上,企业数字化转型进入全面融合期,端侧越来越智能、云侧与端侧的互动越来越密切,端云协同成为了众多开发者竞相研究的技术方向。为了赋能开发者在“端云协同”技术领域的能力成长,OPPO 将于 2022 年 9 月 17 日在南京金茂威斯汀大酒店为全球开发者提供一个开放、健康的技术交流平台——OGeek 技术峰会。本届 OGeek 技术峰会将以“云无界、端无边”为主题,与各位开发者一起探讨音视频、云渲染、AIoT、一站式应用开发等热门技术的演进方向,共建端云协同生态。值得一提的是,“OGeek Day”是由 OPPO 数智工程系统主办的行业技术沙龙品牌,旨在为技术爱好者搭建一个技术交流和分享的开放平台。沙龙主要围绕“科技为人、以善天下”的技术理念,聚焦于为智能终端提供安全高效的数据、算力、算法、云服务方面的前沿技术,打造技术互动的行业生态,探索技术在行业应用的实践、突破及未来发展方向。本届 OGeek 技术峰会将突破以往“沙龙”的局限,扩大了交流范围与场地,峰会议程上设计了“1 个主会场 +3 个分会场”,从上午 9 点到下午 17 点,所有到场的开发者都将体会到极致技术交流的爽感。9 月 17 日上午,阿里云媒体与融合通信事业部副总经理郝冲、亚马逊云科技首席解决方案架构师费良宏、OPPO 云计算中心总经理鲍永成三位端云协同领域的技术大牛将在主会场与大家见面,与各位开发者一起明确“端云协同”背景下多领域发展痛点、复盘行业技术演进过程、前瞻技术发展方向。端云一体化,视听新体验数字经济席卷各个行业,编解码、RTC 等音视频技术和云渲染技术在短视频、游戏、数字孪生、VR/AR 等新型领域得到广泛应用。像直播、云游戏、实时数字孪生这些新兴业务场景,目前正在不断与金融、医疗、工业等行业进行深度融合。可以说,音视频和云渲染间接助推了传统企业的数字化转型。在当下开发者们都在讨论的“音视频 +”这个热门概念中,“RTC+5G”给各种业务场景下的移动体验带来了更丰富的视觉感受和想象空间。而云渲染技术,其实就是把之前在本地设备上完成的渲染工作转移到云端进行,将计算完成的音视频流压缩后再传输至用户终端。此时,终端设备通过解码显示渲染结果,同时将新的操作指令返回到云上,从而完成“云渲染”。在一般的业务场景中,为了将产品性能调教到最优,云渲染与音视频往往都是要一起考虑的。像泛娱乐社交类短视频应用,几乎每一个功能都离不开音视频、云渲染技术。本届 OGeek 技术峰会的“端云一体化,视听新体验”分会场,将与各位开发者一起讨论 RTC、云渲染及电商短视频场景下的技术发展。AIoT,智联生活新未来随着 5G、人工智能、传感器等技术的演进,世界正在实现万物互融。如今,经济发展、城市运行乃至个人生活都在向“数字化、智能化”方向演进,现实世界与虚拟的数字世界正在逐步实现深度链接。从市场规模层面来看,以家居、穿戴设备、汽车为代表的消费驱动,与以智慧城市为代表的政策驱动,使 AIoT 产业在近年来保持高速增长。根据 IDC 的数据,2019 年全球 AIoT 市场规模达到 2264 亿美元,预计 2022 年将达到 4820 亿美元,2019-2022 年复合增长率为 28.65%。“AIoT”即“AI+IoT”,人工智能技术与物联网技术的融合。如今越来越多的企业将 AI 与 IoT 结合到一起,将 AIoT 列为其主要发展方向,这已然成为物联网发展的趋势。AI 与 IoT 两种强大技术的结合增加了应用的敏捷性和灵活性,IoT 自身的设备信息通过 AI(如添加机器学习算法)的调教,可以学习用户行为、构建用户画像、帮助用户快速做出决策,这也是 AIoT 最大的优势,让“人工智能”走向“应用智能”。本届 OGeek 技术峰会的“AIoT,智联生活新未来”分会场,各位开发者将基于端云协同的实践案例共同讨论 AIoT 在各场景下的技术发展。重新定义“一站式”应用开发当前数字化转型的形势下,软件行业面临着巨大的市场机遇,而软件系统复杂度不断增加,跨地域高效协作、多环境部署等问题也逐渐突出。不仅如此,如今许多软件厂商还面临着 APP 软件开发成本增长、客户需求多变的现实问题,这让“一站式”应用开发平台技术进入飞速发展的快车道。对于企业来讲,使用应用开发平台的目的,无非就是提升移动研发效能,或者是类 DevOps 提高协作效率。但在具体实践中,不同的企业、业务线和产品之间的需求都存在着巨大差异,很多开发者称,“很难有一个平台或工具能适配所有场景、解决所有问题。”现实真的如此骨感吗?什么样的应用开发平台平台才能算的上是“一站式”?目前市面上已经有的“一站式”应用开发平台都发展的如何了?到底有没有真正地解决开发者的痛点?真的没有一款完美的应用开发平台吗?“一站式”应用平台技术在未来将有怎样的演进?这些问题,开发者们都将在 OGeek 技术峰会的“重新定义“一站式”应用开发”分会场中得到答案。如果你对以上话题感兴趣,请识别下方二维码报名参加“云无界、端无边”OGeek 技术峰会吧!2022 年 9 月 17 日,我们在南京金茂威斯汀大酒店不见不散!
| 11,242 | 1,661,218,971,842 |
InfoQ
|
138 |
递归无服务器函数是云端最大的计费风险?
|
最近,谷歌云内容主管Forrest Brazeal表示,对于开发者来说,无服务器函数是云端最大的计费风险,因为我们没有简单的方法来防止递归调用,而且它们几乎可以无限地在所有的云提供商中扩散。 Brazeal提到了云开发者撰写的一些文章,这些文章描述了那些导致无服务器函数“失控”和巨额账单的错误。其中,Cloudsoft工程副总裁Aled Sage报告了亚马逊云科技的一个Lambda巨额账单的例子,Tom Wright描述了发生在Azure上一个可怕的无服务器事故,Milkie Way创始人Sudeep Chauhan解释了他如何在谷歌云上测试Firebase和Cloud Run花费了72000美元。Brazeal警告说: 这一切发生得太快了。它就像是云灾难的山洪暴发。这不只是忘记了一个GPU实例,导致每小时多花费几美元的成本,而是你睡觉之前的账单是5没有,等你一觉醒来变成了5万美元——这一切都发生在你的预算有机会发出警报之前。 在讨论谷歌云、亚马逊云科技和Azure的具体限制和保护措施时,作者认为它们没有提供安全的方法来防范风险,因为这些供应商都还没有完全保护开发者的机制。Brazeal补充说: 要保护自己不在一些资源(如VM)上花太多的钱是很容易的,但现在还没有什么好的方法来保证你不会被来自函数的意外账单惊到…… 亚马逊云科技有一个页面专门介绍了导致Lambda函数计费问题的递归反模式,并承认: 大多数编程语言都存在无限循环的可能性,而这种反模式在无服务器应用程序中会消耗更多的资源。 对函数进行并发性限制可能会有所帮助,但这会给开发人员造成一种错误的安全感假象:它可以在递归分叉式场景(无限的函数扩展)中提供保护,但不能避免几个小时内的大笔费用,例如使用相同的S3桶作为函数的源和目标。Qube Cinema技术架构师Sudhir Jonathan去年报道过这样的案例。亚马逊云科技首席开发者James Beswick写了一篇关于如何使用Amazon S3和AWS Lambda避免递归调用的文章,他解释说: 如果意外触发递归调用,可以按下Lambda控制台上的“Throttle”按钮将函数并发性降至零并中断递归循环。 正如云顾问、亚马逊云科技无服务器英雄(Serverless Hero)Yan Cui最近所说的那样,虽然有很多可能的优化措施来节省使用Lambda的成本,但并没有提供自动断路器。在云供应商可能引入的缓解措施中,Brazeal建议采用近实时计费方式,对云计费设置上限,并更好地自动化异常检测和递归工作负载修复。 The Duckbill Group云经济学家Corey Quinn在他的新闻稿中评论道: 事实上,甲骨文“对免费层非常认真,除非用户确定要升级,否则不会让用户增加费用。”这是他们平台最棒的地方之一。 去年,时任A Cloud Guru内容和社区总监的Brazeal强调了亚马逊云科技缺少沙盒账户和硬收费限制。 原文链接:Are Recursive Serverless Functions the Biggest Billing Risk on the Cloud?
| 6,648 | 1,660,871,358,201 |
InfoQ
|
139 |
InfoQ 2022年趋势报告:人工智能、机器学习和数据工程篇
|
本文是对2022年AI、ML和数据工程InfoQ趋势报告播客的总结,涉及AI、ML和数据工程领域的关键趋势和技术。 在这份年度报告中,InfoQ的编辑们讨论了AI、ML和数据工程的现状,以及软件工程师、架构师或数据科学家应该关注的新趋势。我们将讨论整理成技术采用曲线,并附带了评论,帮助读者了解这些领域技术的发展状况。 在今年的播客中,InfoQ的编辑团队加入了一位外部小组成员Einat Orr博士,他是开源项目LakeFS的联合创始人,也是Treeverse的联合创始人兼CEO,他在最近举行的伦敦QCon大会上发表了演讲。 下面的内容总结了其中的一些趋势,以及不同的技术在技术采用曲线中的位置。自然语言理解和自然语言生成的崛起 我们认为自然语言理解(NLU)和自然语言生成(NLG)技术应该处于早期采用者阶段。InfoQ团队已经报道了该领域的最新进展,包括百度基于信息实体的增强语言表示(ERNIE)、Meta AI的SIDE,以及特拉维夫大学的长语言序列标准化比较(SCROLLS)。 我们还报道了几个与NLP相关的开发成果,如谷歌研究团队的Pathways Language Model(PaLM)、EleutherAI的GPT-NeoX-20B、Meta的Anticipative Video Transformer(AVT),以及BigScience Research Workshop的T0系列NLP模型。 深度学习进入早期大众阶段 去年,随着越来越多的公司使用深度学习算法,我们将深度学习从创新者阶段移到了早期采用者阶段。自去年以来,深度学习解决方案和技术已经被广泛应用在企业中,因此我们正在将其从早期采用者阶段移到早期大众阶段。 已经有一些关于这个主题的播客(无代码深度学习和可视化编程)、文章(基于机构增量学习的深度学习系统、松散耦合的深度学习服务、使用Apache Spark和NVIDIA GPU加速深度学习)和新闻(BigScience的大型开放科学开放访问多语言模型、谷歌AI的深度学习语言模型Minerva、OpenAI的开源框架Video PreTraining)。视觉语言模型 与图像处理相关的AI模型发展还包括DeepMind的Flamingo,这是一种80B参数的视觉语言模型(VLM),结合了单独预训练的视觉和语言模型,可以回答用户用通过图像和视频提出的问题。 谷歌的Brain团队发布了Imagen,一个文本到图像的AI模型,可以根据文本描述生成逼真的场景图像。 另一个有趣的技术,数字助理,现在也进入到早期大众阶段。流式数据分析:物联网和实时数据摄取 流式架构和流式数据分析已经被越来越多的公司采用,特别是在物联网和其他的实时数据摄取和处理场景中。 Sid Anand关于构建高保真数据流的演讲和Ricardo Ferreira关于通过从批处理过渡到流式处理从动态数据中获取价值的演讲都是流式处理已成为战略数据架构必备要素的绝佳例子。此外,Chris Riccomini在他的文章“数据工程的未来”中讨论了流式处理在整个数据工程中所扮演的重要角色。 Chip Huyen在去年的QCon Plus在线大会上发表了关于实时机器学习流式基础设施的演讲,强调了实时机器学习流式基础设施的优势、实时机器学习的好处以及实现实时机器学习所面临的挑战。 作为对这一趋势的反映,流式数据分析和技术,如Spark Streaming已经进入了晚期大众阶段。数据湖即服务(Data Lake as a Service)也是如此,在去年获得了进一步的采用(如Snowflake)。AI/ML基础设施:规模化构建 高度可伸缩、弹性、分布式、安全、高性能的基础设施可以成就或破坏企业的AI/ML战略。没有良好的基础设施作为基础,任何AI/ML计划都不可能长期取得成功。 在今年的GTC大会上,NVIDIA发布了用于AI计算的下一代处理器H100 GPU和Grace CPU Superchip。 资源协调器(如YARN)和容器编排技术(如Kubernetes)现在都处于晚期大众阶段。Kubernetes已经成为云平台事实上的标准,在将应用程序部署到云端方面,多云计算受到了越来越多的关注。Kubernetes等技术可以实现AI/ML数据管道整个生命周期的自动化,包括模型的生产部署和后期支持。 在创新者阶段也有一些新进入者,包括云不可知AI计算、知识图、AI结对编程(如Github Copilot)和合成数据生成。 知识图继续在企业数据管理领域占有一席之地,它为不同的场景(包括数据治理)提供了实际的应用。基于ML的编码助手:GitHub Copilot 去年发布的GitHub Copilot现在已经准备就绪。Copilot是一个基于AI的服务,通过分析现有代码和注释帮助开发人员编写新代码。它会为开发人员生成基本函数,开发人员不需要从头编写这些函数,从而提升了开发人员的工作效率。除了Copilot,未来也会出现更多的解决方案,它们提供了基于AI的结对编程,并自动化软件开发生命周期中的大部分步骤。 Nikita Povarov在“面向开发者的 AI:是未来还是现实”一文中谈到了AI开发工具的作用。AI开发者试图使用算法来增强程序员的工作,让他们变得更有效率。在软件开发当中,我们可以清楚地看到AI既执行人工任务,又提升了程序员的工作效率。合成数据生成:保护用户隐私 在数据工程方面,自去年以来,合成数据生成是另一个获得大量关注和兴趣的领域。合成数据生成工具可用于生成安全的合成业务数据,有助于保护用户隐私。 亚马逊云科技推出了SageMaker Ground Truth等技术,用户现在可以使用这些技术创建有标签的合成数据。Ground Truth是一种数据标记服务,可以生成数百万张自动标记的合成图像。 在AI/ML应用的整个生命周期中,数据质量至关重要。Einat Orr博士在伦敦QCon大会上发表了关于大规模数据版本控制的演讲,并讨论了数据质量和大型数据集版本控制的重要性。数据的版本控制有助于重现一个流程或模型的输入和输出数据集之间的沿袭,并为审计提供相关信息。 在这次大会上,Ismaël Mejía讨论了如何在最新的数据管理方法(包括操作、共享和有助于我们创建和维护具有弹性和可靠性的数据架构的数据产品)中应用开源API和开放标准。 在另一篇文章“为现代数据系统构建端到端字段级沿袭”中,作者将数据沿袭作为数据管道根源和影响分析工作流的关键组件进行了讨论。为了更好地理解数据仓库源对象和目标对象之间的关系,数据团队可以使用字段级沿袭。对沿袭创建进行自动化,并将元数据抽象到字段级别可以减少进行根源分析所需的时间和资源。 新进入早期采用者阶段的包括与机器人和虚拟现实相关的技术(VR/AR/MR/XR)以及MLOps。MLOps:ML和DevOps实践的结合体 MLOps已经得到了很多公司的关注,因为它将DevOps的原则和最佳实践引入到了软件开发领域。 Francesca Lazzeri在QCon Plus大会上提到,MLOps是企业AI应用最重要的一个组成部分。她讨论了MLOps如何帮助数据科学家和应用程序开发人员将机器学习模型应用到生产环境中。MLOps可以帮助我们跟踪、版本化、审计、认证、重用机器学习生命周期中的每一项资产,并提供编排服务以简化机器学习生命周期的管理。 MLOps通过将人、流程和平台聚集在一起对融入了机器学习的软件交付进行自动化,为我们的用户提供持续的价值。 她还讨论了在生产环境中部署ML应用程序之前应该了解哪些东西,关键要点包括使用开源技术进行模型训练和部署,并通过机器学习管道自动化端到端ML生命周期。 Monte Zweben谈到了将功能商店和模型部署等核心组件聚集在一起的Unified MLOps。 在播客中讨论的其他主要趋势如下。 在AI/ML应用中,转换器仍然是首选的架构。ML模型继续发展壮大,可以支持数十亿个参数(GPT-3、EleutherAI的GPT-J和GPT-Neo、Meta的OPT模型)。用于机器学习训练的开源图像到文本数据集,如CLIP或DALL-E,促进了数据民主化,人们都可以利用这些模型和数据集。机器人和虚拟现实的未来将主要出现在元宇宙中。AI/ML计算任务将受益于基础设施和云计算创新,如多云和云不可知计算。 要了解更多信息,请参考2022年AI、ML和数据工程播客录音和文本,以及InfoQ的AI、ML和数据工程专题内容。 原文链接:AI, ML, and Data Engineering InfoQ Trends Report—August 2022
| 4,280 | 1,659,925,419,947 |
InfoQ
|
140 |
如何在云中部署低延迟解决方案
|
过去,为了从“内部”(通常都是位于同一地点)的硬件中获得最大的性能和最低的延迟,这些有低延迟需求的公司都是在裸机服务器上部署的,放弃了虚拟化和容器化的便利性和可编程性。 近来,这些公司日益转向公共和私有“云”环境,或为其所调整的低延迟/高容量(LL/HV)系统提供卫星服务,或在一些场合下用于 LL/HV 工作负载本身。 这个演示是在一个典型的云原生环境中实现了 Chronicle Queue 的复制。该解决方案实现了主动/被动冗余和由 Consul 服务注册表健康检查驱动的自动故障切换。使用 Prometheus 和 Grafana 仪表盘来显示实时指标。 图 1:指标面板:在测试设备上(一台配备 NVME SSD 的 i9 笔记本,使用 Minikube 和 Docker 驱动),我们看到第 99 个百分点的写到读的延迟在 40us 左右(从领导者到追随者的测量)。这个性能可以得到很大的改善,但是由于性能调整不在本文的讨论范围内,所以没有试图对部署和示例代码进行调整。 优势与挑战 云原生环境为简化复杂应用架构的定义和部署提供了一个通用平台和接口。这种基础设施使人们能够使用成熟的现成组件来解决常见的问题,诸如领导者选举、服务发现、可观察性、健康检查、自我修复、扩展和配置管理。 典型的模式是在这些环境中的虚拟机上运行容器。但是,如今各大云提供商(如云提供商亚马逊云科技、Microsoft Azure、Google Cloud等)都提供了裸机(或接近裸机)解决方案,因此即使是对延迟敏感的工作负载也可以在云中托管。 这是对 Chronicle 产品如何在这些架构中使用的第一次迭代演示,包括对我们的客户在云和其他环境中遇到的一些挑战的解决方案。通过利用常见的基础设施解决方案,我们可以将 Chronicle 产品的优势与现代生产环境的便利性结合起来,提供简单的低延迟、运行稳定的系统。 解决方案 该演示由一组可配置(和动态)规模的集群中的节点组成。我们选择 Kubernetes 进行演示,因为它是云原生基础设施的事实标准;然而,大多数协调平台实现了类似的功能。 集群中的每个节点都包含一些玩具业务逻辑,这些逻辑在复制的 Chronicle Queue 中存储其状态。图 2:单个 Pod 的示意图,显示了重要的容器和卷。 集群中的节点各自维护一个 Chronicle Queue 的副本,这些副本通过 Chronicle Queue Enterprise 复制保持同步。在任何时候,其中一个节点被设置为 "领导者 "节点;领导者负责根据一些业务流程填充队列。当当前的领导者节点失败或从集群中移除时,其中一个 "跟随者 "节点将被提升为领导者。这是一个用于实现高可用性的常见模式。 集群节点在 Consul 服务云提供商注册表注册自己,并配置一个简单的健康检查,通过 HTTP 轮询其指标端点来监控节点的健康状况。在生产部署中,这种健康检查可能更复杂。 每个节点都是 StatefulSet 中的一个 Kubernetes Pod。每个 Pod 都包含以下容器: 业务逻辑这个容器运行玩具“业务逻辑”,它可以填充或从队列中读取(取决于其角色)。就本演示而言,业务逻辑层只是在领导者时向队列写入一串数值,并作为跟随者将这些序列号输出。在真实的部署中,这将是一个真正的应用程序——例如,在 HA(高可用性)模式下的 Chronicle FIX、Chronicle Matching Engine,或一个自定义的应用程序。 集群必须提名一个领导者 Pod,负责填充队列,所以业务逻辑层参与 Consul 领导者的选举。业务逻辑层的伪代码如下: while (running) {
role = runLeaderElection()
while (role == leader) {
// Do leader logic
}
while (role == follower) {
// Do follower logic (if any)
}
} 业务逻辑容器从/到“复制状态”卷的读/写队列。 replicator 这个容器运行 Chronicle Enterprise Queue 的复制过程。它监控“replication config”卷中复制配置文件的更新,当检测到更新时,它用新的配置重新启动复制。如果复制配置不存在或无效,它不会启动复制。 当集群发生变化时,重启复制是我们推荐的一种常见模式,重启本身发生在几毫秒内,这意味着复制的中断是最小的。 config-generator 因为我们有 Consul 作为服务注册表,而且我们的领导者选举是通过 Consul 键值存储进行的,所以我们可以仅从 Consul 的状态中得出我们的复制配置。 这个容器使用 Consul 模板来监控 Consul 在集群中的变化(例如,增加或移除节点)或当前领导者的变化。当任何这些变化发生时,复制配置会重新生成到“复制配置”卷中。 exporter-merger 这个容器运行一个进程,将来自复制器和业务逻辑容器的普罗米修斯指标组合起来。 监控 Consul 使用云提供商可配置的检查来监控容器的健康状况。如果健康检查发现一个节点失败了,它就会放弃领导权(如果持有的话)并从集群中移除。Kubernetes 也监控每个 Pod 的健康状况,当一个 Pod 出现故障时,它将被关闭,并创建另一个 Pod 来代替它。 图 3:Consul 服务注册表 UI 显示健康的复制集群 业务逻辑和复制容器都通过 Prometheus 发布指标,公开集群的状态。通过 Prometheus 发布的指标会被 Grafana 渲染成一个仪表盘。 图 1 显示了指标仪表板。你可以看到在这个快照中,replica-0 是领导者,其他副本是跟随者。由于其他复制体的回执,复制体-0 的读取率非常高。 总结 Consul 维护一个集群成员的注册表,我们的应用程序注册健康检查,以删除任何不健康的节点。Consul 还促进了领导者的选举,确定哪个节点应该是领导者,哪个节点应该是追随者。然后,Chronicle Queue 复制配置是由 Consul 中的集群状态衍生出来的。 该演示有以下属性: 当领导者节点失败时,一个追随者节点会自动晋升为新的领导者节点。如果使用 Kubernetes 的“scale”命令来改变集群的大小,节点的配置将自动调整。这种扩展也可以根据负载情况自动进行。新的节点由 Prometheus 发现,其指标会自动包含在仪表盘中。故障转移大约发生在(检测故障所需时间,即健康检查超时)+(传播 Consul 状态的时间)+(到 Consul 服务器的 TCP 往返),在演示环境中,健康检查超时占主导地位。对于更多地理分布的部署,传播 Consul 状态的时间将变得更加重要。这些功能大部分是通过配置而不是代码实现的。有一些插入标准 Chronicle 接口的瘦身适配器可以实现这种行为。 结论 本文展示了将一个动态的、低延迟的、基于 Chronicle 队列的应用程序部署到 Kubernetes 集群的一种方法。 Kubernetes(StatefulSets、动态配置)和 Consul(服务注册表、领导者选举、配置模板)中的一些结构与 Chronicle Queue Enterprise 中的概念非常匹配,大大简化了操作层面。标准的 Chronicle 接口允许发布关键指标,以提供部署应用程序状态的实时视图。作者介绍: Peter Lawrey,开发者。Nick Tindall,Chronicle Chronicle 顾问。 原文链接: https://dzone.com/articles/deployment-of-low-latency-solutions-in-the-cloud
| 3,264 | 1,659,670,287,655 |
InfoQ
|
141 |
亚马逊云科技案例研究:焦点科技
|
“ 焦点科技 TTNET站点全站使用亚马逊云科技的服务,台湾站点从传统的租用IDC机房的方式迁移上云,人力成本降低了50%左右。中国制造网70%以上图片需要回源访问,通过在全球使用Amazon S3服务部署四个图片缓存站点,大幅提升了用户访问站点的速度。”陶延 焦点科技 运维总监 焦点科技成立于1996年,总部位于南京。公司始终致力于将传统行业与互联网深度融合,先后将互联网引入外贸、保险、企业采购、教育、医疗等多个领域,研发并运营了中国制造网(Made-in-China.com)、开锣(Crov.com)、百卓采购网(Abiz.com)、新一站保险网(xyz.cn)等电子商务平台,以及智慧教育、移动医疗等互联网项目。凭借多年来的不断积累,旗下中国制造网已成为全球采购商寻找中国供应商以及贸易伙伴的重要网络渠道。全球多站点部署,实现大幅降本提速中国制造网(Made-in-China.com)创立于1998年,由焦点科技开发及运营。作为全链路外贸服务综合平台,中国制造网致力于为中国供应商和海外采购商挖掘全球商机,为双方国际贸易的达成提供一站式外贸服务,现已成为中国外贸企业走向国际市场的重要桥梁和海外采购商采购中国产品的重要网络渠道。在使用亚马逊云科技前,焦点科技的IT系统环境在国内使用IDC托管服务,国外采用硬件租用服务,并没有使用云。但由于焦点科技的客户在全球广泛分布,且占页面70%以上容量的图片都需要回源访问,因此,这样的方式直接影响用户页面访问速度。此外,原TTNET站点部署在台湾机房,随着服务器使用年限的增加,硬件故障率不断上升,已进入硬件的淘汰更换阶段。业务层面如何降低人力、时间、硬件维护等成本;技术层面如何实现系统的全球数据传输,保证用户访问体验,以及如何实现多可用区的部署和负载均衡配置,成为焦点科技亟待解决的问题。在尝试使用第三方CDN,仍不能解决因距离导致的访问速度下降的问题后,云成了唯一的解决问题途径。决定上云后,焦点科技对比了多家云服务商。一方面,考虑到亚马逊云科技的基础服务架构多区域可用,且能够满足自身备份容灾的需求;另一方面,考虑到亚马逊云科技原生服务丰富,结合之前使用的Amazon Relational Database Service (Amazon RDS),可减少焦点科技在数据库方向的人力成本投入,最终,焦点科技选择与亚马逊云科技进行合作。焦点科技和亚马逊云科技的技术服务团队结合具体的业务需求共同商议后,决定采用Amazon Simple Storage Service (Amazon S3) 部署四个图片缓存站点,分别位于法兰克福、孟买、新加坡和圣保罗。通过在全球使用Amazon S3服务,焦点科技实现了站点图片在全球缓存系统的部署,并实现了数据的多点同步,互为备份,同时也大大提升了中国制造网的用户访问速度和平台稳定性。在使用亚马逊云科技后,焦点科技不再需要考虑硬件故障及更换的费用,减少了原IDC机房的人力成本。据陶延介绍:“焦点科技TTNET站点全站使用亚马逊云科技云服务,台湾站点从传统的租用IDC机房的方式迁移上云,人力成本降低了50%左右。”图1是焦点科技基于亚马逊云科技的全站架构示意图,所使用的亚马逊云科技服务包括:Amazon Aurora、Amazon S3、Amazon CloudFront等。图 1 焦点科技基于亚马逊云科技的全站架构示意图 尝鲜 Amazon Snowball,短时间完成大规模数据迁移在使用Amazon S3时,焦点科技面临着一个巨大的挑战。有接近70TB的大数据需要迁移,并且业务方要求在三个月内必须完成上线。由于时间紧迫,数据规模庞大,整个焦点科技团队承受着非常大的压力。采用网络的方式,不仅技术上行不通,而且没办法按照约定的时间上线。于是,他们找到了亚马逊云科技。在与亚马逊云科技技术团队几番沟通后,焦点科技决定采用Snowball来完成迁移任务,做“吃螃蟹的人”。回忆起那次数据迁移经历,陶延表示:“我记得非常清楚,当时亚马逊云的工程师跟我说,这是国内的用户率先使用Snowball服务”Snowball是一种边缘计算、数据迁移和边缘存储设备,非常适合完成焦点科技短时间迁移大规模数据的任务。Snowball Edge Storage Optimized设备同时提供数据块存储和兼容 Amazon S3的对象存储以及40个vCPU,可以在大约一周内迁移数TB的数据。这样的功能非常适合完成焦点科技短时间迁移大规模数据的任务。亚马逊云科技技术工程师提供的方案是,通过Snowball到焦点科技美国的数据中心拷贝数据,完成拷贝后由亚马逊云科技的团队完成运输,将数据导入指定的Amazon S3中,然后从美国的Amazon S3节点,利用内部专线网络,同步到全球其他的三个站点。陶延说:“在讨论的时候,我们的内心还是存疑的,因为整个过程涉及数据间的各种导入和转换,我们从来没有这么做过。但是亚马逊云科技的工程师对整个数据导入解决方案非常熟悉,帮助我们与美国数据中心对接,仅3天就开始数据导入,仅用了15天左右就顺利地完成了全部数据的导入。如果采用网络传输的方式,即使技术上行得通,也至少要一个半月时间” 。弹性扩容、防盗链,完美适配跨境电商需求 除中国制造网、TTNET站点之外,焦点科技旗下还拥有众多子公司,焦点领动云计算就是其中的一家,也是整个焦点科技中最早采用亚马逊云科技的先锋。焦点领动云计算是一家依托云计算SaaS技术,专注为中小企业提供云建站和云营销服务的创新型高科技企业。早在2017年,所有系统就已经全部上云。在采用Amazon S3前,领动云计算主要利用第三方厂商提供的CDN进行边缘节点缓存。但随着业务的扩大,缓存的方式命中率甚至会降低至30%以下。由于图片数量高达数亿张,如果自己部署、扩容、维护,成本将非常高。经过几番权衡,焦点领动云计算选择与亚马逊云科技进行合作。焦点领动云计算主要为客户提供跨境电商独立站相关的服务。由于业务特性,经常会遇到黑五、秒杀活动等场景需要临时扩容。通过采用Amazon EC2、Amazon RDS等服务,焦点领动云计算实现了容量的自动化弹性伸缩。其扩容速度从原先的数天减少到30分钟。除Amazon EC2等服务外,在使用亚马逊云科技的服务过程中,Amazon CloudFront 也令任睿印象非常深刻。焦点领动云计算副总经理任睿表示:“在边缘节点可编程上,亚马逊云科技是行业内非常卓越的”。通过这个功能,焦点领动云计算提供的服务在安全性方面得到了提升,极大地降低了盗链等行为的发生概率。未来,焦点科技将考虑大规模使用Amazon SageMaker,实现智能推荐方面的功能。 “采用亚马逊云科技的服务后,我们大幅提升了系统的可扩展性、稳定性和用户的访问速度,使用体验令人满意。” 焦点科技运维总监陶延总结道。
| 4,580 | 1,658,804,450,746 |
InfoQ
|
142 |
亚马逊云科技案例研究: 觅睿科技
|
“ 稳定性和安全合规对我们来说至关重要,亚马逊云科技有力地保障了网络连接顺畅和服务的稳定安全,帮助我们赢得更多海外客户的信赖。”祝友志 杭州觅睿科技股份有限公司 业务部门主管杭州觅睿科技股份有限公司 是全球卓越的智能家庭视频产品制造商。公司专注于视频、物联网、云平台、AI等先进技术,集研发、营销、供应链为一体,提供一站式智能家居视频解决方案。业务需求与挑战觅睿科技是一家聚焦于物联网视频智能终端开发制造的国家高新技术企业。公司集研发、设计、供应链、品牌营销为一体,专注为客户提供一站式智能家居视频解决方案。在民用视频领域,觅睿科技拥有齐全的产品线,并拥有低功耗、AI智能、基于 WebRTC 云平台的网络传输等核心技术。自 2017 年开始,觅睿科技用 2 年时间迅速占领了欧美市场,目前业务已覆盖德国、法国、英国、意大利、加拿大、美国、澳大利亚、日本、韩国等全球 150 多个国家和地区,同时觅睿科技的产品也已入驻各类大型电商平台与知名线下商超门店,服务全球数千万用户。在拓展海外市场的初期,觅睿科技选择将业务部署在其他云服务提供商的海外区域上,以云服务器的方式运行业务工作负载。伴随着海外用户数量不断攀升,网络链路问题对业务和产品体验带来的影响逐渐显现出来。“我们的智能视频终端采用P2P的方式与用户终端或管理平台建立链接,海外市场的网络环境尤为复杂,例如端口通信异常导致无法及时查看智能视频终端的状态和视频等情况会直接影响产品评价和用户满意度。”觅睿科技业务部门主管祝友志谈到。智能家居领域的创新与竞争日益加剧,觅睿科技秉承“提供让客户惊喜的智能终端产品”的企业使命,也希望在 AIoT 领域能够通过技术创新不断地丰富产品能力,在海外市场保持自身的核心竞争力。为什么选择 Amazon Web Services 为了解决海外业务拓展过程中所遇到的挑战,觅睿科技对多家云服务提供商进行了综合评估,最终选择将海外的物联网视频解决方案业务整体迁移至亚马逊云科技,通过亚马逊云科技全球化基础设施为智能视频终端业务提供支撑。保持中立满足安全与合规需求觅睿科技物联网视频解决方案所服务的智能视频终端与智能家居场景需要传输和存储大量影像信息,这些信息关系到客户隐私与安全,在选择云服务提供商时,觅睿科技必须要确保平台的安全性与合规性。亚马逊云科技在中立性和安全性优势是赢得觅睿科技认可的重要原因。亚马逊云科技一直将数据加密视为保证用户数据安全的重要机制,不断丰富安全与加密能力,同时也始终保持平台的中立与开放,丰富的合规性认证和数据安全机制可以保护存储在包括 Amazon Simple Storage Service (Amazon S3)、Amazon Relational Database Service (Amazon RDS)等服务中的数据,觅睿科技能够通过增强安全能力为全球用户提供可信赖的物联网视频解决方案。高效连接大幅改善客户体验在完成迁移之后,觅睿科技依托于亚马逊云科技全球基础设施以及低延迟、低数据包丢失和较高的整体网络质量在智能视频终端服务场景中实现了更加可靠的数据传输与访问。用户终端与智能视频终端之间的 P2P 连接建立的成功率高达 99% 以上,P2P 传输延迟可以控制在 600 毫秒之内,用户在不到 1 秒的时间内即可获得第一次的图像预览,大幅缩短了用户图像请求等待时间,觅睿科技通过更加稳定的服务体验在市场上不断得到用户的认可。面向智能家居场景提供丰富解决方案亚马逊云科技提供了完备的数据库、物联网与人工智能服务,可以帮助觅睿科技构建面向未来的智能家居与 AIoT 应用的新体验。“从采用与 MongoDB 兼容的 Amazon DocumentDB 服务进行智能视频终端事件的存储和管理、实现自动复制和连续备份到慢查询的优化,亚马逊云科技专家团队帮助我们解决了许多问题,也帮助我们加强了服务的可用性和性能。“祝友志说,”在应用层通过 Amazon Lambda 对接 Alexa 语音服务,我们也实现了让用户通过语音命令控制互联智能视频终端设备的能力,从而创造智能化、互联化的产品新体验。“此外,觅睿科技也计划在未来引入包括 Amazon Timestream 在内的可扩展以及无服务器化时间序列数据库服务来为海量智能视频终端的索引提供支持。全球化平台为业务出海提供背书亚马逊云科技在全球的市场覆盖率和品牌知名度是觅睿科技选择亚马逊云科技的重要考量因素。“我们的客户包括 C 端和 B 端的客户,亚马逊云科技以及 Amazon 整个生态对我们品牌的背书非常重要,有效帮助我们快速开拓海外市场。”祝友志谈到。获得的成效在业务全球化的过程中通过将物联网视频解决方案整体迁移至亚马逊云科技,觅睿科技获得了多方面的成效:资源自动优化减少运维投入 在亚马逊云科技架构师团队的建议下,觅睿科技通过引入 Amazon CloudWatch 提供的监控和可观测性服务,实现了从 Amazon Elastic Compute Cloud (Amazon EC2) 、Amazon RDS 到 Amazon DocumentDB、Amazon ElastiCache 等服务的全面管理,并根据监控指标和异常警报实现自动化的资源调整与问题排查。“Amazon CloudWatch 简化了我们在云基础设施上的运维工作,我们可以通过 API 将实时监控信息与企业内部即时通讯服务整合,更快速地发现问题并通过自动化的方式做出调整,这种方式也让我们的技术团队可以专注在业务的创新上。” 祝友志说。以用户为中心实现全球业务运营 觅睿科技借助云上的安全性和合规性以及控制措施来满足不同国家和地区在监管领域的要求,无论是数据驻留、加密还是客户隐私保护,觅睿科技都可以依托亚马逊云科技提供的合规性计划实现。“觅睿科技始终以用户为中心,并高度重视保护用户隐私不被侵犯和泄露,努力为每一位用户提供安全、放心的视频智能终端产品,AIoT 与智能家居解决方案。觅睿科技与亚马逊云科技的成功合作经验让我们信心十足地加快海外市场的拓展步伐,并将安全与合规的经验应用于所有客户,推动品牌的快速增长。”祝友志谈到。未来,觅睿科技会继续与亚马逊云科技保持密切的合作关系。觅睿科技的产品团队正计划采用具有 GPU 的 Amazon EC2 实例加速识别模型的训练,并将具备多语言支持能力的 Amazon Polly 服务应用到产品中为用户提供逼真的语音提示,不断丰富视频智能终端产品、AIoT 与 智能家居的服务场景,实现产品的优化升级,为用户创造更具价值的智能体验。
| 2,972 | 1,658,719,950,211 |
InfoQ
|
143 |
隐藏云API的细节,SQL让这一切变简单
|
渗透测试人员、合规性审计员和其他DevSecOps专业人员花了大量时间编写脚本来查询云基础设施。人们喜欢用Boto3(Python版AWS SDK)来查询AWS API并处理返回的数据。 它可以用来完成简单的工作,但如果你需要跨多个AWS帐户和地区查询数据,事情就变得复杂了。这还不包括访问其他主流云平台(Azure、GCP、Oracle Cloud),更不用说GitHub、Salesforce、Shodan、Slack和Zendesk等服务了。开发人员花了太多的时间和精力从这些API获取数据,然后将其规范化并开始真正的分析任务。 如果你可以用一种通用的方式查询所有API并处理它们返回的数据会怎样?Steampipe就是用来做这个的。它是一个基于Postgres的开源引擎,你可以用它编写间接调用主要云平台API的SQL查询。它不是一个数据仓库。调用API生成的表是临时的,它们反映了基础设施的实时状态,你可以用SQL对它们进行实时的查询。 本文的案例研究将展示如何使用Steampipe来回答这个问题:我们的公共EC2实例是否有已被Shodan检测到的漏洞?我们需要使用AWS API列出EC2的公共IP地址,并使用Shodan API来检查它们。 如果使用传统的方法,你需要找到每个API的编程语言包装器,了解每种API的访问模式,然后编写代码来组合结果。在Steampipe中,一切都是SQL。这两个API,就像Steampipe的API插件支持的所有API一样,被解析成Postgres数据库表。你可以用SQL对它们进行基本查询,甚至是连接查询。 图1描绘了我们案例研究的主要API连接。aws_ec2_instance表是Steampipe通过调用AWS API构建的数百个表中的一个。类似地,shodan_host表是Steampipe通过调用Shodan API构建的十几个表中的一个。SQL查询将aws_ec2_instance的public_ip_address列与shodan_host的ip列连接起来。 在深入案例研究之前,我们先来仔细地看看Steampipe的工作原理。下面是Steampipe的高级架构视图。 为了查询API并处理返回的结果,Steampipe用户需要使用Steampipe的查询控制台(Steampipe CLI)或其他可以连接Postgres的工具(psql、Metabase等)来编写SQL查询并提交给Postgres。针对Postgres的关键增强特性包括: Postgres外部数据包装器;各种API插件;连接聚合器。Postgres外部数据包装器 Postgres已经有了长足的演进。如今,得益于不断增长的插件生态系统,Postgres比你想象的要强大得多。强大的扩展插件包括用于地理空间数据的PostGIS、用于在Kafka或RabbitMQ中复制数据的pglogical,以及用于分布式操作和列存储的Citus。 外部数据包装器(FDW)是Postgres的一个插件类别,用于为外部数据创建数据库表。Postgres的绑定postgres_fdw支持跨本地和远程数据库的查询。Steampipe在运行时会启动一个Postgres实例,这个实例会加载另一种FDW,叫作steampipe-postgres-fdw,它会调用一系列插件为外部API创建数据库表。 这些外部表通常将JSON结果映射成简单的列类型:日期、文本、数字。有时候,如果API响应消息中包含复杂的JSON结构(如AWS策略文档),结果会显示成JSONB列。各种API插件 这些插件是用Go编写的,回退/重试逻辑、数据类型转换、缓存和凭证由插件SDK负责处理。有了这个SDK,插件开发者可以将精力放在核心的任务上,也就是将API结果映射到数据库表。 这些映射可以是一对一的。例如,aws_ec2_instance表与底层REST API相匹配。 在其他情况下需要构建合并了多个API的表。例如,为了构建完整的S3桶的视图,需要连接核心S3 API与ACL、策略、复制、标签、版本控制等子API。插件开发者负责编写函数来调用这些子API,并将结果合并到表中。一个基本的Steampipe查询 下面是一个使用Steampipe列出EC2实例的示例。 安装Steampipe;安装AWS插件:steampipe plugin install aws;配置AWS插件。 插件配置使用了标准的身份验证方法:配置文件、访问密钥和秘钥文件、SSO。因此,Steampipe的客户端验证与其他类型的客户端验证是一样的。完成这些之后,就可以查询EC2实例。 示例1:列出EC2实例 select
account_id,
instance_id,
instance_state,
region
from aws_ec2_instance;
+--------------+---------------------+----------------+-----------+
| account_id | instance_id | instance_state | region |
+--------------+---------------------+----------------+-----------+
| 899206412154 | i-0518f0bd09a77d5d2 | stopped | us-east-2 |
| 899206412154 | i-0e97f373db22dfa3f | stopped | us-east-1 |
| 899206412154 | i-0a9ad4df00ffe0b75 | stopped | us-east-1 |
| 605491513981 | i-06d8571f170181287 | running | us-west-1 |
| 605491513981 | i-082b93e29569873bd | running | us-west-1 |
| 605491513981 | i-02a4257fe2f08496f | stopped | us-west-1 |
+--------------+---------------------+----------------+-----------+ 外部表aws_ec2_instance的文档提供了模式定义和查询示例。连接聚合器 在上面的查询中,不需要显式地指定多个AWS帐户和区域就可以查到它们的实例。这是因为我们可以为AWS插件配置用于组合账户的聚合器,还可以用通配符指定多个区域。在这个示例中有两个不同的AWS帐户,一个使用SSO进行身份验证,另一个使用access-key-and-secret方法,它们组合起来作为select * from aws_ec2_instance查询的目标。 示例2:聚合AWS连接 connection "aws_all" {
plugin = "aws"
type = "aggregator"
connections = [ "aws_1", aws_2" ]
}
connection "aws_1" {
plugin = "aws"
profile = "SSO…981"
regions = [ "*" ]
}
connection "aws_2" {
plugin = "aws"
access_key = "AKI…RNM"
secret_key = "0a…yEi"
regions = [ "*" ]
} 这种方法适用于所有的Steampipe插件,它抽象了连接细节,简化了跨多个连接的查询,还为并发访问API提供了可能性。案例研究A:使用Shodan查找AWS漏洞 假设你想要用Shodan来检查一些公共AWS端点是否存在漏洞。下面是完成检查过程需要执行的伪代码。 传统的Python或其他语言的解决方案需要你使用两种不同的API。虽然有针对这些原始API的包装器,但每个包装器都有不同的调用方式和结果。 下面是使用boto3来解决这个问题的示例。 示例3:使用boto3查找AWS漏洞 import boto3
import datetime
from shodan import Shodan
aws_1 = boto3.Session(profile_name='SSO…981')
aws_2 = boto3.Session(aws_access_key_id='AKI…RNM', aws_secret_access_key='0a2…yEi')
aws_all = [ aws_1, aws_2 ]
regions = [ 'us-east-2','us-west-1','us-east-1' ]
shodan = Shodan('h38…Cyv')
instances = {}
for aws_connection in aws_all:
for region in regions:
ec2 = aws_connection.resource('ec2', region_name=region)
for i in ec2.instances.all():
if i.public_ip_address is not None:
instances[i.id] = i.public_ip_address
for k in instances.keys():
try:
data = shodan.host(instances[k])
print(k, data['ports'], data['vulns'])
except Exception as e:
print(e) 如果API被抽象为SQL表,你就可以忽略这些细节,并提取出解决方案的精华部分。下面是使用Steampipe解决这个问题的示例,即“Shodan是否找到了EC2实例公共端点的漏洞?” 示例4:使用Steampipe查找AWS漏洞 select
a.instance_id,
s.ports,
s.vulns
from
aws_ec2_instance a
left join
shodan_host s
on
a.public_ip_address = s.ip
where
a.public_ip_address is not null;
+---------------------+----------+--------------------+
| instance_id | ports | vulns |
+---------------------+----------+--------------------+
| i-06d8571f170181287 | | |
| i-0e97f373db42dfa3f | [22,111] | ["CVE-2018-15919"] |
+---------------------+----------+--------------------+ 你只需要针对Postgres表编写SQL,不需要显式调用这两个API,SQL会临时存储隐式调用API的结果。这不仅更简单,而且更快。针对示例2中配置的两个AWS帐户的所有区域运行boto3版本的代码需要3到4秒,而Steampipe版本的只需要1秒钟。当你有数十或数百个AWS帐户时,这种差异会体现得更加明显。可见Steampipe是一个高并发的API客户端。并发和缓存 如果你定义了一个聚合了多个账户的AWS连接(如示例2所示),Steampipe将会并发查询所有的账户。对于每一个帐户,它会同时查询所有指定的区域。因此,虽然示例3中初始查询花了大约1秒,但基于缓存TTL(默认为5分钟)的后续查询只花费了几毫秒。 就像本例一样,我们通常可以基于缓存查询更多列或其他不同的列,并保持毫秒级的查询性能。这是因为aws_ec2_instance表是用单个AWS API调用的结果生成的。 对于其他情况,比如aws_s3_bucket表,Steampipe组合了多个S3子API调用,包括GetBucketVersioning、GetBucketTagging和GetBucketReplication,这些调用也都是并发的。与其他API客户端一样,Steampipe也会受到速率限制。但它的并发性是主动式的,因此你可以快速对大量的云基础设施进行评估。 注意,在查询像aws_s3_bucket这样的表时,最好是只请求需要的列。如果你确实需要所有列,那么可以select * from aws_s3_bucket。但如果你只关心account_id、instance_id、instance_state和region这些列,那么显式指定这些列(如示例1所示)可以避免不必要的子API调用。案例研究B:查找GCP漏洞 如果你的端点只存在于AWS中,那么示例3已经可以很好地解决这个问题。现在,我们加入GCP(谷歌云平台)。传统的解决方案要求你安装另一个API客户端,例如谷歌云Python客户端,并学习如何使用它。 在使用Steampipe时,你只需安装另一个插件:steampipe plugin install gcp。它的工作原理与AWS一样:调用API,将结果放入外部数据库表中,这样你就可以将精力放在解决方案的逻辑上。 只是此时的逻辑略有不同。在AWS中,public_ip_address是aws_ec2_instance表的一个列。在GCP中,你需要将查询计算实例的API和查询网络地址的API的调用结果组合起来。Steampipe将它们抽象为两个表:gcp_compute_instance和gcp_compute_address。 示例5:使用Steampipe查找GCP漏洞 with gcp_info as (
select
i.id,
a.address
from
gcp_compute_address a
join
gcp_compute_instance i
on
a.users->>0 = i.self_link
where
a.address_type = 'EXTERNAL'
order by
i.id
)
select
g.id as instance_id,
s.ports,
s.vulns
from
gcp_info g
left join
shodan_host s on g.address = s.ip; 这个查询使用了两个语言特性,这可能会让很久没有使用SQL的人感到惊讶。WITH子句是一个公共表表达式(CTE),用于创建一个类似数据表的临时对象。用CTE管道形式编写的查询比单一查询更容易阅读和调试。 a.users是一个JSONB列。->>操作符用于定位它的第0个元素。JSON是数据库的一等公民,关系型风格和对象风格可以很好地混合在一起。这在将返回JSON数据的API映射到数据库表时就非常有用。插件开发者可以将一些API数据移到普通的列中,另一些移到JSONB列中。如何决定哪些数据移到什么类型的列中?这需要巧妙地平衡各种关注点,你只需要知道现代SQL支持灵活的数据建模。案例研究C:查找多个云平台的漏洞 如果你在AWS和GCP中都有公共端点,那么你可能希望将到目前为止看到的查询都结合起来。现在你知道该怎么做了。 示例6:查找AWS和GCP的漏洞 with aws_vulns as (
-- 插入示例4的内容
),
gcp_vulns as (
-- 插入示例5的内容
)
select * from aws_vulns
union
select * from gcp_vulns;
+-------+---------------------+----------+--------------------+
| cloud | instance_id | ports | vulns |
+-------+---------------------+----------+--------------------+
| aws | i-06d8571f170181287 | | |
| aws | i-0e97f373db42dfa3f | [22,111] | ["CVE-2018-15919"] |
| gcp | 8787684467241372276 | | |
+-------+---------------------+----------+--------------------+ 我们已经将示例4和示例5作为CTE管道。要将它们组合起来,只需要一个老式的SQL UNION。 现在,你已经掌握了足够多的知识,你也可以在Oracle云或IBM云上使用CTE管道。你可能还想用你的公共IP地址查询Shodan的数据。有些插件可以进行反向DNS查找,将IP地址映射到地理位置,并检查是否存在已报告的恶意活动的地址。这里的每一个映射都涉及另一个API,但你不需要学习如何使用它们,它们会被建模成数据库表,你只需要用基本的SQL语句来查询这些表。它就是Postgres 我们说过,Steampipe不是一个数据仓库,为API调用结果创建的表只会被缓存一小段时间。针对这个系统所做的优化主要是为了实现对云基础设施的实时评估。Steampipe实际上就是Postgres,你可以完全把它当Postgres来用。如果你需要持久化实时数据,那就可以对它们进行持久化。 示例7:将查询持久化为表 create table aws_and_gcp_vulns as
-- 插入示例6的内容 示例8:将查询保存为物化视图 创建物化视图aws_and_gcp_vulns -- 插入示例6的内容
-- 然后定时刷新物化视图aws_and_gcp_vulns 示例9:使用Python拉取查询结果 import psycopg2, psycopg2.extras
conn = psycopg2.connect('dbname=steampipe user=steampipe host=localhost, port=9193')
cursor = conn.cursor(cursor_factory=psycopg2.extras.DictCursor)
cursor.execute('select * from aws_and_gcp_vulns')
for row in cursor.fetchall():
print(row['cloud'], row['instance-id'], row['vulns']) 示例10:使用psql连接数据库 psql -h localhost -p 9193 -d steampipe -U steampipe 你也可以使用Metabase、Tableau或其他与Postgres兼容的工具连接数据库。 总的来说,Steampipe API增强了整个Postgres生态系统。 跳过繁琐的API,专注于任务处理 DevSecOps工程师的工作可能包括列出云资源、检查安全漏洞或审计合规性,这一切都需要用到云API返回的数据,而以可跟踪的形式获取这些数据通常会花费很多时间和精力。如果可以方便快速地访问API,并有一个可以处理API返回的数据的通用环境,你就可以专注于列出资源清单、进行安全检查和审计等工作。API噪音会对你和你的组织造成无法承受的干扰。不要让它们妨碍你真正的工作,即使你有了需要的数据,要做到这一点也是非常困难的。 作者简介: Jon Udell是前BYTE杂志执行编辑,一位独立的Web开发者,InfoWorld的“首席博主”,微软布道者,hypothes.is的整合总监。他苦API已久,现在他很高兴可以将这些繁重的工作委托给Steampipe。他是Steampipe开源项目的社区负责人。 原文链接:API Friction Complicates Hunting for Cloud Vulnerabilities. SQL Makes it Simple
| 4,761 | 1,658,534,400,043 |
InfoQ
|
144 |
亚马逊Aurora支持PostgreSQL 14
|
最近,亚马逊宣布Aurora PostgreSQL支持PostgreSQL 14。新版本增加了性能改进和新功能,包括支持SCRAM加密机制。 PostgreSQL 14包括对并行查询、高并发工作负载、分区表、逻辑复制和Vacuuming等方面的改进。14.3版本增加了一些新功能,比如在客户端断开连接时关闭空闲会话或取消长时间运行的查询。PostgreSQL 14的其他改进包括支持多范围、可以表示非连续的数据范围,以及在存储过程中使用OUT参数返回数据。 新的Aurora版本增加了对SCRAM加密机制的支持,这是默认密码加密算法MD5的一个替代方案。SCRAM也已经被移植到以前的Aurora PostgreSQL版本(10、11、12、13),亚马逊云科技建议在新的集群中使用SCRAM而不是MD5。 Aurora PostgreSQL提供了连续备份、多达15个读副本、多区域复制以及在无服务器模式下运行的选项。按需自动伸缩配置已在去年4月推出,现在与PostgreSQL 14也兼容。 现有的集群可以升级到PostgreSQL 14。后续的小版本升级可以在不停机的情况下进行,因为亚马逊最近发布了零停机补丁(ZDP),可以在数据库重启时保留客户端连接。 社区中最初对选择14.3版本有一些担忧,不过亚马逊从14.4中反向移植了一些最新的修复,包括针对CONCURRENTLY问题的修复。为了简化发布过程,Aurora的主要版本和次要版本将和PostgreSQL社区版本保持一致,并加入第三个数字表示补丁。 亚马逊云科技首席应用科学家Murat Demirbas最近写了一篇关于亚马逊Aurora解耦架构的文章。这个高吞吐量的云原生关系数据库的新版本包括Babelfish for Aurora PostgreSQL 2.1的新特性,支持在PostgreSQL上运行Microsoft SQL Server应用程序。14.3是自2021年初推出这项托管服务以来的第三个主要版本:Aurora在去年引入了对PostgreSQL 12和PostgreSQL 13的支持,发布周期明显比MySQL版本短。 亚马逊Aurora并不是第一个兼容PostgreSQL 14的托管服务:亚马逊RDS也支持它,其他供应商也已经添加了支持,包括Azure Flexible Server PostgreSQL和Azure Hyperscale(Citus)。 PostgreSQL 14在Aurora支持的所有地区都可用,引擎版本之间没有价格差异。 原文链接:Amazon Aurora Supports PostgreSQL 14
| 2,480 | 1,658,275,200,411 |
InfoQ
|
145 |
亚马逊推出基于机器学习的代码助手CodeWhisperer
|
最近,亚马逊云科技推出了基于机器学习的编码助手CodeWhisperer,它基于开发者使用自然语言编写的注释和集成开发环境(IDE)中的代码提供代码建议。机器学习驱动的服务提高了开发者的生产力。 CodeWhisperer基于各种上下文线索提供建议,包括光标在源代码中的位置、位于光标前面的代码、注释,以及来自同一项目中其他文件的代码。开发者可以完全照搬这些建议,也可以根据需要进行改进和修改。CodeWhisperer使用来自论坛、亚马逊内部代码库、开源代码库和API文档的数十亿行代码进行机器学习训练。 根据亚马逊的说法,开发者可以使用CodeWhisperer来加速开发过程,只需要在IDE中的代码中添加一条注释。编程语言、框架、软件库和云服务必须保持最新。有了CodeWhisperer,开发者可以通过自动代码推荐来加速前端和后端的开发,节省用于构建和训练ML模型的时间和精力,通过对亚马逊云科技服务(包括AWS EC2、AWS Lambda和AWS S3)API的代码推荐来加快开发过程,并减轻编写重复的单元测试代码的负担。 CodeWhisperer还非常重视安全问题,它提供了Python和Java代码扫描,帮助程序员找到他们代码中的漏洞。此外,它还提供了一个引用跟踪器,可以知道代码推荐是否与一组特定的训练数据相似。开发者可以很快找到代码示例,并选择是否在项目中使用它们。 亚马逊表示,推出CodeWhisperer并不是为了提供Copilot的替代方案。亚马逊早在几年前就推出了CodeGuru和DevOpsGuru等服务。 目前,CodeWhisperer兼容Python、Java和JavaScript,支持各种IDE,包括JetBrains、Visual Studio Code、AWS Cloud9和AWS Lambda控制台。 想要体验亚马逊这款最新的代码完成工具的开发者可以提交请求表单进行注册,并进入等待队列。开发者可以安装AWS IDE工具包,激活CodeWhisperer功能,并在收到预览访问代码后开始使用该工具。 原文链接:Amazon Unveils ML-Powered Coding Assistant CodeWhisperer
| 2,902 | 1,658,192,473,307 |
InfoQ
|
146 |
智能家居浪潮来袭,如何让机器看懂世界
|
从智能单品到全屋智能,随着消费者对生活品质追求的提升,智能化产品逐渐走入大众家庭,从而推动智能家居市场蓬勃发展。从 2017 年开始,智能家居设备已经应用于日常生活各项任务。2017 年其市场规模约为 4.3 亿美元。据 IDC 预测,智能家居市场年复合增长率为 18.5%,2022 年智能家居设备销售额将达到 9.4 亿美元。面对潜力无限的智能家居市场,各企业纷纷发力,然而由于智能家居产品多涉及音视频技术,自行开发往往门槛过高。如何轻松构建具有实时计算机视觉功能的应用程序?亚马逊云科技 Tech Talk 特别邀请解决方案架构师李寅祥带来分享《基于 Amazon KVS 打造智能视觉产品》。智能家居应用场景与挑战早在 2015 年左右,智能家居设备就已经出现。2017 年,智能家居开始应用于生活的各个场景。早期的智能家居产品还是手动控制,如通过开关去控制酒店窗帘。近两年,智能家居产品已转变为远程遥控的形式,如可远程控制通电和断电的智能插座,手机可操控的智能扫地机器人等。目前,智能家居的应用场景主要可分为三个部分。第一类,家庭智能自动化。常见的智能控制类产品有智能照明系统,可以手机远程控制灯的开关与灯光模式,此外,扫地机器人、智能家庭助手等产品也属于此类。第二类,家居网络的连接。这类比较普通和普遍,应用最广泛的就是无线路由器类设备。第三类,家居安全。不管在国内还是海外,家居安全类智能产品都是近年比较热门的品类,如安防摄像头、可视门铃等。在智能家居的三大应用场景中,智能视觉类产品占有相当大的比重,但这类产品的开发却存在一定的复杂性。原因主要在于两个方面:第一,打造和管理 IoT 应用的复杂性。智能视觉类的物联网设备大多需要进行数据交互。首先,需要保证设备连接及所产生数据的安全性;其次,设备的数量极有可能到达百万级,如何以可扩展、低成本的方式来管理成千上万的设备也是一大难题;此外,保证多种供应商设备及语音助手的互操作性也比较复杂。第二,复杂的媒体服务设计和实现。智能视觉产品因为涉及音视频流的传输、处理,也存在一定的技术复杂性。其一,编码对技术有一定门槛,需支持多种媒体流技术、协议、编码以及开发环境;其二,需要创建及管理基础设施以实现安全、快速及可靠的流媒体传输;其三,扩展性需求高,要能够支持百万级设备,视频流对于带宽的要求是文本消息流的多倍,设备数量达到百万级时,如何保证后端服务器的可靠性和稳定性是非常棘手的问题;其四,音视频涉及非常专业的技术,如视频的编解码、压缩、传输等,存在技术壁垒,需要拥有音视频专业知识的工程师团队。为视觉设备附加人工智能能力亚马逊云科技在智能视觉和可视化类智能家居产品进行了深入地探索与创新实践。家居安防监控类的产品有安防摄像头、可视化门铃,集成摄像头电器有宠物喂食器,还有健身器材、健身设备等品类相关的智能产品等等。亚马逊云科技是如何解决视觉类智能家居产品存在的问题呢?主要是依托于 Amazon IoT+KVS 的解决方案。如图所示,从左到右分别是设备端、云平台端、消费端。设备端通常是带有摄像头的设备或 IoT 设备,如安防摄像头、无线路由器、语音助手等。云平台端主要提供 IoT 相关的能力以及管理设备连接。Amazon KVS 主要用来进行视频接收存储和处理,此外,亚马逊云科技还提供机器学习、数据库等产品,帮助开发者完成业务目标。Amazon IoT+ Amazon KVS 一站式解决方案具体是如何工作的呢?Amazon KVS(Amazon Kinesis Video Streams),其名字直接翻译的意思是实时的动态流的视频流。具体来说,它是一个完全托管的媒体流服务,能够从百万设备中安全的接收视频流数据,并按照时间进行存储。当用户想要回看某个特定时段的视频,可按照时间进行检索,快速方便地获取原始视频。Amazon KVS 将视频存储起来后,最重要的是将视频给到消费端去消费。在消费方面,Amazon KVS 提供实时与按需回放、实时与批处理两种方式。实时查看用于查看摄像头现在所处的实时环境、状态;按需回放就是定位到一个特定的时间段进行查看。那么,基于 Amazon KVS 是如何打造智能视觉产品的呢?首先,是媒体摄取。Amazon KVS 的媒体摄取主要有两种方式,第一,它可以直接从摄像机中获取视频流。第二,它可以使用与同一网络上的设备连接的代理 / 网关。两种方式都可以使用?Kinesis Video Streams producer SDKs。其次,是 Producer SDK。Producer SDK 其实就是通过 SDK 将视频流的信号打到 Amazon 打到 Amazon KVS 上。它提供的 SDK 多种多样,比如,最底层的 C SDK 层,适用于期望固件级集成的硬件设备制造商。上层的 Docker 镜像层则适用于针对特定操作系统的应用开发者。第三,是储存和检索媒体。媒体流进入 Amazon KVS 之后可以时间为索引进行存储,最长可以存储十年,并且支持按小时或者按天检索。不仅如此,开发者还可以通过简单的 API 实现存储策略的修改、检索实时与历史媒体,并能够轻松监控和审计使用情况。另外,比较重要的一点是 Amazon KVS 在开始传输或者接收视频流和存储视频流的时候都是可以加密的。第四,实时 / 历史视频回放。Amazon KVS 的回放支持 HTTP Live Streaming (HLS) 、Dynamic Adaptive Streaming over HTTP (DASH) 两种协议。HLS 相对来说比较标准,Web 浏览器可直接播放。DASH 是有对应的播放器来提供播放。在音视频编码方面,Amazon KVS 支持多种音频和视频编码格式。通过 Amazon KVS 视频流完成接收后,如何通过机器学习的方式来进行内容感知?大致有以下几种方式:第一,采用 Amazon KVS 与 Amazon Rekogniton Video 整合参考架构。Amazon Rekogniton 是一个 API 服务,可直接用来进行图片或者视频的分析,也就是说,视频流可以在 Rekogniton 里面进行常见的人脸识别或者物品检测。第二,当 Amazon Rekogniton 中常用的图片或者视频识别能力,无法满足用户的场景需求的时候,就需要进行更加个性化地识别场景定制。这种情况就需要借助 Amazon SageMaker 去训练模型,模型训练完成后再进行推理。Amazon SageMaker 是一个托管式机器学习平台,代码可直接放在 Amazon SageMaker 上进行训练,当训练完成后,可以很方便的把模型部署到 EC2 上并进行后续的推理。上图是 Amazon KVS 和 Amazon Rekognition Video 整合的参考架构。由采集端、存储端、处理 / 分析端三部分组成。该实例在 Raspberry Pi 环境中运行,用 RTSP 摄像头去拉流,拉流完成之后,通过 C++ 的 Producer SDK 打到 KVS 上,后面用 Rekognition Video Processor 处理实时的视频流,处理完成后,会把结果放到 Kinesis Date Streams 消息管道中,消息管道将数据给到 Kinesis Data Firehose,对消息管道的数据稍作转换加工,然后投递到 Amazon S3,由 Amazon S3 将结果存储起来。另外一条线路,可以触发 Amazon Lambda,Amazon Lambda 将调用 IoT Core 对设备下发控制指令。在实际应用过程中,首先,需要创建一个 Rekognition Video stream Processor 来处理视频流;然后指定一个 Kinesis Date Streams 的位置;第三,也是比较重要的一点是指定搜索目标,比如在人脸识别场景中就是进行人脸的 ID。用户可按需调整阈值,来控制检测的相似度,检测完成后可对应定义名称及备注。WebRTC 实现双向实时通讯实时双向通讯在安防摄像头或可视门铃场景下是比较常见的需求。Kinesis Video Streams WebRTC 的定位就是满足此需求。它具有超低延迟的流媒体直播,支持数百万相机设备的双向交互,其特点有:低延迟的实时媒体流:点对点音视频直播,1 秒以下的播放延时;实时,双向通讯:嵌入式设备、移动设备与 Web 应用程序实现双向通讯;兼容标准:与 Web 和移动平台兼容,轻松实现无插件播放;全托管:完全托管的 WebRTC 信令, TURN, STUN 服务 。易于使用的 SDK。WebRTC 不仅仅是一个媒体流协议。它是一个开放的标准实时通信与技术规范。它的技术组成中有四点比较关键。第一,信令。信令用于交换连接元数据,也就是双方支持哪些协议,支持哪些编码等。第二,联通。联通即建立点对点的连接。很多设备都是在防火墙后面,点对点的连接也叫打洞,如果点对点连接失败,还要通过中继服务器来进行转发,通过中继服务器建立连接。第三,媒体交换。它能够低延迟交换媒体和任意数据。第四,加密。这一点所有服务都类似,端到端的加密对于保障安全性非常重要。分享中,李寅祥以可视门铃的案例介绍了实时通讯大概的流程,如下图。左边是一个可视门铃,右边是手机 APP。假如有人按门铃。可视门铃会向服务器发出请求,请求再转到手机端,手机端接受请求后将尝试互相交换信息,交换的信息主要是协议编码等。交换完成后,会尝试通过 STUN 打洞,如果打洞不成功,那么就会通过 TURN 服务进行中继转发。通常来说,两个设备处于同样的网络的情况下比较容易打通。在 Kinesis Video Streams WebRTC 中有几个比较重要的概念:首先是信令频道。信令频道允许应用程序通过交换信令消息来发现、设置、控制和终止点对点连接的资源。其次是 Peer。Peer 通常指移动客户端、Web 应用程序、Camera 等。第三是 Master。Master 用于连接到 Channel,与任意的 Viewer 实现点对点通信,一个 Channel 只有一个 Master。第四是 Viewer。Viewer 用于连接到 Channel,只能与 Master 实现点对点通信,一个 Channel 最多可以有十个 Viewer。此外,还有服务组件和 SDK。SDK 主要支持协议嵌入式 SDK 和客户端 SDK。嵌入式 SDK 支持的视频编码协议有 H264 和 VP8,以及支持的音频编码协议有 Opus 和 G711。客户端的 SDK 是与 WebRTC 兼容的浏览器和移动平台无缝协作的开源客户端 SDK。Kinesis Video Streams WebRTC 还可以与 Alexa 语言助手进行协作。假设有人在按智能可视门铃,但是用户刚好在厨房做饭,不方便去直接查看,可以语言控制 Alexa。Alexa 会与 WebRTC 交换数据,交换完数据后可建立双向语言通讯,可视门铃的视频信号将直接显示到 Echo Show 上,就可以直接看到门口是谁。视觉安防相关的产品,安全是企业和用户关注的重点。亚马逊云科技针对智能产品的安全性也有相应的解决方案。摄像头在向 Amazon KVS 做推流的过程中,是需要进行验证的,只有验证通过后,经过授权才能获取资源的访问权限。摄像头利用 IoT 设备的证书来访问资源,流程如下:首先,认证的 IoT 设备发起一个 Credentials provider 的认证请求,IoT 的认证请求会去检测证书是否合法、有效。如果合法,就会生成一个临时凭证,设备端拿到临时凭证后就可以基于这个临时凭证去调动亚马逊云科技的其他服务,如 Amazon KVS。临时凭证是有有效期的,当有效期过期后,将无法再进行访问。由此借助 Amazon IoT,就可以以一种安全的方式访问 KVS 资源。打造智能视觉产品的参考架构针对如何用 Amazon KVS 打造智能视觉产品,亚马逊云科技提供了一些比较推荐的方案。基于 Amazon KVS 实现 IPC 云存亚马逊云科技提倡无服务器架构。设备端按需推送视频流及其元数据至亚马逊云,视频数据保存至 Amazon KVS,视频原信息保存至 DynamoDB。手机端按需基于视频元数据获取回放 URL,通过播放器观看。基于 Amazon KVS 为 IPC 附加人工智能相对来说,基于 Amazon KVS 为 IPC 附加人工智能 / 机器学习能力属于更高阶的功能,如检测门口是否有宠物或者包裹,甚至一些更加个性化的定制场景。它的实现分为三个步骤。首先,设备端推送视频流至 KVS;第二步,根据需要从视频提取图片保存至 S3;第三步,AI 处理模块可组合使用自建模型、Rekognition API 对图片、视频实现同步、异步推理,结果异常时通知手机客户端。Amazon KVS 整合 Alexa主要依赖 WebRTC 集成。左边是硬件设备,如安防摄像头、可视门铃等,里面会包含各种 SDK,中间是 Amazon KVS,右边是消费端。通过 WebRTC 连接到 Alexa 云,实现双向实时通讯。基于 Amazon KVS 打造智能视觉产品目前已有丰富的实践案例。科技公司 Wyze Labs (Wyze) 将 Amazon Kinesis Video Streams 与 WebRTC 结合使用,以提高实时视频流的质量和在其相机产品和智能助手 (如 Alexa) 之间实现更好地连接。凭借此功能,Wyze 能够将 Wyze 新功能的上市时 间缩短 50%。Wyze 的高级首席架构师 Keith Ho 解释说:“在亚马逊云科技 上, 我们能够将时间线缩短 6 个月,并将工程成本减少两倍,因为基础设施、可扩展性、性能和系统已经存在。”九安智能 2021 年起,正式和亚马逊云科技进入深度合作阶段,利用亚马逊云科技提供的全球广泛而深入的云服务,构建九安智能最新一代的音视频监控云平台。利用 Amazon KVS 构建九安智能的新一代音视频监控云平台,主要为用户提供远程实时的视频预览和录像查看、存储、云端的 AI 识别服务、智能音箱链接和推送报警信息。分享的最后,李寅祥总结了 Amazon KVS 的几大优势,并提供了相关的参考资料供大家了解。智能视觉市场技术复杂 Amazon IoT 使得您可以简便的构建可扩展的 IoT 应用管理物联网设备,而不需要维护任何基础设施。KVS 提供可扩展的方案用于接收、存储、分析及回放摄像头传输的媒体流。安全保障 使用亚马逊云科技提供的内置设备认证机制初始化设备,根据需要授权资源访问、加密数据,并主动检测威胁来确保设备、数据的安全。扩展性及互操作性 利用亚马逊云科技的基础设施便捷的批量注册百万级设备。使用 Amazon IoT 及 KVS 实现与 Alexa、Google Home 之类的语音助手集成。易于实现且实用的功能 通过 WebRTC 实现实时、双向音视频通信。无需额外软件,灵活存储不同的文件格式(mp4/mkv)。通过简单的 API 使用 HLS/MPEG-DASH 协议回看与其他亚马逊云科技服务集成进行分析从视频获取信息。专注于更快地打造解决方案 通过托管服务释放精力用于产品创新、研发。参考资料Fleet Provisioning -https://aws.amazon.com/blogs/iot/how-to-automate-onboarding-of-iot-devices-to-aws-iot-core-at-scale-with-fleet-provisioning/?IoT Authorization Calls - https://docs.aws.amazon.com/iot/latest/developerguide/authorizing-direct-aws.html?KVS Producer Libraries - https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/producer-sdk.html?KVS Playback documentation - https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/how-playback.html?KVS Developer Guide -https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/kinesisvideo-dg.pdf?KVS Security - https://docs.aws.amazon.com/kinesisvideostreams/latest/dg/security.html?KVS WebRTC FAQs - https://docs.aws.amazon.com/kinesisvideostreams-webrtc-dg/latest/devguide/what-is-kvswebrtc.html?Wyze Labs-https://youtu.be/c9crp1vQ0lI?t=1643?感兴趣的开发者可扫描下方二维码领取IoT行业资料大礼包👇扫码加入IoT行业交流群👇
| 3,108 | 1,658,134,233,968 |
InfoQ
|
147 |
数据爆炸时代,要怎样应对云存储挑战?
|
2022年,远程办公已经变得常态化,拥有可靠的云端数据存储系统或服务比以往任何时候都更加重要。 个人云存储概念的兴起始于 2007 年,当时 Dropbox CEO Drew Houston在无数次丢失U盘后创建了第一个个人小型企业云存储服务。这在当时是一个激进的想法,但却受到了广泛关注。 在今天,每个业务都应该是数据驱动的业务,覆盖各行各业。数据的爆发性增长,尤其是云上数据增长已经是新常态。大数据的下半场,是存储的较量 随着全社会数字化转型进入深水区,数据大爆炸带来业务突飞猛进发展的同时,数据增长也会带来很多问题,存储并不是简单的只是把0和1的比特放在物理介质上这么简单,这里存在大量业务层面需要关注的问题。 第一是敏捷和成本。如何应对海量数据增长所带来的成本急速上升与数据存储服务敏捷性能之间根深蒂固的矛盾;第二是数据本身多样化的需求。我们的业务数据来源是纷繁复杂的。数据以各种方式来自各种渠道,而且各个业务数据本身的性质不同,所使用的方式也是不一样的,我们要思考的是如何设计不同的存储服务满足不同业务的需求。第三,在数据安全合规被提到空前重要的大背景下,数据存储如何解决安全与合规问题,也是当下面临的主要挑战之一。亚马逊云科技在云端存储上的技术实践为了应对数据存储方面的挑战,亚马逊云科技自2006年就推出第一个云存储服务Amazon S3。时至今日,Amazon S3已经走过了16年。 亚马逊云科技大中华区产品部总经理陈晓建表示: “存储服务是亚马逊云科技在成立之初就开始提供的云服务,16年来我们仍然像创立之初一样,通过不断创新来夯实这一基础服务在市场上的优势地位。如今,亚马逊云科技的存储服务已经全面覆盖了对象存储、块存储、文件存储、数据备份、数据容灾、以及数据传输与边缘处理各个方面,客户可根据自身需求灵活选择。随着企业工作负载上云的常态化,云端数据量持续爆发式增长,企业对存储成本、性能等也提出了更高的要求。我们希望能通过存储服务的不断创新,为客户提供功能更强大并兼具成本效益的存储服务,帮助他们在云端开展业务创新。” 为了解决上述提到的种种挑战,亚马逊云科技在存储服务产品的设计上给出了三种不同的解决对策: 1、智能分层。通过智能分层彻底解决数据的成本和数据的可用性、敏捷性之间的矛盾。2、专门构建。开发多种针对于不同场景下数据应用的存储产品来解决企业应用多种多样,需求各有不同的问题。3、统一数据保护。通过一站式云服务备份系统,解决数据安全合规的问题,同时也解决数据备份所带来成本增加的问题。智能分层 无论在任何业务中,用户都会面临数据增多,存储成本也就随之上升的问题。而数据成本只是其中一个最容易解决的问题,光解决成本问题不能解决存储本身带来的所有问题——数据来源多种多样,使用方法也不同,针对不同数据的类型我们应该有不同存储的产品相对应。 那么,应该怎么定义数据的类型?陈晓建表示,“这里有一种比较直观而且比较准确的方式:数据的温度。” 数据使用有不同的频率,比如说交易系统里的交易数据,To C系统里的用户日志,这些数据需要被频繁访问,这些数据称之为热数据;一些企业的业务数据,包括网站的数据,这些数据有可能需要按周或者按月的频率访问,因为不像热数据一样被访问得这么频繁,这些数据我们称之为温数据;再往下一层,手机相册数据、企业的其他数据,这些数据可能是几个月,甚至是一两年才会访问一次,这些数据我们可以把它作为归档数据,一旦存储之后它的访问频率并不是很高,这样的数据我们称之为冷数据;还有一种数据,一旦写入之后访问频率非常低,但是由于合法合规的要求,这些数据必须要能够进行持久化的存储,比如医疗影像的数据,国家规定这些数据必须存放30年,任何时候要用都可以及时拿出来。从业务特点来讲,这些数据本身对于存储读写性要求并不很高,但是要求数据的持久性,而且数据的量非常大,所以用户对于数据整个存储成本有着非常高的要求,这是冻数据。 从这一点上看,可以简单把一些数据分为热、温、冷、冻四个层次,对于云厂商来说,显然对于这四种不同的数据要有不同的存储服务才是最合理的。专门构建不同的云存储服务 成本问题解决了,但是不同数据类型的来源各不相同,使用方式不一样,需求也不一样,用户要怎样构建不同存储的服务来满足业务的需求?亚马逊云科技提出的对策是专门构建不同的云存储服务。 实际上,到今天为止IT化已经基本完成,每个应用和业务都会产生大量的数据。我们面对的数据类型也已经足够多了,如果要把这么多种类的数据做一个大概的区分,基本可以分为两大类:第一类是云原生的现代化应用产生的数据,第二类是传统的云端企业应用产生的数据。 云原生应用产生的数据指的是电商、游戏、社交等等,这些应用大部分本来就是诞生在公有云上的应用所产生的数据;第二类企业应用不是公有云之后才产生的,相反这些企业应用,像ERP、CRM、EDA已经存在很多年了,公有云之前它们就存在了,它们依赖的技术和架构并不会考虑云的存在,所以很显然这两个应用产生的数据在处理上是非常不一样的。 数据存储对于云原生应用来说非常简单。社交媒体、电商本身在云上构建,大量的业务依赖云的微服务架构,也很适应云的应用方式,很显然对云原生应用来说希望存储是一样的架构。云的特点是用户不用考虑底层架构,无论是伸缩、全覆盖、运维,这些事情都是云来完成的,用户只需调用简单的API接口就全搞定了,自然存储也应该是这样。 陈晓建表示,对于云原生应用的云存储服务问题,亚马逊云科技的解决办法有两个:第一个是Amazon S3,第二个Amazon EFS。 Amazon S3 就是一个简单的API,不用管任何背后的细节。大量的应用和非常多的云存储都是放在Amazon S3上的,它已经成为了对象存储工业界的事实标准。 有很多的业务依然依赖于传统的文件系统的调研方式,所以亚马逊云科技还提供了Amazon EFS。Amazon EFS是共享文件系统,是完全兼容容器、无服务器化的应用。Amazon EFS系统不光是跟云原生一样不用做任何的配置和运维,而且和其他亚马逊云科技的服务高度集成,用户一旦用容器就可以非常容易的挂载到Amazon EFS里。所以Amazon EFS和Amazon S3能够很好地解决云原生业务的需求。 而企业应用就复杂多了。在公有云诞生之前,就存在大量的各种各样的企业应用。对企业应用来说, 首先,已经存在很多之前就有的特点,比如说快照、镜像、远程复制、多种存储协议等等,如果要上云必须要支持这些,如果在ERP和企业应用上云的时候需要按照Amazon S3和Amazon EFS的接口重新改变代码,那么没有企业用户愿意这样做。所以保证兼容对企业来说是非常重要的工作。其次,企业应用还有各个行业的特点,比如说高性能计算、大数据分析,可能对网络、机器性能各方面都有很高的要求,这些是在提供企业应用存储服务的时候必须要考虑的。 企业在云端有各类不同的业务场景,对共享文件存储有着不同的要求,陈晓建列举了一些目前存在的比较主要的四大类企业应用: 第一类是Windows为主的应用,底层服务要完全满足Windows的环境,包括ACL文件访问控制权限,包括Active Directory兼容。第二是高性能计算,不可能通过单个节点完成,一定是多节点协同的,数据是共享的。真正在跑的高性能集群往往是几百个节点,甚至几千个节点共享一份数据,这样就带来一个问题,首先第一个需要共享的存储,第二个由于这份数据要被几百个、几千个节点同时访问,所以对整个存储的性能和吞吐率也提出了非常高的要求。第三是基于各类多种多样的企业应用,这些应用要上云必须完美的兼容和支持好之前提供的功能。第四是大数据的环境,往往需要一些特殊的支持,包括像ZFS,需要具备高吞吐、低延时的技术。 陈晓建表示:“从存储角度来说这四类代表了企业应用里四个主要的不同的场景,是需要我们考虑的,所以我们专门构建了一个场景化应用FSx家族,X意味着多种文件存储类型,专门为企业不同业务需求构建”。统一数据保护安全与合规也是数据存储时不容忽视的重要一环。 尽管市场上数据备份工具的种类多种多样,但数据备份在技术层面来讲,仍然存在着很多问题。 首先很多系统都是使用起来非常复杂的,操作起来有一定门槛;第二,怎么保证安全合法合规的要求又是一大挑战;第三,由于做备份一定会带来额外的成本,如何解决这个问题? 基于以上问题,亚马逊云科技推出了Amazon Backup,用户可以借助可Amazon Backup来满足其业务连续性和合规要求。 Amazon Backup可统一保护客户应用程序的数据,跨越亚马逊云科技的计算、数据库以及文件,对象和块存储服务。在过去一年,亚马逊云科技将Amazon Backup扩展至Amazon S3和VMware工作负载,让客户使用统一的数据保护策略,即可配置、管理和监督数据的备份与恢复,此外还涵盖Amazon Elastic Compute Cloud (Amazon EC2)、 Amazon EBS、Amazon Relational Database Service (Amazon RDS)、Amazon Aurora、Amazon DynamoDB、Amazon DocumentDB、Amazon Neptune、Amazon FSx、Amazon EFS和Amazon Storage Gateway。用户还可以使用Amazon Backup Audit Manager生成审计报告来帮助其满足合规要求,并使用Amazon Backup中内置的细粒度访问控制以及Amazon Backup Vault Lock,保持备份不变,防止意外或恶意删除。
| 1,720 | 1,658,124,472,142 |
InfoQ
|
148 |
亚马逊云科技案例研究:陕西科技大学
|
“使用亚马逊云科技最大的好处就是方便快捷效率高。研究团队使用Amazon SageMaker处理Amazon S3上的数据,数据存取速度比使用本地实验室算力提高了10倍,让整个研究项目的实验时间缩短了三分之二,研究总周期减少了一半。” 齐勇 陕西科技大学 皮肤听声项目研究团队负责人陕西科技大学是我国西部地区唯一一所以轻工为特色的多科性大学,创建于1958年,是国家“中西部高校基础能力建设工程”建设高校,“十二五”期间陕西省重点建设的高水平大学,陕西省人民政府与中国轻工集团公司共同建设的重点高校。目前学校有专任教师1200多人,具有高级专业技术职称的近600人;有全日制各类在校学生21,000多人,其中博士、硕士研究生近3000人。图书馆藏书近200万册。陕西科技大学现有西安未央校区、太华路校区和咸阳校区三个校区,设有轻工科学与工程学院、材料科学与工程学院、环境科学与工程学院等13个学院(部)。2017年1月,材料科学学科进入ESI全球排名前1%,迈入国际一流学科行列。业务需求与挑战要建设一流的大学,就离不开信息化和智能化的支持。近年来,陕西科技大学一直重视IT基础设施升级以及实验室基础能力的提升,从2018年开始,陕西科技大学与亚马逊云科技进行了诸多合作,利用云计算能力助力校园信息化建设和科研,取得了丰硕成果。科研创新方面,陕西科技大学一开始使用本地算力、自建机器学习环境来支持研究皮肤听声项目的延伸课题——人类脑部活动研究。皮肤听声是通过声电转化,将声音信号转化为电流,刺激人体皮肤,信息反馈到相关的大脑功能区,实现听声效果。项目组利用开源的功能磁共振图像数据集,对大量的脑部磁共振图像进行可视化分析。具体的分析过程中,需要分批获取原始数据集,对原始数据集进行数据预处理,汇入标准数据集,将标准数据集输入卷积神经网络,输出可视化的结果。利用学校实验室的算力来处理这些数据之前,需要花费很多时间搭建和配置机器学习环境;在开始处理数据之后,面对超过10TB的数据,实验室的本地工作站犹如小马拉大车,速度往往以周计算。于是,研究团队决定寻找更高效的方式,以期解放研究人员的精力。IT基础设施方面,陕西科技大学早期自建数据中心采用虚拟化技术构建,运行着超过100台虚拟服务器来支持校务信息化的不同应用模块与服务。2017年12月,在一次由于校园考试高峰流量冲击引起的IT事故中,陕西科技大学应用技术部的IT运维团队意识到了传统信息化建设方式存在的瓶颈,传统数据中心成本高昂,运维压力大,并且缺乏弹性与可靠性。如果要继续保持系统的稳定运行,需要投入大量的资金,并且学校与企业不同,采用严格预算制度的学校很难针对突发状况拨出额外的资金支持。伴随着学校的移动服务平台,以及新版一卡通等应用的上线,新业务部署需要花费IT团队较多的精力,从硬件、软件、系统方面进行部署和调优。因此,学校的IT团队需要探索全新的IT资源配置方式。为什么选择亚马逊云科技在选择云服务提供商时,陕西科技大学对市场上的多个品牌进行了细致的对比,最终选择了亚马逊云科技。之所以做出这样的选择,正是看中了亚马逊云科技在以下几方面的优势:高效便捷的机器学习平台亚马逊云科技的核心优势是持续的技术创新,Amazon SageMaker 则是这一优势的最好体现。借助Amazon SageMaker,陕西科技大学可以享受端到端的机器学习服务,无需自行搭建机器学习环境,且可以快速轻松地构建和训练机器学习模型,然后将它们直接部署到生产就绪的托管环境中。陕西科技大学的科研项目需要存储和处理超过10TB的海量数据,极大地提升了数据存储和处理的效率,解放了研究团队的大量精力。按需付费的IT资源以及丰富的自动化运维工具亚马逊云科技在中国拥有由光环新网运营的亚马逊云科技中国(北京)和由西云数据运营的亚马逊云科技中国(宁夏)两个区域,内容分发效率高。借助亚马逊云科技,陕西科技大学无需预置IT资源,可按需付费且享受良好的扩展性,同时平台拥有丰富便捷的自动化运维工具,可覆盖从运行监控、问题检测到健康程度可视化的全流程需求。除此外,借助云上托管的Amazon Relational Database Service (Amazon RDS)for Oracle,陕西科技大学得以快速部署 Oracle Database。而所有存储在亚马逊云科技平台上的数据,均有数十项合规认证以及高度安全的亚马逊云科技区域做保障,很好地满足了陕西科技大学对于数据安全性和隐私保护的要求。专业可靠的服务亚马逊云科技可以提供符合陕西科技大学校务信息化运营的高水平服务,让其可以获得从本地数据中心到云上迁移的充足技术支持,同时亚马逊云科技通过 Amazon Academy 项目将自身的经验和技术与教育机构客户进行分享,借助免费的亚马逊云科技专业学习,陕西科技大学师生有机会通过实践经验获得云计算技能,提升自身竞争力。获得的收益通过使用亚马逊云科技的产品和服务,陕西科技大学升级了传统陈旧的本地数据中心与虚拟化平台,并提升了科研基础能力。其所获得的收益来自以下几个方面:提升数据存取与处理效率,缩短研究和实验周期首先,使用亚马逊云科技的云上算力进行数据处理,不仅节省了长达数周的数据下载时间,而且通过使用Amazon SageMaker机器学习平台,不需要自己搭建机器学习环境,既省时也省力。研究团队使用Amazon SageMaker处理Amazon S3上的数据,数据存取速度比使用本地实验室算力提高了10倍,并仅用3个多月时间,就处理完成了包括1200份受试者数据的开源数据集,获得了解码精度达88.7%脑功能区可视化数据,让整个研究项目的实验时间缩短了三分之二,研究总周期减少了一半。其次,运用基于注意力模型的深度学习计算机视觉分析技术,与现有的医疗影像分析框架相结合,将大脑图像信息快速解耦,分离得到脑部的拓扑功能分配机制,分析大脑皮层功能区域的变化特点,有助于识别各类脑疾病,判断病灶部位,并对进一步了解脑部功能机制提供非主观可重复实验的数据样本。研究团队负责人齐勇博士说到“使用亚马逊云科技最大的好处就是方便快捷。不仅能快速准备好海量数据,而且由于使用Amazon SageMaker开展机器学习,不用自己搭建机器学习环境,数据的处理均可以在云上进行,从而解放了团队大量的精力。在2020年疫情期间,研究团队不用集中到实验室,通过远程即可实现协作,真正做到让团队专注于研究项目上,节省了大量的宝贵时间” 。大幅降低IT资源成本和IT运维工作量 在采用亚马逊云科技之后,陕西科技大学可以采用按需使用,按用量付费的方式来使用IT资源,而无需像传统本地虚拟化环境那样事先采购软硬件,并对容量做出规划。“亚马逊云科技不仅提供了各种托管服务,也提供了自动化运维和部署工具。我们可以使用Amazon CloudWatch简单直观地监控应用程序、了解和响应系统范围的性能变化、优化资源利用率,并在统一视图中查看运营状况。以前我们需要4个人来管理本地虚拟化环境;在使用亚马逊云科技服务后,我们只需1个人对服务进行监控,即可保障环境的稳定运行。”如图1是陕西科技大学基于亚马逊云科技的系统架构示意图,所使用的亚马逊云科技服务包括:Amazon Elastic Compute Cloud (Amazon EC2)、Amazon Simple Storage Service (Amazon S3)、Amazon Storage Gateway、Amazon Database Migration Service、Amazon RDS for Oracle、Amazon CloudWatch等。图 1 陕西科技大学基于亚马逊云科技的架构图高效无缝迁移上云,在教学实践中引入云计算知识借助亚马逊云科技 Storage Gateway所提供的压缩和带宽管理能力,陕西科技大学得以快速完成数据迁移上云。同时,陕西科技大学借助 Amazon DMS 在云上建立了一套校园一卡通平台的热备数据库,最大程度地避免了依赖该数据库的一卡通核心应用程序的停机。此外,亚马逊云科技也让陕西科技大学可以用创新的云技术促进教研与课程改革,提升毕业生的核心竞争力。学校应用技术部计划与各学院展开合作,在大学计算机课程中引入最新的云计算知识,结合动手实践能力的培养,让学生获得完整的云计算技能与认证。陕西科技大学信息与网络管理中心应用技术部陈峰说,“学校本身具有一套部署在亚马逊云科技上的校务服务生产环境,结合Amazon Academy所提供的内容,我们能够在教学实践中缩短行业与高校之间的差距,学生可以更加直观地了解云计算的价值,让我们的学生可以在未来的职场中更有信心地利用云技术,为他们开拓更广阔的就业和创业机遇。”展望未来未来,陕西科技大学计划将学校的教务、科研计划等应用迁移到亚马逊云科技上,并积极采用Amazon Lambda实现无服务器化的应用部署。届时,学校只需将新应用的代码上传即可实现云端运行。此外,随着陕西科技大学对亚马逊云科技服务应用的不断深入,双方将继续在云计算技术支持学校IT创新、教学科研等多个领域携手合作,以亚马逊云科技前沿的云计算经验与技术助力高校学生的创新与创业,为西部地区的高等教育发展提供动力。
| 3,474 | 1,657,528,087,661 |
InfoQ
|
149 |
【Serverless For Good-2022】 编程挑战赛报名开启,丰厚奖金只等你拿!
|
技术的发展总是指向一个根本的方向——化繁为简。Serverless 的诞生亦是如此。Serverless 简化了云计算的编程,代表了程序员生产力的又一次变革,一如编程语言从汇编时代演变为高级语言时代。2014 年,亚马逊云科技发布 Amazon Lambda,正式拉开了 Serverless 时代的序幕。在其后的很长一段时间 Serverless 技术在开发者的心目中几乎和 Amazon Lambda 服务画上了等号。时至今日,8 年过去了,Serverless 发展的脚步不断向前。Amazon Lambda 持续更新迭代,越来越多的 Serverless 服务和架构涌现,企业 / 开发者讨论的话题也从“要不要用”向“如何更好地用”转变......为了帮助更多开发者了解、熟悉无服务器技术,推动无服务器架构创新,曾经开创业界先河的亚马逊云科技将举办 【Serverless For Good - 2022】 编程挑战赛。如果你想了解前沿的无服务器技术,如果你想赚取丰厚的奖金,如果你想获得独一无二的参赛经历,如果你拥有一颗用代码让世界变得不一样的心,快来参赛吧!参赛条件参赛对象:不论你是高校学生、创业者、极客企业,还是个人开发者,只要你爱 Coding,都可以在这里挥洒创意,尽情创造;报名要求:推荐组队参赛,队伍规模可为 1-5 人,每人只限加入 1 支队伍,每队所有队员均需提交报名表单;作品要求:需保证作品的原创性,一旦发现抄袭、剽窃其他项目作品并经核实后,将取消参与资格。赛程设置初赛(线上):7 月 6 日 -8 月 19 日决赛:8 月 20 日 -9 月 18 日决赛路演(上海):9 月 23 日赛题介绍初赛(定向赛)参赛选手从给定的两个场景中任选其一,基于 Amazon Serverless 架构实现。每个场景都给出了推荐架构,供参赛者参考,组委会在初赛前将安排一次统一的在线培训。开发者团队可采用推荐架构,也可自由进行架构设计。评委根据作品完成度、技术架构、创意度等评分标准进行评分,前 5-8 名团队进入决赛。场景一、Serverless Image Handler动态转换 S3 上的图片,并缓存在 CDNa. 可以动态缩放图片;b. 可以加水印;(显性)c. 自由发挥功能;(附加功能)CloudFront → Lambda Function URLs → Lambda Function → S3目标受众:了解图像处理技术 / 开源工具典型场景:网络上对于图片经常需要执行动态的处理(动态缩图,加水印等)场景二、Amazon Instance Scheduler定时启动或者关闭具有指定标签的 EC2 实例 实现一个线上的工具可以关闭和启动指定标签 EC2 实例EventBridge → Lambda → EC2评分要素作品完成度 50%技术架构 20%使用体验 20%创意度 10%作品提交参赛选手初赛阶段需提交:作品代码、技术文档;作品代码及技术文档需提交科大讯飞平台;初赛阶段选手提交作品时间截止至 8 月 19 日;组委会将从 8 月 5 日起定期审核选手提交作品,审核结果将在 7-15 个工作日内邮件通知;每个作品有三次修改机会,达到决赛标准的队伍将收到入围邮件,收到邮件后即可准备决赛赛题。决赛(创意赛)参赛者基于 Amazon Serverless 架构 ,利用 Amazon Serverless 服务,实现社交泛娱乐、互动游戏、电商平台、IoT 等现代化应用场景的搭建,并实现交互。你可以将 Serverless 架构用于物联网场景消除现实与数字世界之间的鸿沟,你可以考虑用 Serverless 解决社交场景下图像、视频处理等诸多问题,亦或是考虑开发一个电商网站,优化剁手党的购物体验...... 更多场景等待着你去解锁!尽情发动你的想象力与创造力吧!* 推荐场景及服务见详情页,扫描文章底部二维码可见。决赛阶段参赛团队必须完成能够使用的 Demo,可为 Web 网站、APP、小程序等,形式不限,使用的开发语言不限。评分要素作品完成度 30%商业价值 30%创意度 20%使用体验 10%技术难度 10%作品提交参赛选手决赛阶段需提交:测试版作品(DEMO)、作品代码、技术文档、作品演示 PPT;作品代码及技术文档需提交科大讯飞平台;作品提交时间截止至 9 月 18 日。现场答辩作品评审会以现场答辩的方式进行;每支队伍 10-15 分钟演讲,5-7 分钟评委问答,具体安排另行通知。奖项设置一等奖:奖金 3 万元人民币二等奖:奖金 2 万元人民币三等奖:奖金 1 万元人民币优秀奖 (3 名): 价值总额 14000 元人民币的礼品 (机械键盘 / 京东礼品卡)报名方式扫描二维码了解详情及报名,报名成功后将有工作人员与您联系。有问题可添加小助手微信:infoq2021
| 5,959 | 1,657,525,283,089 |
InfoQ
|
150 |
TLS 1.2成为亚马逊云科技最低TLS协议级别
|
亚马逊云科技最近宣布,TLS 1.2将成为API端点的最低协议级别,并将于2023年6月前在所有API和地区取消对TLS 1.0和1.1版本的兼容和支持。 亚马逊云科技高级技术项目经理Janelle Hopper,高级专业技术客户经理Daniel Salzedo,以及软件开发工程师Ben Sherman解释说:为了保持向后兼容,我们一直在亚马逊云上支持TLS 1.0和1.1版本,因为有些客户还在使用旧客户端,或者有些客户端难以更新(如嵌入式设备)。此外,我们还采取了积极的缓解措施,保护客户的数据免受旧版本中发现的问题所影响。现在是退役TLS 1.0和1.1的恰当时机,因为越来越多的客户要求做出这一修改,以帮助他们简化部分合规性工作,而且,使用这些旧版本的客户越来越少。按照他们的说法,亚马逊云科技95%的客户已经在使用更新的加密协议。目前,最常使用TLS 1.0或1.1的是低于4.6.2的.NET框架版本。亚马逊云科技副总裁兼杰出工程师Colm MacCárthaigh在推特上说:在亚马逊云科技,我们几乎从不关闭任何东西,但TLS1.0和TLS1.1正在被砍掉!还在使用这些版本的客户很少,你可以查看CloudTrail日志,看一下是否有任何请求在使用这些版本。UCL安全工程教授、英国皇家学会研究员Steven Murdoch警告说,大多数TLS 1.1连接可能都是不受欢迎的:当考虑在benthamsgaze.org上强制推行TLS 1.2时,我发现TLS 1.1连接的数量还不小。而经过进一步调查发现,每一个这样的连接都在试图利用一些不存在的漏洞。我并不为失去这些流量感到难过。可以使用最近添加的tlsDetails字段监控AWS CloudTrail日志,以确定当前是否使用了过时的TLS版本。亚马逊云科技建议用CloudTrail Lake、CloudWatch Log Insights或Athena解析记录。CloudWatch Log Insights有两个新的样本查询,可用于查找使用TLS 1.0或1.1的日志条目,以及查找每个使用过时TLS版本的服务的调用数量。图片来源:https://aws.amazon.com/blogs/security/tls-1-2-required-for-aws-endpoints/ AWS CLI第二版已经强制使用TLS 1.2,这已经是所有AWS FIPS端点的要求。亚马逊云科技提醒说,虽然大多数仍在使用TLS 1.0或1.1的客户会收到通知,但并不是每一种情况他们都能发现:如果我们检测到您正在使用TLS 1.0或1.1,那么您会在AWS健康仪表板上收到通知,并且也会收到电子邮件通知。但是,如果您以匿名方式连接到AWS共享资源,例如公共的Amazon S3桶,那么您将不会收到通知,因为我们无法识别匿名连接用户的身份。此外,(......)我们有可能无法检测到不经常出现的连接,例如那些一个月内都没出现的连接。为了最大限度地减少推行TLS 1.2带来的可用性影响,亚马逊云科技会在未来几个月内逐端点推出这些变更。2023年6月28日之后,他们将更新端点配置,即使客户仍有使用旧版本的连接。作者简介:Renato Losio拥有多年的软件工程师、技术负责人和云服务专家工作经验,曾在意大利、英国、葡萄牙和德国等国家工作。他住在柏林,作为Funambol的首席云架构师远程工作。他主要关注云服务和关系型数据库。他是AWS Data Hero。 原文链接:TLS 1.2 Becoming the Minimum TLS Protocol Level on AWS
| 4,750 | 1,657,242,711,189 |
InfoQ
|
151 |
亚马逊云科技案例研究: TCL 实业
|
TCL 实业在云服务端采用了 AWS WAF 来防护攻击,从监测的数据上来看,一周内抵御了超过 13 万次的恶意请求,接近 10 万次的程序自动攻击,防御效果显著。”林舜大TCL 实业鸿鹄实验室 安全部部长TCL 实业聚焦智能终端业务,以客户为中心,构建 AI x IoT 全场景智慧生活,致力于成为全球卓越的智能科技产业集团。产品销售种类涵盖智能屏、空调、智能移动及连接设备、冰箱、洗衣机、健康电器、智能语音等。TCL 实业的业务遍及全球 160 多个国家和地区,在 80 多个国家和地区设有销售机构,60% 的收入来自海外业务。经过不断努力,TCL 实业已形成全球相对完善的产业布局和供应链能力。AI x IoT 安全挑战及应对之道万物互联时代,产品的智能化不断提高。作为一家聚焦智能终端业务的公司,TCL 实业近年来大力发展 AI x IoT 全屋智能家电产品,构建智能家居生态圈。为了实现更好的用户体验,TCL 实业在云、管、边、端和连接上不懈努力。云端有 AI 平台、IoT 云平台、大数据平台等全球化部署的平台,实现万物互联、数据分析、智能服务的业务闭环。终端有跨屏幕终端 TCL+ App、TCL HOME App 和小程序等,融合多种智能场景。加之,开发性能优异、安全可靠、高性价比、即插即用的模组及协议的连接技术,共同构成了 AI x IoT 全场景智能家居生态圈。然而,AI x IoT 全场景智能家居生态圈在更加智能化和为用户带来更多便利的同时,也带来了新的风险和挑战,网络安全和隐私保护问题愈加凸显。例如,智能终端设备的固件会被替换成非法固件,不法分子借此获取密钥及各种信息;联网产品和云端被攻击也基本从通信入手,网络劫持、中间人攻击等手段层出不穷,进而导致数据泄露;存储大量数据、掌握大量控制和服务的云端也会时不时受到攻击,这些攻击轻则导致云端服务不可用,重则导致大量用户信息,甚至是敏感信息泄露。 网络安全和隐私保护问题刻不容缓。但 TCL 实业的业务线非常广泛,每条业务线的要求也不尽相同,如何做到对症下药?TCL 实业控股 CTO 孙力表示;“一般来说,企业会采用最适合自己的工具和合作伙伴来满足业务和用户的需求。”经过业务特性、目标国家的可获取性、安全合规、技术服务、架构、综合成本等方面的多方考量,TCL 实业决定在海外主要采用 AWS 的云服务。注入安全基因,打赢 AI x IoT 云端安全守卫战在整个 AI x IoT 的系统和生态面临的安全问题中,最大的威胁之一是来自云服务平台的威胁。由于平台网站的目标相对固定,存储数据量大,攻击手段非常多,并且十分成熟。因此,林舜大认为,AI x IoT 智能家居生态圈的安全重点是云服务平台网站的安全性。TCL 实业对云服务进行了详细的梳理,并采取分级策略,进行层层递进的安全管理,对级别高的平台会采用更加强劲的安全措施。TCL 实业将安全级别分为三级。一级为内部网站、测试网站、共享类或者学习类的网站,对于这类网站的策略是守住关口,基本不需要在安全产品上进行投入;二级平台为公司的主要网站,如广告、品牌形象、业务支撑和售后系统,对于这类网站需要加强端口的安全措施,识别出其中的重要数据进行保护,并定期进行安全扫描;三级平台为公司关键基础设施、存放大量用户信息的网站,比如 IoT 平台、大数据平台、AI 平台等,对于这类平台需要对关口进行全方位的加强,整体进行全方位的保护,甚至引入态势感知等安全产品。采用这种分级策略,跟 AWS 在云服务安全方面的理念十分贴合。对于二级平台及以上的云服务,TCL 实业都会采用 AWS WAF 来进行防护。据统计,TCL 实业系统的大部分漏洞都集中在云服务端,利用 AWS WAF 定制规则,进行流量筛选,阻隔恶意的访问。从监控的数据来看,一周防护了超过 13 万次的恶意请求,接近 10 万次的程序自动攻击,效果非常不错。AWS 云端安全方案示意图此外,针对近年来比较猖狂的勒索病毒,TCL 实业同样采用 AWS WAF 的安全措施,并在此之上进行二次开发,监测受攻击的情况,很大程度防范了网络攻击和勒索病毒等安全事件的发生。林舜大说:“AWS 的服务非常专业,除了防范勒索病毒,我们也会购买 AWS 额外的 DDoS 服务来防范相关的安全问题。”合规与隐私,为 TCL 实业全球化部署构筑基石随着国际各国对用户隐私保护的法律越来越严格,对联网设备的安全规定也越来越严苛,比如欧盟的《通用数据保护条例》(GDPR)、美国的《加州消费者隐私法案》(CCPA)、国内的《个人隐私保护法》《数据安全法》《网络安全法》等网络空间相关法律的发布,都要求涉及联网产品、云端服务,必须大力加强产品系统相关的安全研发和建设。法律法规明确要求联网产品必须进行安全设计、安全测试、出现安全问题必须及时地反馈和处理。在安全设计方面,TCL 实业携手 AWS 采用分级策略,保证安全设计的可靠性。在安全测试方面,TCL 实业在自主研发的基础上,采用 AWS 云安全漏洞检测系列工具,配合人工审计,对产品进行渗透和认证等措施。在及时反馈方面,TCL 实业建立安全应急响应中心,由专人负责运营。此外,TCL 实业的云服务还通过全球化部署,应对隐私合规和数据的问题。AWS 在美国、法兰克福、印度、新加坡等 26 个地理区域运营着 84 个可用区,服务覆盖 160 多个国家,有 3,000 多万以上的活跃用户。AWS 的云基础设施均通过了各个国家和地区的安全与合规认证,有安全与合规的基础保障,用户只需关注应用层之上的安全与合规即可。在隐私保护框架上,TCL 实业采用业界成熟的措施,从组织治理、政策流程,嵌入到业务上来保证产品的合规,进而不断提升整个组织的意识与能力,对公司的产品与业务进行有效的监控和改进,同时进行第三方认证,TCL 实业与 AWS 始终保持着密切的沟通和合作。AWS 提供了从认证、保护、检测、响应到恢复的 40 多种安全服务,TCL 实业已经采用了其中的部分服务。比如,隐私保护最离不开的其实就是数据加密,而数据加密过程中最让人担心的是密钥的安全性,包括对密钥的管理,密钥对性能的影响以及费用等等,经过一系列评估,TCL 实业决定采用 AWS Key Management Service(AWS KMS)来解决密钥安全性的问题。此外,TCL 实业还采用了 AWS Security Hub、AWS Transit Gateway、Amazon GuardDuty、Amazon CloudWatch 等服务获得全方位隐私及合规保护。安全隐私合规问题上,木桶效益非常明显。如果有一个短板被攻破,所有努力都将付诸东流。因此,治理安全隐私合规,一定是从组织、流程、预算、产品开发流程,包括自上而下的重视程度,以及相应机制的保障,否则只能限于被动的、事件驱动型的响应机制。TCL 实业将持续与 AWS 合作,不断地学习国外的安全合规的要求和经验,整个公司正体系化地开展安全合规建设。林舜大说:“安全与合规是 TCL 品牌差异化的重要部分,AWS 的云安全是这种品牌差异化的重要助推。”
| 3,173 | 1,657,183,752,037 |
InfoQ
|
152 |
我不想 MySQL 分片
|
Daniel Nichter 是《高效 MySQL 性能》(Efficient MySQL Performance)一书的作者,该由 O’Reilly 出版,目前尚无中译版本。Nichter在本文中又对书中第五章中关于分片的问题进行了讨论。 《高效 MySQL 性能》(Efficient MySQL Performance)第五章论述了分片问题,这个问题很难写,但并不是因为技术原因。关于这一问题,让我多说几句。 我的误解 这是我从第五章中删除的一段话和脚注: 然而,横向扩展并不是关系型数据存储的固有特性。这是历史原因导致的:关系型数据模型创建于 20 世纪 70 年代,当时由于硬件体积庞大且价格昂贵,所以横向扩展是不可能的。简单地说,关系型数据库不是为横向扩展而设计的。_{[1]}因此,横向扩展关系型数据存储需要一个外部过程:分片。 _{[1]}尽管关系型数据库不是为了横向扩展而设计的,但这既不是对其的批评,也不是它的缺陷,关系型模型在过去 40 多年里的流行程度不仅令人难以置信,并且毫无疑问,它已经成为技术和互联网不可或缺的一部分。 我删除了这一段(以及脚注),原因是其中有误导或错误,正如 Fernando Ipar(我的技术审稿人之一)指出的那样: 最好能找出一种方式(在这里或在现有的脚注上)来表达。严格来说,关系模型是一种逻辑模型,与物理层没有任何关系。这么说可能让人有点恼火,但以本人愚见,如果说关系模型不能扩展,那是因为我们已经达到了特定关系(或者更准确地说是受关系启发的)产品的极限。那就像是在说,由于你的尝试操作在特定型号的计算器造成了计算溢出,就断言算术无法扩展。区别就是为什么其他数据库有可能在支持分片的情况下,同时支持一些关系特性,并且对用户的透明程度要超过 MySQL(比如 ockroachDB、TiDB,甚至 MySQL Cluster)。我认为澄清这个问题的一个很好的建议就是《深度探索关系数据库》(Database in Depth,C.J. Date 著,由 O'Reilly 于 2005 年出版) 一书中第一章《模型与实施》(Model Versus Implementation)的内容。 事实上,这是 Data 在这本书第一章中的相关陈述(强调是我的观点): 首先要知道,性能,归根结底是实现的问题,而非模型问题——尽管存在着极其普遍的、与之相反的误解。比如,我们经常被告知“连接很慢”,但这样的说法毫无任何意义!连接(JOIN)是模型的一部分,而模型自身也不能称之为“快”或“慢”;只有“实现”可以说具有这样的特性。因此,我们可以这样说,某些特定产品 X 的连接实现比另一些特定产品 Y 更快或更慢,但也仅此而已。 我经常有 Date 和 iPar 所说的误解,如果不是 iPar 纠正我的话,我差点也会把同样的想法付诸印刷。更糟糕的是,我实际上还陈述了两个有些矛盾的理由: 关系型数据模型创建于 20 世纪 70 年代,当时由于硬件体积庞大且价格和昂贵,所以横向扩展是不可能的。关系型数据库不是为了横向扩展而设计的。 从表面上来看,这不是一个明显的逻辑错误,但它是错误的:1 是真的,但 2 并不是由 1 得出的。 诚然,从 20 世纪 70 年代一直到 21 世纪初,硬件体积都很庞大且价格昂贵(与今天的情况相比)。因此,企业不可能随心所欲地提供 100 个新数据库。(作为参考,亚马逊 EC2 于 2006 年发布。)采购任何服务器就如同购买一辆汽车:一项谨慎而又代价高昂的决策,打算拥有并持续运营数年之久。需要更多的容量?扩大现有服务器的规模:更多的内存,更大的硬盘,诸如此类。还需要更多的容量?那就购买“更大”的服务器:支持更快的 CPU,更多的 RAM 芯片,更多的硬盘托架,诸如此类。 但是,“关系型数据库不是为了横向扩展而设计的”这一说法并不正确。我不应该加上这句话,因为这正是 Date 在他书里第一章抨击的误解,这有充分的理由。引用 Date 的话:性能从根本上说是一个实现问题,而不是一个模型问题。规模是性能的一部分。 我们能避免分片吗? 现在是 2022 年 5 月,1 TB 的内存是存在的,但远非常态。最大的亚马逊云科技 RDS 实例类型是 db.x1e.32xlarge,具有 3904 GB 内存,几乎 4 TB。这令人印象深刻,但是我不想这样:我希望它是 2022 年的规范。 如果 TB 级的内存是常态,那么单个 MySQL 实例就有望能够处理几十 TB 的数据。我之所以强调“可能”,是因为尽管内存在避免分片时起着至关重要的作用,但它并不是唯一的因素。有时候,为了扩展写操作,需要进行分片。在这种情况下,存储 I/O 和延迟就成了更关键的因素。一些插到 PCIe 插槽的 NVMe 系统具有令人难以置信的性能,但就像 TB 级的内存一样,它们远非常态。即使内存和存储 I/O 解决了问题,那么网络传输速度呢?以 10Gbps 的速度传输 10TB 需要大约 2 小时。有更快的网速,但它们现在也还不是常态。 不要忘记模式迁移(OSC)和其他数据操作。目前,MySQL 只有两个 OSC 工具:pt-online-schema-change 和 gh-ost。这两者都可以处理 TB 级的数据,但都没有真正地优化速度或并行性,所以 TB 级的数据需要花上很多小时才能改变。 我认为,目前使用 MySQL(或其他类似的关系型数据库)是不可能避免分片的,原因是数据的增长速度已经远远超过了 MySQL 的硬件和工具。在过去的 20 年里,MySQL 做了很好的工作,但我认为,由于普遍可用的(和可负担得起的)硬件和工具,它已经接近了一个软极限。现在,我想这个软极限是 10TB 的数据——具有有利的(即轻量级)访问模式,较小的工作集大小,以及相对稳定的模式(或一个真正有耐心的团队/公司)。 数据增长与云计算 数据量不断增加。即使不在技术领域内,人们也知道数年前的设备能够存储 5GB 的数据,而现在可以存储 256GB。iPod 就是一个例子:人们意识到“我可以存储更多的数据”。(这个例子很及时,因为苹果公司的 iPod 在 20 年才停产)。让我们姑且假定这种长期存在的趋势是合理的,而不是由于数据膨胀或浪费。(我个人觉得,我们对数据的浪费是非常严重的,这就是为什么我在《高效 MySQL 性能》的第三章和第四章中详细阐述了这个问题)。 自从计算机出现以来,硬件的容量就在迅速增加(而成本在下降),这在技术领域也是广为人知的。因此,它跟上了数据增长的步伐,以至于不需要改变范式:只要继续购买更大的硬件(因为它变得更低廉),问题就解决了。这就是旧的范式:扩展你已经拥有的硬件规模。我只是泛泛而谈,总是有一些例外。 但近年来,有四件事发生了变化: 硬件容量的增长略微滞后。数据的增长显著增加。云变得普遍。发明了编排。 第 1 点说得很谨慎,因为硬件容量肯定一直在增加;第 2 点才是掩盖了第 1 点的主要变化,并使之复杂化。数据增长很容易爆炸,因为产生数据很容易。在市场上开发和推广硬件要困难得多(而且缓慢),因为大的变化需要其他新的硬件(例如从 SATA 到 PCIe)、新的内核和驱动程序,以及能够充分利用前面提到的新应用。 数据飞速增长,硬件也在努力追赶,云(第 3 点)在 2006 年亚马逊 EC2 推出时悄无声息地出现。但是,云实际上不过是另一个你租用而不是拥有的服务器。这意味着,亚马逊云科技(和其他云厂商)在幕后所使用的硬件和你可能原本计划购买的一样。(这不再是实际情况了,有些云厂商定制了他们自己的硬件)。 但云还是很有用的,因为它提供了一个抽象层,隐藏了采购和管理硬件的复杂性。人们经常使用“弹性”这个词:云中的计算资源具有弹性。这意味着你能够持续地将更多的数据存储到云端中,而无需过多关注其运行方式。 从这个角度来说,云是一个重大的演变,因为在云之外,真正的挑战不在于“我可以买一个足够大的硬盘吗?”(你可以),而在于“我可以以多快的速度采购和配置硬件,以及它可以持续多久?”公司不可能(也不会)每年不顾一切地购置新硬件。 相反,他们会计划、预算、购买、等待、接收、“上架”,最后(有时是几个月后)让新硬件上线。鉴于这种努力,公司要求硬件工作多年以彻底收回投资。这就是公司难以与爆炸性增长的数据保持同步的原因。但是,云改变了这一点。它抽象化了采购和管理硬件的复杂性:你只要按需租用你所需的任何东西就可以了。 云对于改变这种范式来说是必要条件,但还并不够。你可以提供所有你想要的资源,但是如果你这么做了,你又会遇到另外一个问题:如何放养这些传说中的猫?这句话的意思是:你可以提供一个资源集群,但你如何控制并管理它? 在 2013 年和 2014 年,Docker 和 Kubernetes 相继问世。这些都是容器化的技术(以及延伸到微服务),但它们都是使编排大规模的云资源集群变得可行的最终必需。所以,我们现在能够用编程方式(而且有点容易)来提供并编排几乎无限的云资源,并以“弹性”方式(通常是创建和销毁并重新创建资源)。 现在范式已经改变了,因为在云中,实际上没有任何限制;这只是一个你能负担得起的问题。笼统地说,新的范式是:“只要在云中扩展规模”。(其中“只要”一词意味着,考虑到编排工具,这应该是很容易的,但“容易”这个词显然是高度相对的。) 新范式中的 MySQL 回到 MySQL,围绕它的范式已经发生了改变。 一方面,我们有像 MySQL 这样的关系型数据库,这些数据库是在范式改变之前很久就创建了——当时的范式仍然是“扩大规模”:购买更大、更快的硬件。我认为对于 2000 年以后出生的工程师来说,了解这段历史很重要。 MySQL、Postgres 和类似的产品是在云或 Kubernetes 之前很久就问世了。在那时,无论你想要多少资源,“启动”的想法根本不可能。标准是扩大你已经拥有的资源,因为公司不愿意也不喜欢购买新硬件。这就是为什么 MySQL 在扩展方面非常出色,但却不能原生横向扩展的部分原因(为什么需要分片)。 另一方面,现代软件开发正在转向新范式,在新范式几乎没有资源限制:只要为你想要的大小/规模配置 Kubernetes(或任何编排工具),它(通常)就会提供任何需要的东西。(说“通常”是因为,如果你不知道,云有时确实会暂时耗尽资源)。 不足为奇的是,开发人员希望他们的数据库也可以做到这一点,但发现他们无法使用 MySQL、Postgres 和其他类似的数据库。这可如何是好? NewSQL 与创新者的困境 我们越来越多地看到 NewSQL 数据存储,它将数据库的计算层和存储层分开,这样就可以通过编排在云中进行横向扩展。考虑到范式的变化,这样做是有意义的;考虑到硬件和工具没有保持在数据增长曲线的前面,这也是有意义的。 例如,如果有硬件和工具可以轻松处理单个 100TB 的 MySQL 实例,那么 NewSQL 很可能就不会有市场。但目前情况并非如此。因此,为了使 MySQL 达到一定规模,开发人员必须实施和维护应用级分片,或者转向 NewSQL。 虽然分片已经被证明是行之有效的(关于 MySQL 分片已经有了很多知识和成功案例),但这仍然是一项非开发任务,开发人员经常告诉我他们不想做。 我不能责怪他们:他们被雇来开发应用程序的功能——而我被雇来为他们扩展数据库。(当然,我希望他们不要再这么浪费数据了,不过我要这么说就是跑题了。) 我认为我们正在见证“创新者的困境”。单一实例上的 SQL 是现任者:一个巨大的价值网络,它扎根于四十年的成功经验。NewSQL 是一家颠覆性的小微初创企业,目前正致力于解决一个利基问题,而且它似乎没有占据主要的市场份额(小的价值网络)。NewSQL 有可能取代现任者,包括 MySQL,特别是当 TiDB 等产品明确地与 MySQL 兼容,以进入现任者的价值网络时。 而毫不奇怪的是,NewSQL 的一个障碍是成本。NewSQL 数据库更为复杂,这需要更多的云资源,而且成本也更高。但我们也看到了这种情况:随着颠覆者市场份额的增加,成本也会下降。 题外话:Vitess 和类似产品并不是颠覆者:它们是现有价值网络到新价值网络的桥梁。如果真正的颠覆者获胜,这些桥梁就将慢慢消失。 那么,重点是什么? 对 MySQL 进行分片仍然是必要的,因为我们还处于一个不确定的时期,还不知道怎么可以避免分片:要么是负担得起的硬件容量大爆发(这实际上只是提供了更多的跑道,将问题进一步推向未来),要么是 NewSQL 成功颠覆了传统 SQL,成为主流。 似乎符合逻辑的是,在未来,软件工程师将不必处理应用级别的分片,因为那并不是他们真正的工作,而且 NewSQL 已经证明它不需要存在。这就是为什么我个人认为 NewSQL 会获胜,但是至少需要 5 年时间,更现实的是 10 年。 不过不用担心,MySQL 和其他单实例关系型数据库将在更长时间内继续发挥重要作用,以至于今天学习 MySQL 几乎是必需的,因为它无处不在。 原文链接:https://hackmysql.com/post/book-5/
| 3,697 | 1,656,666,254,912 |
InfoQ
|
153 |
出海之路百花齐放,行业新兵 F5 如何立足?
|
采访嘉宾:杜士峰、王志博编辑:辛晓亮 海外各行业对中国出口的需求变得越来越旺盛,出海之路百花齐放,但在陌生的环境下,如何正视、应对出海挑战,如何针对海外业务调整企业的技术架构,保证海内外客户一致的体验,都是大众所担心的问题。 基于这些背景,InfoQ最近采访了F5负责出海解决方案的两位负责人,以下是部分采访速记,供大家参考。 InfoQ:我个人理解当前国内企业出海需要具备以下几个条件,比如开源、上云、合规等,在您看来是什么样的情况呢,这中间又有哪些挑战? 杜士峰:我加入 F5 之前在云公司工作,在这方面还是深有感触,关于你提到的这些确实都是中国的企业出海的时候需要特别关注的几个重要条件。 首先我们现在可以看到,企业对于云原生架构(也可以说是你提到的开源)越来越热衷。现代应用的架构里仅确保企业更快地把应用推向市场,同时进行高频率的做迭代。但是现代应用 API 的调度、安全给企业的开发和运维也带来了新的挑战。过去传统应用使用前端+后端服务器的模式,现在多数应用之间都是通过大量 API 进行交互,那么 API 的暴露也会给管理和安全带来不小的挑战。 第二点,上云这部分也是没有太多争议的。云技术帮助出海的企业在时间、成本、技术、管理上都得到很大的效率提升。以 F5 为例,F5 与全球包括 AWS、Azure、GCP 还有国内阿里云、腾讯云等云厂商都有比较紧密的合作。比较大的企业客户会同时使用多个公有云,那么多个云之间的连接、网络交付、运维安全策略的统一管理就是一个痛点。 最后一点也是比较复杂的,就是法律法规和合规。遵守法律法规是出海企业在全球化过程中需要高度重视的。每个国家和地区在数据和业务上的法律法规要求都不尽相同。除了遵守法规之外,很重要的一点是数据的合规,数据是否按照 GDPR 进行本地环境的存储,是否对数据按安全级别进行分类,在数据账户的保护和数据泄漏相关的措施等等都是出海企业需要重点考虑的问题。 法律的合规与监管是非常复杂的,以 F5 为例,主要的解决方案是两种:一是确保业务和流程合规,对当地的法律法规进行充分的解读,比如说金融行业的规范、医疗行业的规范、数据或等级保护的规范等等。第二就是在技术上要提供防护与反欺诈的方案,这些可以帮助企业提升防止数据泄露、账户欺诈业务损失等方面的能力。 InfoQ:随着越来越多企业选择出海,公司的基础架构势必要针对新的业务进行升级,这中间会遇到哪些挑战,我们又该如何解决这些问题? 杜士峰:关于你提到的这些问题我做过一些总结,在 IT 和业务层面,主要的挑战和关注点包括以下几个方面。第一是多云环境下统一的安全服务策略。第二是多云和边缘情况下的应用安全与应用交付。第三则是保证高可靠性的同时提供高性价比的服务,比如你是否有足够的全球化的网络支撑,是否有足够的弹性资源,是否有足够的基础设施确保你的高性价比。第四是传统应用和现代应用的问题,我们目前讨论比较多的是现代应用,同时现在仍有非常多的应用是基于传统的架构设计的,那么既要满足现代应用的交付和安全的管理,又要满足传统应用,对企业来说也是一个挑战。最后,怎么让出海应用在应用管理上更一体化、智能化也非常重要。 王志博:关于解决方案,我可以做一些补充,从方案来讲 F5 一直在丰富全球的骨干网络,每周迭代适应来自不同应用的挑战,重点解决延时问题。同时跟海外比较多的公有云,Google、Azure 之间都有直连专线,整体延迟少于 10 毫秒。另外 F5 过去深耕于 WAF 、WAAP 领域,安全能力也比较强。此外,ISO9001、ISO27001 等标准认证包括 GDPR ,PCI DSS都是需要企业重点关注的。 InfoQ:分布式云从 2019 年被提出来,连续两年被 Gartner 定义为云计算的重点发展方向,关于这方面您怎么看? 杜士峰:我简单从趋势方面阐述一下。首先第一,毫无疑问 F5 一定会坚定的向成为 SaaS 公司的方向去发展,我们把 SaaS 作为 F5 在今后几大发展方向之一,其中一个是感知可控的应用;第二个是应用安全;第三,F5要成为一家 SaaS 公司。因为客户对上云的采纳率越来越高,同时对 SaaS 化的业务需求也越来越多。 在分布式云服务平台的基础之上,我们提供客户的开发、提供客户的管理和运维,增强基于现代应用和传统应用的安全能力,再增强全球交付到边缘的网络,让 F5 能够在上面变成一个综合的服务平台,既迎合了技术的趋势,也满足客户在云的架构下,在业务到边缘的场景下对基础的应用交付,还有网络安全统一策略的能力和要求。所以整个分布式平台会是 F5 非常坚定追随的一个方向。 InfoQ:是什么契机让 F5 瞄准出海市场?相比亚马逊与阿里云等云厂商,F5 的产品有哪些差异化的体现? 杜士峰:首先 F5 在出海领域还是个新兵,过去 F5 的很多业务,大部分都在比较标准的行业里,比如金融、运营商、医疗、制造、汽车等等。为什么要做跨境出海的市场?因为我们看到宏观趋势上,最近十多年以来中国经济的发展、中国企业全球化的进程都在加快。我们很明显的感受到从云的角度,从技术前沿的角度看中国的出海企业从早期输出原材料、输出制造型的企业为主,到现在以品牌为核心的消费电子行业,和游戏、电商、音视频、社交娱乐、金融科技等不同的领域。可以说中国的出海企业在过去十多年的发展里面,到现在已经呈现出百花齐放的格局。 同时,许多不同的企业,包括 TikTok、SHEIN、安克创新,甚至像小米、传音这些不同领域的企业逐渐成为全球领域的佼佼者。F5 在出海市场也是经过比较慎重的思考,过去,在数据中心领域或者传统应用领域,F5 毫无疑问一直是应用交付的领先厂商。最近几年 F5 的转型在加速,通过并购反欺诈领域的 Shape,边缘计算的 Volterra,和基于现代应用的 NGINX,丰富了 F5 从数据中心到云端、现代应用到边缘场景下的能力。让我们可以更好地把原来的应用交付和安全延伸到现在的客户,满足企业对 SaaS 化的需求。 第二个问题,与亚马逊和阿里云等云厂商服务上的差异化。从我的角度来看,我提供一个不同层面的比较。事实上我们和亚马逊云科技和阿里云等厂商有非常好的互补关系。举例子云厂商好比是一个高速公路,客户每一个应用就像一辆汽车,可能有跑车、轿车,也有货车。汽车在高速公路上跑依然需要加油站维修、补给、餐饮的服务等等。F5 就好比高速公路的加油站,帮助客户在高速公路跑得更快的同时,跑得更稳健、更安全。 InfoQ:刚才您说 F5 在出海方面还是个新兵,那么 F5 目前的定位主要在哪些方面,未来会有什么改变,是否可以分享一下建议给其他出海企业做参考? 杜士峰:我简单分享一下 F5 视角的建议,希望可以给其他出海企业带来参考,F5 最重要的一点是重视来自于客户的需求、来自于客户的痛点,从满足客户、帮助客户解决他们在出海过程中所面临的挑战出发。 首先 F5 在过去的 20 多年里面,我们具备在商用级别、企业级别的应用交付和应用安全。而随着客户新的需求变化,比如应用越来越现代化,比如以云原生的线路做开发,涉及到大量的开发的平台、开发的应用交付,包括运维,还有 API 的管理、API的调度,还有很重要的,涉及到当我们到边缘的时候,应用是不是能快速的到达边缘。再加上客户对合规和监管的要求越来越高,技术上既需要你提供服务的平台来满足 GDPR,满足 PCI,满足 ISO 这样的全球标准化的规范。同时对客户来讲,他们会受到大量的来自于恶意的流量攻击,为了确保合乎的体验,为了自己的运营效率比较要加强安全的能力。 那么结合客户出海的这些问题,F5 或者说所有提供出海服务的企业要能够帮助客户在现代应用里,无论是应用交付还是应用安全上提供更优的解决方案。 第二,企业客户需要将传统的应用向云上做迁移,基于云端做现代应用的开发。这可能会同时用到多个云的服务。如何确保客户在多云环境下,无论是本地的私有云还是多个公有云,甚至到边缘,他的应用交付、应用安全,统一的安全策略、统一的运维策略都能够更加简化。 第三,企业基于现代化设计的应用,需要借助全球化的网络更灵活的、更开放的实现全球化的部署和管理,需要借助全球化既有的资源,让他的应用快速的本地服务策略,这些也是 F5 需要聚焦的重心。 总结来说,F5 会聚焦三个领域。一是在现代应用,二是多云管理,三是应用交付网络。同时补充在应用安全,包括Bot反欺诈,WAF、API 的管理以及DDoS 上的防护能力。 云已经铺好了高速公路,我们要做的就是给在云上在跑的应用带来更稳健、更安全的用户体验。 采访嘉宾: 杜士峰 F5中国区云与合作伙伴业务总经理 王志博 F5中国区方案顾问
| 3,966 | 1,656,485,461,536 |
InfoQ
|
154 |
亚马逊云科技发布架构决策记录指南
|
亚马逊云科技发布了使用架构决策记录(architecture decision record,ADR)的指南。他们推荐了一个在软件工程团队中采用和审查ADR的过程,这个过程的结果是包含已批准、已拒绝和已废弃的ADR集合的决策记录。亚马逊云科技提出该ADR过程的目的是改善架构决策,避免对相同主题的重复性讨论,并有效地对决策进行沟通。ADR是一个简短的文档,描述了会影响软件架构的团队决策。它不仅包含决策,还包含了相关的背景和影响。一组ADR组成了一个决策日志,它提供了关于项目或产品的更广泛的背景、设计信息和实现细节。ADR过程中,最常见的输入是需要在架构方面进行重大决策的功能性或非功能性需求。发现了这种决策的任何团队成员都应该创建一个ADR。使用模板可以简化ADR的创建,并且能够确保它会捕获所有相关的信息。按照亚马逊云科技的指南,创建ADR的团队成员也是该ADR的所有者,要负责维护和交流它的内容。在初始阶段,ADR所有者会提供一个“proposed”状态的ADR,这意味着它可以进行审查了。随后,ADR所有者要安排一个团队会议,以审查并决定该ADR要被批准、返工还是拒绝。如果团队发现该ADR需要改进的话,它会依然保持“proposed”状态,所有者和其他团队成员会对其进行优化。否则的话,ADR的状态将会变为“accepted”或“rejected”,ADR就不可改变了。如果团队需要更新这个决策的话,那应该提出一个新的ADR,当该ADR被批准后,会取代之前的ADR。下图展示了ADR的创建、所有权和采用的过程。图片来源:https://docs.aws.amazon.com/prescriptive-guidance/latest/architectural-decision-records/adr-process.html亚马逊云科技建议,ADR应该有一个变更历史。一旦ADR被批准或拒绝,它就应该被认为是不可改变的。如果团队批准了一个新的ADR,并且该ADR取代或更新了以前的决策,ADR的所有者应该将旧ADR的状态变更为“superseded”。如果新的ADR 被拒绝了,则不需要对旧的ADR进行任何改变。下图显示了ADR的更新过程。图片来源: https://docs.aws.amazon.com/prescriptive-guidance/latest/architectural-decision-records/adr-process.html决策日志会随着时间的推移而增长,它会提供团队所做出的所有决策的历史。例如,在代码或架构审查期间,团队可以使用决策日志作为参考,以验证变更是否符合商定的决策,或者是否需要创建一个新的ADR。原文链接:AWS Publishes Guide to Architecture Decision Records
| 4,466 | 1,656,379,625,856 |
InfoQ
|
155 |
InfoQ 2022年趋势报告:DevOps与云计算篇
|
本文总结了我们2022年对“云计算和DevOps”领域的一些看法,其重点是基本的基础设施和操作模式、模式在技术框架中的实现,以及软件架构师或工程师必须掌握的设计流程和技能。 InfoQ和QCon系列会议都会关注那些技术扩散阶段属于“创新者、早期采用者和早期多数阶段 ”的主题,正如Geoffrey Moore在《跨越鸿沟》一书中定义的那样。我们试图找出符合摩尔所谓的早期市场的想法,即“客户群是由技术爱好者和有远见的人组成,他们希望在一个机会或一个迫在眉睫的问题上取得领先”。我们也在寻找那些有可能“跨越鸿沟”而被更广泛采用的想法。有必要提一下,在这种情况下,一项技术在采用曲线上的确切位置可能会有所不同。例如,微服务在湾区的公司中被广泛采用,但在其他地方可能不那么广泛,也许不那么适用。 在本期的云计算和DevOps趋势报告中,一位参与者指出了一个名为“数据可观察性”的新兴趋势。通过这项新兴技术,企业可以充分了解其系统的数据健康状况。它可以沿着管道自动监控数据,以促进数据问题的故障排除和预防。这样,数据团队就可以增加价值实现的时间并提高他们的生产力。此外,有了数据可观察性,通过数据管理生态系统的循证信息,团队之间的沟通会得到改善。 而且,人们越来越多地意识到云计算对环境的影响。可持续发展会计从“创新者”转向“早期采用者”。微软、谷歌和亚马逊云科技在全球范围内运营大规模的数据中心,消耗了大量的能源。不过,它们在能源消耗方面比传统数据中心更有效率。据IDC去年的一份报告估计,在2021年至2024年期间,转向云计算应该至少能防止6.29亿吨的二氧化碳排放。该报告的参与者也发现了这一点,并做了关于发展云服务以帮助感知工作负载碳足迹的新闻报道。 此外,跨云(Cross-Cloud)和云原生混合方法的采用也在增加。我们认为,这个话题应该从我们图表中的“创新者”移到“早期采用者”阶段。公有云供应商继续投资于服务。谷歌有Anthos for Virtual Machines,微软有Container App Services,亚马逊云科技有Outposts(新增两种规格,用于空间有限的地方)。 对跨云应用和部署平台的支持也在继续增加。新的CNCF沙盒项目,如KubeVela和Porter,简化了跨云环境的应用程序代码打包和部署。 正如一些参与者所指出的那样,eBPF和WASM正在为监控、可观察性和服务网格技术提供一些令人兴奋的机会。例如,Cilium正使用该技术生成一个无挎斗的服务网格,尽管文中强调,对于这是否是所有用例的最佳方法仍然存在争议。就可观察性来说,它可以改善对服务器或容器网络的监控,而且无需安装无数的代理。例如,Teleport是一个开源的多协议身份感知访问代理。该团队在SSH会话的开始阶段利用eBPF钩子来捕获SSH会话的详细审计日志。 在过去的一年里,供应链安全一直是一个热门话题,发生了几起备受瞩目的安全事件。Aqua Security的一份报告发现,从2020年到2021年,供应链安全攻击增加了300%,而安全水平没有相应的提高。为了应对攻击的增加,开源安全基金会(OpenSSF)宣布了Alpha-Omega项目,以改善涉及多个开源软件(OSS)项目的供应链安全。该项目将重点关注改善部署方位最广、最关键的OSS项目的安全状况。GitHub和谷歌发布了OpenSSF Scorecards项目的新版本。Scorecards是一个自动化安全工具,可以识别出开源项目中有风险的供应链实践。我们希望,在未来一年中,这一领域会发布更多公告和技术。 多位贡献者指出,无代码或低代码解决方案在DevOps中的使用正变得越来越普遍。正如CD基金会执行董事Tracey Miranda所指出的那样,“借助低代码和无代码,‘公民’开发者就能够构建应用程序,帮助缓解IT部门的压力。”这些解决方案可以用来帮助改进内部工具和自动化。我们希望看到这个领域也有更多的发展。 下图是2021年上半年的话题图。2022年的版本在本文开头。以下是几位InfoQ云计算DevOps主题编辑与InfoQ撰稿人之间内部聊天记录的轻度编辑稿,这为我们在技术采用图上的建议定位提供了更多的背景信息。 亚马逊云科技开发关系主管Lena Hall:无服务器即基本期望(Serverless as a Baseline Expectation):早期采用者阶段,旨在取代无服务器数据库。无服务器体验正成为开发者对云服务的一个基本期望。无服务器能力经常与应用开发联系在一起,因为它最初提供了无服务器函数和逻辑执行。后来,我们开始看到无服务器数据库。现在我们注意到,为了满足客户的期望,有更多的产品增加了无服务器功能。无服务器正在成为一种基本需求,而不仅仅是一种“有更好”的体验,为的是可以“为变化而设计(design for change)”,并可以灵活应对现代云开发动态、事件驱动、面向微服务的特点。例如,我们最近看到,亚马逊Redshift增加了无服务器功能,可以减少操作负担,不再需要设置和管理基础设施,并能够通过查询数据仓库中的数据获得洞察力。我们看到,人们采用无服务器来改善开发体验,通过部署机器学习模型进行推理,而无需配置或管理基础设施。 同时,云服务的无服务器能力也是在组织内建立共享自助服务基础设施(这是数据网概念的支柱之一)的重要一环。共享自助服务基础设施将依赖于基础设施配置所需的产品或服务的自助服务能力。不过,共享自助服务基础设施的目标更广泛——减少组织内各领域操作数据管道技术栈和基础设施所需的重复工作和技能。例如,它将有助于提供一个可供单个数据产品使用的抽象,其中包括可观察性、目录和谱系、联合身份管理、可扩展性、统一访问控制、分析引擎、数据存储等能力。 开发体验即决策驱动(Developer Experience as Decision Driver):早期采用者阶段。在开发者决定是否倡导采用一项特定的技术时,开发体验正在成为一个越来越关键的因素。缺乏良好的开发体验可能意味着风险或重要能力存在瓶颈,如可扩展性、自动化、创新速度,甚至是安全性。许多开发社区都更喜欢小众的、高度专业化的云计算供应商(例如,Vercel、Netlify、Stripe等),因为这些供应商为他们的工作负载提供了卓越的开发体验,可以在无监督的情况下即时部署和自动扩展。顶级的云计算领导者可以向小公司学习,大力投资开发体验,以不断满足客户的期望。我们开始看到,这个领域有了更多的进展,也获得了更大的优先权,例如AWS Proton开发体验,可以自动化容器和无服务器部署管理,同时结合了基础设施即代码、CI/CD管道和可观察性自助服务能力,并且不需要具备相关底层服务的专业知识。我们应该关注的另一个主要的开发体验领域是弥合本地开发和部署环境与生产云部署之间的差距。 数据可观察性:创新者阶段。数据可观察性是一项新兴技术,可以帮助我们更好地理解和解决数据密集型系统的问题。我们接触可观察性的概念已经有一段时间了,因为像Honeycomb这样优秀的公司已经做了很多工作——Charity Majors提供了一些关于这一方面的最好的资源。数据可观察性的概念由Monte Carlo Data的Barr Moses在2019年首次提出。她是这样说的,“数据可观察性是一个组织充分了解其系统中数据健康状况的能力”。数据停机是指数据不完整、错误、缺失或不准确。将从DevOps中学到的最佳实践应用于实现数据管道的可观察性,可以消除数据停机时间。它使用自动监控、告警和分流来识别和评估数据质量和可发现性问题。这可以提升管道的健康状况,提高团队的生产力。 AI开发民主化:早期采用者阶段。我们看到,云端采用和提供的预训练模型越来越多,开发者可以在没有机器学习经验的情况下用它们来处理常见的用例。这消除了复杂技术采用的障碍,让更多的开发者可以从中受益——亚马逊人工智能自助服务Rekognition,以及Azure Cognitive Services,就是很好的例子。 Funambol首席云架构师、亚马逊云科技数据英雄Renat Losio:FinOps:早期采用者阶段。“FinOps”这个词,一年前还几乎不为人知,现在已经变得非常流行,大多数时候,它指代公司已经在做的实践,只是用了不同的名字。 无服务器数据库:也许仍然是早期采用者阶段,又或许已经是早期多数阶段,但不管怎样,它都已成为所有数据相关服务的必选项目。我们看到,在过去的12个月里,不管是服务提供还是采用,无服务器和分布式SQL数据库在云原生应用领域都出现了大幅增长。数据仓库和分析领域现在也有了无服务器选项。然而,为了获得更多的用户,提升工作负载弹性,有些公司,包括亚马逊云科技在内,却在无服务器概念上走了捷径,例如不提供数据API或规模缩小为零的能力。 边缘计算:现在处于早期多数阶段,选择无处不在,常常不知不觉的就使用了。边缘计算提供了新的选项,在靠近终端用户的地方提供数据处理、分析和存储。云供应商将他们的基础设施和服务扩展到了更多的地方,并整合企业数据中心以支持新的边缘应用场景。 可持续发展会计:早期采用者阶段,通过大多数云供应商提供的软件即服务解决方案来记录和减少环境对部署的影响。它往往只是用于成本管理/削减,具有很高的“漂绿(greenwashing)”风险。 混沌工程实践:早期大多数阶段。已经有更多的工具可以使用,甚至作为一种服务,终于有更大或更有影响力的公司做了,或至少假装以某种形式做了。 HSO技术集成架构师、Microsoft Azure MVP Steef-Jan Wiggers:FinOps:从创新者阶段到早期采用者阶段。我也同意Renato的观点。越来越多的公司已经对云支出有了成本意识,并采用了FinOps基金会的做法。此外,公有云供应商扩展和增强了他们的成本管理服务,比如亚马逊云科技有AWS Billing Conductor,这是AWS云财务管理解决方案的一部分,还有AWS管理控制台主页。谷歌有计算引擎暂停/恢复(Suspend/Resume of Compute Engine)和无人值守项目推荐器(Unattended Project Recommender)。最后是微软。除了公有云供应商,还有许多其他第三方商业产品,如Cast AI、CloudZero和Yotascale。 最新的《2021年FinOps现状报告》提供了一个明确的结论:不管云支出的规模大小,云财务管理(即FinOps)已经成为大型企业的主流做法。 可持续发展会计:也从创新者变为早期采用者。公有云供应商微软、谷歌和亚马逊云科技是巨大的能源消费者,因为它们的数据中心遍布全球。他们及其他许多人都签署了气候承诺书。为了让客户了解工作负载的碳足迹,亚马逊云科技发布了一个客户碳足迹工具,而谷歌则预览了碳足迹服务。与此同时,从2020年开始,微软就已经推出了可持续发展计算器。 跨云/云原生混合方法:也是从创新者到早期采用者。公有云供应商一直在投资这些产品。例如,谷歌有Anthos for Virtual Machines预览版,微软有Container App Services正式版,亚马逊云科技有Outposts(新增两种规格,用于空间有限的地方)。。 Data Ops:Data Ops去年有很大的发展,特别是在数据治理、数据谱系、数据质量和数据目录工具方面。Microsoft Purview就是一个很好的例子,这个名字是最近才改的,其中包括Microsoft Data and AI的数据治理,以及Microsoft Security的合规和风险管理。该服务增加了身份和访问管理、威胁保护、云安全、端点管理和隐私管理等能力。在我看来,它仍然处于“早期采用者”阶段。 Ambassador Labs DevRel部门负责人、InfoQ新闻经理、QCon主持Daniel Byrant:平台工程、黄金路径和开发经验:Lena评论说开发体验成为决策驱动力,我在平台领域也看到了这一点。云原生工程师逐步成为“全周期开发者”,他们需要编码、交付和运行应用程序。他们还被告知要“特性左移”,如安全性、可靠性、可扩展性等,如果没有工具、抽象和平台支持,工程师就无法做到这些。为了构建这些平台,平台工程师的角色正在各种规模的组织中兴起。 从技术的角度来看,Spotify团队早就谈到了他们如何开辟“黄金路径”,Netflix也有类似的“铺路”方法。《团队拓扑学》的作者已经涵盖了这些组织和文化方面的内容,而且这本书的受欢迎程度也在不断提高。如果你感兴趣的话,可以观看我最近在KubeCon EU的演讲“从Kubernetes到PaaS到......呃,下一步是什么?”,我在其中更深入地介绍了这个话题。 eBPF和Wasm——代理扩展的最后对决?正如其他人所提到的那样,eBPF和Wasm是两个热门技术,尽管它们存在根本的不同,但在很多重叠的用例中存在竞争。在KubeCon EU大会上,一个比较前沿的用例是在网络代理中实现可扩展性。Cilium团队在eBPF方面做了大量工作,在Kernel中提供了类似服务网格的网络扩展,而谷歌和Envoy团队在通过Wasm插件实现Envoy Proxy扩展性方面取得了很大的进展。 我说这是一场“对决”,这是玩笑话。实际上,这是两种互补的技术,应该可以为服务网格和其他云网络解决方案的终端用户带来很多好处。希望这是目前一些(复杂的)网络栈被推上平台的前兆。这让我想到了下一点。 简化K8s网络——Envoy网关:在KubeCon EU大会上,云网络领域另外一个令人兴奋的消息是Envoy网关项目。该项目基于Emissary-ingress、Contour项目和Kubernetes Gateway API社区的工作,目的是简化Kubernetes的入口。这是该领域正在进行的大规模努力的一部分。 软件供应链保护:这个领域有两个项目,软件物料清单(SBOM)和软件工件的供应链级别(SLSA),得到了很多关注。我个人从Kelsey Hightower那里了解到了很多关于这些项目的需求。目前,这个领域出现了很多供应商,因为技术很复杂,要做好并不容易,而且风险也很大,只要看看越来越多的供应链黑客就知道了。与构建时安全同样重要的是,我们也开始看到,人们对运行期安全检测的兴趣有所回升,例如Falco项目(巧合的是,它使用了eBPF)。 CNCF & CDF大使、产品经理Feynman Zhou:早期创新者新话题:软件安全供应链(DevSecOps)应用程序定义和编排(新的应用程序框架进入CNCF沙箱,如KubeVela和Porter)低代码平台WebAssembly 早期采用者新话题:策略即代码(OPA和Kyverno使Kubernetes策略管理现代化)跨云/云原生混合方法(混合云和多云是企业架构的新趋势)服务网格服务代理 转为早期多数云FaaS/BaaS应更名为FaaS/BaaS(云无关的无服务器平台正在出现,如OpenFaaS、OpenFunction、Knative、Kubeless等)。混沌工程实践 CloudRoads负责人、InfoQ DevOps编辑Mostafa Radwan:创新者添加量子云计算如今,作为其云产品的一部分,几乎所有主要的云供应商都提供量子计算服务。这可以通过直接访问量子计算机(即IBM)或模拟器(即Amazon Bracket)实现。添加eBPF有许多eBPF应用程序包含应用程序监控和调试 早期采用者将FinOps从创新者移到早期采用者有更多的专业人士正在接受关于FinOps原则和实践的培训。它没有被广泛采用,但许多人正在研究它或雇用FinOps专业人员成为其云运营组织的一部分。 将跨云/多云从创新者移到早期采用者大大小小的组织都意识到,他们不希望被云锁定,他们更喜欢利用每个云供应商独有的特性,以提升安全性并降低成本。此外,一些企业正在考虑或已经在使用跨多个云的云原生集群。 Salesforce敏捷交付负责人、Agile & DevOps转型教练Shaaron Alvares:我看了一下去年的图表,没有看到多少变化。但也许在创新者和早期采用者中有两种趋势? 无触式(或无代码)IT-Ops代替no-Ops 无触式(或无代码)自动化软件 我不确定我们是否可以以此作为实践,但DevOps DORA Metrics应该是处于早期采用者阶段。 D2L云平台副总裁、InfoQ DevOps责任编辑Matt Campbell:正如其他一些人所指出的那样,供应链安全在过去的一年里有了很大的发展。攻击大幅增加推动了一些新的发展。随着各组织采取行动打击这些新的威胁,这方面技术的采用速度也很快。 将一切东西编码化的趋势继续扩大。文档即代码(或持续文档)有一些新的发展,因为企业希望简化文档编制过程,保证重要的文档可以及时更新。我觉得这在早期采用者阶段。 在过去的一年里,作为沟通结果和目标的工具,SLO的采用继续增加。人们对传统事件报告指标(如事件计数或MTT*指标)的局限性了解的更多了,也就意味着需要替代方案。我希望看到各种可观察性平台很快就开始增加SLO创建和跟踪工具。我认为这是个晚期创新者话题。 一个令人兴奋的新趋势是The VOID目前正在做的事情,即把软件事件报告汇总到一个地方。这使得对这些报告进行有趣的数据分析成为可能,人们有望借此找出改善软件弹性的线索。我将把这种按行业聚合的事件分析归入创新者行列。作者简介:Steef-Jan Wiggers是InfoQ资深云计算编辑之一,在荷兰HSO公司担任技术集成架构师。目前,他主要致力于集成平台实施、Azure DevOps和Azure平台解决方案架构。Steef-Jan是荷兰Azure用户组的董事会成员,是会议和用户组的演讲者,也是InfoQ和Serverless Notes的撰稿人。此外,在过去的11年中,他被微软评为Microsoft Azure MVP。 Matt Campbell是InfoQ DevOps编辑团队的负责人。他是教育科技公司D2L的云平台副总裁,负责基础设施和云平台团队。他关注的领域是DevOps和SRE及其企业实施。 Lena Hall是亚马逊云科技北美区开发者关系主管。她影响着云技术的未来和构建者的开发体验。她是推进云服务进一步加速的工程倡议的驱动者。Lena在解决方案架构和软件工程方面有超过10年的经验,专注于分布式云编程、实时系统设计、高可扩展性和高性能系统、大数据分析、数据科学、函数编程和机器学习。在此之前,她是微软Azure的工程总监,专注于大规模分布式系统和现代化架构。她与人共同组织了ML4ALL大会,并经常是Kafka峰会、Lambda世界大会等会议计划委员会的受邀成员。她在本文的观点只代表她自己,不代表她的雇主。 Renato Losio是一名拥有多年开发经验的软件工程师,在意大利、英国、葡萄牙和德国担任过技术负责人和云服务专家。他住在柏林,作为Funambol的首席云架构师远程工作。云服务和关系型数据库是他的主要工作方向。他是亚马逊云科技数据英雄。 Daniel Bryant在Ambassador Labs担任DevRel总监,同时也是InfoQ的新闻经理和QCon伦敦大会的主席。目前,他主要致力于DevOps工具、云/容器平台和微服务实现。Daniel是伦敦Java社区(LJC)的负责人,为多个开源项目做贡献,并为InfoQ、O'Reilly和DZone等知名技术网站撰稿,还定期在QCon、JavaOne和Devoxx等国际会议上发表演讲。 Feynman Zhou是微软的产品经理。他主要致力于供应链安全项目。在加入微软之前,Feynman在QingCloud工作了4年,担任高级社区经理。他帮助3个开源项目加入CNCF,并从头开始建立社区。此外,Feynman还是一名活跃的CNCF和CDF大使。他帮助CNCF和CDF在中国推广云原生技术。 Mostafa Radwan是一位专注于云和云原生技术的技术顾问。他的职业生涯是从一名Java软件工程师开始的,之后进入了应用程序和生产支持领域。过去几年中,他一直在帮助企业采用DevOps和云原生技术,帮助他们获得更好的业务成果。在不研究技术或服务客户的时候,Mostafa喜欢阅读、骑行,以及和家人一起环游世界。 Shaaron A Alvares是InfoQ DevOps、文化&方法版块的新闻记者和编辑。同时,她还在华盛顿州西雅图的F500企业中担任经理和敏捷转型教练与培训师。她在技术和组织转型方面有丰富的全球工作经验,她在欧洲多家全球500强企业中引入了精益敏捷产品和软件开发实践,如法国巴黎银行、纽约泛欧交易所、美国铝业公司等。她在亚马逊、Expedia、微软、T-Mobile、迪士尼等公司领导了重要的精益敏捷和DevOps实践的采用和转型,同时专注于引入敏捷思维和与组织绩效目标一致的定制化价值驱动实践。她是董事会成员、博主、作家和主题演讲者,是DevOps研究所和持续交付基金会的大使。Shaaron在法国国家科学研究中心(CNRS)发表了她的硕士和博士论文。 原文链接: DevOps and Cloud InfoQ Trends Report – June 2022InfoQ其他领域2022年趋势报告:InfoQ 2022 年趋势报告:架构与设计篇InfoQ 2022 年趋势报告:文化与方法篇InfoQ 2022 年趋势报告:移动及物联网篇
| 9,792 | 1,656,205,854,338 |
InfoQ
|
156 |
云计算的全球变局与中国故事
|
在InfoQ成立15周年之际,InfoQ编辑部发起了“2007-2022:云、运维、架构、前端的 15 年演进史”特别策划,将和业内专家共同盘点云计算、运维、架构、前端四大技术领域的演进历史,试图从几个切面窥见 IT 技术的演进规律。本文是云计算篇。在这篇对云计算发展历史的盘点文章中,我们采访了华为云首席产品官方国伟,亚马逊云科技首席架构师费良宏,中国信息通信研究院云计算与大数据研究所云计算部主任马飞,阿里云弹性计算负责人张献涛(按姓氏首字母排序)等多位云计算领域的资深技术专家。他们大多是在云计算发展的早期就进入了这个行业,一路见证了云计算从起势到蓬勃发展的浪潮。我们希望从亲历者的视角,回顾和总结云计算技术过去这十几年的发展与变迁。特此感谢4位专家对本文的贡献。他们的真知灼见,是本文能与大家见面的关键。回首云计算发展历程自2006年云计算开始在全球萌芽,它已经走过了16年的发展之路。走过蓬勃发展的16年我们试图总结云计算在过去16年来的发展历程,它到底走过了一条什么样的道路?在每个不同的发展阶段,又创造了什么?关于云计算发展史的每个时间段如何划分,这其实是一个见仁见智的问题。InfoQ采访的多位专家的划分方法也各有不同,但针对云计算在每个发展阶段所呈现出来的特征,大家的观察并无二致。因此在本文中,我们暂且引述一种划分方法来简述云计算的历史。中国信通院云计算与大数据研究所云计算部主任马飞认为,自2006年以来,云计算经历了四个发展阶段。具体而言:2006年 — 2010年,云计算的形成期云计算并不是一个新鲜的概念。早在1961年,人工智能之父John McCarthy第一次提出了“公共计算服务”的概念,这是云计算的思想雏形。但直到2006年,亚马逊AWS发布了S3和EC2后,才正式拉开了云计算的大幕。2008年,谷歌推出了自己的云业务Google App Engine;同年微软发布了其云计算战略和平台Windows Azure Platform。2009年,阿里云成立,成为国内最早布局云计算的企业。2010年,华为正式公布云计算战略,同年,腾讯在内部立项研究云计算...如今在全球云市场叱咤风云的巨头厂商大都在这个时期入局,并相继推出云计算产品和解决方案。2010年 — 2015年,云计算的发展期。在这一阶段,云计算逐渐形成统一的、共识的定义。马飞还记得,早年他写博士论文时,云计算有40多种流行概念,关于这项技术到底是什么,说法不一。2011年,美国国家标准技术研究院(NIST)发布了《SP500-291 云计算标准路线图》,其提出的云计算的定义和路线图广受认可,这也是目前最权威的云计算定义。此外,云技术创新活跃,各家厂商陆续推出云产品,推动云计算市场快速发展。2015年 — 2020年,云计算的应用期。在这一阶段,云市场上,各种产品、解决方案和服务层出不穷,呈现“百花齐放”的发展态势。与此同时,无论在国内,还是国外,云计算开始在政务、金融、电商、交通、医疗等众多行业推出相关应用,企业上云进程加速,云计算逐渐渗透各行各业。2020年 — 2025年/2030年,云计算逐渐进入成熟期。如今,云计算的发展已进入深水区。一方面,底层技术的成熟令其能够很好地支撑上层的各种应用。另一方面,企业走过“上云”、“用云”的阶段后,还要考虑如何“用好云”,在即将到来的数字经济时代,云计算将成为企业数字化转型的关键实现路径。整体来看,这16年间,云计算走过了一段波澜不惊的历史,它没有像很多产业那样出现大的起伏和波折。从萌芽到平稳发展,再到步入高速发展阶段,尽管现阶段增速有所放缓,但前景依旧光明。走过蓬勃发展的16年,接下来,我们还将乘着云计算的浪潮一路向前。云计算世界的重要玩家十几年来,在全球的云计算市场格局中,科技巨头几乎一骑绝尘。先行者,亚马逊在全球云计算的发展史册上,亚马逊是必不能被绕过的一页。2006年,亚马逊率先发布了第一个云服务平台Amazon S3。几个月后,亚马逊AWS公开发布了EC2虚拟机服务,这是云计算发展史上的一个里程碑式的事件,引领了后来十多年信息技术的革命。云计算甫一出现,很快便吸引了全球IT产业巨头的目光。在早期,几乎所有后来入局这个市场的玩家都在对标走在最前面的亚马逊,推出自己的云计算产品。为什么是这个时间点,云计算开始萌芽?为什么是亚马逊,成了第一个“吃螃蟹的人”?亚马逊云科技首席架构师费良宏在接受InfoQ采访时表示,云计算的诞生与互联网的发展密切相关,2006年前后,互联网产业高速发展,由此带来了数据井喷式地增长,这促使业界开始探索解决数据在存储、计算、管理等方面遇到的各种挑战。此外,当时Hadoop、WebService等大量技术框架和工具,几乎在同一时间推出或日渐成熟,这些技术的发展成为促进云计算萌芽的重要因素。而亚马逊之所以快人一步,先于其他科技公司推出云计算,主要得益于其在运营模式与运营经验上的积累。“云计算本质上是一种运营能力,包括定价、交付、产品设计等能力。在2006年之前的十几年里,基于其核心的电子商务业务的发展,亚马逊积累了丰富的互联网平台服务运营的经验,这也为后来构建云计算平台提供了技术储备”,费良宏表示。凭借巨大的先发优势,十几年来,亚马逊一度领跑全球。至今,亚马逊仍在全球云计算市场占据难以撼动的地位。IDC的调研显示,2021年,全球IaaS市场排前三名的厂商是亚马逊、微软和阿里云,分别占据47.4%,14.3%和7.4%的市场份额。云计算的中国故事中国云计算势力快速崛起中国的云计算,最先出现在阿里巴巴,而非同期的其他科技企业。各中原因与亚马逊类似,阿里的电商基因在一定程度上促进了云技术的萌生。阿里云弹性计算负责人张献涛向InfoQ表示,本世纪初,互联网浪潮席卷之下,以电商为代表的互联网业务随着规模膨胀,在采用传统IT技术支撑业务时弊端凸显,在性能、成本、稳定性等方面都遇到了巨大挑战。为了更好支撑业务发展,传统IT技术亟待变革。2006-2008年,淘宝商城的业务突然出现了“核弹级”的爆发,这令旧的IT体系濒临崩溃边缘。为了解决电商业务存在的技术瓶颈问题,2009年,王坚带领团队创立了阿里云。那时在国内,云计算还处在概念推广阶段,大家普遍对云不了解,对这一新事物感到“云里雾里”,就连当时国内最顶级的互联网公司的创始人也对云计算存在很大的认知差异。一场12年前的对话后来经常被人翻出来讨论。那是在2010年的中国IT领袖峰会现场,马云、马化腾、李彦宏分别就云计算发表了自己的看法。当时,马化腾认为,云计算可能像阿凡达那样遥远,可能得过几百年、一千年后才实现。李彦宏则不客气地说,云计算是新瓶装旧酒,没有新东西。马云则撂下一句狠话 — “如果我们不做云计算,将来会死掉”。有趣的是,当时这三位创始人的认知基本上反映了,后来这三家公司在云上的发展战略,以及发展情况。在中国云计算发展的早期,认知差异、较国外云厂商起步晚、国内企业IT水平落后、云计算研发技术门槛高等多重因素,导致国内云厂商一开始在技术、产品、服务上,与亚马逊等海外云厂商存在不小的差距,例如亚马逊的对象存储、VPC等都是设计典范,2012年,亚马逊推出了性能表现优异的NoSQL数据库DynamoDB,这类产品在国内晚了好几年才出现。不过在看清楚云计算的方向后,国内几家头部科技公司以最快的速度补上了“课”,并且每年都推出一系列的大动作,持续加码云计算。现今,云已经成为国内互联网巨头的管理者们最常挂在嘴边的词汇。2017年,马化腾在给合作伙伴的一封信中,23次提到云。同年,在华为全球分析师大会上,华为企业BG总裁徐文伟宣布“未来全球五朵云,华为必居其一”,3年后,这一“Flag”成为了现实。经过这些年的发展,中国的云计算势力正在快速崛起。阿里、华为、腾讯、百度这“四朵云”是中国云服务企业的代表,占据了80%的中国云计算市场。数据显示,2021年中国云服务市场份额中,这“四朵云”的市场占比分别为37%、18%、16%、9% 。与此同时,国内云厂商正在走向全球,与海外云巨头正面交锋。阿里、腾讯、UCloud等厂商展开了全球化布局,现在国内很多出海的企业,在海外可以享受到国内云厂商提供的服务。此外在北美、欧洲等海外市场,国内云厂商也正在与AWS、微软等展开角逐。“中国的云厂商刚起步时基础较差,一路实现跨越式发展,到现在能逐步走出去跟海外的云巨头们‘掰掰手腕’。这充分反映出中国云计算在过去13年里的快速发展。”马飞说道。云计算从互联网向传统行业渗透,政企上云格局未打开不过,现阶段中国云计算的发展,与国外尤其是美国相比,还存在一些差距。从市场规模上看,据Gartner和中国信通院统计,2021年美国云计算市场规模接近1800亿美元;中国云计算市场规模453亿美元,约为美国的四分之一。从细分领域看,美国SaaS规模占比更高,而中国IaaS规模占比更高。在上云率方面,相关统计显示,美国企业上云率已达到85%以上,而国内企业的上云率仅约为30%,在一些传统行业,这一数字可能更低。大约从2017年 — 2018年起,海外云计算市场发展进入到一个较为黄金的时期,政企上云越来越普遍,在国外,很多企业是“all in cloud”,开始逐步放弃线下数据中心,直接在云上构建。而现在,中国企业上云才渐渐从互联网行业向传统行业渗透。伴随着很多行业尤其是传统企业数字化转型的进程加速,政企上云将成为一个重要的发展趋势。近几年,国内云厂商竞争的主阵地,也逐渐从互联网赛道转向政企。政企业务起家的基因令华为在政务云市场占据优势。华为云首席产品官方国伟在接受InfoQ采访时表示,现阶段,国内云计算市场发展的一个焦点问题在于,政企上云的格局没打开,政企上云目前还存在不少限制。“如果这一市场没打开,云计算就很难发展起来。因为云的本质是要全面替换传统IT,而互联网IT只占整个IT市场的一小部分。现在在国内互联网市场,需要上云、能上云的企业差不多都上了,接下来,政企上云将是中国云计算发展的关键”。政企的上云率也关系着云厂商的营收结构。方国伟认为,当政企上公有云的市场打开之后,云厂商的收入结构组成将逐渐演变为 — 大部分收入来自政企,来自互联网的收入占小部分。云计算盈利之路,一场马拉松不久前,国内云计算市场又迎来一个里程碑事件。5月26日,阿里云发布的2022财年及第四季度财报显示,2022财年,阿里云EBITA利润从2021财年的亏损22.51亿元大幅改善为盈利11.46亿元。这是阿里云成立13年来以来首次年度盈利。阿里云也由此成为国内唯一实现盈亏平衡的云服务商。谈到此次盈利的原因,张献涛向InfoQ表示,云计算在规模达到一定程度时,经营运营效率变得非常关键。在过去的几年里,阿里云通过投入资源提升经营运营水平,做到了降本增效。阿里云“13年磨一剑”终于盈利,云计算的商业化与盈利问题再次引发关注。事实上,云计算的盈利一直是一个难题,亏损现象普遍存在。在全球的云计算玩家中,实现盈利者寥寥无几。除阿里云外,因其先发优势以及在价格控制方面的优势,亚马逊是少数实现盈利的公有云厂商。2022财年,微软的智能云业务表现强劲,营收191亿美元,同比增长26%。其他厂商大都有不同程度的亏损,例如谷歌云在独立之后仍没赚到钱。2021年,谷歌云将其云服务器的运行寿命从三年延长到了四年,尽管如此,谷歌云在该年度仍亏损31亿美元。“云计算业务,就像是一场马拉松”。方国伟认为,云计算的盈利困局,主要由两个原因导致:一是云厂商需要进行大量基础设施投入,包括数据中心、IT硬件设备(服务器、存储、网络等)。云计算可以把客户的CAPEX模式转变成OPEX,但对云计算厂商来说仍需要投入CAPEX。而且只有大量投入,才能有规模效应。如果前期只投入一个小的数据中心、几台服务器,后来随着业务增长,必然不够用。而采用“东一块、西一块”的租赁模式也比较受限,因此云厂商通常需要自己大规模建设数据中心。另一方面,云业务前期研发投入巨大。云本质上要把传统IT重新替换,这就意味着,云平台最好能提供计算、存储、网络、数据库、中间件、大数据、AI等一站式服务。因为云用户一般很少像在传统IT那样从不同厂商分别购买服务器、存储、数据库软件等。而收入的增长是有节奏的,只有业务量慢慢上来,客户慢慢开始用,品牌慢慢构建....如此,云才能实现盈利,这些都需要很长的周期,这就决定了,云平台不可能在短期盈利。“如果要布局云业务,就要做好思想准备,这项业务投入大,见效慢,但一旦做成了,利润非常高,亚马逊就是个标杆例子”,方国伟表示,“我相信国内头部云厂商未来都可以实现盈利,而政企市场将是制约国内云厂商能否盈利的关键”。那些令人印象深刻的技术突破在云计算快速发展的16年里,新技术不断涌现。很多在当年初露峥嵘的技术,如今已经不断进步,发展趋向成熟,并已有广泛地落地应用。四位技术专家向InfoQ讲述了他们所亲历的那些云技术创新。虚拟机越来越轻量级云虚拟机,是在云端虚拟出的服务器。近年来,虚拟机的发展呈现出的趋势是 — 越来越轻量级,越来越敏捷,越来越快速迭代。最开始的虚拟机十分笨重,一旦“搬家”,就得“连根拔起”,例如将一台虚拟机从A云迁到B云,需要几个G带宽,下载一次得花几个小时。后来到了容器阶段,容器就像“集装箱”一样,在缩小规模的同时,整合运行环境,减轻了对底层的依赖。再发展到无服务器阶段,开发变得更容易了,无服务器具有易开发、易部署、易维护的优点,甚至不需要运维,直接集成在微信小程序这种环境就可以了。虚拟化技术演进之路:从纯软件到软硬件协同本质上讲,云计算是算力的服务化,是通过虚拟化的技术把算力进行池化,进而做多租户间的弹性调度分配。因此,云计算的发展史,其实也是虚拟化技术的演进史,是虚拟化技术的不断发展和演进让云在不同的发展阶段能够满足业务的进阶需求。在早期,云计算公司面对的是企业网站托管类的中小型算力需求,对于业务的连续性、实时性以及稳定性要求都比较低。这个时期对虚拟化技术的性能、功能和安全性要求也较低,纯软件技术实现的虚拟化就可以满足业务的需求,在这个阶段以Xen为代表的软件虚拟化技术取得了较大突破,也得到了业界认可。而后来,云计算开始更多地服务企业的中大型算力需求,尤其在面对对实时性、稳定性有苛刻要求的在线业务时,纯软件实现的虚拟化技术就显得捉襟见肘了。这就迫切需要在硬件层面以及系统软件层面对虚拟化技术进行重构。于是,当时诞生了诸如Intel的硬件虚拟化VT以及配套的轻量级虚拟化技术KVM,通过二者有效配合,解决了业务在稳定性、实时性等方面的需求。随着云计算规模扩大,超大型企业的业务上云也随之而来,客户在成本、性能及安全性方面的需求逐渐凸显。这时,就需要有更具突破性的技术出现。2017年前后,以华为云擎天、阿里云神龙和AWS Nitro为代表的新一代软硬件协同的虚拟化技术出现后,引领了云计算核心技术的发展方向,也诞生了如DPU这样的新型数据中心芯片。整体而言,计算虚拟化经历了纯软件的虚拟化技术实现到硬件服务的虚拟化技术,以及到现在的软硬一体优化的阶段,整个虚拟化性能损耗从30%左右降低到了今天接近于零,其计算效率的提升也为云计算的普及打下了基础。 在网络虚拟化技术方面,从早期的使用ACL等做隔离的经典网络模式也演进到了今天的VPC,让客户的业务网络不仅隔离性更强,更能根据自己的业务需求做自由灵活的组网,大大提升了业务效率。为云计算而设计的计算/存储/网络发展到今天,计算/存储/网络出现了一个全新的趋势 —— 为云计算而设计的计算/存储/网络。以虚拟机为例,以往的Xen、KVM等技术,都是从原有的操作系统或虚拟化技术中脱胎而成。但随着云计算的普及和规模壮大,对虚拟化技术提出了更高的要求,需要将CPU卸载到一些特定的专用硬件设备中去,并要求虚拟化技术在管理、观测性、性能等方面表现符合预期。这时,原有的技术与新的需求间出现了脱节,这一演变要求,无论是计算、存储还是网络都需要重新设计和实施。“原先把一个标准化的技术拿来,简单包装投入到云环境中的时代已经一去不复返了。现在,一个普遍的趋势是,几乎每家云厂商都开始打造符合自己规范和要求的、自我定义的云原生的计算/存储/网络产品。”费良宏表示。具体在存储方面,一个明显的趋势是,存储越来越分布式化。最开始的存储是DAS架构,即开放系统的直连式存储,业务和数据是独立的存储方式。后来演进到NAS(网络附属存储),其特点是,通过网络的方式解决不同磁盘间的访问问题。之后又演进到SDS,即软件定义的存储,软件“绑定”存储,软件和硬件分离,有不同的接口、形态、采集方式。用云定义数据中心内的IT架构软件定义硬件在今天看来是非常正向的轨道。硬件厂商天然与云的用户有一层隔离,因此最可能发生硬件创新的地方就是云厂商的数据中心内部。随着数据密集型计算场景的普及,用户对低时延、高带宽的需求也越来越高,传统以CPU为中心的计算体系架构无法适应这一趋势,这一局面亟待改变。阿里云刚刚发布的云数据中心处理器CIPU,可以看作是解决这一问题的尝试。将计算、存储、网络与云的管控解耦,用专用处理器来处理这些事务,让CPU、硬盘、内存更专注在自身的计算处理上,这一创新有望改变以CPU为核心的云计算架构体系。炙手可热的微服务在微服务的发展过程中,有一个现在大家谈论较少却很重要的节点,2019 年 10 月,微软开源微服务框架Dapr,并发布 0.1.0 版本。尽管其问世时间短,市场上应用不多,但它提供了一个新的思路,可以在相对更抽象的层次上构建微服务,它隐藏了那些复杂的网络、控制代理等管理,未来或许会成为微服务发展的一个新起点。近年来,微服务架构炙手可热,逐渐普及,许多企业纷纷抛弃传统研发模式,拥抱微服务。来自中国信通院的数据显示,2021年,有54%的企业已经使用微服务架构进行应用系统开发,这一数字比两年前(28.9%)翻了一番。不过,微服务在产业应用的过程中也面临诸多挑战,如分布式架构在拆解时会涉及到代码复杂度、运维复杂度提升等问题。微服务的理论体系并不完备,它更多是一种工程化的思维,是工程人员在实践中积累的心得。尽管此前有很多实践积累,但在不同的企业、团队、项目里,微服务被采用的路径、手段、方法等存在巨大差异。针对这一应用现状,未来可能会出现一种高度产品化的平台改变现有的“分裂”局面。这几年无服务器快速普及,让微服务的部署管理应用变得更简洁。容器技术的发展也为微服务带来了新的可能性,尤其是Kubernetes的出现,强化了微服务的实现路径,基于Kubernetes实现微服务,已是目前非常明确的发展方向。如今,微服务和容器的结合成为了主流。从技术研发的趋势看,微服务架构未来需要关注如何将业务逻辑和基础设施进一步解耦,尤其是将中间件的能力做下沉,让通信协议更好地以进程级别调用中间件能力,使应用和中间件互不影响。容器发展:Kubernetes一家独大2014年,Kubernetes的诞生,是容器技术发展过程的一个重要节点。如今7年过去,Kubernetes“一家独大”,成为业内的主流标准。几乎每一个平台都把支持和部署Kubernetes作为基础设施重心,尤其在BAT、TMD等大厂,Kubernetes更是成为标配。“未来,它还将持续影响整个行业。甚至,有人试图用Kubernetes‘抹平’所有平台之间的差异,构建一个于Kubernetes之上的、独立的云平台,未来这一设想或许有望达成”,费良宏判断。Kubernetes正在完全云化,是第二个重要节点。自它出现之后,微软、谷歌、亚马逊、阿里巴巴等云厂商都全面推出了托管Kubernetes的服务,这是一个重要的标志,标志着Kubernetes与云的全面结合。在应用层面,容器的应用率在不断提升。中国信通院《云计算发展白皮书(2020年)》显示,43.9 %的企业表示已经使用容器技术部署业务应用,计划使用容器技术部署业务应用的企业占 40.8%。在企业数字化转型的进程中,容器技术因其灵活、敏捷的特性备受欢迎,很好地发挥了云计算的优势。容器技术已经踏入成熟期。如何提升容器的安全性是当下该技术在应用过程中的一个难点。因为虚拟机的隔离性较强,容器的隔离性较差,这让提高容器的安全性富有挑战。此外,当容器在不同的环境应用时,还应该着重考虑如何提升效率、管理、优化成本等问题。接下来,多云和跨平台的容器技术将是一个发展重点。面对多云平台,使用容器技术解决平台间的差异性很重要,如果自行开发框架,对选择多云有很大的障碍,且在后续维护中成本很高,如果有多云的容器管理平台出现,将在很大程度上减少使用者的难度和障碍。容器的形态也将不断演进。未来将会看到,越来越多的像边缘容器、分布式容器、多级容器等不同的容器形态出现。服务网格逐渐成熟,但仍有很大进步空间服务网格是在微服务架构里孕育而生的一个理念,其旨在解决不同的微服务间的通信问题。尤其在大规模的微服务部署应用中,没有服务网格,简直难以想象。当容器与微服务结合之后,怎么进行更有效的管理就成为不得不关注的痛点问题。当微服务数量较少时,现有的管理方式足以应对,这一问题可能并不明显,但当微服务增加到成百上千、甚至上万的规模后,管理难度就会大大增加。服务网格的出现,就为这个问题提供了一种很好的解决方案。服务网格概念最早从2017 年被提出,2018 年正式爆发,进入服务网格技术元年,之后随着众多云厂商纷纷入局,服务网格逐渐火了起来。Istio 和 Linkerd是最前沿的两个服务网格开源项目,但从目前的技术实现手段看,这些产品目前还不是特别成熟,还存在成本过高、代价过大的问题,尽管可以解决一些问题,但略显“笨重”。此外,现有的很多服务网格产品仅仅聚焦在网络层次上,如果从理想化的微服务体系看,还略有不足。从这个角度看,服务网格还有很大的改进空间,未来或许将有在技术上更为进步的服务网格出现,才能和容器、微服务结合地更紧密,才能对微服务的大规模部署应用产生更直接的影响。服务网格技术最早起源于Google、IBM、Twitter等大型互联网公司,因此该技术的早期落地也多在互联网公司。因为互联网大厂在技术实力和技术团队等方面优势巨大,目前,服务网格仍主要是大厂在做,中小型互联网公司、传统企业等对服务网格还对其望而却步,不过目前也有一些中小型互联网公司开始试水服务网格。接下来,服务网格需要重点关注数据面性能的优化问题,如通过代理方式或引入可观测工具,更好地监测整个控制面或数据面的性能,增强服务网格对异构资源的兼容性。此外,如何与不同的服务架构打通,形成一个有效的通信机制和能力,也是一个关注重点。Serverless代表了云产品发展的新方向Serverless 首次出现于 2012 年,中文即“无服务器架构”。近两年,Serverless概念迅速蹿红,例如现在很火的微信小程序就是Serverless的一个典型应用。Serverless的优点是,开发者无需关注底层资源,便可以快速地开发和投入应用。去年,CNCF 发布的《2020 年度中国云原生调查报告》显示,Serverless 架构正在持续增长,31% 的企业在生产中使用无服务器,41%的企业正在评估,12% 的企业计划在未来12个月使用。Serverless对云的产品能力提出了更高的要求,代表着云的产品体系发展的新方向,目前来看,这一趋势已不可阻挡。现阶段的挑战主要在技术研发方面,开发出一个真正意义上的Serverless仍非常之难,因为,Serverless的服务本身需要技术管理,动态调整或资源配给的难度较高。未来,如果这一问题得以解决,会是一个令用户感到惊喜的改变。未来,Serverless这种服务的形态、应用场景会越来越丰富,跟云上生态的结合和链接将越来越紧密,让用户真正聚焦在云上的上层应用,进一步解耦。同时,Serverless将更多聚焦在计算方面,未来像数据库、消息队列、存储等后端的服务都将Serverless化。弹性计算进入稳态阶段在过去七八年间,可以清晰地看到,弹性计算的应用需求和应用规模都在发生着剧烈的变化:从早期的服务中小站长的网站托管需求,到中大型企业的部分实时在线任务处理的需求,到现在超大规模企业离在线业务的整体搬站上云和异地多活架构容灾部署,对弹性计算的资源弹性、稳定性、成本以及可运维性都提出了极为苛刻的需求。经过10多年的发展,弹性计算进入一个稳态阶段。如何在业务形态、产品定义以及技术研发方面形成创新和突破势在必行。有观点认为,在这个阶段,IaaS层的产品创新变得比较艰难。云原生的狂欢云原生初始内涵:生于云,长于云2013年,Pivotal公司的马特·史汀首次提出了云原生概念。2015 年,CNCF对云原生做出了定义,包括3个方面:应用容器化、面向微服务架构、应用支持容器的编排调度。2018年,CNCF 更新了云原生的定义—“云原生的代表技术包括容器、服务网格、微服务、不可变基础设施和声明式API”。不过直到现在,关于云原生到底是什么,仍众说纷纭。云原生还没有一个标准的、统一的定义。现阶段,市场对云原生的解读相对模糊,甚至有些混乱,既有广义的云原生,即与云计算直接相关的技术,就都可以称之为云原生。也有狭义的云原生,即认为,应用上微服务、容器、K8s 服务等相关技术,都可以被定义为云原生。方国伟认为,目前国内总体上对云原生的理解偏狭义化。是否使用了容器、微服务、Kubernetes等技术并不是判断云原生的关键标准。云原生的本意应该是,应用或服务从一开始基于云平台设计和构建,而非迁移上去的,即“生于云,长于云”。云原生进入大爆发时期云计算的快速普及和大规模应用,促进了云原生的爆发。火热的数字化转型浪潮,也在一定程度上令云原生技术的关注度剧增。2019年,被认为是云原生商业化落地的元年。自2019年开始,云原生,进入了大爆发时期。一个明显的趋势是,以往云主要应用在以互联网业务为主导的企业中。即便在传统企业,它的应用也仅限于那些与互联网直接相关的业务领域。在2019年之后,云的应用场景已经大规模地进入到传统IT行业,不仅被应用到核心业务中,甚至在一些非互联网相关的场景如ERP等,都开始大量应用云原生的技术。云原生落地挑战尽管进入了加速落地期,云原生的全面落地仍是一个任重道远的过程。极为复杂的技术栈阻碍着云原生实现规模化落地,尤其制约着云原生向传统行业渗透的速度和广度。在技术之外,云服务能力也是落地难点之一。目前在国内市场,云服务是推动云原生普及的重要因素,云服务不仅指产品服务,还指人的服务。云产品技术复杂度高,难以被用户直接使用,因此就需要有专门的服务团队帮助企业实施和部署云原生。未来,云服务的能力将成为云原生落地的重要筹码,也是云平台竞争的差异化手段。另一个很难的课题是,云原生在应用之前,需要先做改造。与新应用相比,老应用/(系统)实现云原生挑战重重。尤其在国内,很多政企的应用程序并不是自己开发的,如果要实现云原生,得先经过改造,有些应用可能要重构,得先按照微服务进行改造,而非简单的“搬迁”。改造过程中,关于云原生如何与企业业务相结合,企业通常要做各种权衡,这也直接导致,改造通常需要很长的周期。云原生架构规模化应用后出现的安全、性能和可靠性问题是目前很多企业在上云方面的主要顾虑。针对这一问题,一种解决方案是提升平台的安全能力。未来,云安全产品和云产品将出现融合趋势,每个产品都应包含必要的安全能力,而不应将安全从软件中剥离,只由专业人士负责。安全应该与所有的软件和服务融合在一起,也就是,从软件开发之初,就要将安全设计纳入到产品设计的标准步骤中。目前,市场上已有一些针对细分领域的安全产品出现,例如针对容器安全的产品。不过,这些产品通常只解决部分问题,业内还缺乏解决全流程安全问题的产品。云原生是一个一体化的技术栈,因此需要全生命周期流程的安全解决方案。可以看到,已经有一些厂商推出了云原生应用平台保护的一体化解决方案,例如云原生应用保护平台(Cloud-Native Application Protection Platform, CNAPP)。云技术16年,这九大演进趋势值得关注循着云计算的发展脉络,可以看到,一些技术演进的特点和趋势日渐明晰。把握云计算演进的内在规律, 有助于保持足够的技术敏锐度。方国伟向InfoQ分享了自己的观察,他认为,云计算在过去16年的演进过程中,逐渐显现出以下9大趋势。趋势一:云厂商「全栈式」发展当前,云厂商的「全栈式」发展,渐成趋势。以前做云计算,主要购买X86服务器,加上采用分布式软件,来管理调配资源,并动态地分配资源给客户。在那一时期,服务器是标准的,云厂商主要专注在软件层对外提供服务。现在,情形发生了变化。云厂商的规模越来越大,大的云厂商已经运营几百万服务器,且每年还需要采购数量庞大的服务器。因为客户并不直接接触底层硬件,所以采买标准的服务器不再是必须。到了一定规模后,云厂商可以自己设计硬件,从底层到上层,包括数据中心、芯片、板卡、服务器、交换机等都可以自己主导来做。最近几年,这一趋势越来越明显了。华为是最早开始设计ARM处理器的公司之一,从2009年开始推出基于ARM架构的智能手机处理器,2014年发布第一代服务器端ARM芯片,2016年推出第二代鲲鹏916,2019年推出第三代鲲鹏920处理器,是当时业界第一款基于7nm的数据中心处理器;2015年,亚马逊收购了以色列芯片公司Annapurna labs,并于3年后推出第一代Amazon Graviton 处理器,去年12月,其最新通用服务器芯片Graviton 3问世;去年10月,阿里发布了首个基于ARM的通用服务器芯片倚天710。在服务器处理器之外,这三家公司也都推出了自研的软硬一体化的虚拟化技术架构 — 华为的擎天架构,阿里云的神龙架构,亚马逊的Nitro...此外因为AI处理器门槛相对低一些,现在大厂普遍自己研发,例如华为拥有昇腾处理器,谷歌自研了TPU芯片,去年亚马逊推出了其自研的Trainium第二代AI芯片..对于云厂商来说,之所以纷纷自研芯片,主要出于两方面考虑,一是可以降低成本,自研芯片到足够规模后,其成本将远远低于采购芯片。其二,英特尔、AMD等厂商出售的多是通用芯片,他们不擅长专用芯片,云厂商自研专用芯片可以更好地实现创新和更好的性能。在原先已有的软件优势下,云厂商们正在追求“软硬协同”发展,越来越“全栈化”。目前来看,这一趋势是不可逆的。趋势二:云平台越做越「厚 」从硬件的角度看,云厂商们纷纷向着软硬一体化趋势发展。而从软件的层面看,云平台在越做越「厚」。做厚是指在平台上提供各种各样的服务,服务越来越多,云计算的三层模式— IaaS层、Pass层、SaaS层全产业链覆盖。例如,亚马逊最初只做IaaS层,后来开始做Pass层,现在也逐渐开始做SaaS层;微软提供IaaS-PaaS-SaaS三种云服务模式,尤其在SaaS 领域长期领跑全球;今年,华为提出了“一切皆服务”的新口号,包括基础设施即服务、技术即服务、经验即服务,提“IaaS+tPaaS+aPaaS”的完整技术能力架构。其中在经验即服务方面,华为会重点构建aPaaS和SaaS 层的服务。云平台越做越厚,源自云厂商多元化发展的需求。当企业发展到一定规模,尤其在单个领域逼近业务天花板时,企业天然有扩张业务的原始冲动。而从IaaS层到Pass层,再SaaS层,对云厂商来说都是云服务,它们互相之间关联性强,只是层次不一样,这一多样化发展路径最为简单。趋势三:从IaaS、PaaS往aPaaS和SaaS发展得益于良好的兼容性,各家云厂商最初大都从IaaS层开始切入。而PaaS门槛较高,开发应用难度大,初期PaaS 发展较慢。近年来,PaaS增速飞快,Gartner曾预计,PaaS市场在2018年到2022年期间市场规模将翻一番。而如今随着IaaS+ PaaS逐渐发展成熟,以及该领域的竞争日趋胶着。现在云计算的风向正在发生变化,呈现从IaaS、PaaS往aPaaS和SaaS发展的趋势。最近三年,受疫情影响,协同办公、CRM等SaaS产品的需求明显增加,云厂商在SaaS领域的投入和竞争也日趋激烈。趋势四:云的硬件要更加异构未来,云的硬件要更加异构。不似以前都是标准的硬件,现在强调,只要对外接口是标准的,里面的硬件不需要都得是标准硬件。现在云厂商有各种各样定制的硬件,处理器也将更加异构,未来这些硬件都可以根据需要使用,而不必再强调标准。趋势五:低代码/无代码让开发更简单另一个趋势是,低代码、无代码逐渐流行,开发变得越来越简单。当下,数字化转型浪潮亟需新的“IT”,但如果都要从头开发,不仅工作量大,而且面临开发人员不足的挑战,这就产生了降低开发门槛、简单开发的需求。低代码、无代码为这一问题提供了答案。低代码、无代码可以让开发人员很快地根据自己的业务需求开发一些简单的应用,免去大部分重复性的代码编写工作,大幅降低开发门槛大幅,提升效率,也会进一步提升软件开发的质量。现在,很多云厂商都在低代码、无代码方面做布局。比如华为推出了APPCUBE(应用魔方),腾讯云在去年年初上线了微搭 WeDa 低代码平台,阿里钉钉自研了低代码应用搭建平台宜搭....现在业内对低代码、无代码存在一些争议,有的观点认为,低代码平台只能解决一些简单的业务场景,而无法应对那些大规模复杂多变的业务场景。事实上,如果回到低代码平台设计的初衷来看这个问题,低代码本来也不打算解决复杂场景的问题,它也解决不了。因为越是简单的编程方式,灵活性越差,越往底层、灵活性越好。因此,低代码自动化高,就意味着灵活度差。需要注意的是,低代码的发展对企业有一定要求,需要企业原有的IT发展到一定程度,这时应用上低代码平台后,才可以很快搭出应用。如果企业只是一张“白纸”,没有任何底层的业务系统,显然通过低代码平台无法凭空做出应用来,比如很多低代码基于数据库编程,要想快速编程,得先有数据库的表,否则无法使用。趋势六:云上创新:数据与人工智能结合更加紧密现在看到的一个很重要的趋势是 — 数智融合,即数据与人工智能的结合将更加紧密。云厂商在云计算平台上实现数据和人工智能工具的融合,挖掘更多数据的价值。人工智能的发展依赖数据,依赖机器学习、深度学习能力。因此,本质上,人工智能应该跟大数据集成的更为紧密。以前业内经常谈湖仓一体,数据湖与数据仓库融为一体。现在更进一步,在湖仓一体的基础上,把AI的能力加上去,便成了“数智融合”。将大数据、数据仓库、人工智能等融合后,使之变成更好的数据云的平台服务。以华为云为例,目前在华为云上已推出了融合了数据管理、AI训练、推理、算法等一体的数据治理生产线和AI开发生产线的产品。趋势七:云计算从中心云向分布式云演进另一个现在越来越明显的趋势是,云计算正在从中心云向分布式云演进。中心云,是云计算最初的模式,也是当下主流的云模式。但现在,越来越多的客户,要求云厂商提供分布式云。Gartner 对分布式云作出的定义是,将公有云服务(通常包括必要的硬件和软件)分布到不同的物理位置(即边缘),而服务的所有权、运营、治理、更新和发展仍然由原始公有云提供商负责。分布式云主要可以解决网络带宽问题和时延问题。带宽问题主要指带宽多少和成本问题,国内BGP带宽就相对较贵,而如果用本地的边缘就近接入,其成本就会大幅降低。此外,很多客户对时延有要求,但如果将这个业务放到中心云上面,云在数据中心,离客户的业务场景较远,无法解决时延问题。目前,很多客户的痛点是,因为时延无法满足,一些生产线的IT应用无法上云,而通过分布式云、边缘云的方式,就可以很好地解决时延问题。另外,分布式云在一些场景里面也能满足客户把数据和应用放在自己数据中心的诉求。需要厘清的是,分布式云是云的自然延伸,而非下一代云计算。未来的云计算,仍将以中心云为主,这一点不会改变。因为云有几个很重要的特点 — 规模化、自动化、服务化,规模化只有在中心云才能实现。分布式云,只是在某些不能用中心云或者中心云不满足要求的场景下,才被采用。分布式是中心云的补充,但未来不可能演变为以分布式云为主的模式。趋势八:多云需求凸显从客户使用云的角度看,最明显的一个趋势是多云。客户不希望“把所有鸡蛋都放在一个篮子里”。如果只用一个云厂商的服务,那么议价能力就会变弱。此外,客户还会考虑高可用的问题,因为如果只上一个云,无法实现高可用。理论上可以采用跨Region方式实现,但仍无法保证不出问题。而如果使用两个云厂商或者多个云厂商的服务,同时出问题的概率就大大降低。因此,多云是提高“高可用”的一种方法。从供应链管理的角度看,有多个云厂商,也意味着供应链管理更可控。在早期,多云这一趋势并不明显,现在已经越来越明显了。趋势九:视频、媒体的内容生产逐步实现云上升级现在很多视频类内容大多通过手机或其他摄像头拍摄,未来,越来越多的视频将会在云上“生产”出来。云计算正在改变视频、媒体的生产流程。特效制作目前被广泛应用在影视剧制作中,渲染是特效制作过程中最花时间的一个环节,而且大型电影的渲染过程是计算密集型的,需要大量的数据计算工作。而云将为影视剧拍摄,特效渲染等后期制作环节带来更多可能性。这一趋势,对云平台的算力要求、计算模式、渲染算法等都提出了新的要求。写在最后:云计算,奔赴下一个黄金十年方国伟是从2008年开始接触云计算的,当时微软推出了 Windows Azure Technical Preview。这一产品令他感到新奇的同时,也给他带来了一些观念上的启迪 —— 未来,云计算将对IT行业产生颠覆性「影响」。这也促使他,从此一头扎进了这个行业。如今十几年过去,他看到,这种「影响」已成为现实。尤其从2015年之后,几乎所有传统IT公司的业务都被云计算所影响着,IT领域的很多创新都在云上发生。现在,方国伟更加坚定地相信,终有一天,云计算必将全面取代传统IT。带着“全面取代IT”的使命,接下来云计算仍将持续高歌猛进。多位专家向InfoQ做出了这样的预判 —— 下一个十年,云计算将迎来黄金时代。“在过去的十多年间,云计算在核心技术上取得了一定的突破,越来越多的企业也开始抛弃传统IT拥抱云计算。然而从当前的发展阶段看,云计算仍然处于初级阶段,在IT份额中仍只在10个百分点左右。不过,经过过去十多年的积累,云计算的产品和技术日臻成熟,云计算业务处于爆发式增长的前夜,非常看好它在未来十年的增长势头”,张献涛表示。马飞认为,在如今全球数字经济的大背景下,云计算将成为数字化转型的重要底座。疫情也加速了企业上云的进程。在政策方面,新基建、东数西算等政策都将云计算放到了非常重要的位置。未来十年,在多方利好因素促成之下,云计算将迎来下一个黄金十年,进入一个普惠发展期。采访嘉宾介绍:(排名不分先后,按姓氏首字母排序)方国伟,华为云首席产品官。曾任平安科技CTO兼总架构师,AWS中国首席云技术顾问,微软全球服务部门云计算“卓越中心”(COE)团队资深架构师等。曾主编了《让云触手可及》、《详解Winows Azure 云计算平台》和《企业云计算》三本图书,并在国内外的技术大会上发表过多次关于云计算的技术演讲。费良宏,亚马逊云科技首席架构师。 在过去的20多年一直从事软件架构、程序开发以及技术推广等领域的工作。经常在各类技术会议上发表演讲进行分享,他还是多个技术社区的热心参与者。擅长的领域包括Web应用、移动应用以及机器学习等的开发,也从事过多个大型软件项目的设计、开发与项目管理。目前专注与云计算以及互联网等相关技术领域,致力于帮助中国的开发者构建基于云计算的新一代的互联网应用。马飞,博士,高级工程师,现任中国信息通信研究院云计算与大数据研究所云计算部主任、中国通信标准化协会云计算和标准开源推进委员会副主席、混合云产业推进联盟秘书长、云网产业推进方阵办公室主任、算力服务方阵副秘书长。长期从事云计算领域政府支撑、行业研究、标准制定、测试评估等工作,发表云计算相关论文10余篇,参与标准制定20余项。张献涛 ,博士,阿里巴巴集团研究员、阿里云智能弹性计算产品线负责人;业界知名的云计算和虚拟化技术专家,加入阿里云后,主导了弹性计算产品和技术的演进工作,他的主要研究方向涉及信息安全,系统软件、芯片以及软硬协同设计;作为阿里云飞天神⻰架构发明者,推动了云数据中心IaaS核心技术的变革;在国内外发表多篇关于云计算和虚拟化的高质量学术论文,拥有近30项专利申请和授权。【活动推荐】 作为新型基础设施的重要支撑技术,云原生也逐渐在AI、大数据、边缘计算、5G 等新兴领域崭露头角。本文所阐述的云计算发展历史,云原生的角色也很重要。在7月15-16日深圳ArchSummit全球架构师峰会上,我们邀请了大疆、字节跳动、深信服、阿里巴巴、微众银行的专家来分享各自的云原生实践。 感兴趣的可以点击:https://archsummit.infoq.cn/2022/shenzhen/schedule,查看会议日程。目前9折倒计时,购票请咨询 18514549229
| 13,902 | 1,655,884,003,946 |
InfoQ
|
157 |
PyTorch 分布式训练原来可以更高效
|
前言2017 年,Facebook 开源了针对深度学习的框架 PyTorch。PyTorch 可以帮助开发者和研究人员更加轻松的构建和训练模型。凭借其简单易用、功能强大、用途广泛等特点,PyTorch 广受欢迎,且至今仍是最火的深度学习框架之一。近年来,随着数据集和模型规模的日益庞大,出于效率考虑,开发者通常采用分布式训练的方式,提⾼训练速度以加快模型迭代。流行的深度学习框架 PyTorch 也为分布式训练提供了内置支持。PyTorch 的分布式训练方式主要有 DP (DataParallel)、DDP (Distributed DataParallel)、Horovod 三种,其中 DP 和 DDP 是 PyTorch 原生支持的方式, 而 Horovod 是第三方支持。本文将对这三种方式进行比较。并对如何进一步提高 PyTorch 分布式训练的效率进行介绍。PyTorch 分布式训练如何更加简单、高效?Amazon SageMaker 结合了软件和硬件技术来改善 GPU 间和节点间的通信, 只需对训练脚本进行少量代码更改即可带来效率的提升。不仅如此,Amazon SageMaker 还通过 MLOps 对大规模深度学习模型构建、训练、部署的整个流程进行了优化,从而让深度学习模型更快地投入生产。我们将带大家探索如何用 Amazon SageMaker 实现 PyTorch 分布式训练与深度学习全流程的改造。在亚马逊云科技 6 月 23 日即将举办的“人工智能新引擎”为主题的创新大会(Innovate)中也将对大规模机器学习实践进行详细和全面地介绍,感兴趣可扫码报名。传统 PyTorch 数据并行训练的三种方式在分布式训练中,训练模型的工作负载被拆分到多个微型处理器上,每个微型处理器都被称为一个工作节点,通过节点并行工作的方式加速模型训练。分布式训练通常被用于深度学习模型训练的两种情况。其一是数据集太大而无法加载并希望在限定时间内得到结果;其二是模型太大,无法加载到一张 GPU 卡上。前者采用数据并行的方式,而后者则通常采用模型并行的方式中。数据并行更易于使用且应用更为广泛,模型并行目前还不够成熟,尚缺乏统一的方案。在 PyTorch 中实现数据并行的方式有以下三种。DataParallel(DP)DP 基于 PS 架构, 只能用于单机多卡的场景, 无法满足多机的场景。它基于单进程多线程的方式实现,所有的调度及数据加载都是通过一个进程进行,其中有一个 master 节点负责从各卡搜集梯度、计算更新参数、再将参数同一发送到各卡。这种方式导致 master 节点的计算和网络压力较重,从而导致网络阻塞,训练速度降低。因此,尽管使用非常简单, 只需要在原本单机版的代码中加上一行代码,但是效率较低。DDP (Distributed DataParallel)DDP 采用 ring-all-reduce 进行通信, 既能用于单机多卡的场景,也能用于多机多卡的场景。DDP 基于多进程的方式实现,一般每个卡一个进程,独立进行梯度计算,不需要 master 节点,每个进程只和上下游两个两个进程进行通信,极大减少了网络阻塞的情况,因此相对而言 DP 而言,它的效率更高。采用 DDP 需要涉及更多的代码改造,对初学者有一定挑战,但如果对代码比较熟悉,则更推荐采用 DDP 的方式。就目前而言,DDP 是 PyTorch 分布式训练的主流。Horovod除了 PyTorch 原生的两种分布式训练的方式,Horovod 在业界也非常受到认可。Horovod 是 Uber 于 2017 年发布的一个易于使用的高性能的分布式训练框架。使用 Horovod 编写可扩展的训练脚本,可以在单 GPU、多 GPU 甚至多台主机上运行, 而无需太多的代码更改。Horovod 基于 Allreduce 的算法。该算法摆脱了 PS 对于 Parameter-Server 带宽的依赖, 可以让每个节点在带宽传输中的位置是对等的,并且减少传输次数。事实上,Horovod 不仅支持 PyTorch,还支持 TensorFlow、Mxnet 等多种框架。相较原生的分布式训练方式,在 TensorFlow 里 Horovod 分布式训练的应用更广泛,而在 PyTorch 里面,由于应用性方面的考虑及代码侵入等问题的存在,大多数用户还是更倾向选择原生的 DDP 方式。使用 Horovod 进行多机分布式训练,还存在一个问题,即需要开发者手动配置每台机器的环境并将代码和数据复制进去,对于大规模训练来说,流程非常繁琐。在这方面,Amazon SageMaker 对 Horovod 提供了支持。Amazon SageMaker 提供了 Horovod 相关的深度学习镜像。当开发者使用 Horovod 进行分布式训练时,可以在 Amazon SageMaker 的 Python-SDK 里面指定 Distribution 的参数。Amazon SageMaker 基于该参数即可自动确定应该如何运行脚本。开发者所需要的仅仅是在 API 里做简单的指令,剩下的工作 Amazon SageMaker 会进行相应调整,极大的简化了多机分布式训练准备工作流程。如何实现更高效的 PyTorch 分布式训练不管是深度学习框架 PyTorch 的 DDP 还是 Horovod,主要针对系统层面进行了优化,将已有的单机单卡场景通过算法扩展到多机多卡场景,虽然系统层面的优化使得并行效率不断提升,但边际效益却越来越明显,尤其体现在扩展效率方面。扩展效率低会导致资源极大的浪费,因此分布式训练框架要解决的一个重要的痛点就是如何尽可能利用 GPU 资源,最大限度利用带宽,以提升效率。亚马逊云科技在 Gartner®发布的 Magic Quadrant™ for Cloud AI Developer Services 报告中位列领导者象限。作为人工智能及机器学习领域的全球企业,亚马逊云科技始终致力于 AI/ML 的技术与解决方案创新。Amazon SageMaker 通过提高分布式训练过程中的线性扩展效率,达到对分布式训练的优化。在 PyTorch、Horovod、TensorFlow 等框架的基础上,Amazon SageMaker 分布式训练使用分区算法,在亚马逊云科技 GPU 实例中自动拆分大型深度学习模型和训练集,减轻开发者需手动执行的工作量。它通过数据并行和模型并行两种方式实现分布式训练效率的提升。数据并行Amazon SageMaker 的数据并行通信算法旨在充分利用亚马逊云科技的网络和基础设施实现线性扩展效率的提升。一方面,Amazon SageMaker 基于不同场景提供多种形式的存储。在进行分布式训练的过程中需要加载训练数据,传统的方式通过代码实现该过程,将数据分片,拷贝到多台机器上,因此会带来很大一部分数据拷贝开销。而采用 Amazon SageMaker 进行分布式训练则可以将数据直接从 Amazon S3 中下载到训练机器上,解决了开发者手动进行数据分片和数据传输的问题。另一方面,在训练过程中开发者需要关注算法的指标,Amazon SageMaker 实现了指标的可视化。开发者可以直接通过任务监控平台了解指标的变化,不需要随时查看日志。当然,所有日志 Amazon SageMaker 也会保留下来,方便开发者追踪和检查。模型并行模型并行算法所解决的最主要的问题就是模型分区的问题。即使对于经验最丰富的数据科学团队,对于大型模型进行手动划分也至少需要数周的时间。通过 Amazon SageMaker 可以对模型进行自动分析并找到 GPU 之间对模型进行分区最有效的方式,只需几秒钟时间,就能够实现对模型的拆分。不仅如此,开发者使用 Amazon SageMaker 在多个 GPU 之间拆分模型,仅仅需要在 PyTorch 或 TensorFlow 训练脚本中更改不到 10 行代码,就能实现快速启动和运行。在模型训练过程中,Amazon SageMaker 通过将训练批次拆分为较小的微批次,最大限度地利用 GPU 实例。较小的微批次通过高效的管道输送到 GPU,以保持所有 GPU 设备同时处于活动状态。在去年年底亚马逊云科技 re:Invent 还推出了 Amazon SageMaker Training Compiler 编译器进一步提升模型训练的效率,通过图形和内核级优化能够将训练速度提高 50%。应用案例Amazon SageMaker 分布式训练在对象检测、自然语言处理、计算机视觉等领域都有着广泛的应用。现代汽车作为世界上最大的汽车制造商之一,在开发自动驾驶汽车中投入了大量人力和物力。自动驾驶中比较常用的算法是语义分割,这种方式需要定期测试准确性并收集额外的图像以修正特定情况下的预测性不足问题,而现代汽车并没有足够的时间和新数据来训练模型。通过 Amazon SageMaker 数据并行库进行分布式训练,只用几行代码就将基于 PyTorch 数据并行的训练代码转换为 Amazon SageMaker 数据并行库,并在 8 个 GPU 实例或总共 64 个 GPU 的情况下实现了高达 93% 的扩展效率,训练时间减少 10 倍。MLOps,云端深度学习全流程改造Amazon SageMaker 不仅专注于解决深度学习模型训练的问题。事实上,它能够实现的是机器学习与深度学习构建、训练、部署全流程的自动化、规模化与标准化,即 MLOps。模型构建与训练模型的开发是一个非常繁琐的过程,从数据标记到数据预处理、模型训练、模型评估到模型的更新和部署,在每个环节,算法工程师都需要不停进行来回迭代。采用 Amazon SageMaker Pipelines 能够自动化整个模型构建工作流程。开发者可以将 Amazon SageMaker 管道配置为定期自动运行或在触发某些事件时自动运行,也可以根据需要选择手动运行模式。通过这样的方式开发者可避免大量重复工作,以实现快速实验和模型重新训练。ML 模型构建与训练是一个迭代过程,涉及训练数百个不同的模型以寻找最佳算法、模型架构和参数,以达到所需的预测精度水平。这使得想要跟踪性能最佳的模型及输入配置非常困难,也很难将正在进行的实验与过去的实验进行比较以进一步改进。通过 Amazon SageMaker Experiments 与 Amazon SageMaker Studio 集成,能够提供可视化界面来查看正在进行的和过去的实验,比较关键性能指标的试验,并确定性能最佳的模型,从而提高试验的可重复性和数据科学家之间的协作效率。模型部署模型构建与训练完成后,只有被部署到生产中才能够正式投入使用。早期深度学习模型更多的是应用于学术界,不需要考虑生产方面的问题。PyTorch 也是近几年才发展起来的。一旦涉及生产,就进入了模型推理阶段,然而,在当时并没有一个框架能够很好的解决 Pytorch 模型推理的问题。基于这样的问题,2020 年 4 月亚马逊云科技联手 Facebook 推出了 TorchServe PyTorch 模型服务库。采用 TorchServe 能够在不编写自定义代码的情况下轻松地大规模部署训练好的 PyTorch 模型。借助 TorchServe 多模型服务、适用于 A/B 测试的模型版本控制、监控指标以及适用于应用程序集成的 RESTful 终端节点等特性,开发者可以快速将模型从研究推向生产。2021 年 12 月亚马逊云科技宣布与 Meta 深化合作。为进一步简化模型在生产环境中的部署,亚马逊云科技与 Meta 将持续优化 TorchServe 的功能,从而让深度学习模型更快的投入生产。TorchServe 近年来有哪些创新,又有哪些应用实践,敬请期待 6 月 23 日 14:00-18:00 以“人工智能新引擎”为主题的亚马逊云科技创新大会(Innovate)。大会将重磅发布人工智能“新引擎”缔造企业变革和业务创新的四大路径。50 多位专家,40 多个前沿技术话题,7 大分会场,亚马逊云科技创新大会(Innovate)将以在线大会的方式全面阐释亚马逊云科技如何通过 AI/ML 技术赋能客户,帮助开发者,于变局之中抓住机遇、实现创新。
| 5,529 | 1,655,707,126,823 |
InfoQ
|
158 |
管理宠物到管理牛群,DevOps场景下效率难题如何解决
|
在席卷全行业的云原生趋势中,企业虽然通过云原生转型收获了很多成果和价值,但也遇到了不少障碍和挑战。其中,由于云原生项目工具数量庞大且缺乏整体规划和标准,企业在 DevOps 场景中就因此遇到了种种效率难题。为了帮助企业基于容器化核心平台——Kubernetes 来更好地应对云原生 DevOps 场景,亚马逊云科技特别举行了主题为《云原生 DevOps 的 Kubernetes 技巧》的 Tech Talk。本场 Tech Talk 特别邀请汇量科技 Mobvista 技术副总裁 & 首席架构师蔡超,以 DevOps 工程师的视角分享汇量科技 Mobvista 在工程实践中的相关经验。云原生,我们为什么要这样做?很多企业在上云之后会逐渐发现,云原生其实是企业的一个必然选择。随着企业系统规模增大、结构愈加复杂,IT 部门就需要采用新的方法来更好、更快地交付应用系统。在这样的背景下,云原生概念应运而生。经过多年发展和多次迭代,云原生已经包含了容器、服务网格、微服务、不可变基础设施和声明式 API 等一系列技术,使工程师能够轻松对系统频繁作出可预测的重大变更。总体而言,云原生就是一种充分利用云计算模式的优点来构建和运行应用的方法。回顾历史会发现,软件架构其实一直在演进,从单体架构到微服务之间经历了多次迭代,这种进化是与基础设施的进化相伴而生的。到了云原生时代,之所以 CNCF 推荐使用微服务架构,是因为它是一种具有更高可用性、更可恢复的服务架构。在单体服务中,服务器崩溃时系统会损失一个全功能单元;但微服务将功能拆分到细粒度级别,所以服务器崩溃时只会损失一部分功能,并较容易通过微服务的功能分布式特性来实现服务降级等面向失效的设计,降低失效对客户的影响。另一方面,单体服务中某个功能出现瓶颈,必须复制整个实例,新加的服务器还要承载运行整个单体服务,伸缩粒度非常粗放;相比之下,微服务提供了更精准、更细粒度的伸缩,更合适的计算资源,微服务小型化还能让服务启动速度更快,更好地配合云端动态资源的快速弹性,适应云的按使用付费(通过更小更便宜的机型实现细粒度伸缩),所以是更适合云的服务架构模式。宠物与牛群上云之前,很多企业会用到小型机、工作站这样的高性能机器,这些机器对企业而言就像是宠物一样的资产。因为每一台机器都会做专门的工作,有固定的 IP,就像宠物有自己的名字一样。但在企业上云之后,系统管理的机器会随着弹性伸缩而随时增减,负载在大量机器之间来回迁移,就像牛群一样不可能给每台机器都定义名称和专用的目的。所以在上云后,管理大规模弹性集群就像是从饲养几只宠物变成了放养一片牛群。这一变化带来的影响不止于硬件层面。硬件上,过去升级机器时会给每一台机器提升配置,叫做 Scale Up;今天则是扩展集群机器数量,亦即 Scale Out。软件侧,过去针对每一台机器都有特定的操作和维护方式,今天的运行环境尤其是在云上,资源的弹性伸缩,使得集群中的虚机不断更替,因此必须做到可重复,可以简单、稳定、在线部署到任何一台机器上。云原生很重要的一个概念是不可变,它就是与牛群模式相对应的。首先,整个 CI/CD 过程就是一个不断将可变变为不可变的过程。上图中每一步都是要锁定一部分内容,做到不可变。有了不可变,才能随时得到不同资源组合的稳定版本,然后才能重复部署,或者安全及准确的回退到之前的版本。康威定律:软件系统是组织架构的映射知名的康威定律认为,组织团队之间的通讯和交流的模式,最终会映射成软件系统或者产品的形态。反过来说,就是组织结构要同软件系统的架构相匹配。对于微服务来说,背景就是组织的团队拆分得更小,每个团队都有自己的边界,有自己的微服务,并且还要独立部署。独立部署是微服务的精髓,服务部署时还要依赖其他团队,本质上就不是微服务了。容器化是另一个云原生实践。Kubernetes 是今天最常用的容器编排平台,被视为云原生操作系统。根据康威定律,在 Mobvista 内部我们通过自研的系统 MaxCloud(MaxCloud是Mobvista自研的DevOps平台,它封装了云原生技术栈的复杂性,内置了云原生的最佳实践)将企业的组织结构映射到 K8S 中。这里的一种尝试是利用命名空间。今天很多公司用命名空间来划分不同的服务。如果我们把命名空间和项目、组织和集中在一起映射上,就可以做到很多事情。例如我们可以为每一个团队,根据团队所做的项目涉及的服务来划分权限。甚至可以设定每个命名空间可以使用的 CPU 和内存资源,来实现很多资源管控策略。面向 DevOps 团队:一些有用的技巧下面这些技巧是汇量科技在实践中总结出来的,对于 DevOps 团队来说很有参考价值。Pod 生命周期Pod 是 Kubernetes 的基本调度单位。要用好 Kubernetes 就要掌握好 Kubernetes 的生命周期。下图就是 Pod 的生命周期。首先看 Init container。Init container 一定要在 Main container 之前执行,而且成功之后才会开始 Main container,如果它失败,Pod 也会失败。根据这样的特性,我们可以用它来做初始化的工作。当我们要在 Main container 加载一些配置数据时,在它启动之前可以用 Init container 来替它加载,如下图。两个 container 可以共享一个存储,叫做 volume;通过 Init container 把数据准备到这个共享存储空间的路径上,Main container 就可以在这个存储上加载数据。这样一来,Main container 就会与数据加载以及初始化的方式彻底解耦。我们可以使用不同的方式来加载,比如说从 GitHub、数据库、S3 上加载,但都不需要修改程序,只需要放不同的 Init container 即可。当然也可以利用 Init container 做依赖项的等待,比如说一个依赖要不断检查,检查好之后 Init container 退出,Main container 起来,这样是可以的。下图是另一个例子,加载负载配置。这里利用另一个 container 的组合让 Pod 软件解耦数据装载的方式,提高扩展性。与 postStart 对比:postStart 是异步执行的。postStart 过程不能保证在 container 的入口点前执行完成。Container 的状态在 postStart 过程完成后才会被置为 RUNNING。利用上述特性,如果在 pod 中包含多个 container,当我们需要某个 container 先完成启动就绪,就绪完成后才继续下一个 container 的创建,那么就可以在前一个 container 中加一个 postStart。这个 postStart 过程只是检查自己是否就绪,如果一直没有就绪,退出后返回不正常时整个 Pod 会失败,无法创建成功。如果创建成功,意味着已经就绪,就可以继续启动下一个 container。而且这个方式可以用在不同场景中,尤其是在 sidecar 的场景中,需要确保 sidecar 首先就绪,。以下是两者的简单对比。此外,终止也非常重要。当一个 Pod 被终止,它会在服务发现里摘掉,不接受流量,状态变成 terminating。这时它会收到一个信号,叫 SIGTERM,告诉它应该准备停止了。这个时候并不会把 container 马上杀掉,而是会给一段时间,默认值是 30 秒。在这个 30 秒之后会收到另一个信号叫 SIGKILL,是强制的,立刻杀掉。当然我们并不需要一定要处理 SIGTERM,而是可以用一个叫 PreStop 的 hook 来优雅地处理。它可以实现完美中断,避免数据损失或服务发现未摘掉等情况。最后,是健康检查,也就是 readiness。它的重点是在发布和伸缩时确保新增 Pod 都是就绪的,避免未就绪时就接收外部请求带来的很多错误。QoS vs PriorityQos 和 Priority 是非常容易搞混的概念,很多人一直以为他们心目中的 Priority 是 Priority,其实那是 Qos。下图展示的是 Priority 的内容。通常情况下我们不提倡设定对 pod 设定优先级,因为优先级越来越高,很容易失控。我们更期望的是与调度无关、与启动顺序无关的更好的架构。下图是 QoS,这才是很多人心目中的 Priority。当一个 Node 上有很多 Pod 在运行,可能会出现 Node 硬件不够用的情况,那么哪些 Pod 会被杀死?哪些 Pod 会被保留下来?这个叫 QoS。Affinity vs TaintAffinity 亲和性和 Taint 这两个概念有很多人都搞不清楚。所谓亲和性是从 Pod 的视角去看,什么样的 Node 适合我来运行。Taint 是从 Node 的角度来看自己可以运行什么样的 Pod,兼容了 node 上的 taint 的 pod 才可以被调度到 node 上。集成化和版本化Kubernetes 是从资源的视角来设计的,所以在部署时要写很多资源定义相关的 yaml 文件,不仅学习曲线陡峭,维护起来也不容易。所谓 DevOps 就是让一个团队负责开发和运维,但开发人员往往并不习惯资源视角,就会犯很多错误。汇量科技对此的思考是,如果做 DevOps,是不是应该把资源视角转化成一种对于应用的管理视角?是不是应该把这种不可变性进一步扩展,把所有资源聚集在一起,变成应用程序的一个包(Bundle)。能不能实现这个包的版本化?让它实现不可变性,这样就会让开发人员应用起来更自然。于是汇量科技就开发了一个平台,叫 MaxCloud。MaxCloud 结合汇量科技对 Amazon EKS 容器管理的实践,可以帮助其它客户更轻松地部署和管理 K8s 容器集群,提升研发人员对容器的使用效率。Amazon EKS 是一项托管容器服务,可以在云中和本地,来运行和扩展 Kubernetes 应用程序。基于 Kubernetes 的现有应用程序与 Amazon EKS 兼容。企业可以利用 MaxCloud 把组织结构和项目、微服务匹配在一起,实现康威定律。不仅如此,MaxCloud 封装了很多云原生的复杂性,同时给大家提供一些最佳实践。下图是 MaxCloud 的界面。这里把各种碎片的依赖组合到一起成为一个 bundle。这个 bundle 不是完全手动打包,而是会自动进行。选中了一个 service,它会自己把一些有依赖关系的资源如 deployment,configmap、secret 等等聚合在一起,完成后可以手动调整或添加我们认为相关的资源。一旦打成了这个应用的 bundle,就可以通过这个应用 bundle 聚合一些不同资源的告警事件,便于我们找到这些独立事件的相关性,快速定位根本问题。打成 bundle 之后要对 bundle 做版本化,和 GitOps 打通。当利用 GitOps 提交到任何一个资源,只要是 bundle 当中的,都会触发 MaxCloud 起一个新的 bundle 的版本,然后自动同步到多个集群中。当出现问题时,可以按整个按 bundle 回退,不会出现其中某个资源被忘记这种尴尬。有效利用云的特性:按需获取,按使用付费Kubernetes HPA 可以自动伸缩 Pod,但只是伸缩 Pod 没用,Node 才是真正要付费的。这个时候可以利用 CA,它会把一些闲置的 Node 从集群里面卸掉,提升 Node 利用率,降低成本。用量波峰差距较大时,一般会选择 Spot instance 模式。Amazon EC2 Spot 实例是使用闲置 EC2 容量的实例,其价格远低于按需实例的 EC2 实例价格。但 Spot 实例在发生中断时将暂停或停止 / 关闭 实例,当容量可用时实例可以从之前的状态中恢复。Kubernetes 集群对 Spot instance 比较友好,如下图所示。在使用 Spot 时也有几点需要注意。首先,因为 Node 会回收 Spot instance,所以不要把所有的 Pod 部署在一个 Node 上,否则一回收全没了,这个可以利用 Antiaffinity 来做到。其次,当你开始在集群中引入 Spot instance,需要注意原有的应用程序和部署是否支持。最好的方法是给 Spot instance node 打一个污点,让可以兼容它的部署才部署在上面。如何能够降低 Spot instance 回收带来的中断影响呢?可以借助一些外部工具,比如说汇量科技的 SpotMax。SpotMax 是汇量科技基于 Amazon EC2 Spot 实例构建的云原生弹性集群管理平台,可以实现自动化的 Spot 实例资源管理与调度而无需担心资源容易中断回收而影响稳定性。SpotMax 能够无缝整合 Kubernetes 和 Amazon EKS。它首先通过利用大数据及线上实时学习技术,实时优化线上集群组成,降低整个集群的中断概率。在中断发生前,SpotMax 会在资源层面替你先把 Node 加进去,初始化好。这个过程中它会主动告诉 EKS 或 Kubernetes 的 API server,你现在可以把 Pod 安全地迁移到我新加入的这个 Node 上,这个 Node 也是根据 SpotMax 里的 expert system 选择出来的一个中断率更低的 Node,平滑迁移 Pod。整个过程几秒钟就可以完成(在不使用 SpotMax 的情况下这个过程需要大约 2 分钟)。汇量科技(Mobvista)规模化使用亚马逊云科技的低成本算力资源,构建了云原生的弹性集群管理平台 SpotMax,SpotMax 加上 MaxCloud,帮助汇量科技移动广告业务的单位广告请求成本降低 65%。利用亚马逊云科技多项数据分析和机器学习服务打造的广告交易平台,轻松应对日均 10 亿台的独立移动设备高达 2000 亿次的广告请求。引入了容器之后,带来的改变绝对不仅仅是构建、部署和维护的方式这么简单。其实每一次软件设计的变更都涉及到新增的构建块,带来新的设计思考。但这些设计的出发点还是一样的,例如 Sidecar 模式就是利用了一个 Pod 里面的 container 可以共享 volume 或者 container 间网络通讯的特性,来将一些功能从主 container 中解耦,使得主 container 更具扩展性,能够和不同 sidecar 配合适应不同场景。比如一个 Main container 打日志出来,就可以用 Sidecar 来整理这些日志,与业务逻辑实现解耦。这里有很多模式,蔡超推荐大家可以通过《Kubernetes Pattern》一书来具体了解。
| 7,018 | 1,655,692,095,686 |
InfoQ
|
159 |
AWS DataSync支持在AWS、Google Cloud和Azure之间移动数据
|
亚马逊最近宣布,AWS DataSync现在支持将Google Cloud Storage和Azure Files存储作为存储位置。数据服务的这两个新选项有助于数据在AWS中的移入和移出,但数据传输费用可能仍然是一个限制条件。 DataSync可以跨不同的存储位置复制和同步数据,并且能将其移动到AWS中,从而支持多云工作流或数据保留的需求。DataSync依靠专有网络协议来运行并验证一次性和周期性的数据传输,并根据作业的大小进行扩展。该服务提供了包括/排除筛选器、带宽限制控制,并支持从临时网络问题中自动恢复。AWS EMEA(欧洲、中东和非洲区域)首席布道师Danilo Poccia解释道: 通过这种方式,可以简化数据处理或存储整合任务。如果你需要与使用Google Cloud Storage或微软Azure Files的客户、供应商或合作伙伴进行数据的导入、共享和交换,这也会很有帮助。DataSync提供了端到端的安全性,包括加密和完整性验证。 Google Cloud Storage和Azure Files存储是首批针对竞争对手提供服务的源,但它们并不是唯一受支持的存储位置:AWS DataSync可以与NFS、SMB、Hadoop分布式文件系统(HDFS)、自管理对象存储以及不同的AWS服务(比如Amazon S3或Amazon FSx)进行数据同步。 来源: https://aws.amazon.com/blogs/storage/how-to-move-data-from-azure-files-smb-shares-to-aws-using-aws-datasync/ 虽然Poccia解释了如何将数据从Google Cloud Storage移动到Amazon S3,而AWS高级专家解决方案架构师Rodney Underkoffler和Aidan Keane则展示了如何从Azure Files SMB共享中移动数据。在过去,云提供商解释了如何使用DataSync在AWS帐户之间传输数据。Corey Quinn在他的新闻稿中写道: 这可能是我最近看到的最令人印象深刻的AWS特性之一。它既承认了其他云的存在,也承认了客户有时可能希望数据驻留在云中的事实。这做得很好。 Rackspace Technology的产品总监Larry Hau对此也表示了赞同: 这似乎是一笔大买卖(……)AWS一直在进行客户锁定,而这一做法恰恰相反。虽然出口(Egress)仍然是一个障碍,但这使得数据迁移变得更加容易了,尤其是对于BCP/DR来说。 AWS DataSync可能有助于跨主要云提供商来迁移数据,但数据传输费用可能是一个重大的障碍。为了减轻影响并降低出口费用,AWS建议在源环境中部署DataSync代理,因为它会在复制时压缩传输中的数据。 新的存储选项并没有特定的DataSync成本,但将数据移动到AWS,客户需要支付谷歌云(Google Cloud)和微软Azure上的数据传输费用。从AWS上转移数据时,客户则需要为从EC2到互联网的数据传输付费。 AWS DataSync的复制速率取决于数据量和网络条件。例如,对于本地和AWS之间的数据传输,任务可以完全使用10 Gbps的网络链路。 作者介绍:Renato在意大利、英国、葡萄牙和德国拥有多年的软件工程师、技术主管和云服务专家的经验。他现住在柏林,作为Funambol的首席云架构师在远程工作。他的主要工作兴趣是云服务和关系数据库。他是AWS Data Hero的获得者。 原文链接:https://www.infoq.com/news/2022/06/aws-datasync-gcp-azure/
| 5,314 | 1,655,165,280,023 |
InfoQ
|
160 |
构建故障恢复系统
|
1.5 亿,这个数字,是 Capillary 的 Engage+ 产品在新年高峰时段两小时内发送的通信量。即便是这样的小故障,也会影响到我们客户的资本和我们产品的信誉。 故障就像一场大爆炸,它们可以是手榴弹的爆炸,也可以是核弹级别的爆炸,而爆炸造成的破坏取决于爆炸半径。再好的系统,也会有出故障的一天。若不及早发现并加以处置,也会加剧造成更大的破坏。 请注意,这篇文章将着重于微服务设计中的健壮性和故障恢复,尤其着重于微服务间的通信与故障恢复。动机 在微服务架构环境中,一项服务一旦出现故障,就会对其他服务产生影响,进而造成产品的多次更新,使用户失去对产品的信心。在 Engage+ 中,我们采用了一种编排的微服务架构。因为时间的关系,我将不会详细描述这个模型的细节。简而言之,我的意思是说: 在一个编排的微服务架构中,系统的每个组成部分都不依靠单一的中心控制点,而是涉及有关业务事务工作流程的决策。 从图中我们可以看到,在决策过程中涉及了许多的服务,所以在这个架构下,处理任何故障就如同在干草垛中寻找一根针那样艰难。所以,我们怎样才能在它把整个干草垛都烧掉之前,检测出这些故障,然后再控制它们的爆炸半径?故障与恢复 其基本可以分成两大大类: 服务之间的故障:这些是在 Capillary 内运行的其他微型服务基础设施级别的通信故障:这些故障可能包含基础设施组件,如数据库(MySQL)、队列(RabbitMQ)等。 让我们看看更多的细节:服务之间的故障 下游服务可能会因为各种各样的原因而失去响应,从而造成故障。 这些故障的原因有很多,比如 CPU 使用率过高会引起很多无响应的调用、应用程序线程的耗尽、服务内存的问题等等。 按照行业标准,一项服务必须具有 99.999% 的可用性,才能被视为高可用性。例如,服务“A”依赖于其他 5 个服务。如果所有的下游服务都有 99% 的可用性,则服务“A”的可用性最多可以达到 95%。 (0.99) ^ 5 = 0.95(0.999) ^ 5 = 0.995 所以,我们应该怎么做?识别问题: 任何恢复工作首先要了解故障。了解问题是否存在、问题在何处,以及问题是什么,这对处理故障缓解问题的工程师来说非常关键。比如,像 AppDynamics 和 New Relic 这样的监控工具,就能让工程师了解应用程序的基本概况,以及每分钟请求数、Apdex 和资源指标等关键指标。 故障恢复前的弹性: 如果其中一个服务实例发生故障,服务的职责仍然必须得到满足。微服务应当横向扩展,以允许多个实例,确保如果服务的一个实例发生故障,其他实例可以接管并响应调用者的服务。这就消除了架构中没有单点故障的问题。异步通信,可避免短期中断:从同步通信转换为异步通信,可以减轻短时间的中断。所以,当服务重新启动时,将处理该请求。这可以通过在通信双方之间建立高可用性的队列通信服务来完成。但是,这个方法有一个缺陷,那就是它不适合于单纯的同步与实时系统,所以开发人员在使用这种策略时,要非常慎重。 自动恢复: 假定工程师已经被及时告知,而服务中断的问题已经被处理,所有等待响应的服务都应该重试调用,并从此时开始接收有效的响应。在所有基于重试的调用中,必须强制执行幂等性(Idempotency)。这种方法还可以帮助处理服务之间的网络中断问题。 手动恢复: 有时候,恢复服务要花费很长的一段时间,而系统的自动恢复可能会被耗尽。尽管这种方法是最不建议的,但是工程师们也许要试着手动恢复了。这通常包括一系列 API/数据操作的步骤,以便将系统恢复到一个一致性的状态。注意,复杂的手动恢复 ToDo 清单常常会使工程师们的士气和自信心下降。基础设施级别通信故障:基础设施故障就像一个系统上发生核弹爆炸。像数据库无反应、队列崩溃等问题都属于此类问题。这类故障并不常见,但是却有可能破坏整个系统,而且要想从这种错误中恢复过来,将会变得更加困难,因为很多时候,你可能会丢失数据。 数据库故障: 数据库出了故障肯定会导致整个系统崩溃,下面我们来看看我们可以干些什么: 警报: 无论是服务还是数据库,都应当向工程师发出事故通知。长期而言,对数据库资源使用情况的实时监控和警报,将有助于工程师在局势变得极其棘手之前把你救出来。恢复: 人们可以选择利用第三方云管理数据库实现自动恢复。第三方管理的数据库,如 Aurora db 用于基于 SQL 的数据库,MongoDB Atlas 用于基于文档的数据库,都有内置的备份和恢复机制。对于自我维护的数据库,你可以参考这个博客。这里的恢复涉及避免数据丢失,一旦恢复,重试就可以接管,微服务能够恢复正常工作。队列故障:这里可能出现的故障可能是队列由于某种原因而无响应,或者在极端情况下与资源有关的队列崩溃,这些故障可能直接导致数据丢失。 写入优先方法: 对于队列故障,重要的是要避免数据丢失。最佳做法是使用写入优先方法。当发生故障时,必须将进入队列的消息持久化到外部磁盘中,这样就可以恢复中断的消息。对于像 RabbitMQ 和亚马逊云科技 SQS 这样的队列,持久化的选项是开箱即用的,而且是基于配置的。对于 RabbitMQ 来说,一旦可以使用懒惰队列和持久化消息等功能,在崩溃的情况下更有弹性,允许工程师采用写入优先策略,并在出错的情况下将数据保留在磁盘上。为实现弹性的更多途径:在简单的编排微服务架构中添加了检查点在一个编排的微服务架构中,我们可以使用检查点。我们把这个过程称为“活动检查”。对于从一个微服务到另一个微服务的消息,添加检查点将有助于实时监控流程,并有助于确定问题的时间点。在 Engage+ 检查点仪表板中的活动总数活动趋势和活动失败的心跳 基于服务水平协议的检查点警报将有助于进一步缓解问题。如果在检查点之间没有达到时间阈值,就会触发警报,这可以帮助工程师确定故障的确切位置,并加快缓解。影响 以下是我们所产生的影响: 产品稳定性: 所有这些变化的最大动力是产品的稳定性。每一次失败都会导致产品升级,并使我们的产品声誉受损。在实施弹性后,我们开始观察到在产品升级方面的显著改善。Engage+ 产品升级的两年工程带宽: 在我们实施这些更改之前,我们的开发团队不得不手动恢复每一个失败的活动。这涉及一个漫长而艰难的手工过程,我们必须调出所有失败的活动数据,然后逐一进行核对。 随着重试和自动恢复特性的引入,数千次对下游服务的呼叫得到了恢复,而无需任何人工干预。同样的情况也可以从我们的仪表盘中看到,我们跟踪所有从一个服务到另一个服务的调用的性能。以前,所有这些故障都与整个产品的故障相对应,但现在,在重试之后,这些故障得到了自动恢复。跨服务仪表盘,带有一周内的通讯号码引入这种产品弹性有助于工程团队迅速从故障中恢复过来,并减少花在解决问题上的精力,增加时间用于开发人员最喜欢的事情,进行开发。总结 基于以上策略,Capillary 的 Engage+ 产品在 2021~2022 财年发出了约 30 亿条信息。即使在这种规模下,我们的系统也能顺利运行。这些修改不仅提高了我们产品的稳定性,而且还使我们作为工程师的工作变得更加轻松,富有成效。 原文链接:Towards building a failure resilient system
| 9,273 | 1,654,856,256,524 |
InfoQ
|
161 |
AWS发布新的PowerShell自定义运行时
|
最近,AWS发布了一个新的PowerShell自定义运行时,可让AWS Lambda运行使用PowerShell编写的Lambda函数。有了这个运行时,开发人员无需编译就可以用Lambda编写原生PowerShell代码,从而简化了部署和测试。AWS的无服务器开发者布道师Julian Wood介绍了它的优势:新的PowerShell自定义运行时使用了原生PowerShell,不需要编译PowerShell并托管在.NET运行时上。使用原生PowerShell意味着函数运行时环境与标准的PowerShell会话是匹配的,这简化了开发和测试过程……这个自定义运行时将管道上的所有内容作为函数输出返回,包括Write-Output的输出。开发人员能够更好地控制函数输出、错误消息和日志记录。虽然Lambda从2018年开始就支持PowerShell,但之前的解决方案需要依赖.NET Core运行时,并且一个函数只返回PowerShell管道的最后一次输出。微软MVP、Powershell推广者Justin Grote在推特上写道:AWS Lambda终于有了一个PowerShell运行时,而不是“为PowerShell构建一个C#应用,这就是我们支持PowerShell的方式”。伟大的杰作!图片来源:https://aws.amazon.com/blogs/compute/introducing-the-powershell-custom-runtime-for-aws-lambda/用PowerShell构建的Lambda函数目前支持.NET 6和.NET Core 3.1。运行时定义了两个Lambda函数可用的主要变量:$LambdaInput,一个包含输入事件数据的PSObject,以及$LambdaContext,一个包含调用和运行时环境信息的方法和属性的对象。亚马逊系统开发工程师、《PowerShell Explained》作者Kevin Marquette写道:这真是太棒了。我对之前的PowerShell Lambda开发体验不是很满意,所以我创建了一个自定义运行时来提升用户体验。他们采用了我的概念,并投入资源使其成为现实。我很高兴它终于发布了。新的自定义运行时允许开发人员直接在Lambda控制台中编辑PowerShell代码,并支持其他附加功能,比如Add-Type和各种不同的处理程序选项。Wood解释了如何构建和打包:自定义运行时基于Lambda的provided.al2运行时,它运行在Amazon Linux环境中……你可以构建运行时并将其打包成一个Lambda层,或将其包含在容器镜像中。如果将其打包为一个层,可以将其添加到多个函数中,从而简化部署。运行时基于跨平台的PowerShell Core,这意味着你可以在Windows、Linux或macOS上开发PowerShell Lambda函数。自定义运行时的代码可在GitHub库中找到,其中也包含了安装选项和不同的示例。原文链接:AWS Introduces PowerShell Custom Runtime for Lambda
| 2,055 | 1,654,826,241,149 |
InfoQ
|
162 |
无服务器应用程序开发的最新趋势
|
无服务器计算已经在主流应用中站稳脚跟,并开始出现在企业组织的技术路线图中。研究公司和业界领袖预测,在 2022 年无服务器的采用将会有更大的发展势头。虽然在存储、计算和网络等基础设施要素方面,无服务器有不同的方面,但是本文主要讨论无服务器应用开发的最新趋势。随着人们越来越关注将运营方面的工作交给云服务提供商或以平台为中心的解决方案,无服务器架构将作为一种功能即服务(Function-as-a-Service,FaaS)的编程风格(见下图)继续在微服务应用开发中发挥关键作用。无服务器应用开发的最新趋势将继续随着新出现的模式、技术产品和云原生社区的创新而发展。无服务器计算是一项关键技术,正在重新定义企业构建、消费以及整合云原生应用的方式。“无服务器架构使开发人员能够专注于他们应该做的事情——编写代码,优化应用设计——为业务敏捷性让路。”——Gartner:《CIO 无服务器计算指南》(CIO’s Guide for Serverless Computing)趋势一:抽象是无服务器应用开发的新口号无服务器架构在开发者中普及了 FaaS 的编程风格;它通过独立构建和部署的功能来帮助开发者专注解决核心业务问题,这些功能对某一事件作出响应,运行业务流程,在此过程中生成其他事件,并将规模缩小到零。——ThoughtWorks Technology Radar从历史上看,无服务器产品已经被亚马逊云科技 Lambda、Microsoft Azure Functions、Google Cloud Functions、Alibaba Cloud Function Compute 和其他云提供商等无服务器平台普及推广。这些平台提供了对核心基础设施的抽象,并与云托管服务本地集成。随着多云部署的兴起,下一个趋势是在公共云服务提供商的产品之上建立一个抽象层(见下图)的演变。这将有助于将业务服务与云提供商的专有技术脱钩,并且可以根据服务的具体要求灵活选择无服务器平台的提供商。提供一个无服务器应用开发层作为另一个抽象层,在构建基于功能即服务的应用时提供一个供应商中立的接口,从而有助于应用开发生命周期。企业可以组建一个平台工程团队构建无服务器应用开发层,也可以使用开箱即用的解决方案。无服务器抽象层在无服务器平台之上提供开发者平台趋势二——容器和无服务器作为基础平台容器和无服务器将成为应用平台的基础设施。——Gartner:《2022 年云计算和边缘计算规划指南》(2022 Planning Guide for Cloud & Edge Computing)与无服务器功能相比,容器被认为是更粗粒度的,并被当作一种替代选择。最近的趋势是两个世界力量的结合,因为无服务器平台已经开始支持容器来打包和部署应用程序代码(主要的无服务器提供商及其对容器的支持见下表)。趋势三:开源在构建无服务器平台中的崛起开源云原生开发以服务网格和无服务器为目标。——Forrester Research虽然亚马逊云科技 Lambda 使用其专有技术来实现无服务器,但新兴的参与者正在使用开源技术来构建无服务器平台。这有助于区分他们作为提供商中立的能力,以及他们对更加开放和透明的倾向。此外,在混合云部署模式中,它有助于为使用相同开源技术的企业内部无服务器平台建立一个一致的方法。云服务提供商的无服务器平台与可观察性相关的功能(OpenTracing、OpenTelemetry、Grafana 和 Jaeger)也被无服务器平台广泛集成。开源为无服务器的企业级混合云平台提供了许多选择。主要框架有:Apache OpenWhisk、OpenFaaS、Knative、Fn Project、Kubeless(由 VMWare 归档)和 Fission。无服务器的开源框架趋势四:无服务器作为端到端应用开发平台的推动者我们预测 2022 年是无服务器最终达到临界质量的一年,接近主流接受度,成为目前软件开发的最佳实践模式。—2021 年 InfoQ 《趋势报告》(Trends Report 2021)不仅主要的云服务提供商(亚马逊云科技、Azure 和 Google Cloud)在推动无服务器的采用,而且新的参与者也在简化无服务器的采用。有趣的是,这些参与者中的大多数可能在幕后使用公共云服务提供商,或者通过在供应商之上添加抽象层,让最终用户选择云供应商。与 2021 年类似,今年将继续看到新的功能或产品发布,如:亚马逊云科技扩展 SAM 平台(SAM 加速等新功能),Azure 扩展其无服务器平台,以及 Cloudflare 扩展 JAMStack 的 Workers 和 Pages 等无服务器功能。这些关键研究表明,表明提供数据库、应用框架、GraphQL 等能力的技术服务提供商正专注于推出具有无服务器产品的端到端应用开发平台的趋势。Akka Serverless(2021 年 6 月推出):使用托管 Serverless 平台构建实时应用程序。MongoDB Realm(2021 年 6 月推出):利用 MongoDB 数据库作为一个集成平台来构建应用程序。Nimbella Service Platform 被 DigitalOcean 收购,他们宣布将在 2022 年推出测试版产品。Cloudflare 通过 Cloudflare Workers 提供无服务器计算服务,并不断建立新的功能,如 Workers Durable Objects,这些新功能在 2021 年普遍用于构建有状态的无服务器应用程序。趋势五:边缘的无服务器将使计算更贴近终端用户无服务器边缘计算平台利用 5G/6G 的毫秒延迟和人工智能优化,将促进远程应用的云连续。——IBM 无服务器预测新的应用程序将开始被设计为利用边缘的计算、存储和网络能力。这将涵盖云/边缘连续体中应用程序的整个生命周期。随着使用边缘计算的延迟降低(<1-5 毫秒),无服务器应用的性能、可扩展性和可用性预期将更高。突发性工作负载(遵循工作负载模式来处理突然和意外的负载高峰)将继续成为无服务器应用程序的执行趋势。其他有趣的观察和发现根据 Datadog 的《无服务器状态》(State of Serverless)、IBM 和 IEEE Research 的结论,亚马逊云科技 Lambda 仍然是使用最广泛的功能即服务(FaaS)产品。根据 IEEE 对 89 个以上应用程序的数据研究,典型的无服务器应用程序使用托管云服务,具体趋势表明在以下领域的使用情况:云存储(61%)、云数据库(约 47%)和云消息传递(约 38%)。托管云服务的无服务器应用程序使用情况Python 和 JavaScript 是无服务器应用开发中最流行的语言(约 30%~40%),其次是 Java(约 10%~15%)、C/C++(约 10%~15%)、Golang(约 4%~5%)和 Ruby(约 1%~2%)。无服务器应用主要用于 API、流/异步处理、批处理作业、工作流处理和操作任务。无服务器框架是使用亚马逊云科技 CloudFormation 部署亚马逊云科技 Lambda 应用的主要方式,其次是亚马逊云科技 CloudFormation、亚马逊云科技 CDK、亚马逊云科技 SAM。总而言之,无服务器将继续成为云供应商的重点领域,这些趋势表明,新的创新产品将继续在以下领域出现:功能即服务、后台即服务、数据库等领域即服务、存储即服务、Kubernetes 和容器编排即服务、机器学习即服务等等。无服务器应用程序开发的最新趋势摘要参考:A year with serverless — BBC OnlineTop serverless frameworks to watch in 2021 (The Chief I/O)The State of Serverless (by Datadog)OWASP Serverless Top 10 Security RisksThe Forrester Wave: Function-As-A-Service Platforms, Q1 2021A CIO’s Guide to Serverless Computing (Gartner)原文链接:THE LATEST TRENDS IN SERVERLESS APPLICATION DEVELOPMENT
| 8,594 | 1,654,047,416,078 |
InfoQ
|
163 |
亚马逊云科技发布中企出海趋势,82%的独角兽企业计划两年内进军海外
|
持续了三年之久的新冠疫情让全球企业遭遇了前所未遇的挑战,国内互联网行业格局更是日渐稳固,想要保持营收上的高速增长变得越来越困难。危局之下,“出海”成为国内企业,尤其是互联网企业寻求持续增长的新出路。 中国企业的出海近年一直处在一个“快车道”上。2015年,移动互联网企业出海浪潮浩浩荡荡,不仅BAT、字节跳动、华为、猎豹等互联网科技公司雄心勃勃地大手笔布局海外市场,更有不少创业公司投身“大航海时代”。在数字技术的推动下,越来越多的中国企业还在加快海外业务扩张的脚步,他们“走出去”的道路也越来越宽广。 今年3月中国贸促会研究院的报告显示,中国对外直接投资流量和存量连续四年稳居全球前三。报告还显示,近八成中国企业将维持和扩大对外投资意向,看好对外投资前景。同时,在2021年财富世界500强中,有143家中国企业上榜,2020年这一数字是133。中企出海,“遍地开花” 基于长期服务中国出海企业的洞察以及委托第三方调研机构中桥咨询的调研数据,亚马逊云科技于4月25日发布了中国企业上云出海趋势。 亚马逊云科技发现,随着中国数字经济的快速发展,以及数字化创新和转型的大潮从互联网等领域向传统行业渗透,出海企业也从早期的互联网社交、视频和短视频、互联网工具等数字化产业,逐渐向传统产业拓展,而且从出海企业落地的地区维度来看,中国企业在全球范围遍地开花。 具体来讲,60%的离岸企业海外业务涉及三个以上的大洲/地区。东南亚、欧洲、北美仍占据中国企业出海的首选目的地,而南美、非洲、中东等新兴地区正成为中国企业出海的“新蓝海”。 其次,从“控制”到“智慧”,出海实力将升级。中国企业出海正在经历从劳动密集型、资本密集型产品出口到技术驱动、创新思维、品牌引领的升级之路,实现从数量到质量的转变;中国成本、中国规模输出到世界,中国技术、中国品牌、中国经验输出到世界。 基于长期服务中国出海企业的洞察以及委托第三方调研机构中桥咨询的调研数据,亚马逊云科技于2022年4月25日发布了中国企业上云出海趋势。 亚马逊云科技发现,中国与数字经济相关的出海正从“数字化出海”向“出海数字化”扩展,从早期的互联网社交、视频和短视频、互联网工具等在内的数字化产业的出海,逐步带动传统行业的出海企业积极借助数字化技术,进行出海业务的全方位数字化转型和创新,在海外实现产品升级和品牌升级,提升全球竞争力。我国数字经济出海六大趋势 从欧美到非洲,中国企业出海遍地开花。目前,60%的出海企业海外业务已经涉及三个以上大洲/地区。东南亚、欧洲和北美依然占据中国企业出海的首选目的地,同时,南美、非洲、中东等新兴地区正成为中国企业出海的“新蓝海”。除了中国企业在全球遍地开花这一重要趋势外,亚马逊云科技还总结归纳了另外五大中企出海趋势: 从“制”到“智”,出海力量再升级。中国企业出海正在经历从劳动密集型、资本密集型的产品出口到技术驱动型、思维创新型、品牌先导型的升级之路,实现从量到质的转变;从向全球输出“中国成本”、“中国规模”,转而向全球输出“中国技术”、“中国品牌”和“中国体验”。从传统到新势力,新能源车开辟出海新赛道。随着电动化浪潮席卷全球汽车行业,无论传统车企还是以新能源汽车为代表的造车新势力,都在积极布局海外,希望实现弯道超车。从to C到 to B,企业服务领域成出海新热点。从企业资源规划、客户关系管理 、协同办公 、人力资源等通用型企业级服务,到垂直行业所需的具体服务,再到IT 运维管理、数据库及大数据分析等IT应用,企业服务领域正在成为出海的新热点。甚至部分原来面向C端的出海企业,也把自身服务C端客户的经验开发成服务B端的新服务,向B端拓展业务。从“大”到“小”,中小企业出海崭露头角。已经出海的企业中,大企业占63%,中小企业占37%;计划出海的企业中,大企业占35%,中小企业占65%,中小企业表现出强烈的出海意愿。从萌芽到成长,初创企业出道即瞄准出海。从游戏、开发者服务和SaaS,到硬件/手机、电商等行业,越来越多的初创企业是生而全球化的。2021年埃森哲中国独角兽研究显示,45%的独角兽企业认为海外拓展至关重要,其中,82%的企业计划24个月内就进军海外。 亚马逊云科技中国区商用市场事业部总经理李晓芒表示:“无论是第一波‘数字化出海’的先行者,还是第二波在数字经济浪潮下寻求数字化创新和突破、实现‘出海数字化’的传统企业,亚马逊云科技都伴随着和支持着他们的发展。作为中国企业出海云计算领域的引领者,亚马逊云科技积累了十几年服务中国企业出海的专业经验,我们希望可以帮助更多企业寻找海外新蓝海、加快海外业务的数字化转型和创新、加强业务的安全合规,助力中国数字经济出海行稳致远。” 此外,亚马逊云科技认为,实现 “全球化思考,本地化运营”是中国企业在全球取得成功的关键。想要成为全球性企业,必须拥有全球化的视野,具备在全球范围内持续高效配置资源的能力。同时,还要积极开展本地化运营,对各地区的认知和了解是中国企业在海外取得成功的基本。在进入新的文化环境时,要提前了解当地制度,包括法律法规以及文化习俗等。在做到合法合规的基础上,还要不断围绕本地客户需求创新产品、服务和体验。而云计算,作为数字经济的技术底座,已经成为中国企业出海,实现全球业务布局和创新的关键技术桥梁。
| 3,955 | 1,654,012,800,246 |
InfoQ
|
164 |
不同于谷歌,京东选择从应用场景出发迭代对话式AI技术
|
1966 年,一个由 MAD-SLIP 程式语言编写,在 36 位元架构的 IBM 7094 大型电脑上运作,所有程式编码仅有 200 行左右的聊天机器人,被 MIT 的德裔电脑科学家 Joseph Weizenbaum 发明出来,名叫“Eliza”。“Eliza”和机器学习同期出现,早于经典教材的出版,甚至早于多层神经网络和半监督学习的发明。可以说,在“Eliza”的身上,集中反映了我们对人工智能最初的诉求:在某些场景或工作中,替换人类的角色。于是,关于对话机器人的研发尝试,几乎贯穿了整个人工智能的发展史。20 世纪是个筑梦的世纪,进入 21 世纪后,人们发现,要推动 AI 发展,不仅要有强悍的学术资源,也要有充沛的产业基础。于是关于对话机器人的探索进入了新的阶段,即由如何通过图灵测试打造类人 AI ,转为如何进入企业生产环节,以最直观的方式实现降本增效。有报告将这种应用描述为:“将智能对话系统加载在服务场景的对话机器人中,以文本、语音和多模态数字人等产品形式与终端用户交互,应用在客户服务、元宇宙、智能决策、泛交互等服务场景。”因此,京东、百度、阿里、亚马逊云科技、谷歌等企业纷纷高速推进对话机器人的研发。从 2012 到 2022 的十年间,据统计,已经有 103 家企业(去重)获得投资;2022 年 4 月,法国对话式 AI 公司 Mindsay 被收购,也是这一趋势的集中体现。但人们也很快发现,要使对话式 AI 具备工业级的服务能力,只像 56 年前它的先辈 Eliza 一样写 200 行代码,是根本不可能的。今天的对话式 AI 要攻克大量技术性问题,尤其是在语音对话方面,技术壁垒可以总结为口语不流利(磕巴、语句断断续续)问题、话语权决策问题、鲁棒性问题。对话式 AI 中语音对话的三大技术壁垒口语不流利问题相较于在线机器人,语音对话系统会出现一个特有现象:口语化的表述,通常是不流利的。因为现有的语义理解模型都是基于书面用语等常规文本,而现实生活中,很少有人能一板一眼地与机器人聊天。用户在自然的口语对话中,往往会夹杂着重复、停顿、自我修正等表述特点,例如:重复:下礼拜下礼拜二三吧好吗。停顿:呃,就是说,我暂时不感兴趣。自我修正:可以明天,不是,后天给我送货吧。以上这种口语中的不流利、磕巴现象,通常会对下游的语义理解造成很大的干扰。而在此类问题的表象之下,是语言作为文化的载体,其本身蕴含的巨大的复杂性。重复、停顿、修正,在不同文化背景、不同地区,都因方言习惯而存在截然不同的呈现方式。甚至,时间也是口语演变的变量之一 —— 在网络时代,几乎每年都会诞生很多俚语,给 AI 识别造成了困难。话语决策权问题正确理解不流利的口语,还只是交流的一个方面。于对话机器人来说,更重要的是做出回复。我们平时聊天,很容易判断应该在什么时候接话,而对于智能对话系统来说,判断在合适的时机接过话语权,并且在听者和说话者之间流畅、自然地转换,显然是一件“超纲”的事情。当前,市面上的常规解决方案是采用 VAD 检测用户静默时长,当用户静默时长超过阈值(比如 0.8s~1s)时,系统就会接过话语权。但是,这种固定静默时长的方式存在一些问题:如用户并未讲完且在思考中,但是静默时长超过阈值,这时系统响应就会过于迅速敏感;而有时用户的交互迅速简明,这时系统仍然等待静默时长达到设定阈值才接过话语权,这时系统响应迟钝,可能造成用户重复回答。因此,如果想要人机交互更为自然,就不能仅凭声学信号来做判断,还必须要考虑语义是否完整,如果机器能够学会“合理打断”,用户体验会明显提升,但遗憾的是,大多数研究语音识别厂商都不太重视这一点。鲁棒性问题除了口语不流利、话语决策权问题,鲁棒性也值得特别关注。对于高可用系统来说,围绕鲁棒性的设计是必要的、合理的。但对于对话式 AI 而言,这里的鲁棒性所关注的问题,则显得有些“强人所难”。在常规的语音对话系统中,语义理解模块是基于 ASR(Automatic Speech Recognition,自动语音识别技术)的识别结果进行的。然而由于噪声、背景人声等因素,往往会对 ASR 识别造成干扰,通常表现为出现一些发音相似的识别错误。如何解决噪声的干扰,实现高准确度的识别,就是此处的“鲁棒性”所描述的问题。下方表格是个具体参照: 声音是一系列信息的集合,所以人耳鉴别杂音不完全靠听,也靠语义联系、经验分析、背景知识。对于机器而言,这无疑是个艰巨的任务。技术攻坚的破局思路及解决方案关于上述技术挑战,业内也在寻求新的破解路径,其中有两家企业取得了非常不错的进展,足可为业内参考,一家在美国名叫 Google,一家在中国名叫京东。前段时间,谷歌在 I/O 大会上宣布将 AI 语音助手 Google Assistant 进行全面升级:在开放式处理方面进一步优化了神经网络模型,使其甚至可以理解非连续的、比较口语化的句子。除此之外,谷歌还发布了专为对话应用程序构建的人工智能系统 LaMDA 2 的一些 demo,展示了其在想象力方面、开放且不跑题以及理解复杂任务等方面的特性。以零售业起家的京东则探索出了与谷歌不同的发展路径,首先在应用场景上,谷歌的闲聊机器人主要针对 To C 业务,以一问一答式的交互场景为主;而京东的智能对话系统以 To B 为主,往往是来自真实场景的具体问题或任务驱动型的对话,其对垂直领域知识的专业度和回答精确度有着更高的要求。在孵化场景方面,京东也走出了与大部分科技企业不同的路,其主要是从大规模实践中孵化技术,研发更加易用的 AI 技术。由于京东每天有千万级的对话量,通过和用户间的不断沟通、测试最佳应答方式,依托于京东云的技术能力,推出了业界首个大规模商用的智能对话与交互系统“京东言犀”。此外,模型满意验证、对抗模型改进等核心技术,都需要在真实场景中才能得以验证,上文提到的口语不流利、话语决策权等问题,京东也早在谷歌发布之前从实际场景中洞察到了需求,并加以优化和改进。而针对这些问题,言犀给出的解决方案是基于语音 + 语义的联合建模技术。口语不流利——序列标注在语音识别的训练过程中,输入的原始框就含有很多不流畅的句子,随后对每个字进行标注分类,并决定这个字保留还是去除。即采用序列标注模型对句子中的每个字进行分类,从而识别句子中需要删除的冗余成分,达到口语顺滑的目的。为了缓解模型对于标注数据的过度依赖,京东言犀采用自监督学习的方式,通过对大规模的书面流畅文本进行插入、删除等操作,从而生成大量的不流畅文本。同时,还联合语法判别任务,对于输入的文本,从整个句子层面判断是否语法正确(这里认为原来的流畅文本是语法正确的,而构造的非流畅文本则含有语法错误)。我们可以把它理解成一本言犀专属的“口语词典”,比如“就是说,我暂时不感兴趣”,“就是说”是可去除的口语词,可以将其收集到口语词典中。最后,再将完整流畅的句子“我暂时不感兴趣”,输入下一道模型进行后续的语义理解。话语决策权——多模态简单来说,多模态技术就是不再单凭语音信号来判断是否接过话语权,而是分别使用语音、语义以及时间三种不同纬度的特征来判断是否切换话语权。对于语义特征,言犀会采用 transformer 等各种语言模型,根据上下文来判断当前语句是否完整;对于语音特征,言犀会将音频片段分桢,提取每一帧的特征向量,再将其输入到一个深层的 ResNet 网络,提取其特征表示。如果提取的特征有音调偏低、语速变慢等特点,则代表可能是结尾的最后一个字;此外,还会基于语音片段的时长、语速、声调等时间维度进一步判断,最后通过融合三种不同模态的特征,来判断是否接过话语权。值得一提的是,针对多模态技术,除了刚才提到的语音 + 语义外,言犀目前还融入了视觉、图像等技术,以虚拟数字人等方式实现更自然的交互。比如,春节期间推出的客服数字人客服芊言,便是语音识别、自然语言理解、视频驱动等多模态技术融合的成果。关于多模态技术的研究在近几年逐步流行了起来,具体的落地场景各大厂也仍在摸索阶段。京东对于多模态技术的快速突破得益于何晓冬博士,作为多模态技术的开拓者之一,早在 2015 年的时候,何晓冬就提出了语言 - 视觉深度多模态语义模型(DMSM),以及在 2018 年进一步提出了现在业界广为采用的 Bottom-Up and Top-Down attention(BUTD)跨模态注意力机制,并一直推动和见证了多模态技术的实用化,例如在客户服务、多模态数字人方向均已形成规模化落地。同时也带领团队在 NeurIPS、CVPR、AAAI、ACL 等国际 AI 顶级会议上发表了近 130 多篇相关论文,对比业界通常的研发周期,无疑是非常快的速度。鲁棒性问题——结合音素的鲁棒语义理解模型结合音素的鲁棒语义理解模型 CASLU,指的是即使文字识别错误(如上文例子,鎏金瓶—>刘精品),但是其对应的音素基本是正确的(l iu2 j ing1 p),系统就可以作出正确的语义理解。具体来说,先将音素序列与文本序列分别进行编码,再通过 cross attention 机制,将文本的表征和音素的表征实现有效的融合,利用音素信息来结合它的文本信息做一个文本的增强表示,最后再通过全连接层进行意图分类,最后达到修正错误字的目的。除此之外,在训练过程中,京东言犀还采用数万小时含有不同噪音、方言的真实场景数据进行迭代;再把正常语境下的句子通过加噪、变速、同混响等方式,变成一种含有噪声或方言的数据再输入到模型里,从而进一步提升模型的抗干扰能力。多场景应用,传递技术的温度当然,技术方案只是一部分,京东言犀的迭代思路是:从场景中来,回到场景中去。比如,传统的政务热线,一直被吐槽“打不通、说不清、办不了”,这就对智能对话系统提出了要求:要响应快,能准确识别方言浓厚、断断续续的句子,以及在力所能及的范围内减轻人工客服的压力。为了提高用户满意度、实现降本增效,大同 12345 政务热线与言犀合作,经过运营人员一段时间的数据追踪发现:呼入电话接起率达到了 100%。同时,言犀也自动完成了工单创建、智能匹配至对应委办局、跟踪工单执行情况、自动对市民回访等全闭环流程。在疫情反复的当下,如何促使全市人民进行健康排查、核酸检测是首要任务之一。北京市通州区政府联合京东言犀,针对近 3 日未做核酸检测的市民进行了超过 50 万人的智能外呼排查,在 5 个小时内,通知、提醒了近 40 万人参与核酸检测,为疫情防控大大减轻了压力。其中,针对北京来自全国各地,口音皆不相同、电话端还存在高噪音等复杂环境问题,言犀利用其深度语音识别引擎以及口语顺滑、话语权决策等前沿技术进行优化,保证通话流畅自然,用科技助力疫情防控。除此之外,在养老行业,言犀联合天津市河西区的智慧养老服务平台,每天早上 9 点自动给近 5000 名独居老人拨打问候电话,避免其突发疾病或无人照顾等情况。写在最后数字客服、语音助手、智能外呼... 基于智能对话系统的应用逐渐拓展到了零售、金融、政务、物流、交通等多个行业。作为人工智能领域的关键技术,对话式 AI 将会成为未来最有价值的领域。中国也正在以场景驱动人工智能技术的迭代与发展,相信在整个产业的共同探索下,中国的人工智能将不断朝着“个性化”进阶,可以针对不同的人都有不同的对应方案,真正做到千人千面。
| 4,279 | 1,653,961,785,129 |
InfoQ
|
165 |
生态建设对开源项目的重要性 | Apache APISIX Summit Asia 2022 圆桌回顾
|
2022年5月21日,Apache APISIX Summit ASIA 2022 开启第二天的议程。围绕“生态建设对开源项目的重要性”这一主题,王晔倞(API7.ai 合伙人兼技术副总裁,Apache APISIX Committer)担任主持人,与周小四(青云科技容器事业部负责人)、王宇博(亚马逊云科技开发者关系总监)、吴晟(Tetrate 创始工程师,Apache SkyWalking 创始人)三位嘉宾展开了一场圆桌讨论,讨论话题包括:“社区、用户、开发者对于开源项目的意义”、“完善的开源生态系统对于开发者和用户的意义”、“开源生态发展在国内大环境下的态势与挑战”。 以下是圆桌讨论的内容节选: “社区”、“用户”、“开发者” 是不是开源项目的三大核心?什么是开源生态系统中最重要的组成部分? 吴晟:首先,我们很难给社区进行一个明确的定义。大家可能会参照 Apache 软件基金会看待 Apache 顶级项目 Community 的角度,或者参考 Community over Code 或 The Apache Way,但这个问题没有所谓的标准答案或正确答案,可以有更多元的想法。 至于如何做一个开源项目,我觉得用户是最重要的。通过开发并开源项目,大家希望把项目里沉淀的技术经验和思考分享出来,希望产生共情。如果一个开源项目有非常多的用户组、用户群体,那它就是一个非常好的开源项目。 最后回到开发者,开发者和社区是相辅相成的。开发者数量的实际意义取决于开发者对这个社区来说到底有什么价值。一个开源项目只要有大量的开发者,就有很好的生态,就具备成为优秀开源项目的最重要要素。 王宇博:在我看来,社区、用户、开发者组成了一个闭环,而这个闭环则构成了整个开发者生态系统。 首先,社区可以通过技术层面赋能,让开发者对开源项目有更深入的了解,同时提高开源项目在开发者当中的影响力。随着更多的开发者参与到开源项目,使用开源项目,他们会逐渐学习到开源项目更深入的使用方式与实践,从而进入更深的使用层次,更好地为开源项目做贡献。 其次开发者会接收到来自社区的反馈,反馈会帮助开发者持续改进开源项目。同时这些开发者和用户也可以代表开源项目,在更广泛的开发者群体中生成和输出技术内容,构建更加完善的开发者生态体系。 在整个过程中,社区始终扮演着非常重要的角色。在金字塔型的社区体系中,每一位开发者或者用户都可以更便捷地找到他们需要的知识,找到更好的交流途径,进一步在社区中找到自己的位置,明确自己的成长和发展路径。 周小四:一个开源项目如果有很多用户,它就是一个好项目,但社区和开发者同样重要。关键还是要看开源项目的性质和所处阶段。 在项目初期,我认为用户最重要。把项目做出来并开源,然后收获很多用户,这是该阶段的首要事情。到了之后的新阶段,可能就需要更多的开发者加入进来,参与共建。 有句话叫“良禽择木而栖”,社区同样重要,我们在选择开源项目时,都会提前进行一番调研。社区是不是健康?社区的生态好不好?社区会不会持续发展?这些都是我们会考虑的因素。 开源产品的生态发展和完善会给开发者和用户分别带来什么? 周小四:我们经常说“站在巨人的肩膀上做事情”,在开源界尤其如此。在完善的云原生生态里,开发者拥有更多更灵活的选择。通过集成现有产品或功能,更快速地交付合格标准的产品,完善的生态也使得用户的需求更容易得到满足。 吴晟:开源软件的生态可以说是开源软件的根基,很少有单个开源软件会做全所有功能,这不符合开源工程师做精、做深的原则。对有追求的开发者来说,如果想深究底层的东西,成为开源软件的开发者可能是唯一出路。因为开源软件已经应用到大部分场景,而且上层做的东西大多是漂亮的界面、更完善的权限管理功能和更好的集成。在开源项目里,你也可以跨越地域、文化、公司等边界找到志同道合的人,碰到非常多在某个领域有建树的技术大牛。对开发者来说,这个过程是非常有价值的。 在我看来,开源软件的用户是影子用户,有时连开发者都不知道这些软件用在哪或怎么用,往往是有商业公司背书的社区会发掘真正的用户案例,如果是比较离散的社区,可能就很难拿到这个数据。所以用户会有自己的圈子,用户和用户之间会有交流,而这些交流可能和原始的软件开发者有一定的距离,他们有各自不同的生态。用户会更关注如何极致地使用产品,他们会发挥想象力和集成能力,利用创新性把软件应用到更合适或对他们更有利的场景中。 王宇博:针对这个问题,我想和大家分享几组数据。来自 Linux 基金会的数据显示, 62% 的开发者认为如果他们有更多的有偿工作时间为开源项目做贡献,他们会获得更大的成功,87% 的开源人士表示了解开源、使用开源和开发开源软件可以促进职业生涯的发展。也就是说开发者在完善的生态系统中可以获得一系列的自我提升,比如获得更多动手实践、自由实践的机会,利用开源软件和开源生态寻求更多新的机会,甚至打造全新的个人品牌。 此外,开源开发者的自驱力一般比较强,在开源软件的开发过程中,他们可以达到更高的技术水平,同时目标感和自主性也会驱动他们为开源软件的生态做更多贡献,促进整个生态系统的建设。 基于质量和回报两个因素,有越来越多的用户使用开源软件。Google 发表了一份关于现代代码审查的研究报告,数据表明开源项目每周花费 6.4 个小时审查代码,是非开源项目的两倍,严格的代码审查会吸引更多用户选择高质量的开源软件。在南加州大学马歇尔商学院的数据中,如果开源对业务产生贡献,那么使用开源软件的比例每增加 1%,生产力的提升就会达到 87 万美元。由此可见,使用开源软件可以让企业用户获得更大的回报。 在国内大环境下,开源生态发展的态势和挑战分别是什么?王宇博:从整个大环境来看,开源软件得到了越来越多的开发者、用户和企业的认可。如何把开源软件真正用起来,利用开源软件创造更多价值,实现降本增效?这是我们目前需要重点考虑的问题。 此外,如何把开源融入到企业的 IT 或者全盘战略与规划之中?企业的开发者、用户与项目如何使用开源进行进一步的战略整合,使得开源成为一个自上而下的企业意志行为,帮助企业抵消更多的不确定性,获得更好的成果、更高的收益?这也是一个值得考虑的问题。 周小四:因为有布道师在给企业做培训、大部分企业开始使用开源产品和技术、资本市场看好开源项目,再加上国家政策大力倡导开源,国内的开源环境整体在向好的方向发展。 但我认为国内的开源环境也面临着巨大的挑战。首先,开源文化在国内的普及度还不高,很多人不遵守开源规范。其次,国内开源项目的生态做得非常不好,开源本是为了提高效率,但国内同质化的开源产品比较多。再者,我们要关注开源项目的质量和可持续性,很多开源项目做一段时间就停止了,功利性色彩比较浓,这也是国内开源项目存在的问题之一。 此外,开源项目尽量还是全球化,大多数国内项目只面向国内,国内项目做全球化确实也有点难度。最大的问题还是商业化的问题,我们不能忌讳开源项目商业化,商业让开源持续可发展。但确实在国内做开源项目商业化,挑战会非常大。 吴晟:在我看来,中国开源在短期内不会有非常大的变化。中国的工程师普遍缺少工程师文化,绝大部分工程师把编码当成一个任务或者说是工作。目前有个主流逻辑是只要这个东西有人用,我就可以做个一模一样的东西。工程师在迎合这个逻辑的同时开始进行模仿,而不是创造。 我觉得这是我们心里最本质的一个困难。如果我们以这样的路径走下去,无论是做开源还是做商业化,都会面临一个极大的困难——即如何做价值解释。而且 99% 以上的项目同质化程度非常高,不光是内部同质,也有全球同质。我们在创新方面,在解决特定问题方面做得还不够。绝大部分团队也没有找到一个适合自己的协作方式,在中国想把两堆人轻耦合在一起合作,是一件非常困难的事。 总结目前开源运动正在如火如荼地进行中,全球氛围下开源软件都散发出了独一无二的魅力。开源社区从一开始就不是一个单一元素的组成,而是汇集了开发者、用户与社区多角度交流的平台。有了多样化能力和人文的加持,才能使开源社区朝着更全球化与持续性的蓬勃发展。 点击链接了解更多峰会内容:https://apisix-summit.org/stage/main-stage
| 1,477 | 1,653,109,200,629 |
InfoQ
|
166 |
Serverless 时代,这才是Web应用开发正确的打开方式
|
如同 iPhone 当年颠覆了诺基亚,Serverless 的出现也带来了一种全新的、颠覆式的云开发架构模式。在 Serverless 出现前,开发者们根本无法想象几分钟就能快速部署一个 Web 应用上线。近日,亚马逊云科技 Tech Talk 特别邀请了资深无服务器技术专家孙华带来分享《 如何高效、极简构造无服务器 Web 应用》。孙华以 Amazon Lambda 的视角介绍了无服务器 Web 应用的构造方式,并讲述了如何利用最新发布的 Lambda Function URLs 和 Lambda Adapter 进一步简化无服务器 Web 应用的开发和调试并且实现 Web 应用在 Lambda,Fargate 和 EC2 等计算平台之间平滑迁移。Serverless 时代的应用开发2012 年,Iron 公司首次提出 Serverless 的概念。2014 年亚马逊云科技发布 Amazon Lambda 第一次让 Serverless 从概念走向落地,也标志着 Serverless 时代的开启。孙华认为,Amazon Lambda 作为无服务器计算服务,主要有以下四个特点。无需部署管理基础设施:无服务器计算并不代表真的没有服务器,而是不需要管理部署服务器。自动扩展:不用考虑扩容、容量规划的问题,底层的服务会自动实现按需扩容。按需付费:按照时间和使用量收费,避免为闲置计算资源浪费。高度可靠与安全:基于高可用架构开发,可用性高。Amazon Lambda 的出现为应用开发和部署提供了极简的模型。目前,Amazon Lambda 已有数十万用户,用户的调用峰值通常超过每秒超过百万级。可口可乐公司就是 Amazon Lambda 的用户之一。在疫情期间,可口可乐通过 Amazon Lambda 仅用一周时间就快速把 mobile pour 应用的原型上线,实现手机与饮料机毫秒级的通讯,从创意到交付的时间缩短了 50%。Babble 是一家线上教育服务商。疫情期间,线上学习访问量激增 2-3 倍。Babble 通过将服务迁移到 Amazon Lambda 服务器,P95 性能提高了 250ms (降低近 50%),且通过提高利用率,成本降低了四分之一。无服务器 Web 应用使用场景Serverless 架构常见的应用场景有数据处理、IT 运维自动化等,不少用户还会将 Serverless 应用到前端的 Web 应用上,包括 Flask、Django、Express.js、Rails 等应用。Serverless 可以渲染相应的 Web 页面到客户端,同时也支持提供 json 的 REST API,进行前后端的分离,静态的 React、Angular、Vue 前端通过 HTTP 请求, 来调用后端的 API,获取数据,从而展示给客户。此外,手机后端应用也经常会使用 Serverless 开发小程序的后端。无服务器 Web 应用有哪些特点呢?首先,最常见的 Web 应用开发方式,服务器里面运行的是 Web 应用进程,此时,Web 应用会监听到一个端口。并且,在 Amazon Lambda 里面每个请求都是由一个单独的计算实例来处理的,不管 CPU 还是内存,都专门为这一个请求服务。这种方式的优势在于,可以将每个请求全部隔离开,不会出现某一个请求崩溃,影响其他用户的并发需求。其次,Web 应用在 Amazon Lambda 里面运行,需要是无状态的应用。因为 Amazon Lambda 请求会随机分发到多个计算实例上,每个计算实例在本地缓存数据,下一个请求进入,可能不会分配到同一个实例上。所以,如果需要共享状态,可以存储在 Redis 或者数据库中。第三,在 Amazon Lambda 的计算环境上,每次调用的请求处理完毕后,计算环境会被冻结到下一次请求来之前。在这段时间里是没有 CPU 资源的,后台任务不能运行,所以不能在 Amazon Lambda 里面运行后台的进程。最常见的基于前后端分离的 Web 应用架构,通常会把前端的 SPEA 应用放在 Amazon S3 上做 HTTP、Django 等,前端用 CDN 加速。用户下载了前端后,前端会通过 API Gateway,来调用后端动态的数据。API Gateway 提供相应的 HTTP 的入口,触发 Lambda 函数,从而运行 Web 应用。Web 应用可以访问数据库或者任何后端。新功能:Lambda Function URLs亚马逊云科技经常会收到客户的反馈。客户希望在 Amazon Lambda 上学习运行 Web 应用或者将单独的应用运行在 Lambda Function 里面。在 Lambda Function 里面处理所有 URL 相应的业务逻辑,只需要暴露一个 HTTP 入口就可以了,几乎不需要任何额外的学习成本。上个月,亚马逊云科技推出了 Amazon Lambda 内置的 Function URLs 端口,在 Lambda 函数里配置一个 Function URL,就可以提供 HTTPS Endpoint。目前该功能仅在 Amazon Global 提供,在中国区会于近期上线。Function URLs 指向 Amazon Lambda 的最新版本,或者是 Amazon Lambda 别名。Amazon Lambda 别名可以指向 1~2 个 Amazon Lambda 的版本,因此可以通过指向 alias 的方式进行灰度发布或者蓝绿部署。Lambda Function URLs 与 API Gateway 之间有什么区别?首先,Function URLs 是非常简单地内置提供 HTTP 入口的方式。它是暴露在公网上的 HTTP 入口,其入口方式是 HTTPS 的,认证方式可以采用 IAM 的权限控制或者在公网上实现。Function URLs 不提供 Custom domain 支持,但是提供 CORS 支持,因此可以跨站请求,比如,浏览器发来 Option,Function URLs 会主动根据配置,返回相应的结果,不会触犯 Lambda 函数。但是,Function URLs 只具备一些简单的功能,对于一些高级的功能没办法实现,比如,使用 Usage Plans,基于 WAF 的集成和在内部提供 Private Enedpoint,目前 Function URLs 是无法实现的。因此,如果想使用 WAF、Usage Private、Private Enedpoint 等功能,请使用 API Gateway 的 Rest API。其次,Lambda Function URLs 的超时时间是与函数的超时时间是一样的,比如,函数最长要运行 15 分钟,Lambda Function URLs 请求就可以运行 15 分钟,而 Rest API 和 HTTP API 的超时时间仅为 29-30s。在 Payload Size 上,Function URLs 跟 Amazon Lambda 是一样的,均为 6MB。第三,采用 Lambda Function URLs 不需要支付额外的费用,但是采用 Rest API 与 HTTP API 都需要支付相应的费用。很多用户需要 Web 应用有相应的自定义域名访问网站。这时,可以在前面通过 CDN 的方式,加上自定义域名,比如,在 CloudFront 上加上自己的域名,同时结合 Amazon WAF 进行相应集成应用的防护。因为 Function URLs 只提供 HTTPS 的入口,在 CDN 回源的时候,是通过 HTTPS 回到源站的,不能把 Host Header 传回源站,不能获得用户真正访问的自定义域名。如果域名是固定的,可以在应用里通过配置了解,但如果域名不是固定的,那么就需要根据二级域名确定是哪个租户在做相应的处理。这种情况下,就可以利用 CloudFront Function 的功能。CloudFront Function 可以在用户请求端获取域名,加到另外的 Header 里面,再把 Header 传回源站,在源站的应用里面就可以通过这个 Header 获得用户访问的真实的域名。如果基于 Lambda Function URLs 部署单函数的的 Web 应用,前面通过 CloudFront 做动态请求的代理,静态资源放在 Amazon S3,就会统一为如下架构,也就不需要 API Gateway 了。新工具:Lambda AdapterLambda Function URLs 为大家提供了一个非常简单就可以获得 HTTP 入口的方式,但是 Amazon Lambda 的开发方式是基于事件驱动的方法来进行开发的,会将事件源过来的事件转换为 json 对象。对于熟悉 Web 应用开发的开发者,会有额外的学习成本,一般采用的做法是在应用里面写一个 Handler 函数,进行一层转换,把 json 转成 Web 应用需要的格式,但是这种方式可以进一步简化。亚马逊云科技推出的新工具 Lambda Adapter 作用就是帮助用户完成转化。采用 Lambda Adapter 无需修改代码即可在 Amazon Lambda 上运行 Web 应用。Lambda Adapter 从 Amazon Lambda 获得相应的 json 对象,把它转换成 HTTP 请求,发送到 Web 应用上,Web 应用处理之后通过 HTTP Response 回到 Lambda Adapter,Lambda Adapter 会将它转换成 Lambda 需要的 json Response 的格式。这样不管用什么语言,什么样的 Web 框架,开发 Web 应用或者 HTTP API,都可以通过这样的方式,不需要修改代码,也不需要添加任何的依赖,就可以在 Amazon Lambda 上运行,且不需要用特殊的工具,就可以用熟悉的方法在本地开发调试 API。此外,Lambda Adapter 支持 API Gateway 的 Rest API、HTTP API,作为 HTTP 的事件源。不管是哪种格式,Lambda Adapter 都可以做相应的解析并转换。同时因为 Lambda Function URLs 的事件格式和 API Gateway HTTP API V2 事件格式完全一致,所以 Lambda Adapter 不用做任何的修改,就可以接入 Lambda Function URLs。用户结合 Lambda Function URLs 和 Lambda Adapter 就可以把 Web 应用或者 HTTP API 运行在 Lambda 上面。同时,因为 Web 应用有可能返回图片等 Binary 数据,因为 json 里面是不能直接存 Binary 数据的,所以 Binary 数据要做 base64 encoding,Lambda Adapter 会检测返回的数据是不是 Binary 数据,并且自动完成 base64 转码工作。同时,Adapter 支持用容器镜像的方式打包函数,也支持用 zip 的方式来打包函数。当用户使用容器镜像的方式打包函数,得到的容器镜像既可以在 Amazon Lambda 上运行,也可以在容器环境里面运行,甚至在本地的电脑上运行。所以 Web 应用可以非常方便地运行在不同的计算平台上,不需要做修改,就可以在不同的平台之间平滑地迁移。构造无服务器 Web 应用实践通过 Lambda Function URLs 和 Lambda Adapter 可以很方便的通过熟悉的 API 的方式,构建了 Web 应用。但是如果用 Lambda Adapter,是否可以把现有的 Web 应用运行在 Amazon Lambda 上呢?亚马逊云科技用 WooCommerce 进行了尝试。WooCommerce 是一个电商的场景,为什么要尝试将 WooCommerce 运行在 Amazon Lambda 上呢?首先,在 Buildwith 网站上,访问量最大的一百个网站中,WooCommerce 所占份额第一;其次,Wordpress 是基于 PHP 开发的,PHP 在 Web 应用网站建设上,大概有 70-80% 的网站是基于 PHP 开发的,使用量非常广;第三,PHP 语言,每个请求进入,都需要重新进行初始化,同 Amazon Lambda 无状态的计算环境非常契合。亚马逊云科技团队采用了如下无服务器 WooCommerce 架构,在 Amazon Lambda 上运行 WordPress。该架构前面部分采用 Route53、CloudFront 做 CDN,用 Amazon Lambda 运行应用,前端用 Lambda Function URLs 代替 API Gateway 作为入口,并将静态资源通过 Amazon S3 存储。然后,在 Lambda 函数里面通过 Docker 镜像的方式,把 PHP Runtime、NGINX Server 和 PHP FPM 运行的进程管理服务加载进来,把 Wordpress 与 WooCommerce 代码打包进去。后端用相应的数据库,比如 Redis、最新的 V2 数据库做数据的缓存,用 EFS 共享的系统来保存用户上传的文件。通过该架构,亚马逊云科技实现了在 Serverless 基础上运行 WordPress。在 Serverless 上运行网站实际性能如何呢?如果在 WordPress 的网站想要做到比较好的性能,可以把 WordPress 静态化,变成静态内容放在前端的 CDN 网站上。如果运行的是 WooCommerce 电商网站,用户浏览商品、将商品加入购物车、提交订单、支付,是动态请求,需要回到后端的 PHP 应用上。对于静态应用,性能方面可以做到 3 分钟内从无请求到最高峰值,每分可处理 2 万多笔订单,持续 1 小时。成本方面,每处理一笔订单需要调用 10 次 API,也就是处理 100 万笔订单需要调用 1000 万次 Lambda 函数。据统计,1000 万次 Lambda 函数调用的费用也仅为 300 美元。不仅如此,在测试过程中网站的 API 响应时间也非常平稳,P99 延迟仅为在 1-2s,P50 延迟只有 500ms 左右。分享的最后,孙华针对 Serverless 上运行网站实际性能进行了演示,并提供了 Serverless 相关的资料,感兴趣的开发可扫描下方二维码进行获取。👇
| 5,235 | 1,653,028,858,801 |
InfoQ
|
167 |
出海“老兵”赤子城:如何为全球化扩张构筑技术底座?
|
自改革开放以来,从“中国制造”到“中国智造”,中国企业在国际贸易中的角色和战略不断变化。2000 年以前,中国企业多处在产业链下游,以加工、制造等业务为主,追求经济效用。之后,中国企业逐渐向产业链上游发展,重视技术创新,加强产品品牌和企业形象建设。尤其是数字经济和移动互联网方面,中国走在世界前列,国内互联网企业在移动互联网的技术、产品和商业模式等方面做出了很多探索,也诞生了不少创新成果。自 10 年前,中国互联网企业已经扬帆出海,开始征战海外市场,先是出现了一批以 APUS、茄子科技、触宝为代表的工具类出海企业。四五年后,互联网企业出海进入第二波高潮,由工具类产品出海变成内容类产品出海。在游戏、直播和短视频及社交领域,中国互联网企业做得风生水起,涌现了 FunPlus、Bigo 、TikTok 、赤子城等代表性企业。海外社交“实力派”作为最早一批出海的中国互联网企业,赤子城于 2013 年开始进军海外。截至目前,它在社交、游戏和工具等领域打造了多款优质应用,服务全球 200 多个国家和地区的超 13 亿用户,积累了丰富的全球化经验。据悉,赤子城科技成立于 2009 年。2013 年,公司开始向海外发展,第一款全球化产品 Solo Launcher 上线。2015 年,公司切入全球开放式社交赛道,开始构建以社交业务为核心的企业产品矩阵。赤子城主打的社交应用主要为 Yumy、YoHo 和 MICO,分别主打视频匹配交友、音频匹配交友和兴趣匹配交友。其中,Yumy 全球下载量突破 5000 万,进入 46 个国家 Google Play 社交应用畅销榜前 10;YoHo 在海湾六国表现亮眼,被视为中东主流社交平台之一;MICO 则稳居中国社交出海平台 头部,全球用户超 1 亿。2021 年,公司社交业务成功打入发达市场,全球用户突破 13 亿。赤子城科技 CEO 李平能取得如此的成绩离不开赤子城在技术领域的多年投入。那么,赤子城如何发挥技术的作用,驱动产品创新和业务发展?它们在海外市场遇到过哪些技术挑战和难题?在出海方面有哪些思考和感悟?......针对上述问题,InfoQ 专访了赤子城科技 CEO 李平和公司的技术团队。技术是出海“压舱石”赤子城科技 CEO 李平表示,“技术是公司在产品、运营、增长等方面最底层、最有力的支撑,是公司运营的中流砥柱”。在他看来,技术可以提高产品创新迭代和验证的效率与质量,缩短从业务想法的提出到实现和交付的时长。比如 2017 年,短视频和直播这种新的交互形态刚开始爆发时,公司的技术团队攻克众多技术难关,快速部署了一套全球化的视频和直播系统。李平称,当其他公司还在解决一些技术难题时,赤子城科技已经抢先推出高质量的产品和服务,抢占了市场先机,实现创新业务的快速尝试和突破。比较典型的是中台。据李平介绍,结合全球行业前景和自身的差异化选择,赤子城科技建立了中台系统。从结构上说,可分为两大部分:技术中台和全球运营中台,本质是将可复用的业务能力形成流程并沉淀到中台,并通过数据整合、智能算法以及研发优化等方面赋能业务,最终将这种能力复用到不同业务模块并促进它们之间的联通和融合。具体说来,赤子城的技术中台包括全球连通的服务节点、大数据中台、智能算法中台和研发中台。其中,大数据中台主要分析业务数据和提供决策支持,助力流程和运营的智能化以及商业模式的创新;算法中台主要是帮助优化公司的音视频技术、推荐算法匹配和图像以及语音识别相关的需求;研发中台则主要是帮助建立产品的底层架构,快速迭代,避免反复造轮子。而全球运营中台方面,主要包括全球内容中台、美术中台和支付中台三个方面,把日常业务的核心环节提炼搭建成系统化的平台,并通过业务端获取沉淀的用户数据,反哺技术中台的迭代升级,让 “技术” + “业务” 形成深度结合,持续双螺旋上升共同优化的趋势。“基于多位一体的中台,我们能实现技术赋能业务、业务反哺技术的良性循环。”他补充道。在李平看来,通过中台化将资源进行共享和复用,从技术层面降本增效,逐步让日常事务自动化、智能化,大大提高了公司整体运营效率。全球化扩张,赤子城科技的技术全景进军海外过程中,企业需要根据海外发展情况制定合适的技术发展战略,让技术与业务相匹配,从而加速公司发展。据李平介绍,赤子城科技在整个产品推进过程中一直奉行快速迭代的理念,“我们追求技术的快速性,一般不会重复去造轮子,首先会寻找成熟化的解决方案,比如一些成功的开源方案”。其次,选择最合适的技术路线。很多程序员追求新鲜感,偏爱比较先进的技术,“我们研发团队的思路是寻找最合适的,像编程语言,在能实现业务的情况下,现有团队适合用 Java 开发就用 Java,适合用 Python 就用 Python,如果 C++合适就用 C++,而不是一味为了追求新而追求新”。最后是简单。围绕简单这个理念,技术团队不追求普适的开发,而是小步快跑,“实现了一个小需求后,立即进行线上验证,考察其是否符合业务的需求,这样来不断优化和迭代,而非做特别复杂和过度的设计”。简言之,我们可以把赤子城科技的技术战略主要概括为三点——快速:技术方案优先考虑成熟的开源产品,尽可能快速验证业务形态;合适:优先考虑现有团队对技术的熟悉程度,避免一味追新求异,避免重复造轮子;简单:小步快跑、按需演化迭代,解决方案适应项目当前时期的规模,避免过度设计。目前,赤子城科技在社交方向有三款产品:Yumy、MICO 和 YoHo,其中,像 Yumy 的全球下载量超 5000 万。千万级用户对产品基础架构的要求非常高。对赤子城科技来说,海量用户在基础架构方面带来了不小挑战:一是性能。不同市场的本地网络、用户设备差异比较大,从用户端到服务端之间的链路时延。二是可用性。来自运营商的网络封禁,资源节点故障,网络抖动,重大运营活动带来的瞬时流量,内部服务更新和代码 bug 等。三是敏捷性。全球不同地区有自己的文化特色,用户对产品策略的接受程度不同。产品和研发团队面临的问题是如何快速验证产品功能,怎样平衡产品全球统一性和本地差异性。针对这些挑战,李平称没有“银弹”,也没有一劳永逸的解决方法,需要技术团队从研发、集成、部署、监控、反馈和运营各个阶段建立相应的机制。而赤子城科技围绕上述维度构建了自己的保障机制:研发:采用统一的代码托管平台、开发规范和语言框架;CI/CD:设置单元测试,测试部署,集成测试,自动化测试,性能测试,兼容性测试,预览部署,灰度部署,全量部署,自动扩缩容机制;监控报警:建立起指标体系、日志系统、链路追踪、报警机制和全局视图;反馈和运营:建立数据平台,针对用户行为路径、问题反馈和运营指标进行数据分析,并通过 AB 测试平台快速试错。通过多年实践,赤子城科技在规划基础架构时,主要从这些维度出发:高性能:要确保在全球各个市场,能给用户带来快速访问的用户体验;高可用:确保服务在全球各个市场一直可用,SLA 指标 99%;可伸缩:通过增加或减少硬件,提高或降低系统的处理能力;安全性:提供安全访问和数据加密,有安全存储的策略;敏捷性:随需应变,快速响应;合规性:不仅满足 Apple、Google 和 Facebook 应用市场及开发者平台的数据合规要求,而且要满足各地政策法规,如《GDPR》。除了基础架构的审慎规划,赤子城科技在稳定性方面大力投入,在服务架构层面的不同层级都使用针对性的策略,目的是满足全球 13 亿用户的稳定性体验。据悉,在应用层,一般设计为无状态,每一个请求都可以随机选择服务器处理,同时,通过负载均衡技术实现高可用。在服务层,设置负载均衡、分级管理、快速失败(超时设置)、异步调用、服务降级、幂等设计等。数据层,冗余备份(冷,热备[同步,异步],温备)、失效转移(确认、转移、恢复)。为满足全球化的 IM 通讯需求,赤子城经过多年持续迭代优化,自研出一套稳定的全球通讯服务,并自研 IM 聊天框架进行全球链路优化。据悉,该公司在新加坡、美国、日本、印度、德国等地建立了数据中心,并将全部服务接入阿里云和亚马逊云科技,让服务器尽可能靠近用户部署,将通信延迟降到最低水平。此外,该公司还自研了一套测试工具和前后端一体化的实时数据监测系统,实时收集异常反馈,及时发现和定位异常问题,并感知业务变化趋势。如今,这一套全球化服务已趋于成熟稳定,“近两年,几乎没有出现过对业务有过多影响的故障”。除了基础架构和稳定性,赤子城科技主打的社交产品具有很强的内容属性。而事实上,海外市场涉及不同国家和地区,每个国家和地区又有自己的语言和文化特点。对赤子城科技而言,产品和服务成功的前提是尊重目标市场的文化与宗教习惯,并严格遵守当地法律法规。因此,社交产品的内容审核成为运营的重中之重。据了解,在内容审核方面,赤子城科技打造了“技术+人工”相辅相成的内容审查体系:建立审核中台,支持审核组对 UGC 内容的图片、图文和直播进行顺畅的审核工作与数据分析;引进成熟的 AI 审核工具,基于积累的图片和文字资源训练内部审核模型;机器审核判定违规的内容直接在用户创建发布时给出拦截提示,机器审核不确定的结果转向人工审核团队进行二次校验;针对全球不同市场的文化特色差异、内容尺度标准差异进行精细化模型优化和人工审核标准改进。据李平透露,赤子城科技目前每天新增数据量在1.2T左右,日处理数据16T。为处理全球范围内海量数据,公司自研了名为“北极星”的数据平台。北极星数据平台含有元数据管理系统、数据质量管理系统、数据生命周期管理系统、AB 实验系统、自助查询系统、用户画像系统、机器学习平台、PUSH 和短信系统、数据传输系统,让业务能依托数据平台得到即时、高效和深度支撑。并且,平台集成 hadoop 生态开源组件,在优化Hive、tez、impala、Spark计算引擎后,通过Hadoop官方基准测试,性能已达到同类商业产品的3倍,兼顾高可用特点,在数次服务器硬件故障宕机后,仍然能稳定完成线上生产任务。平台通过对任务内存分配、内存使用策略、任务并行度、mr 执行时机、磁盘写入策略、磁盘 IO 调整、任务队列资源隔离及资源动态抢占策略等方面的持续优化,日常能在 2~3 小时内处理完 50 倍于计算资源的数据任务。在业务上,为不损害用户体验前提下尽可能为商业客户触达目标用户,赤子城科技在投放侧和变现侧分别推出相应的技术解决方案:投放侧:自研 Solo Engine 智能投放系统,通过自动化工具解放生产力,让优化师专注于创意生产和行业分析,细化到分钟级的投放计划监控,避免监控不及时和人为失误;同时,搭建 AARRR 模型的全周期数据闭环,通过数据驱动产品营销,大大提高优化师的投放效率和分析决策能力,使单个优化师投放人效提高 5 倍以上。变现侧:基于用户行为互动数据搭建一套用户画像标签系统、广告推荐系统、广告 A/B 测试系统,针对不同用户群体实现差异性广告策略,在平衡用户留存(用户体验)和广告变现(投放效率)的基础上,持续迭代更加高效的广告推荐逻辑。多年的研发与实践,让赤子城科技构建起自己的全球化技术体系,不仅解决了全球化发展中遇到的问题,而且很好地满足了上层业务运营和发展。写在最后从赤子城科技的出海经历我们发现,企业出海要想在海外市场站稳脚跟和获得长足发展,必须构建一套强大的技术底座,这样才能满足上层业务复杂多样的需求,并有效应对海外扩张中遇到的种种风险与挑战。业务的成功离不开技术的支撑,而强大的技术也能化作企业优势,从而助力企业在海外取得更好成绩。
| 1,736 | 1,652,682,289,670 |
InfoQ
|
168 |
云上企业如何加速创新?亚马逊云科技发布数智融合新趋势
|
日前,以“云领数智融合,重塑创新引领”为主题的亚马逊云科技大数据与机器学习媒体沟通会在北京举行。亚马逊云科技大中华区产品部总经理陈晓建、亚马逊云科技大中华区产品部技术专家团队总监王晓野、亚马逊云科技大中华区产品部机器学习产品高级经理张洋接受了 InfoQ 在内的少数几家媒体采访。 随着信息技术日益发展,近几年,全球数据量激增。统计显示,2020 年,全球数据量达到了 60ZB,其中中国数据量增速迅猛。预计 2025 年中国数据量将增至 48.6ZB,占全球数据量的 27.8%。 毋庸置疑,数据早已成为企业最重要的资产,但数据价值却未得到充分利用。福布斯调研报告数据显示,如果能够成为一个数据驱动型公司,那么公司收入会增加 20%,成本会减少 30%。 亚马逊云科技认为,企业要想重塑数据洞察,一定要做到数智融合,将数据(大数据技术)和智能(机器学习技术)进行融合和统一。从而更加高效地围绕数据构建和实施项目,使得数据在两者之间无缝流转,成员快速具备相关能力,推动公司企业数字化转型迈向新的高度。当大数据遇上机器学习 IT 时代产生的数据呈指数级增长,而数据也被应用到了更多的领域中。与过去相比,数据的规模日益庞大,应用场景日益复杂,这些都给大数据计算提出了更高的挑战。而企业对大数据服务也提出了更高的要求。越来越多的企业希望拥有按小时,甚至按分钟级实时的大数据服务。 与此同时,随着 AI 技术不断发展,AI 技术的应用深度和广度也在不断加深。根据 IDC 报告显示,到 2023 年,AI 系统支出将达到 979 亿美元(约合 6557 亿元人民币),比 2019 年增加 2.5 倍。另外根据 Gartner 的分析,到 2024 年,75% 的企业将把机器学习技术真正用于生产,为业务所赋能。 “从这两点来看,大数据和机器学习技术会对企业业务产生越来越大的作用,越来越多的企业希望能够通过融合大数据和机器学习能力来提供业务产出,以充分发挥数据的价值。”陈晓建说道。 可以看到的企业需求趋势是,在组织架构层面,企业将原来分散在各个部门的机器学习实践进行整合,并与大数据项目进行统一协调和资源配置;在人员能力层面,企业要求和安排原有传统的大数据实践者掌握机器学习技术,应用到大数据具体项目或承接新的机器学习相关的项目需求,要求机器学习从业者也要掌握大数据处理能力,更好、更便捷地完成模型所需的数据准备和加工;在项目实施层面,仅依靠传统的大数据技术是无法全方位提供充足的数据见解,仍需要机器学习的模型能力补充,越来越多的数据项目会融合大数据和机器学习两者的能力;在工具支撑层面,企业需要面向大数据技术和机器学习构建统一的开发平台和技术基础,可能是对已有大数据平台进行改造增加机器学习相关场景和能力,或是完全推倒重新构建一个面向两者的通用的平台。 陈晓建认为,数智融合需要解决三个问题: 第一,数据和机器学习分而治之,数据及技术孤岛制约敏捷迭代。数据的丰富性、准确性和质量,直接决定了机器学习最终的效果。但企业通常分开独立建设大数据能力和机器学习能力,多个部门数据孤岛式呈现。 第二,数据处理能力不足。在生产制造企业,机器学习帮助客户对产品售后维修需求进行预测,由被动响应变为主动规划。但由于不具备足够的大数据处理能力,模型开发成功后 ,不能够有效收集处理海量的运营数据,致使预测不准确,无法达到预期业务目标。 第三,数据分析人员参与度低。现实情况经常是,模型在实验环节效果良好,但实际使用中却不尽人意,实验环境只是对真实环境的简单模拟,生产环境要复杂得多。实现数智融合需要构建三大核心能力 “企业在云中要打造统一的数据基础底座,实现大数据和机器学习的’双剑合璧’,为企业发展提供创新引擎。这是我认为实现数智融合最有效的一条途径。” 陈晓建表示,实现数智有效融合的途径一是建立统一融合的治理底座,如数据质量、数据权限、数据开发、数据工作流、可视化;二是要让大数据和机器学习之间高效充分的双向互动,互为支撑,互为因果,形成正向循环。 而企业要想实现数智融合需要构建三大核心能力: 统一数据共享。让数据资产化,打破数据孤岛。统一权限管控。因为只有具备完善的权限控制能力,放心的让数据在不同的业务系统之间流转。统一开发及流程编排。融合端到端的大数据和机器学习任务,提升整体的开发效率。 亚马逊云科技的经验之一就是构建云中统一的数据治理底座,打破数据及技能孤岛。企业需要构建统一的数据治理底座,实现大数据和机器学习的数据共享,数据权限的统一管控,以及两者统一的开发和流程编排。云中统一的数据治理底座不仅能提升大数据和机器学习的高效融合,还能减少大数据和机器学习重复构建的工作,并且显著降低成本。 “在2021 re:Invent期间,我们的 Amazon SageMaker Studio 进行了能力升级,通过 Amazon SageMaker Studio 统一的开发界面,现在可以实现数据科学家或是数据工程师用统一的界面实现机器学习、算法模型开发之外的能力,还可以通过 Amazon Athena访 问不同数据源的数据,也可以通过 Amazon EMR 实现大数据处理,也可以通过同样的界面,通过代码调用 Amazon Redshift,访问数据仓库里的数据。”王晓野说道。 此外,还需要助力机器学习由实验转为实践,为机器学习提供生产级别的数据处理能力。机器学习项目成功的关键,就是对复杂的数据进行加工和准备。 最后,让数据分析智能化,赋能业务人员探索创新。比较常见的方式是通过一些工具降低探索机器学习建模难度,比如亚马逊深度集成机器学习Amazon SageMaker 模型预测能力的 Amazon QuickSight 、在分析结果中添加基于模型预测的 Amazon Athena ML,都可以帮助开发者使用熟悉的技术,甚至通过自然语言来使用机器学习。 “大数据技术与机器学习技术,其实有着非常不同的发展路径。但是有一部分的企业已经走在了数据驱动转型的前沿,借助云计算实现了它们二者有机的融合。”王晓野说道。人工智能将无处不在 人工智能从出现到发展至今不过十年。不过根据 IDC 2022 年中国人工智能及自动化市场的十大预测,人工智能将无处不在。 IDC 中国助理研究总监卢言霞表示,到 2022 年,60% 的中国 1000 强公司将在所有关键业务的横向职能中扩大使用 AI/ML,如营销、法务、人力资源、采购和供应链、物流等。由于机器学习更加依赖算力、算法、数据,人工智能的快速发展拉动了对 AI 基础数据服务的需求,预计在未来几年内将稳步增长。 而随着 AI 技术进一步发展,大数据与 AI 结合的优势也将进一步显现。可以预见的是,云上企业要想加速创新,或将必然加入这场数智融合之旅中。
| 1,768 | 1,652,324,555,703 |
InfoQ
|
169 |
化“被动”为“主动”,如何构建安全合规的智能产品 | Q推荐
|
物联网时代,智能产品的应用越来越广泛,然而想要构建一款满足合规要求的智能产品却并非易事。智能产品的构建通常涉及较长的产业链条,包括智能设备端、云设备端及用户操作端,而大多数从事 IoT 智能设备构建的开发者更多的经验集中在嵌入式设备的开发,对于在云平台上该如何轻松、安全地构建智能产品缺乏经验,且常常被一些设备端的问题所困扰。近日,亚马逊云科技 Tech Talk 特别邀请解决方案架构师郑辉作为嘉宾带来《使用 Amazon IoT Core 构建安全合规的智能产品》的主题分享。智能产品背后的挑战在构建智能产品时,开发者常常面临诸多挑战,包括安全合规挑战、大规模设备连接问题等。郑辉将开发者在构建智能产品时遇到的挑战概括为以下三点。首先,由于终端设备的多样化,物联网的开发和应用存在较严重的碎片化问题。传感器的种类多种多样,每个传感器对应的连接协议也包含多种通讯模块。此外,同一个设备也会对应不同的场景,如智能家居场景、安防场景、新能源场景等,这些场景所对应的终端不管是操作系统还是所使用的开发语言都大相径庭。因此,会导致严重的终端碎片化问题。其次,协议多样化也是困扰开发者的主要问题之一。对于物联网来说,最重要的是设备与设备的通讯。物联网技术框架体系中所使用到的通讯协议有:AMQP、JMS、REST、HTTP/HTTPS、COAP、DDS、MQTT 等。根据 Eclipse 基金会的调查,MQTT、HTTP、WebSocket 是物联网解决方案中最常用的消息传递协议。但整体来看,当前物联网协议呈现多元化发展,不同行业和场景适用不同的协议,在相同的场景下也可能有多个协议可供选择。第三,是数据隐私法规问题。世界各国都有相应的数据隐私法规,IoT 设备作为最接近用户端的设备,会收集到用户大量的数据,这些数据会涉及非常多的个人隐私。不管是美洲、欧洲还是亚太地区乃至各个国家,都有自己的隐私保护法。其中,最为著名的是欧盟的《通用数据保护条例》(GDPR)。目前,如何在构建智能产品时满足不同的安全合规需求,仍是企业和开发者面临的一大挑战。智能产品安全合规问题的应对之道终端碎片化、协议多样化以及数据隐私法规合规问题如同三座大山,横亘在开发者与智能产品的构建之间。如何克服挑战,构建安全合规的智能产品?Amazon IoT Core 提供的正是这样一项托管服务,让连接的设备轻松安全地与云端应用程序和其他设备进行交互。Amazon IoT Core 能实现以下基础功能。将设备安全地大规模连接到亚马逊云和其它设备;路由、处理来自连接设备的数据;使应用程序即使在离线时也能与设备进行交互;与其他亚马逊云科技服务完美集成在数据之上进行推理?(分析, 数据库, AI, 等);支持物联网解决方案中最为常用的 WebSocket、HTTP、MQTT 等协议。具体来说,Amazon IoT Core 是如何解决安全合规问题的呢?在基础功能之外,这些重要的特性是其解决安全问题的关键。第一,管理设备授权并且提供大规模唯一性认证服务。Amazon IoT Core 平台支持 SigV4,X.509,Cognito 和自定义身份验证四种认证方式。用户可使用自己的 Root CA 和客户端证书,或者让 Amazon IoT Core 生成证书。提供四种认证方式的优势在于:首先,既可通过即时注册实现自动化设备配置,也可以通过 Fleet Provisioning 实现自动化设备配置,保障其云上连接的安全性。其次,认证服务本身需要和 IoT 策略绑定,因此,云上访问可以通过 IoT Core 策略来实现灵活及更加细粒度的访问控制。第二,利用设备网关实现物联网场景完全托管的连接优化。所谓完全托管即能够实现无论多少设备跟 Amazon IoT Core 去连接,都可以完成低延时、高数据量的通信,保证连接不受计算资源的困扰。Amazon IoT Core 支持多种协议,包括 MQTT, WebSocket, HTTP 等。此外,它通过 TLS 1.2 进行安全通信 ,只有云端和设备互认后才能完成数据的传输和交互,这种方式可以有效保障数据的安全性。不仅如此,Amazon IoT Core 还可配置终端节点和自定义域名,并且能够对性能受限的设备进行优化。认证服务和设备网关是保障智能产品安全的关键特性。那么,设备如何访问到云端呢?对于权限控制链路,亚马逊云科技提供了两种不同的解决方案。解决方案一:IoT Core 中证书与设备绑定, 证书附加策略,策略规定连接上云的范围,一个证书对应一个设备。在策略中,通过精细定义策略内容,达到最小化设备连接权限,实现安全需求。解决方案二:手机端 App 不直接连接 IoT Core,通过网关做一层中转,方便在网关处进行权限控制。从 Amazon IoT Core 的最佳实践经验来看,不建议手机 APP 直接连接到 IoT Core,一方面开发不方便,IoT Core的连接鉴权需要引入Amplify/Cognito/STS等服务,没有其他功能需求时,增加开发复杂度;另一方面,在 APP 里放证书或者IoT Core连接的鉴权方式,尤其是安卓系统,非常容易被反编译破解。因此,亚马逊云科技的解决方案建议在 IoT Core 与 APP 之间加一层中间网关,方便对设备端安全进行控制。通过以上两种方案,可实现了精细化的权限控制。以解决方案一为例,如果采用此种策略,那么能够执行的操作仅为连接、对应的发布、接收消息及订阅对应的 MQTT 主题。由于平台已经对 MQTT 的主题资源进行了限定,因此能够操作的 MQTT 主题也是相当有限的。通过这样的策略,能够实现最小设备连接权限,达到安全需求。假如出现设备产品的迭代,用户也可以通过更改策略的方式,保证设备没有太大的权限,或者通过把这个设备淘汰掉,让它无法进行连接,通过这样的方式,将很方便地对设备进行对应的控制。安全合规通常被连在一起,但事实上安全和合规是两个不同的议题。以上策略保证了智能产品的安全性,亚马逊云科技又是如何帮助用户进行合规建设的呢?郑辉将实现整体合规性的方式总结为三个方向:合规的底层资源权限、监控和加密根据业务获取支持亚马逊云科技基于对全球标准的合规遵从构建合规体系。以 GDPR 为例,GDPR 对个人数据方面有相应的要求,如客户(或任何最终用户)存储或处理的任何内容,包括:软件、数据、文本、音频、视频等。但这些内容会包含 “个人数据”,如一个门铃,门铃所在的位置会关联用户的基本身份信息;可穿戴设备,会记录用户常见的血压、心跳等数据,这些都是重要的数据,需要进行合法合规的保护。GDPR 针对个人数据处理有六大原则:透明性,公平,合法性:合法的收集数据,并公开收集何种类型的数据;限制使用目的:不得违反原有目的对数据进行额外处理;数据最小化:只采集恰当的,相关的和有需要的数据;数据内容的准确性:确保准确性,需要时只使用最新的数据;储存限制:储存数据的时间不长于所需要的目的对应的时间;管理责任制:数据应有相应的机制来防范非法的,没有授权的处理,防止数据外泄,被破坏等损失。针对六大原则,亚马逊云科技采用相应的措施帮助客户落地 GDPR 合规。除了确保的合规性,亚马逊云科技还致力于为用户提供服务和资源,帮助其遵守可能适用于 GDPR 要求。第一,存取控制。亚马逊云科技通过 IAM 身份认证的方式来提供访问控制。对 Amazon S3、Amazon SQS 和 Amazon SNS 中的对象实现精细访问控制。采用 API 请求验证,开发者可以通过 Amazon IAM 临时身份访问令牌的形式,获得 API 调用或者权限调用。第二,监控记录。监控记录分为两个层面,其一,是对当前配置的修改,可以通过 Amazon Config 执行资产管理和配置。其二,是云上操作,用户可通过 Amazon CloudTrail 进行审核和安全分析。第三,加密。亚马逊云科技的加密手段非常多,如使用KMS (EBS/S3/Glacier/RDS) 对静态的数据加密、使用KMS进行密钥管理等。如果想要连接亚马逊云科技的 VPC 环境,也可以通过 VPN 网关进入 Amazon。如果对加密钥管理的方式不是很满意,需要拿到一个最高级别的密钥管理模块,通过 Amazon CloudHSM 在云中使用专用 HSM 模块来满足一些金融级别密钥管理要求。第四,安全认证。亚马逊云科技通过了许多安全合规认证,符合各种严格的国际标准,包括:技术方法的 ISO 27001、云端安全的 ISO 27017 等,在海外去构建服务的时候可以满足很多安全合规要求。对于云上日志和对应数据如何保存和监控,亚马逊云科技同样给出两种解决方案。解决方案一,集中化的日志管理。集中式日志记录解决方案使组织能够跨多个账户和 Amazon 区域收集,分析和显示 Amazon 上的日志。该解决方案使用可简化 Amazon 云中 Elasticsearch 集群的部署,操作和扩展的托管服务 Amazon Elasticsearch Service(Amazon ES)以及与 Amazon ES 集成的分析和可视化平台 Kibana。结合其他 Amazon 托管服务,此解决方案为客户提供了可自定义的多账户环境,以开始记录和分析其 Amazon 环境和应用程序。解决方案二,云上的隐私数据存取与归档。开发人员将仅出于履行订单(订单发货后不超过 30 天)或计算 / 缴纳税款的目的和必要时间保留 PII(个人资料)。在 30 天后需对资料进行归档。开发人员可使用 Amazon S3 服务对数据进行对应的智能分层管理。30 天后数据将自动归档到 Glacier 的存储库里。这些数据可全部通过亚马逊云科技的加密服务进行加密,来保证云上存储数据的安全合规。除了针对底层进行一系列合规建设,在业务层面,亚马逊云科技同样提供了相应的支持。亚马逊云科技与美国和世界各地的监管机构持续合作。其目的一方面是分享亚马逊云科技的合规方法和合规工具,赋能监管机构以帮助审核人员考核亚马逊云科技云环境,帮助塑造法规格局,以反映技术的变化,同时促进业界与监管机构之间的对话;另一方面是评估和解读政策,按不同国家进行影响评估,以帮助企业应对如何运作;此外,亚马逊云科技还针对安全合规提供专业的服务团队,为客户提供安全保障服务。综上所述,为什么说 Amazon IoT Core 是一个合规的产品呢?其一,亚马逊云科技所有的合规都遵从业务上的生命周期,在不同周期都有对应的服务工具帮助客户解决安全合规问题;其二,亚马逊云科技会与合作伙伴一起,通过 APN 与 Marketplace 为企业用户提供合规保障。如何构建满足业务需求的智能产品IoT Core 在安全与合规两个维度,通过不同的解决方案,满足客户需求。如果不涉及出海业务,安全合规的影响会相对较小,一旦涉及出海业务,安全合规问题将不容忽视,具体该如何基于 Amazon IoT Core 来进行安全合规的智能产品构建呢?在智能产品构建的过程中,主要基于 IoT Core 服务的以下几个功能。第一,注册表。通过注册表可定义和登记设备以便亚马逊云科技其它服务使用并简化搜索 。可通过定义事物类型 (例如 本田和丰田属于汽车类型) 以实现跨设备的属性和策略的标准化;也可通过定义群组 (例如:汽车传感器) 以实现更简单的管理(运行作业,设置策略等)。第二,规则引擎。可以低成本获取大量物联网数据,对其进行预处理,并将其提供给 10 多种服务,用于分析、报告和可视化。IoT Core 对数据的处理会提供多种内置函数,包括数学公式、字符串操作、日期等等,IoT Core 也可以对消息进行过滤,以及通过设备阴影和 Aamzon Machine Learning 或者 通过 Amazon Lambda 执行从外部源获取上下文。第三,设备影子。大部分使用 Amazon IoT Core 去构建智能设备的用户,都会使用智能设备影子管理云上设备状态。设备影子是云上的 IoT Core 里面的一组特殊的 MQTT 主题,这组主题全部在云上进行了一层存储。通过设备影子用户可随时了解和控制设备的状态、报告设备的最后已知状态、或者改变设备的状态。因为设备影子有自己的命名规则,所以每个设备都可以拥有自己的影子,这样就可以很轻松地实现设备状态的控制,不再需要开发者自己做复杂的 MQTT 消息的业务逻辑设置。使用设备影子进行设备状态控制,设备可以发送对应消息,IoT Core 收到消息后就可以触发对应的规则引擎,规则引擎可以把消息通过消息推送服务发送到用户手机上。设备影子的优势有三点:第一,无需复杂开发即可实现设备管理,Retain 标识逻辑设置等;第二,已定义好的消息版本,不用维护消息实时性;第三,每个设备都可以设置自己的影子,方便进行权限控制。除进行设备状态控制,设备影子在设备意外离线的场景下也有着广泛的应用。因为智能设备的网络环境,工作环境不稳定,电量消耗,意外情况等原因,导致设备意外离线的情况时有发生。传统的 MQTT 协议中,为了应对这类情况,有 LWT(Last Will and Testament) 机制。当设备连到 MQTT broker 上时,会设定一个特定的消息,把它发布到 broker 上,这个消息在 broker 里面做对应的存储。当设备因为意外情况断开连接的时候,这个 broker 就会把消息发布给订阅对应主题的订阅者,订阅者收到消息之后就知道设备意外离线了。IoT Core 采用设备生命周期管理的方式。设置 LWT 消息,需要我们在嵌入式做额外的开发,设定设备的 online/offline 机制;而在亚马逊云科技的 IoT Core 上,会提供连接 / 断开连接事件。在客户端建立连接或者断开的时候,IoT Core 会把这个消息发布到对应的 MQTT 主题里,客户端 ID 在连接 MQTT 可以把它直接设置成为 SN 码,通过 SN 码,就可以知道到底是哪一个设备断开连接了。对于 IoT Core 上的设备生命周期管理,亚马逊云科技提供两种管理方式。这两种方案都需要通过 Amazon IoT Core 规则引擎去实现。管理方式一:设备在云上注册时,以自身 SN 码进行注册,连接 MQTT 时,使用 SN 码作为 clientId;规则引擎设定对 $Amazon/events/presence/connected(disconnected)/# 的过滤;在 DynamoDB 中维护一张以设备 SN 码为主键的表,使用规则引擎监听连接 / 断开连接事件更新到 DynamoDB;管理方式二:设备在云上注册时,以自身 SN 码进行注册,连接 MQTT 时,使用 SN 码作为 clientId;规则引擎设定对 $Amazon/events/presence/connected(disconnected)/# 的过滤;使用规则引擎监听连接 / 断开连接事件重新发布给影子设备,更新影子设备 state 字段;整个 IoT 业务场景远不止以上提到的这些,在各个业务场景中,亚马逊云科技都提供了对应的解决方案,在分享的最后,郑辉表示,欢迎大家跟亚马逊云科技联系,共同讨论如何在云上实现智能设备的构建跟打造。
| 2,300 | 1,652,256,884,113 |
InfoQ
|
170 |
REST 十诫
|
本文最初发表于 Treblle 网站,经原作者 Vedran Cindrić 授权,InfoQ 中文站翻译并分享。 我在过去十年里,一直在研究的核心内容之一就是 API:从单一客户端使用的简单 API,到多种设备和多种用途的 API。在过去这些年来,我也有机会与很多第三方 API 一起工作,比如 Stripe、Twilio,以及其他一些不太流行但很有吸引力的 API。这些 API 几乎都以 REST 为基础,有些地方是独一无二的。 REST 之所以流行,有许多理由可以解释。它易于理解、灵活、适用于各种规模,拥有庞大的社区,以及围绕其构建的各种工具。但是,除此之外,我还要说,许多流行的理由都是源于其最老的竞争对手——SOAP,它实在是太可怕了。如果你曾经使用过或与 SOAP 一起工作过,你就会明白我为什么这样说!它的客户端非常糟糕。客户端非常糟糕,人们可以随心所欲地使用 XML,它非常烦琐,有时候授权也非常奇怪……幸运的是,JSON 和 REST API 在这一战中获胜。 另一方面,还有一些更新的、更现代的参与者,尝试着从基于 REST 的 API 中获得一些关注。当然,我指的是 GraphQL。GraphQL 也是以 JSON 为基础,共享了 REST 的优势,例如灵活性、性能、可扩展性等。对我个人来说,GraphQL 的两个主要缺点是它是由 Facebook 构建的,并且它把 API 设计过程转移到了客户端。我的意思是,这使得移动开发人员和前端开发人员有责任创建自己特别的 API,并且可以通过数据库进行查询。我不清楚你的想法,但是我觉得这个想法不是最好的主意。别误解我,我热爱移动和前端开发,但是他们在数据库设计、编写查询和构建 API 方面的知识上,也许并没有太多的经验。你也许不会要求你的后端开发人员设计一个应用,让汽车修理师修理飞机,或是请兽医为人类进行手术。他们能做到吗?或许,他们有可能。他们应该这么做吗?不,我不这么认为。 依我看,REST 依然是丛林中的王者,不会轻易被打倒。REST 的唯一问题在于,归根结底,它既不是标准,也不是协议。相反,它是一套“架构约束”。这是一种不能称之为标准的花哨的方式,但是它却能激起很多人的想象力。他们往往会按照自己的想法去做,或按照自己的(错误)理解去实现这些约束。为了避免这样的误解,我决定把我所认为的 REST API 十条戒律都写下来。遵循这些戒律,你将会从你的移动开发人员那里得到关爱,从后端开发伙伴那里得到敬仰,在 Twitter 拥有摇滚巨星的地位。 因此,正如歌词所唱的那样:“Won't you follow me into the jungle ?”(你愿意跟随我进入丛林吗?) 1. 要务实 这其实很简单。如果你正在构建 REST API,你应当接受并使用 JSON 进行响应。不要用 XML。不要用别的什么东西。就是 JSON。 没错,JSON 并非“必须的”,因为 REST 并不是一种标准,但这是你要做的事情之一。就好像你每天都要穿衣、睡觉,或者每天都要喝一杯咖啡。好吧,也许不是最后一部分,但你明白我的意思了。我们越早让大家摆脱 XML,转向 JSON,对大家来说就越有利。如果你不知道 JSON 为什么会更好,那就让我随便列举一些理由吧: JSON 更容易使用、更容易书写、更容易阅读:任何人,哪怕是你的祖母都能阅读。JSON 的速度更快,而且占用的内存空间更少。JSON 不需要专门的依赖关系或包来解析它。每一种有意义的程序设计语言都能为 JSON 提供良好的支持。 如果你觉得这还是太过抽象,那么我建议你从互联网上随便下载一个 XML 文件,然后试着对其进行解析。我在 2000 年代的时候已经有过很多次这样的经历,我可以向你保证,你会哭着回到 JSON 那里去。你根本没有理由在 2021 年使用 XML 而不是 JSON。当然,如果你有一个遗留的企业系统,那么我对你的痛苦感同身受,但是即便如此,情况也在改变。越来越多的老旧的大公司不断地对其内部和外部 API 进行升级,包括 XML、SOAP、JSON、REST 等。 JSON 不应该只在响应端使用,也应该在请求端使用。所以,不要使用 form-data 或 x-www-form-urlencoded 来发送数据,而是要使用 JSON 来发送。这使得阅读、写入、测试和管理都变得更加简单。 记住,在不确定的情况下,请使用 JSON。我们所有开发人员在此都会向你表示衷心的感谢。 2. 有条理 你一定不会相信,我已经见过很多次 API 只使用 GET 方法来做从数据存储到过滤的所有工作。作为一名开发人员,你必须一直努力了解所使用的工具,因此,当你在开发 API 时,一定要知道 HTTP 的工作原理。每一种 HTTP 方法都是特定的情况而设计的。让我们分别看一下,然后再决定何时应该使用它们。 在我们开始之前,先做一个小而有趣的澄清。在描述 HTTP 方法时,人们经常使用“safe”和“idempotent”这样的词。这些词听起来很好,也很神秘,但其实没那么复杂。用简单的英语来说,safe 意味着只需准备好。你可以在不需要担心更新、破坏或改变数值的情况下,向这个端点发送请求。而 idempotent 则意味着你可以向同一个端点发送多个请求,而不会改变任何内容或获得不同的结果。通常,所有的 safe 方法同时也是 idempotent,但是并非所有的 idempotent 都是 safe。我知道一开始你会感到迷惑,但是我们会在后面说明。 GET 方法 当希望读取数据时,你应该使用 GET 方法。该方法不是存储,不是更新,也不是改变数据。它只读取数据。这是一个非常简单的概念,任何人都不应感到困惑。我们知道,GET 方法只能用来读取数据,并且每次都会返回同样的数据。我们可以说,GET 请求是安全的,也是可执行的。 POST 方法 当你发出 POST 请求时,全世界每个人都想让你存储一些信息。这意味着你将在数据库创建一个新行,在某处写点什么,或者从无到有创造一些东西。如果你愿意的话,你可以使用多种内容类型将数据发送到 POST 方法:multipart/form-data 或 x-www-form-urlencoded 或 raw(application/json,text/plain等)。当构建 REST API 时,我推荐客户端以 application/json 的形式发送数据。这样我们就能保持一致,符合 JSON 精神,而且发送 JSON 数据可以让你轻松地做出真正复杂的请求。最后,POST 操作是不安全的,因为它们的确会在服务器端改变一些东西,而且它们也并非无所不能,因为向同一个端点发出两个请求会导致不同的资源。 PUT 方法 PUT 请求最常被用于更新的场合。它也可以用于创建新的记录,但当时的设想是,客户端必须是一个 ID,为新的资源定义了一个 ID。所以,要让你的工作更加简单,在你需要更新一个资源时,请简单地使用 PUT。PUT 显然并非安全的操作,因为它在服务器端做了改动,不过,你会很喜欢,它是 idempotent 的操作。 DELETE 方法 我想说的是,没有必要对这个操作进行任何说明。如果要删除资源,就直接使用 DELETE 方法。这个操作肯定不安全,但是有些人说它是 idempotent,也有些人说不是。 PATCH 方法 PATCH 请求用于再次更新资源,但与 PUT 不同的是,它只需要更新改变的数据,而 PUT 能够并且应当对全部的资源进行更新。这是不安全的,也是不可行的。 既然我们已经了解了基础知识,那么接下来就是实际生活中所发生的事情。大部分人都是用 GET、POST,还有一些人使用 PUT 和 DELETE。我几乎没有见过有谁在用 PATCH。我推荐你使用一切可用的 HTTP 方法,因为这就是它们的目的。你可以把所有的 CRUD 操作映射到 POST、GET、UPDATE 和 DELETE。我只想让你别用 GET 来创建或更新数据。请不要这样做! 3. 重语义 这也许是你唯一一次听到我对别人建议,要注重语义。但是,在这种情况下,这个问题很重要,并且涉及正确命名的问题。我经常会在 API 文档中发现一些可怕的命名约定。我认为,每个优秀的 REST API 都应该能让一般人容易理解。从端点名称到输入参数,再到 JSON 键。 所以让我们从 API 端点开始。规则也非常的简单: 不要用动词,而是用名词。用复数替代单数。 之所以要使用名词,是因为当你进行 HTTP 请求时,就像我们前面提到的,你使用的是动词。每个 HTTP 方法(GET、POST、PUT、PATCH)在英语中都是一个动词。所以,用双重动词就没有任何意义了,对吧!如果你将 API 端点命名为 /getUsers,并且你在进行一个 GET 请求来查看所有的用户,那么你读这个语句的时候会觉得很有趣。GET /getUsers。没有意义。 我经常见到的另一种常见情况是用单数而不是复数的端点名称。这当然大错特错。你需要 API 的端点保持一致、简单和逻辑性。如果你使用了复数,你可以为每一种 HTTP 方法提供同样的 URI。如果你做的是 GET /users,那么你将会把所有的用户都列出来,而你在做 POST /users 时,你就会创建一个用户。因此,同样的 URI,使用不同的 HTTP 方法(动词)。更酷的是,你可以请求GET /users/:id 来获取信息,以便了解更多的细节。所以,就像你所见:它仍然是相同的起始资源名称,只不过有了更多的深度。假如你使用单数,那么 GET /user 表示你想要拥有一个用户,并且你还需要在其他场合中使用更多的 URI。复数就更有意义了。 回过头来,让我们来看一些良好的示例和糟糕的示例,这样我们就能 100% 地了解了。 良好的示例: GET /usersPOST /usersGET /users/23PUT /users/23DELETE /users/23GET /users/23/comments 槽糕的示例: GET /user/23GET /listAllUsersPOST /user/createPUT /updateUser/23GET /userComments/23 我认为你对这种观点有了一定的了解。这真的非常简单,通过以上示例你可以了解哪些听起来不错,更有意义。 还有一点关于端点命名的补充说明:尽量使用单个单词而不是多个单词。如果你一定要使用多个单词,那么在它们之间使用连字符。看在老天爷的份上,在 URI 中使用所有的小写字母。 作为本节的总结,我将简单地介绍一下 JSON 键在请求和响应数据中的命名规则。对于这一问题,存在着大量争议,特别是考虑到有三种可能的情况:camelCase(驼峰式大小写)、snake_case(蛇形命名法) 和 spinal-case(脊柱命名法)。同样,没有人可以阻止你使用其中任何一种,从理论上讲,你是不会出错的。不过,我推荐使用 snake_case。为什么?Stripe 使用它。PayPal 使用它。Facebook 也使用它。你知道吗?就我个人而言,我发现这样我们就可以 100% 地弄清楚了:因为更容易阅读,这就是为什么我们所有的 API 都使用snake_case。还有一些类似的研究显示,snake_case 在可读性上要优于 camelCase。 4. 保安全 我就直截了当地说:如果你在 2021 年没有使用 HTTPs,那么你就太可耻了。你的 REST API 应该在 HTTPs 上运行,不会有任何问题。使用 HTTPs 只是提供了一个 HTTP 所没有的安全元素。它使你的用户免受中间人攻击,并对客户端和 API 之间的通信进行加密。苹果、谷歌等其他大公司不久就会强迫你启用 HTTPs。最重要的是,如今你可以免费获得一个 SSL 证书。可以通过亚马逊云科技和 Rout 53 等类似的服务,也可以通过类似 Azure 或者 Let's encrypt 的服务来实现。它们都很好用,我可以亲自证明这一点。你还可以随时购买一个高级 SSL 证书。不管你怎么做,只要将 HTTPs 用于你的下一个 API。你以后会感谢我的。 另外一件令我非常伤心的事就是,我发现一个 API 不需要任何形式的授权。如果你创建了 API,你可以简单地控制哪些人可以访问。这是非常容易的,但是很多人并没有这么做,因为他们觉得实施、使用和维护都非常的烦琐。其实大可不必。你可以先用不记名的令牌来开始,这个设置只需要 2 分钟即可完成。即使你不想要,也不必将其与数据库相连。如果你愿意,你可以转而使用 JWT 或者 oAuth 等更为成熟的解决方案。你应该需要某种认证解决方案是有许多理由的。首先,你可以控制 API 的访问权限和用户能够访问的数量。如果有问题,例如你的 API 被垃圾邮件、黑客攻击,或者其他,你只需关闭被公开的密钥。你也可以使用 API密钥来跟踪 API 的集成情况,看看有没有用户过度调用 API,或者客户端的行为不正常。最终,你还可以通过 API 调用来收集客户端、用户和 API 的统计数据。 我的观点是:把 API 当作自家房子来看待。我敢肯定你有几扇有钥匙的房门,而你只是将这些钥匙交给了重要的人。对待你的 API 也应该一样。 另外,你还需要注意的是,在网络上发送超级敏感的数据。我们讨论了这个问题,并讨论了 SSL 用于通信加密的重要性。这将是第一步。第二步是,不要传回那些可能不会在你的应用或者你的网站上使用的敏感数据。我指的是用户地址、电话号码、SSN(译注:美国社会保险号)或者其他形式的身份认证。如果不用,就不要传回。如果你使用了,那么就要保证访问 API 和得到响应的人是你正在传回数据的真正用户。我知道,这听上去很简单,但是实际上,人们会做出很多疯狂的事。这主要是他们觉得“哦,不会有任何事情发生,这只是一个很小的 API,没有人知道。”在这一点上请相信我。人们会发现的,只要你让别人去做,别人就会去做。因此,请别这么做。 在我们结束之前,我要谈谈 UUIDs 与 IDs 之间的辩论。我是 ID 的长期粉丝,因为它更简短,也更快速,但是我认为 UUID 在安全性和隐私优势更加重要。UUIDs 的安全性更高。你可以在数据库中增加自动递增的 ID 列,但如果你将模型公开给 API,则可以使用 UUIDs。这些忠告都是简短的,但是却能帮你省去许多麻烦。 最后我要说的是基本的基础设施安全。如果你使用的是亚马逊云科技或 Azure,那么这就是你的优势。API 网关为你提供了更多的安全性,可以通过防火墙和侦测 DDoS 攻击。你能用就用吧。只要你能阻止某个特定的 IP 或用户,你就会寻找这样的东西。如果你在传统服务器上运行 Apache,下面有两个非常快捷的建议,可以帮助你在接下来的日子里省去很多麻烦。 第一条建议很简单:坚持更新你的软件。Apache、PHP、Composer 包、NPM 包。所有的软件都要更新。一定要保证你使用的软件都是最新的、最好的。 第二条建议,Apache 默认向每一次请求发送一个响应头,它将告知潜在攻击者你正在使用的 Apache 的哪个版本。这个响应头的键称为 server,其默认值可能是这样的:Apache/2.4.1(Unix)。你现在要做的就是迅速地把 Apache 的版本隐藏起来。 只需打开:/etc/apache2/conf-enabled/security.conf,将 ServerTokens 的值设为 Prod。之后,运行 sudo systemctl restart apache2,您将会让您的服务器变得更加安全。恭喜。 当你打开/etc/apache2/conf-enabled/security.conf 时,你可以做的另一件事是关闭 ServerSignature。只要把它设置为“Off”,你将会变得更加安全。 通常情况下,每个季度都应该要召开一次安全会议,讨论如何改进安全、怎样改进,以及怎样保证安全。你不想受到黑客、DDoS 等攻击。你要相信我。 5. 有组织 除了修改 API 的版本之外,还有什么更好的办法来保持组织性呢?我知道你们已经阅读过很多篇关于这一问题的文章,觉得“我的 API 太小,而且只有一位用户在用,因此我不会去使用版本管理。”我曾经和你一样,我以前也是这么干的。我也这么说过。要明智,在 API 中使用版本管理,是你能尽早做出的最佳决策。 我之所以迟迟不进行版本管理,是因为在我看来,在 API 层面上,从 V1 到 V2 的跳跃很少发生。我说的很少,是指技术方面:因此,每年都有一次我会了解到,版本管理对于我而言毫无意义。但是,我这一想法是错误的。当然,大版本跳跃并不经常发生,但当你拥有一个平台或者一个正在使用或者开发中的应用时,你就会做一些小的升级,但是频率会更高。我指的是对模式、数据类型、结构或者流程的每周更新,或者每月更新,这对于那些没有更新应用程序或者其他事情的人是很危险的。为了完成这一切,在你没有启用版本管理的情况下,你在每次完成 GIT 提交时都会大汗淋漓。你不但要确定你的代码没有破坏任何东西或任何人,还要了解某个版本的应用程序的将会如何表现。相信我,这些一点都不好玩。 只需为你和你的团队挑选一个最有意义的版本管理方案。在软件领域里,最普遍的版本管理方案就是:major.minor.patch。在我看来,PATCH 部分有点多,但是你可以选择这个模式。我通常会从 v1.1 开始,然后一直到 v1.9。因此,对于大版本变化来说,你是在改变 API 的核心内容,例如认证、核心模式、流程等等。对于小版本和补丁版本来说,你通常做的就是增加或者删除某些小的特性,以某种方式破坏数据结构或类似的东西。 另外一个令你感到迷惑的问题是,由于有许多途径可控选择,所以你该如何真正地实施版本管理。你可以通过以下方式使用版本管理 URI 路径、请求头、查询参数或内容协商。现在,这些方式各有利弊,但是我推荐使用 URL 的版本管理。它是最有意义的,从许多方面来说,这是最容易理解的。通过更新,可以知道哪些版本在使用,只是从 URL 到指向正确的文档版本。REST APIs 基本上是以 URI 为基础的,我想我们应该保持这一传统,使用基于 URI 的版本管理。这方面的一些例子包括: api.domain.com/v1/auth/loginapi.domain.com/v1.2/auth/loginapi.domain.com/v1.4.5/auth/loginapi.domain.com/v2/auth/login 总结一下,尽早开始使用版本管理,你可以在将来避免出现问题,并且可以扩展您的 API。 6. 要一致 你可能听说过这句话。“一致性是将平庸转化为卓越的原因”。无论你相信与否,这句话在生活和 API 设计中都是真的。优秀的 API 的一个特点就是它的一致性。首先,我的目标是资源/模型的一致性,然后是其他领域,如命名、URI、HTTP 代码和类似的。 正如我们现在所知道的,API 可以归结为资源。一种资源可以是任何东西,包括用户、文章、书籍、产品等等。每一种资源都可以包含多个属性、对象或数组。资源是结构化的,基于你在数据库中的数据或其他业务逻辑。你的 API 要取得成功,关键在于保持你的资源响应。你无法将你的端点返回完全不同的资源结构。虽然这听上去很有吸引力,也可能是优化事物的方法,但是你最好不要这么做。实施你的 API 的移动开发人员将遵循你所提供的结构,就如同遵循了《圣经》。如果你在每个端点上发送不同的东西,那么他/她的日子就会很糟糕,没有人希望这样。所以,要尽量总是发送相同的资源结构。如果你没有数据,则将其作为空值,或者对象,或者数据来发送。让我们来谈谈现实,假定我们有“文章”资源,有时候文章可能会有评论,而有时候却没有评论。有时候,加载评论是有意义的,而有时却没有意义。这很好,但是请试着在你的结构方面作出一致的响应。 当你得到一篇文章时,你想加载评论,就像这样: {
"status":true,
"message":"Getting details for article with UUID: 5b8f6db5-7848-490e-95a7-f7146dd2e30c",
"article":{
"title":"Sample title 1",
"description":"Sample description 1",
"image":"https://domain.com/image-1,jpg",
"uuid":"eec33d99-e955-408e-a64a-abec3ae052df",
"comments":[
{
"text":"Great article",
"user":{
"name":"John Doe",
"uuid":"5b8f6db5-7848-490e-95a7-f7146dd2e30c"
}
},
{
"text":"Nice one",
"user":{
"name":"Jane Doe",
"uuid":"2ececb69-d208-46c2-b560-531cb716d25d"
}
}
]
}
} 但如果你在下载一系列的文章,或是你刚创建了一篇没有任何评论的文章,那么你应该返回以下内容: {
"status":true,
"message":"Article list was a success",
"articles":[
{
"title":"Sample title 1",
"description":"Sample description 1",
"image":"https://domain.com/image-1,jpg",
"uuid":"eec33d99-e955-408e-a64a-abec3ae052df",
"comments":[]
},
{
"title":"Sample title 2",
"description":"Sample description 2",
"image":"https://domain.com/image-2,jpg",
"uuid":"b8ee70a8-1128-4670-9368-83953fdf722b",
"comments":[]
}
]
} 因此,如果客户端期望看到一个评论数组,它们仍然会得到它,但它将只是空的。这样一来,你将不会更改你的模型,也不会删除对象/数组。 你只是通过保持一致,就为自己和他人节省了大量的时间。 7. 要优雅 如果你正在构建 API,就不可避免地会发生一些问题。这很好。这也是意料之中的事。你不必因为 API 的错误或问题而感到难过。 如果你的 API 有一个错误或问题,你不应该感到难过。如果您不提供详细信息,并且确保您的 API 比其他任何人都要聪明,那么您应该感到不安。。 从最上面开始,我发现了一个最常被开发人员使用的事情,就是 HTTP 状态代码。如果你不了解,那么 HTTP 的状态代码可以在任何你能想到的情况下使用。你只要知道用哪个,然后再返回到客户端。HTTP 相应状态代码有 50 多种,每一种都有其特殊的意义,需要在特定的环境中加以应用。我将不一一列举,但是我们将列举一些最常用的。我们已经有: 信息型响应代码(以 1xx 开头)。成功响应代码(以 2xx 开头)。重定向响应代码(从 3xx 开始)。客户端错误响应代码(从 4xx 开始)。服务器错误响应代码(以 5xx 开头)。 因此,你真的拥有你需要的所有状态。从 OK、未授权、未找到、内部服务器错误到超文本咖啡壶控制协议,所有这些都有。是的,最后一个是一个实际的状态。这就证明了制造 HTTPs 的人是最会开玩笑的人。 无论如何,每个状态都有其意义。这种意义被广泛地接受和了解。所以,无论是中国的开发人员还是德国的开发人员,都会理解,当你发送 401(未授权)的状态时,意味着客户端没有发送正确的认证信息。因为我们响应的状态代码是 401(未授权),所以大家都知道这是客户端故障,必须通过客户端来解决,而非 API。我只是举一个例子,但我的意思是,你应该在适当的情况下使用适当的 HTTP 状态代码。使用它们可以帮助你的 API 得到广泛的理解、一致和标准。虽然 REST 并不是一个标准,但它是你必须遵守的一个标准。 一旦有了 HTTP 的状态代码,我们就必须在遇到困难时给客户提供尽可能多的详细信息。为此,我们需要做许多工作。首先,我们要能预想到 API 的失败,别人会怎么做,哪些事情不会发生,哪些人会违反这些规则。因此,第一步要进行强有力的、严密的数据验证,尤其是在创建内容之前。当你得到数据后,你需要检查这些数据是否有效。这就意味着哟啊检查 ID 是否真实存在,数值是否符合我们的预期,并且可以把它存储到数据库中。完成以上操作,并对相应的状态代码作出响应,将会使你的 API 让人用起来非常愉悦。因此,假定你已经有了一个端点,它接受了 user_id 并获得了用户资料。如果我们应用预测可能发生的事情的策略,我们会做以下的事情: 检查请求中是否有 user_id 参数:如果没有,则回应 400 错误请求。检查给定的 user_id 是否真的存在于系统中:如果没有,则以 404(未找到)回应。如果 user_id 返回一个结果,则响应 200(OK)。 正如你所看到的,我们拥有多种故障保险,在所有这些故障中,我们都用正确的、可理解的响应代码进行响应。 最后,一旦我们设置了我们的响应代码,并且预测了 API 可能出现的故障,我们只需要尽可能地表达出来。我知道,对于我们的开发人员而言,这是一件非常困难的事,但是请相信我,这是你能做的最好的事情之一。当事情出错时,REST API 就会有一个通用的错误响应模型。如果我们已经有了这种模型,客户端开发人员就可以依赖于此向用户提供关于哪里出了问题的更详细的解释。那么,让我们来想象一下,有一位用户在自己的手机中发送了一封无效的电子邮件。它以某种方式被传送到 API,API 自然会出发一次确认和错误,并且响应 400(错误请求)。与此同时,API 应当发出一种通用的错误响应模式,使客户端能够将任意或全部的信息显示给终端用户。所以,如果是这样的话,你很有可能会返回一个错误信息:“输入的电子邮件地址无效”。客户端可以读取并将其显示给用户。同样,我们需要确保你能够涵盖所有的问题,包括从验证到服务器的故障。要实现这个目标,我们最好能找到一种适用于各种情景的通用错误模式。我推荐你采用下列方法: {
"title":"Invalid data",
"message":"The data you entered is not valid",
"errors":[
{
"field": "email",
"message":"The email address you provided is not real"
},
{
"field": "phone_number",
"message":"You did not enter a phone number at all"
}
]
} JSON 的错误结构非常简单。我们有一个标题和消息,为我们提供了一个大致的方向,很多时候,开发人员并没有把全部的错误信息展示给最终用户。他们可以在 iPhone 中设置一个警报模式,进现实我们的消息或者标题。但是我们还会发送一个错误数组,它可以容纳具有特定信息的特定错误。提供详细的错误信息将有助于你和其他在 API 上工作的开发者了解到底是什么出了问题。即使你没有讲这些信息展示给最终用户,你也可以在你的要求下,或者你正在使用 Treblle 这样的服务,来看到这些信息。 所以一定要记得,你要尽可能去预测更多的问题。提供大量的细节,说明为什么事情会发生失败,即便是没有人使用,并且使用普遍理解的 HTTP 响应代码的语言。 8. 要聪明 这是一个更具哲理的问题,但是我认为,这是优秀的 REST API 的支柱之一。假如你想想 API 在现代平台、服务或应用程序中的作用,那么我们可以说 API 是整个操作的大脑。理由是,你可能拥有的每一个客户端(iPhone 应用、安卓应用、网站、物联网设备)都会与同一个 API 对话。这意味着我们的 API 在整个生态系统中起着举足轻重的作用,我们的 API 尅解决所有问题。如果我能再加一句,那就是优雅。 一个聪明的 API 首先 要做的就是保护自己最有价值的资源——数据库。这意味着它应该对数据库进行净化、清理,并防止任何不良数据进入数据库。要做到这一点,一定要确认你从应用向客户端发出的一切,并且排除一切看上去不合适的东西。但我们在拒绝某些东西时,也要给用户一个清楚的原因,让他们明白为什么会这样,或者为什么在这种情况下没有发生。 任何优秀、聪明的 API 都能独立处理复杂的流程,而非依靠客户端。最简单的例子是,将一个用户注册到你的应用中。对于所有的客户端,这应该是一个 API 调用。但在后端,API 可以处理所有可能的后勤工作:在 MailChimp 通讯上注册该用户,向 Firebase 存储推送令牌,向用户发送欢迎邮件等等。客户端段不应该为这些事情调用多个 API 端点。如果我们把所有东西都打包到一个端点,那么你就可以很容易地在任何时间点改变流程,而客户端根本无需察觉。API 能够始终对整个商业逻辑和流程进行全面的控制,只要你能从它们那儿获得所需的数据。 请确定 API 是否经过了优化以满足跨平台的需求。当你处理多个平台或设备,如 iPhone、安卓手机、电脑、电视和类似设备时,API 应该能够适应它们。这就意味着 API 必须具有足够的灵活性,以应对可能与其他客户端的不同输入,同时也可以让客户端继续工作。这方面一个很好的例子就是,可调节尺寸的照片,如果你有一个 API,可以提供照片的内容,那么你也许不会希望将 4000x4000 像素的图片发送到手机上,但是你可以将它发送到电视或者网站上。一个聪明的 API 会知道哪个客户端在访问这个端点,并会返回它自己的优化资源,甚至允许客户端请求特定的尺寸。这样的例子还有很多,不过你会明白的。 尽可能减少客户端的依赖性。一个聪明的 API 总是会把客户端的缺陷考虑进去,并且尽量改正。 9. 须简练 如果 API 不能迅速地进行优化,那它算得了什么?in 的 API 不能成为整个生态系统的痛点。就这么简单。有许多方法可以保证你的性能和扩展性都是优秀 API 所应有的。让我们看一下其中的一些。 快速和优化始于数据库层面。每当我听到有人说他们的 API 很慢时,十有八九与数据库有关。数据库设计不佳、查询复杂、基础设施迟缓、缓存不足。你应当总是对数据库结构、查询、索引以及其他与数据库交互作用的所有内容进行优化。当你完成了这一任务之后,接下来要做的就是保证你能够尽可能地提供高速缓存的数据。有时候,缓存数据库查询会使你的加载时间缩短 100%。所以,加入你有 API 断电,可以向用户展示他们的个人资料或者类似的内容,我敢肯定,它不会在每 5 分钟改变。聪明一点,把数据缓存起来。你的用户和调用这个 API 的客户端将会很高兴。 另外一个影响性能的因素是,你将大量的数据通过 API 下发到客户端。一定要保证你的资源和模式只能转回客户端需要的数据,而非全部数据。如果你要返回一个项目的集合,可能你并不需要完全了解模式细节,以及它们之间的关系——每次都是如此。如果这样会加快进度,就这么办。但始终要努力与响应中返回的模型保持一致。这意味着,如果你不加载关系,就返回一个空数组,如果你不加载计数,就返回 0,等等。在建立优秀的 REST APIs 时,一致性是关键。 你可以做的另一件非常简单的事情是启用压缩,以减少响应大小并提高性能。最流行的是 Gzip 压缩。在 Apache 上,它默认启用了一个叫做 mod_deflate 的模块。当启用时,你通常可以看到一个响应头的 Accept-Encoding 设置为 gzip、compress 之类的。尽管它是默认启用的,你仍然需要将它“应用”到你的 API 响应中。要做到这一点,我们必须在我们的默认 Apache 配置中添加一些规则。因此,让我们实际打开配置文件,像这样:sudo nano /etc/apache2/conf-available/000-default.conf 并添加这个美丽的东西。 这告诉 Apache 对各种 mime 类型应用 Gzip 压缩,如 application/javascript、application/json 和其他。一旦我们保存了这个,我们只需要通过输入 sudo systemctl restart apache2 来重启 Apache,我们就完成了。你的 API 响应现在比以前小了 50~75%。这有多简单啊!? 10. 要周到 最后这一块我就不多说了,因为我们在 REST 方面已经做得太多了(永远不会过时😀),但我不打算降低这个问题的重要性。开发 API 的过程对我们的后端开发人员是很寂寞的。这基本上就是你,一大堆代码和你喜爱的测试工具。当你完成最后一行代码,并把它与生产分支合并的时候,你也许会举的工作已经结束了。但事实并非如此。对于其他许多人来说,旅程才刚刚开始。 有许多人只是等你把工作做完了再去干。要想让他们更好地工作,你就必须在很多方面对 API 进行充分的准备。你要保证这个功能有效,文档很好,而且你还得做好了提供集成支持的准备。无论你的文档编写的多么出色,在集成过程中和集成后都会出现问题、困惑和难题。 设身处地为他人着想,尽量让他人的工作更加轻松。构建一个良好的 API,遵循我们在这里定义的规则,编写优秀的文档,服务于他人。 考虑一下这些工具,这些工具可以帮助你解决很多构建、传输和运行 API 的问题,这些问题都很有挑战性。这些工具之一就是,你猜对了,Treblle。只要把 Treblle 添加到你的 API 中,你就可以得到自动生成的支持 OpenAPI 规范的文档。然后你会得到实时监控和记录,这样你就可以了解别人在做什么,从而更好地帮助他们。最后,你甚至会得到一个基于这些相同规则的高质量的 API 核心。当然,我们在设计时考虑到了整个团队。 希望我能够简单的说明一下你在构建 REST API 时可能会遇到的疑惑和担忧。我必须指出的是,REST 并不是一个标准,因此没有人能说你的错误。不过,请考虑一下:作为开发人员,我们每天都在寻求让代码更好、更漂亮、更高效的模式,何不对 API 也这么做?如果我们开始遵循一些模式,那么我们都会享受一个更健康、更漂亮的生态系统。 最后,我要引述一位伟人说过的话来结束本文,他就是我们大家的叔叔——Ben Parker。他曾经睿智地说过:“能力越大,责任越大”(With great power comes great responsibility)。当我们谈论 REST API 时,这句话再正确不过了。 作者简介: Vedran Cindrić,Treblle 创始人。 原文链接: https://treblle.com/blog/the-10-rest-commandments
| 2,741 | 1,652,235,736,509 |
InfoQ
|
171 |
TikTok 美国员工抱怨工作压力大;多省集中排查整治超时加班;黑客向上海市民卖抢菜软件被抓;苹果员工对回办公室工作感到不满...
|
本周架构视点:TikTok 美国员工抱怨工作压力大:需周末加班,跨时区工作;谷歌调整绩效评价体系:降低评估频率,属于变相加薪;多个省份集中排查整治超时加班问题,互联网企业等被重点检查;向日葵远程控制回应服务器崩溃;GitHub 要求所有贡献代码的用户在 2023 年底前启用双因素认证;WhatsApp前高管:后悔当年把公司卖给Facebook。万万没想到TikTok 美国员工抱怨工作压力大:需周末加班,跨时区工作5 月 7 日消息,全世界用户都热衷于使用短视频平台 TikTok 休闲娱乐,但一些曾在 TikTok 的美国员工表示自己压力很大,常常睡眠不足,需要周末加班,还不得不跨时区工作。热门短视频平台 TikTok 上似乎有无穷无尽的消遣内容,平台也说自己是互联网上最快乐的地方。但 TikTok 美国办事处的员工说,公司内部管理风格较为严格,与活泼的公众形象大相径庭。其中发声的不少是来自其他大型科技公司的资深员工。他们表示,TikTok 强调不懈工作和严格保密,这在科技行业并不常见。TikTok 在继续高速增长,导致美国办事处的工作节奏也越来越快。根据分析公司 Sensor Tower 的数据,六年前成立的 TikTok 在 2022 年第一季度创下应用程序下载量纪录。谷歌调整绩效评价体系:降低评估频率,属于变相加薪据报道,谷歌正在调整绩效评价体系,通过一些变化来给员工“变相加薪”,以此缓解普通员工与领导层在薪酬问题上的矛盾。内部文件显示,从本周开始,谷歌将使用一套名为“谷歌评估与发展”(GRAD)的最新绩效评估流程,将评估频率从每年两次减少到每年一次,并为管理者赋予更大的评估责任,不再过度依赖同事互评。一份文件显示:“根据这个新流程,我们预计多数谷歌员工都会比原先的 Perf 系统获得更高的薪酬,薪酬总额也将增加。”多个省份集中排查整治超时加班问题,互联网企业等被重点检查近日,北京市人社局发布《关于进一步做好工时和休息休假权益维护工作的通知》,在3月15日至5月15日期间,在全市组织开展工时和休息休假权益维护集中排查整治,聚焦重点行业企业,集中排查整治超时加班问题,依法保障职工工时和休息休假权益。随后,山东、安徽、河南、广西、青海、湖南、湖北、江西等省份也纷纷出手,开展超时加班集中排查整治,也是持续到5月15日,为期2个月左右。如此大规模、长时间对超时加班问题排查整治,这在近年来是颇为少见的。从各地公开发布的信息来看,作为超时加班问题重灾区的互联网企业等成为重点检查对象。北京等多地指出,本次集中排查整治的检查对象主要是超时加班问题易发多发的重点行业、重点企业、重点园区,重点突出互联网(平台)企业及关联企业、研发岗位占比较高的技术密集型企业、劳动密集型加工制造业企业和服务业企业。用人单位如果有相关违法行为,将被追责乃至曝光。其中,北京等地提出,将依法予以行政处理处罚并督促限期整改。山东等地明确,对不经与工会和劳动者协商的强制加班、制度化加班等突出问题将重点予以打击;对重大典型违法案件,依法予以公布或向社会公开。一网络黑客向上海市民售卖抢菜软件获利4000余元被抓5月3日消息,4月22日,江苏无锡网安部门根据前期工作掌握的线索,抓获在疫情期间向上海市民售卖抢菜黑客软件的嫌疑人何某。经审查,何某制作“抢菜插件”并不断升级版本,以 4.0 版本 29.9 元、5.0 版本 49.9 元、苹果版本 69.9 元的价格,在小红书、抖音、今日头条等多个网络平台上兜售,从中获利 4000 余元,目前案件还在进一步调查中。职场社交网络调查显示:苹果员工对回归办公室工作感到不满匿名社交网络 Blind 在截至 4 月 19 日的一周内对苹果员工进行的一项调查称,56% 的工人正在积极寻找其他地方的工作。在 Blind 收集的具体答复中,一名员工说他们根本不愿意进入办公室,并开玩笑说在为该公司工作仅三周后,就可以把苹果公司写进他们的简历。另一位员工说,他们希望辞职的原因是可能会感染 COVID-19,公司文化有毒,以及工作和生活缺乏平衡。第三个人发帖说,苹果公司的管理层"一如既往地语无伦次"。该受访者预计,许多人将在 4 月 15 日之后不久辞职,这跟员工持有的股权的交易日有关,但这似乎没有得到证实。第四位受访者提出,当苹果公司的混合工作计划在 5 月 23 日之前完全执行时,会出现问题。"苹果将在 6 月看到前所未有的减员。我的团队中有 60% 的人甚至不住在办公室附近。他们不会再回来了,"这位员工写道。向日葵远程控制回应服务器崩溃5月5日消息,多位网友反馈称,向日葵远程控制应用崩溃,无法登录。对此,向日葵远程控制再次发布关于其服务器不稳定情况的说明。说明指出,5月5日上午,由于早高峰远控需求激增,短时间内大量用户涌入,导致服务器超负荷,部分用户无法正常登陆。收到服务器警报后,向日葵团队第一时间启动应急预案,全力定位并解决问题,对于此次用户暴增引发的服务超负荷,主要由两个原因导致:5月5日是五一小长假结束后的首个工作日,出现高峰登陆;多地因疫情影响开始施行居家办公,远控需求激增,其中北京、上海、郑州、无锡、广州等地均出现超10倍的用户增长。IT 科技圈GitHub 要求所有贡献代码的用户在 2023 年底前启用双因素认证GitHub 周三宣布,所有在 GitHub.com 上贡献代码的用户在 2023 年底前需要使用一种或多种形式的双因素认证(2FA),才能继续使用该平台。在一篇博文中,GitHub 指出了采取这一措施的必要性,主要是因为整个软件生态系统的 2FA 采用率总体上仍然很低。目前只有 16.5% 的 GitHub 活跃用户和 6.44% 的 npm 用户使用一种或多种形式的 2FA。开源项目很受欢迎,被广泛使用,对个人和企业都是宝贵的资源。然而,如果黑客破坏了开发者的账户,这可能会导致资源库被劫持、数据被盗和项目被破坏。确保开源软件的安全仍然是软件行业迫切关注的问题,特别是在去年的 log4j 漏洞之后。但是,尽管 GitHub 的新政策将减轻一些威胁,但系统性的挑战仍然存在:许多开源软件项目仍然由无报酬的志愿者维护,而缩小资金缺口已被视为整个科技行业的一个主要问题。Canalys:一季度全球云基础设施服务支出同比增长 34%,达 559 亿美元Canalys 发布报告,2022 年第一季度全球云基础设施服务支出同比增长 34%,达 559 亿美元。最新数据显示,云服务总体支出较上一季度增加 20 亿美元,相比 2021 年第一季度增加 140 亿美元。三大云服务厂商亚马逊云科技、Microsoft Azure 和 Google Cloud 受益于云计算使用率的增加和规模的扩张,其总支出占全球用户支出的 62%,同比增长 42%。谷歌组建 Web3 团队,为企业提供技术支持5 月 7 日讯,谷歌正在组建一个团队,为区块链开发者建立后端服务。该公司希望使谷歌云平台成为那些想要运行 Web3 应用程序的人的主要目的地。"我们并不是要直接成为那个加密货币浪潮的一部分,"谷歌云副总裁 Amit Zavery 表示,"我们只是提供技术支持,让企业在目前的业务中使用和利用 Web3 的分布式性质"。Zavery 表示,新的团队将由在谷歌参与 Web3 项目的员工组成。他说,谷歌可能会创建一个系统,使其他公司能够让人们轻松地查询区块链数据。谷歌的想法似乎与 Web3 的愿景相背离。Web3 概念的一个核心目标是使网络去中心化,并将权力从谷歌、亚马逊和 Meta 等大公司手中转移出去。然而,Web3 的开发者需要在某个地方托管他们的应用程序和服务,而谷歌希望成为他们的首选。WhatsApp前高管:后悔当年把公司卖给Facebook据报道,WhatsApp前首席财务官Neeraj Arora表示,后悔当年将公司出售给Facebook。Arora表示,这次收购最初看上去像是一次合作,Facebook承诺WhatsApp领导层将保持“产品决策的完全独立性”,还承诺Facebook永远不会在WhatsApp上整合广告和跨平台追踪,且不会挖掘用户数据等。然而,许多WhatsApp前高管都强调,Facebook没有信守诺言。Mozilla Firefox 100 正式版已经上线 带来多项改进近日,Firefox浏览器100已经上市,加入了Google Chrome浏览器之后的三位数版本的行列。随着Firefox100的推出,这个开源的、跨平台的浏览器有了各种常规的改进,但从用户体验上看没有什么太特别的变化。能感知到的最重要的是Linux和Windows 11的滚动条发生了改动,默认情况下,滚动条不会占用空间,但这种行为可以通过Firefox偏好区的"叠加滚动条"功能来修改。Windows上的Firefox 100用户在使用支持的GPU/驱动时,可以调用硬件加速的AV1视频解码,但Linux上的Firefox目前不允许使用较新的GPU进行硬件加速的AV1。Firefox 100还支持在画中画模式下运行亚马逊Prime Video/YouTube/Netflix这些视频网站包含的播放器,支持使用WebVTT的网站的画中画视频字幕,浏览器的内置拼写检查器现在支持多语言并发,改进了绘图和处理其他事件之间的优先级,以及其他各种小变化。此外,还有常见的各种错误修复。
| 5,539 | 1,652,068,767,576 |
InfoQ
|
172 |
云原生数据库的下一次变革发生在哪里?
|
自上世纪 70 年代以来,关系型数据库进入历史舞台,成为数据库行业的主角。此后,这个行业步入一个黄金时代,某数据库专家曾撰文写道,“很长一段时间,关系型数据库几乎是包打天下的选择。你很可能用一套数据库玩转所有业务,你也不需要一个连的工程师来维护它”。“老而弥坚”的关系型数据库对数据库行业来说,互联网的出现却带来巨大变化:数据量急剧增大、数据类型愈加复杂、数据处理速度需求不断提高,大数据时代全面到来。因此,面向非结构化数据的 NoSQL 数据库兴起,出现了文档数据库、时序数据库、图数据库、搜索数据库等。一时间,NoSQL 数据库风光无限,得到不少企业青睐。大家恨不得把一切系统都用 NoSQL 改造。NoSQL 之所以受欢迎,主要是解决了关系型数据库中的各种问题。第一大问题是数据的 Schema 非常多,用关系型数据库来表示不同的 Schema 非常笨拙,所以需要有不同的数据库,比如文档型、时序型、搜索型等。另一大问题是关系型数据库的 ACID 极大影响了数据库的性能和扩展性,因此 NoSQL 做出妥协来解决大规模伸缩的问题。随着移动互联网的发展,大数据技术的广泛应用,涌现出越来越多的新型数据库,然而关系型数据库依然占据主导地位。为什么它能经久不衰?主要原因之一是关系型数据库采用了 SQL 标准,这种高级的非过程化编程接口语言,将计算机科学和易于人类理解认知的数据管理方式完美的衔接在一起,目前还难以超越。云时代:关系型数据库的“进化”云计算的出现和发展,让越来越多的企业开始将数据库部署在云上。通过云服务形式提供数据库功能的云数据库应运而生。据悉,云数据库不仅减少了数据库参数的重复配置,而且具有快速部署、高扩展性、高可用性、可迁移性和易运维性以及资源隔离等特点。尤其是基于容器化、微服务、Serverless 等理念设计的具备弹性伸缩与全球部署能力的云原生数据库,能随时随地从多前端访问,提供云服务的计算节点,并且可以灵活及时调动资源进行扩缩容,助力企业降本增效,成为行业发展新趋势。可以说,数据库在云时代迎来变革。一方面,此时的数据库向内存和分布式方向演进和发展,甚至 RDBMS 本身都受到 NoSQL 的挑战;另一方面,在云托管环境下,关系型数据库逐渐暴露出一些问题。此时,为适应变化,关系型数据库需要革新和自我进化。而开路者就是连续 11 年被 Gartner 评为“全球云计算领导者”的亚马逊云科技(Amazon Web Services)。亚马逊云科技在 2014 年推出关系型数据库 Amazon Aurora。它兼容 MySQL 和 PostgreSQL,采用共享存储和读写分离的方式,不仅提升了数据库性能,而且解决了可扩展性问题,让传统互联网公司可以无缝迁移到云上,这让它成为云计算时代的一个代表。凭借既有传统商业数据库的高性能和可用性,以及具有开源数据库的简单性和成本效益,Amazon Aurora 成为亚马逊云科技历史上用户数量增速最快的云服务,且跻身最受初创公司青睐的八项亚马逊云科技全球服务。为什么它能受到诸多企业青睐?这离不开 Amazon Aurora 强大的性能和先进的架构设计。性能上,Amazon Aurora 与开源引擎完全兼容,可获得 5 倍于标准 MySQL 以及 3 倍于标准 PostgreSQL 的吞吐量,支持并行查询可加速 OLAP 业务。其次,高可用方面,它能实现可用区(AZ)+1 的高可用,Global Database 可以完成跨区容灾备份。第三,在扩展性方面,它支持 15 个只读副本自动扩展,每个数据库实例可自动扩展到 128 TB。最后,成本上,它提供商用级数据库性能的同时,成本仅为其十分之一,存储无需预置按用量付费。架构上,Amazon Aurora 架构支持 Serverless 无服务器架构。它采用计算与存储分离的架构,可以做到存储层的快速扩展,提升数据分析能力。同时,它还采用了独特的日志即数据库理念,省去节点跟存储层数据传输的量,以达到性能提升。如果说云时代的到来推动了数据库的变革,那么,与 Serverless 的结合,则再次为数据库的发展添了把火。亚马逊云科技在 2018 年推出 Amazon Aurora Serverless v1。据悉,它是 Amazon Aurora 的一种按需自动扩展配置版本,它会根据应用程序的需求自动启动、关闭以及扩展或缩减容量,让开发者无需管理任何数据库实例,即可在云中运行数据库。用 Amazon Aurora 替换 Oracle从线上书店业务起家,经过二十多年的发展,Amazon 不仅成为一家跨国电子商务企业,而且是全球最大的互联网线上零售商之一。据了解,Amazon.com 于 1995 年 7 月上线,网站一开始销售图书。之后,销售的商品从图书向多元化发展,涵盖音像制品、软件、消费电子产品、家用电器、厨具、食品、玩具、母婴用品、化妆品、日化用品、运动用具等类目。早在 2008 年,Amazon 网站主域名 Amazon.com 的访客数量至少达到 6.15 亿,已经是当时沃尔玛超市门店顾客数量的两倍。除主域名外,Amazon 还在全球多个国家建立了本地化网站,包括中国、加拿大、英国、法国、德国、墨西哥和澳大利亚等。用户的不断增加和全球市场的扩张,让 Amazon 的电商业务蒸蒸日上。但是,挑战也随之而来。一方面,Amazon 需要应对极高的访问流量,尤其是圣诞季等购物节假日下的极端情况;另一方面,业务的快速发展,让数据以指数速度增长,数据量不断增加。据悉,在 2017 年,Amazon 电商有近 7500 个 OLTP 数据库,累计存储了 75PB 数据,涉及公司超 100 个团队的 1000 多个应用程序。一直以来,Amazon 都在使用 Oracle 数据库,但是它发现,Oracle 数据库不仅成本高,而且可扩展性差,无法适应不断增长的业务需求。除了可扩展性差、成本不断增加,Amazon 电商还面临着数据量和交易率增加带来的延迟风险、遗留代码 / 架构导致的可用性风险,以及硬件配置和管理时间 / 资源带来的运营风险。如何解决自己面临的挑战?这成为摆在 Amazon 电商面前的难题。为了解决这些问题,Amazon 电商决定替换 Oracle 数据库,把近 7500 个 OLTP 数据库迁移到 Amazon RDS 和 Amazon Aurora 中。Amazon Aurora 一大特性是其 85–90% 的 PostgreSQL 查询与现有 Oracle 查询相匹配,这意味着将查询转换为 Amazon Aurora PostgreSQL 几乎全都是自动完成的。迁移完成后,不仅节省了 40%-90% 的运营成本,而且大大改善了性能,同时 Amazon 电商通过使用亚马逊云科技托管数据库服务将峰值扩展工作量和管理开销减少 10 倍。由此可见,收益显而易见。如果说 Amazon 电商领略到 Amazon Aurora 强大的性能和可扩展性以及低成本优势,那么九州通则体会到其轻松实现低延时读写分离和应对业务负载波峰波谷的优势。九州通是一家以西药、中药、器械为主要经营产品,以医疗机构、批发企业、零售药店为主要客户对象,并为客户提供信息、物流等各项增值服务的大型企业集团。其中,线上 B2B 业务每年以 30% 以上的速度增长。其 B2B 系统的业务特点是读多写少,读写比例在 8:2 到 7:3 之间,经常会出现波峰波谷落差较大的情况。并且,自建 MySQL 方式下,主库与从库之间的数据复制延时会超过 1 秒,读写分离效果不好,主库压力居高不下。为此,九州通采用 Amazon Aurora,轻松实现数据库的读写分离及按需扩展。使用 Amazon Aurora 数据库服务,单个 Amazon Aurora 集群可以支持多达 15 个只读节点,支持在线自动扩展与收缩。整体数据库性能提升 5 倍,TCO 降低了 50%,实现了跨可用区部署、负载均衡 / 自动故障转移,精细监控 / 按需自动伸缩等。同时,还有效降低主库工作负载压力。此外,在性能和成本上取得高效平衡。借助 Amazon Aurora Auto Scaling 功能,实现只读副本按需伸缩,满足业务需求的同时,节省服务器成本。而虎牙直播在全球化过程中,也选择了 Amazon Aurora。2018 年初,虎牙直播上线海外产品 Nimo TV,年底,月活用户达千万级。产品成功登陆东南亚及拉美地区,2019 年进入西班牙市场。据悉,在数据库后台,虎牙直播使用 DynamoDB 存储用户的动态信息,包括支付、状态、好友关注等信息。相对静态的信息存储在 Amazon Aurora 上,如用户的基础信息。Amazon Aurora 能自动扩容,且因为计算和存储分离,当数据量较大时,能单独升级计算实例,确保性能。同时,异常情况下,通常只需 10 秒左右就能自动实现故障转移,对终端用户没有任何影响。并且,利用其全球数据库功能,可以提升本地用户体验。虎牙直播在亚马逊云科技亚太(新加坡)区域部署数据库,在其他区域建立副本,提高当地用户的使用体验。除了适用业务快速增长、低延时读写分离、业务负载波峰波谷、全球化部署、存储扩容、全球化部署以及备份与恢复、容灾,Amazon Aurora 还适用最小化系统停机时间、误删误改、图形化监控及性能调优场景。去年,亚马逊云科技在 Gartner 报告《2021 Gartner Magic Quadrant for Cloud Database Management System》中被评为云数据库领导者,这已是亚马逊云科技连续七年获此殊荣。之所以能获得此评价,源于亚马逊云科技的不断创新。图片来源:Gartner比如,开创 Serverless 数据库,实现数据库的弹性伸缩,进一步简化客户创建、维护和扩展数据库,实现高度扩展性及自动伸缩容量。又比如,推出 Babelfish for Amazon Aurora PostgreSQL,它使 Amazon Aurora 能兼容 基于 Microsoft SQL Server 编写的应用程序。再如 Amazon DevOps Guru,它是由机器学习提供支持的功能,可以帮助开发人员和开发运维工程师快速检测、诊断和修正 Amazon RDS 中与数据库相关的各种问题。近日,Gartner 又发布了 2021年DBMS 市场收入数据。我们看到云的用量在以惊人的速度逐年增加。一方面,DBMS 市场持续加速增长,规模接近 800 亿美元,比2020年增加145亿美元;另一方面,市场格局变动,云平台供应商处于领先地位。其中,亚马逊云科技在 DBMS 市场的收入增长 42.3%,几乎是市场增速的两倍,在排名上与首位仅差0.1%。首次超越传统数据库巨头 Oracle,这也侧面印证了“云计算+数据库”的强大力量。对亚马逊云科技而言,数据库方面的创新远不止于此。截至目前,亚马逊云科技目前提供十多种专门构建的数据库服务,支持关系、键值、文档、内存、图、时间序列、宽列和分类账八大数据类型。为什么亚马逊云科技要提供这么多的数据库产品?在笔者看来,正如亚马逊首席技术官兼副总裁 Dr. Werner Vogels 所言,“开发者希望他们的应用程序能够很好地被构建和有效扩展,为此,他们需要能够在同一应用程序中使用多个数据库和数据模型。很少有一个数据库能够满足多个不同应用场景的需要,一刀切的数据库时代已经过去,开发人员正在使用大量的专用数据库来构建高度分布式的应用程序。开发人员正在做他们最擅长的事情:将复杂的应用程序分解成更小的部分,然后选择解决每个问题的最佳工具。”一直走在数据库创新的路上:Amazon Aurora Serverless v2在数据库方向,亚马逊云科技的创新脚步从未停下,一直在前行。最近,Amazon Aurora Serverless v2 上线。据悉,它可以立即扩展以支持最苛刻的应用程序,与峰值容量预置相比,可节省高达 90% 的成本。同时,在几分之一秒内将数据库工作负载扩展到数十万个事务。可以说,它在可扩展性上和节省成本方面再上一层楼。并且,Amazon Aurora Serverless v2 提供了完整的 Amazon Aurora 功能,包括多可用区支持、全球数据库和只读副本。它能在容量调整时做到更细粒度,并依据多个维度进行容量调整,为应用程序的需求提供适量的数据库资源。而企业无需管理数据库容量,只需为应用程序消耗的资源付费。更值得一提的是,Amazon Aurora Serverless v2 支持跨 AZ 的高可用部署和读取扩展,通过持续的监控和尽可能大的利用缓冲池,v2 原地扩展可以做到秒级别。此外,它非常适合各种应用程序。例如,面对业务快速增长场景与海量多租户场景时,当拥有数十万个应用程序的企业,或拥有具有成百上千个数据库的多租户环境的软件即服务 (SaaS) 供应商,可以使用 Amazon Aurora Serverless v2 来管理整个队列中的数据库容量。还适用于业务吞吐量波动明显的场景,如游戏业务、电商业务、测试环境等,以及无法预估吞吐量的新业务系统。对于大部分时间都处于低谷的业务系统,Amazon Aurora Serverless v2 可以有效地为客户节省成本当下,正值新一轮科技革命迅猛发展阶段:数据规模爆炸性增长、数据类型愈发丰富、数据应用快速深化,数据驱动将带来新一轮创新浪潮。而在数据库领域,无服务器架构也将成为云原生数据库未来发展的必然趋势之一。与亚马逊云科技一起,见证数据库行业的未来!
| 4,253 | 1,651,913,881,546 |
InfoQ
|
173 |
2021年度Go开发者调查
|
本文最初发布于Go开发博客。本文重点这次Go开发者调查,共计收到回复11840份。大多数回复与前几年一致。例如,92%的受访者对Go的满意度仍然很高,75%的受访者在工作中使用Go。今年,我们随机抽取了一些使用Go VS Code插件的参与者,这使得调查对象发生了一些变化。缺少关键的库、语言特性和基础设施是使用Go语言最常见的障碍(注意:这个调查是在Go 1.18发布泛型之前进行的,泛型是一直以来报告最多的缺失特性)。受访者希望优先改进调试和依赖关系管理。使用模块时最大的挑战是版本控制、使用私有库和多模块工作流(注意:本次调查是在Go 1.18发布之前进行的,该版本引入了解决这些问题的工作空间)。81%的受访者对Go项目的长期发展方向有信心。收到了哪些人的反馈?调查的人口统计学特征每年都相当稳定(见2020年的结果)。与往年一样,Go主要用于科技行业。70%的受访者是软件开发人员,少数是IT或DevOps人员,76%的受访者表示他们在工作中使用Go编程。2021年一些新的统计学特征:大多数受访者将他们的组织描述为企业(enterprise )或中小型企业,约四分之一的人将他们的组织描述为初创企业。咨询机构和公共机构则少得多。绝大多数受访者在少于10人的团队中工作。超过一半(55%)的受访者每天在工作中使用Go。受访者较少在工作之外使用Go。性别认同我们在调查中加入了性别认同,因为那可以让我们知道结果代表谁,并增加一个衡量社区包容性的维度。Go团队很重视多样性和包容性,不仅因为这是正确的事情,还因为多样化的声音有助于我们做出更好的决策。今年,我们重新表述了性别认同问题,使其更有包容性。女性认同比例与前些年大致相同(2%)。在随机抽样组中也是如此,表明这不仅仅是由于抽样。辅助技术今年,我们再次发现,约8%的受访者正在使用某种形式的辅助技术。大多数是为了在Go相关的网站或其代码编辑器上获得对比度更高的主题, 并增加字体大小;我们计划在今年晚些时候根据网站反馈采取行动。我们在为Go生态系统做贡献时应该牢记这些可访问性需求。进一步了解Go采用方面的挑战今年,针对一些没有采用Go的实际案例,为了了解原因,我们修改了问题。首先,我们询问受访者去年是否对使用Go之外的其他语言进行了评估。44%的受访者表示,他们评估过切换到Go,或者从Go切换到其他语言,或者采用Go(之前没有确定语言)。80%的评估主要是出于商业原因。我们预计,Go最常见的用例将是在那些评估Go的人中最常见的预期用途。到目前为止,API/RPC服务是最常见的用途,但令人惊讶的是,数据处理是第二常见的用途。在对Go做过评估的受访者中,75%的人最终使用了Go。(当然,由于几乎所有的调查对象都使用Go,所以我们可能没有收到评估过但最终决定不使用Go的开发人员的反馈。)对于那些评估过Go但没有使用的人,我们接着问他们,是什么挑战阻止了他们使用Go,哪些是主要障碍。我们从这些结果中得出的结论支持了之前的发现,即特性缺失和缺乏生态系统/库支持是采用Go的最大技术障碍。 我们进一步询问了受访者缺少哪些特性或库,发现泛型是最常见的关键缺失特性——预计在Go 1.18引入泛型后,这将不再是一个障碍。第二个最常见的缺失特性与Go的类型系统有关。我们想在进行其他更改之前看看,泛型的引入如何影响或解决了Go类型系统的底层需求。现在,我们将收集关于这些需求上下文的更多信息,并可能在未来探索满足这些需求的不同方法,例如通过工具、库或对类型系统的修改。 至于缺少的库,对于增加哪些库可以消除大部分想要采用Go的人的障碍,目前还没有明确的共识,还需要进一步的探索。 那么,当受访者没有选择Go时,他们是用什么代替的呢?Rust、Python和Java是最常见的选择。Rust和Go的功能集互补,所以当Go不能满足项目的功能需求时,Rust可能是一个很好的选择。使用Python的主要原因是Go缺少库和基础设施支持,而Python庞大的包生态系统可能会增加切换到Go的难度。类似地,使用Java来替代Go的最常见的原因是Go缺少一些特性,而1.18版本中引入的泛型可能会缓解这种情况。Go的使用满意度和相关工作优先级让我们看看Go做得好的地方和可以改进的地方。 与去年一样,92%的受访者表示他们在过去的一年里对Go非常满意或有些满意。社区态度的逐年趋势出现了微小的波动。那些使用Go不到3个月的人往往不太同意这些说法。越来越多的受访者发现,Go对他们公司的成功至关重要。相关工作优先级过去几年,我们要求受访者对特定领域的满意度以及这些领域对他们的重要性进行评分;我们使用这些信息来识别对受访者来说很重要但他们不满意的领域。然而,这些领域中的大多数在重要性和满意度方面只显示出微小的差异。今年,我们提出了一个新问题,探索以其他方式对具体领域的工作进行优先级排序。“假设你有10个GopherCoin用来从以下方面改进Go。你会怎么分配你的币?”得币最多的两个领域是依赖管理(使用模块)和Bug诊断。2022年,我们将在这两个领域投入资源。模块使用方面的挑战在与模块相关的挑战中,最常见的是跨多个模块工作(19%的受访者),其次是关于版本控制(包括对提交到稳定的v1 API感到不安)。关于版本控制,9%的回复讨论了版本管理或更新依赖。排名前5的挑战还有私有库(特别是使用GitLab认证)、记住不同的go mod命令以及理解它们的错误信息。Go语言学习今年,我们采用了一个新的结构来探索不同经验层次的Go开发人员的相对生产力。绝大多数受访者(88%)认可他们经常能达到高水平的生产力,85%的人认可他们在用Go编码时经常能达到“心流状态”。随着Go语言编程经验的增加,认可的比例也会增加。我们应该从哪个方面改进最佳实践文档?一半的受访者希望在性能优化和项目目录结构方面获得更多有关最佳实践的指导。不出所料,尽管两组排名靠前的领域一致,但新手(使用Go不到一年)比经验丰富的老手需要的指导更多。值得注意的是,与经验更为丰富的老手相比,新手需要更多的并发指导。开发人员如何学习一门新语言?大约一半的受访者在工作中学习新语言,但几乎同样多的人(45%)在学校或工作之外学习。回复最多的学习方式是(90%)独自学习。在那些回复说在工作中学习的人中(可能有机会参与团体学习),84%的人是独自学习,而不是参与团体学习。许多顶级资源都强调了良好文档的重要性,但实时指导对语言学习来说也特别有用。开发工具和实践与前几年一样,绝大多数受访者表示它们是在Linux(63%)和macOS(55%)系统上使用Go。随着时间的推移,主要在Linux上开发的受访者比例似乎有轻微下降的趋势。目标平台超过90%的受访者以Linux为目标平台。尽管在macOS上开发的受访者比Windows上的多,但他们更多的是部署到Windows,而不是macOS。Fuzzing测试大多数受访者不熟悉Fuzzing,或者认为自己还是个Fuzzing新手。基于这一发现,我们计划:(1)确保Go Fuzzing的文档清楚阐释了相关概念及具体细节;(2)设计可执行的输出和错误信息,帮助刚接触Fuzzing的开发人员成功应用。云计算Go是在现代分布式计算的基础上设计出来的,我们希望继续改善使用Go构建云服务的开发体验。今年,在全球三大云服务提供商(亚马逊云科技、谷歌云平台和微软Azure)部署Go程序的受访者比例保持不变,而在本地或公司自有服务器上部署的比例继续下降。在部署到AWS的受访者中,部署到托管Kubernetes平台的人数有所增加,在目前向三大云提供商部署的受访者中占35%。在所有这些云提供商那里,在虚拟机上部署Go程序的用户比例都有所下降。今年有哪些变化?去年,我们引入了一个模块化调查设计,以便可以在不延长调查的情况下问更多的问题。今年,我们沿用了模块化设计,不过有些问题去掉了,也增加或修改了一些问题。没有受访者看到调查中的所有问题。此外,有些问题的样本量可能要小很多,因为它们是根据前一个问题有选择性地提出的。 在今年的调查中,最大的变化是我们招募参与者的方式。前几年,我们通过Go博客宣布了这项调查,并在Twitter、Reddit或Hacker News等各种社交渠道上发布。今年,除了传统的渠道之外,我们还使用VS Code Go插件随机选择用户,向他们显示一条提示信息,询问他们是否愿意参与调查。这形成了一个随机样本,我们用它与来自传统渠道的自我选择的受访者进行对比,并帮助识别自我选择偏差的潜在影响。将近三分之一的受访者是通过这种方式获得的,他们有可能对我们今年看到的回复产生重大的影响。我们看到,这两组人之间的一些主要区别是:Go开发人员增加在随机抽取的样本中,新手(使用Go不到一年的人)比例更高。这可能是因为新手参与Go生态系统或社交渠道还比较少,所以他们更有可能在IDE中看到调查信息,而不是通过其他途径。不管什么原因,能听到更多Go界人士的意见是件好事。VS Code用户增加一点也不奇怪,从VS Code插件获得信息并参与调查的受访者中,91%的人喜欢使用VS Code进行Go编程。因此我们看到,在编辑器偏好方面,VS Code占比要高得多。排除随机样本后,结果与去年就没有统计学上的差异了,所以我们知道,这是我们样本变化的结果,而不是整体偏好。同样,VS Code用户也比其他受访者更倾向于在Windows上开发,所以我们看到,今年对Windows的偏好略有增加。我们还看到,在VS Code的使用人群中,某些开发技术的使用也有轻微的变化。参与途径不同随机抽取的受访者不太可能将Go博客等社交渠道作为回答相关问题的首要途径,因此,他们也就不太可能在这些渠道上看到调查信息。小结感谢你和我们一起回顾2021年Go开发者调查结果。重申一下本次调查的一些关键收获:大部分指标同比保持稳定,大部分变化是因为样本的变化。对Go的满意度仍然很高!四分之三的受访者在工作中使用Go,许多人每天都在使用Go,所以帮你完成工作是我们的首要任务。我们将优先考虑改进调试和依赖管理工作流。我们将继续努力,使Go成为适合各类Go开发人员的包容性社区。了解开发者的体验和挑战有助于我们评估自己的进展,并指导Go的未来发展。再次感谢所有为本次调查做出贡献的人——没有你们,我们不可能做到这一点。希望明年还可以见到你! 查看英文原文:Go Developer Survey 2021 Results
| 2,200 | 1,651,746,080,687 |
InfoQ
|
174 |
AWS CEO再回应:不会从亚马逊剥离,可能会继续收购
|
近日,Amazon Web Services(AWS )首席执行官 Adam Selipsky在接受彭博社采访时表示,亚马逊不打算剥离AWS,相反,为了在云服务市场保持领先地位,AWS 可能会自行收购。 AWS 为亚马逊带来了巨额利润,其云服务部门2021年的收入为622 亿美元,同比增长 38%。据报道,AWS 去年的收入已经超过了惠普或思科。或许正因如此,人们呼吁将 AWS 从亚马逊剥离出来的声音一直没有停过。据悉,投资者也热衷于独立投资 AWS 而非亚马逊,因为这家云服务子公司正在快速增长。 具体来说,分析师给出了三个AWS 单独剥离出来的原因。 首先,广告业务是亚马逊一个隐藏的增长引擎。根据 eMarketer 数据,亚马逊实际上是继 Alphabet 谷歌和 Facebook之后的美国第三大在线广告平台,但该公司尚未单独公布其广告收入或利润。 广告业务在亚马逊财报的“其他”门类中占据最大份额。该部门的收入在 2021 年上半年同比增长 82% 至 148 亿美元,占亚马逊收入的 7%。相比之下,AWS 的收入在 2021 年上半年同比增长 35% 至 283 亿美元,占亚马逊收入的 13%。分析师认为,市场领先的广告平台通常比云基础设施平台能产生更高的利润收入。 其次,亚马逊面临着来自美国和海外反垄断监管机构对其电子商务市场主导地位的压力。据 Canalys 估计,AWS 占据着全球云基础设施市场 31% 的份额,因此也受到了监管机构的审查。如果更多零售商抱怨亚马逊零售业务与 AWS 之间产生利润的协同作用,它可能会面临调查。分析师认为,主动剥离 AWS 可能会安抚监管机构,AWS 对亚马逊的零售竞争对手更具吸引力,并为其提供更多喘息空间来扩展广告业务。 最后,与其他大多数零售商相比,AWS 为亚马逊提供了的杀手级优势,其较高的利润收入支持以较低利润策略扩展其 Prime 生态系统。因此,许多大型实体零售商更喜欢使用微软的 Azure 或谷歌云。分析师认为,AWS 支持亚马逊的利润增长,但亚马逊的零售业务也在阻碍 AWS 发挥其真正的增长潜力。 虽然如此,但是亚马逊首席执行官 Andy Jassy 也早在接替 Jeff Bezo 时就已经拒绝了剥离 AWS 的倡议。 而这次 Selipsky 在彭博社的采访中也表示,云市场仍处于早期阶段,目前只有很少部分的企业在云上运行。如果 AWS 继续快速发展,AWS 可以保持其在云计算领域的领先地位。 Selipsky 表示,虽然AWS 采取了收购相对较小、更容易被吸收初创公司的战略,但它对各种规模的交易持开放态度。 据悉,AWS 多年来已经投资了数十家小公司。例如,2015年收购Annapurna Labs,凭借其自研的Graviton系列ARM处理器,从2018年至今,已经部署并公开了三代ARM处理器,并为其部分虚拟机实例提供动力。其他小型收购包括2019年收购NVMe-over-Fabrics 初创公司E8、收购灾备创业公司CloudEndure等。
| 2,167 | 1,650,596,621,118 |
InfoQ
|
175 |
一份数据满足所有数据场景?腾讯云数据湖解决方案及DLC核心技术介绍
|
4 月 15 日-16 日,由 InfoQ 主办的 DIVE 全球基础软件创新大会通过云上展厅的形式成功召开。在腾讯云基础软件创新实践专场,来自腾讯云的大数据专家工程师于华丽带来了主题为《一份数据满足所有数据场景?腾讯云数据湖解决方案及DLC核心技术介绍》的演讲,以下为主要内容。 大家好,我是于华丽,来自腾讯大数据,很高兴跟大家一起探讨当前大数据最火的方向——数据湖。 我先抛出一个问题:有没有可能只有一份数据就满足所有大数据场景?我们带着这个问题以及对这个问题的疑问和各自心里的答案,开始今天的思想碰撞吧。 在分享前,我先做个简单的自我介绍。我叫于华丽,毕业于复旦大学数学系,拥有近十年的大数据和公有云结合经验,基于亚马逊云科技/阿里云/腾讯云/华为云打造云原生湖仓数据平台。2020 年加入腾讯,全面负责腾讯云数据湖产品 DLC 的内核架构研发。 今天主要和大家分享四部分内容: 首先是开篇提出的问题:有没有可能只有一份数据就满足所有大数据场景?第二部分是腾讯云数据湖解决方案以及腾讯云数据湖产品 DLC 的技术内核。第三部分是总结腾讯内部和客户对接过程中的新一代数仓建模思路。第四部分是介绍 DLC 的应用案例。只有一份数据就能满足所有大数据场景? 前面说了那么多,大家还记不记得我们最初提出的问题:一份数据能不能满足所有的大数据数据场景? 在回答这个问题之前,我们先了解下这个问题是怎么产生的。 DB 太卷了。数据库种类繁多,有 300 多种,AP 引擎更如雨后春笋,在如今的科技时代百家争鸣,包括 Hive/Spark/Presto/impala/ck/Doris 等等。 基于这个背景,我们做数据架构的时候就应该考虑很重要的一个原则——single source of truth,这个原则有几个好处:减少维护复杂度,防止数据一致性问题,节约成本。 于是,我们提出了数据湖 SSOT 架构理念: 1、80%的湖数据,存算分离、不同 AP 引擎,不同集群尽量兼容、使用同一份湖数据2、10% TP 数据库,量级不大不影响在线服务的情况下,直接联邦分析。海量、历史数据入湖。3、10% 最后一公里的大宽表、结果数据可以考虑独立的仓存储,追求极致性能毫秒级分析。4、数仓数据也要跟湖数据联动,数仓兼容湖数据,或者联邦分析。 在数据湖 SSOT 架构下,数据几乎可以做到 1 份数据满足几乎所有大数据分析场景。腾讯云数据湖解决方案 基于数据湖 SSOT 架构理念,我们结合腾讯云的各个大数据产品,推出了腾讯云数据湖解决方案,来帮助落地数据湖架构。 1、在批处理、实时处理、AI、mpp 分析各个主要场景下,各个引擎尽量用同一份数据湖数据,可以看到在不同场景下有各种不同的产品供选择,当然即使同一个产品也会有多个集群,传统架构下很难整合多个产品的优势建设功能覆盖完善的数据平台。2、在追求毫秒级分析的场景下,大宽表、结果数据可以导入到 mpp 数仓ClickHouse/Doris 完成最后一公里的分析。3、TP 数据库、数仓数据、湖数据可以通过 DLC 联邦分析功能。腾讯云 DLC 技术架构 接下来分享下,DLC 到底是什么,以及它的技术架构。 腾讯云 DLC 是DataLake Compute 的缩写,它一方面充当数据湖解决方案的粘合剂,应用在湖管理、元数据管理、联邦计算;另一方面补充了云上全托管的产品形态,用户免运维、几乎不需要有大数据相关背景,就可以几分钟内快速构建数据湖架构。 DLC 技术架构,有两个底层架构理念:适应云原生、KISS 原则(Keep It Simple, Stupid)。适应云原生具体包括 eks/tke,元数据主存 tdsql,各个服务的多租户支持和隔离等等。KISS 体现在几个方面,presto local cache,dlc shuffle manager,统一语法模块等等。 具体来看,我们在统一接入层服务提供云 API、JDBC、Hmsclient 等对外服务,SQL 入口是腾讯 SuperSQL 的统一 SQL 服务,进行了权限、validate 等操作,以及虚拟集群的管理和路由。 下面是 DLC 的数据管理、计算集群、数据权限和元数据管理。最后与用户 cos、cdb、emr 的数据打通。通过内核架构支持,SQL etl/mpp SQL 分析/联邦分析等场景,接下来逐步完成 Spark jar/AI 的迭代和升级。稳定性、性能与成本 接下来,和大家分享下 DLC 的技术内核稳定性、性能相关技术,以及成本。 稳定性 稳定性相关技术优化主要分为三部分:Iceberg、弹性不稳定、DLC spark shuffle manager。 Iceberg:Iceberg 作为 table format 解决了对象存储最终一致性,导致的任务频繁失败问题。弹性不稳定:弹性计算相对于传统固定集群带来很多问题,比如冷启动慢,hpa过程中数据倾斜,甚至是资源不足的情况,我们在后面成本相关会仔细提到 DLC 的弹性模型。 DLC spark shuffle manager:腾讯开源了 firestorm 来解决内部海量数据的 shuffle 问题,在 DLC 场景下,我们进行精简改造,推出了适应云原生场景下的 DLC spark shuffle manager。本质逻辑是保证大部分任务都能利用本地磁盘完成高性能的shuffle,少数情况 spill to lakefs 保证任务稳定性。这样有几个好处,一是无需评估 shuffle 空间,调整磁盘大小,二是无需运维 shuffle service 及承担成本,三是无需购买,几乎零成本。 在这儿给喜欢钻研的同学留一个小问题:Spark都有哪些过程会需要落磁盘呢? 性能 性能在提高人效方面日益重要,各个层出不穷的 AP 引擎也几乎主要在提升交互响应的性能。 DLC 在性能方面有很多架构技术方面的考量,先简单提几个点:Spark SQL 共享Spark Context,Spark Thrift Server 问题的症结在于 Server 本身又是 Driver,因此稳定性存在很大问题,DLC 在这方面用的 livy+livy session 背后的 Spark Context 共享,在有一定并发情况下,又通过子集群来隔离。 在海量元数据的存储和 hms 响应性能提升方面,DLC 也有自己的考量,采用了腾讯云的 TDSQL/重新设计范式来满足海量元数据的响应性能。在 DLC 的托管存储表下,运用 iceberg hidden 。 性能相关第一个点就是通过提供 presto加速 SQL + Hive/Spark udf 的分析性能: 因为常驻共享及 push based 内存 shuffle,presto 往往在小数据量下有着不错的表现。但是因为presto语法和udf与hive/spark的差异往往迁移试错成本很高,DLC 统一SQL 语法,几乎还是 Spark/Hive 的语法,presto hive/spark udf wrapper。两个手段解决了 presto 的迁移问题,几乎对用户无感。 同时,Allxio 也是当下最热的数据湖加速技术,腾讯云也即将推出 Allxio 相关的产品。在 DLC 侧,我们秉承了适应云原生和 KISS 的架构原则,上线了免运维、无需额外费用的 Allxio local cache。local cache 免去了 Allxio 服务的部署和维护,不抢占用户 presto 的计算资源。同时我们也有一些改进,hash算法导致的数据倾斜,一致性hash、split级别的hash等等。 成本 首先我来讲下湖存储的优势,然后再介绍下 DLC 的虚拟集群弹性模型。 首先是存储成本。用对象存储作为湖存储相比 hdfs 来说,存储性价比得到了 10x 的提升: 1、hdfs 的三备份 vs cos 的 ec。2、预留空间 vs 按量计费。3、hdfs 的运维成本。4、对象存储的归档和智能存储分层。5、cos作为存储产品提供的高sla和存储可靠性。 但是对象存储在降低成本的同时也带来了问题,比如对象存储没有 rename 语义等四个问题。采用 Iceberg 表格式来解决,相比直接 Hive 表,计算成本也得到了极大的降低 计算成本方面,重点介绍下 DLC 的虚拟集群弹性模型。 上图右侧的 Spark,交互式/SQL 都是类似的。我们以子集群为弹性的最小单位,保证子集群的资源整体可用情况下的弹性,子集群多个 query 共享 spark context。 这样带来的好处是:能很好的降低延迟,减少拉机器,进程初始化,链接初始化的时间,提升性能。子集群规模稳定,减少了频繁扩缩造成的任务稳定性差和弹性导致的数据倾斜。能够提供不错的成本降低。数据湖趋势下的数仓建模新思路 接下来,我们把数据湖在腾讯落地过程中总结出的数据建模也分享给大家。目标还是能够提升分析性能和降低存储计算成本。第一个是海量数据下的稀疏索引技术,如上图所示,构建大宽表或者 dwd 详情层,我们把高基维的相关数据的靠近存放,能够利用引擎的谓词下推技术大大加速分析性能,并且提高压缩比率降低存储成本,同时也可以减少单纯的主题层的数据抽取,更好应用ssot一份数据满足尽可能多的场景。 第二个是增量数仓技术:底层逻辑是 funtional data engineerging,也可以叫函数式数据工程,不再维护滚动表这类有状态的数仓建模障碍,而是把 uv 标量进行向量化,以空间换时间,在数据量不大的聚合计算层表有很好的效果,能够极大的提升数仓的构建性能和分析性能。DLC 应用案例这个是某电商直播平台基于 DLC 构建混合大数据架构,充分利用了 DLC 的 Spark 批处理和交互式分析,计算性能提升,成本节约,运维成本大幅度降低。 腾讯数据湖能力也在内部大规模落地,接入团队超过 80,其中微信视频号、小程序等业务均百亿千亿级别落地。同时我们拥有近百人的研发团队支持,其中大量的业界顶尖技术专家,包括了 spark livy alluxio 等开源项目的 PMC,presto/calcite committer,为 DLC 的稳定/高性能/易用/低成本保驾护航。总结 最后总结下今天的分享,用三个词来总结:SSOT、KISS、新一代建模。 1、首先是SSOT,如何做到一份数据尽可能满足所有场景,有三个原则。我们根据这三个原则提出了腾讯云上以 DLC 为核心的数据湖解决方案。2、其次是 KISS,还记得我们留的一个思考问题吗,Spark 都会有哪些过程和场景需要数据落到磁盘呢?3、最后是新一代建模:稀疏索引来解决 dwd 和大宽表的分析性能,增量数仓来改造聚合层的分析实时性和性能。 以上就是我今天的分享,谢谢大家。
| 3,608 | 1,650,356,907,774 |
InfoQ
|
176 |
CentOS 停止维护,一文看懂升级迁移路径
|
自 1994 年面世以来,红帽 Linux 已经陪伴开发者们走过了将近 30 年的旅程。2014 年红帽吸纳了 CentOS 社区主要成员包括当时的项目领导者、核心项目贡献者。Red Hat 和 CentOS 项目联手,目的是开发用于企业 IT 的下一代 Linux 创新技术。这些年,我们看到开源模型继续蓬勃发展,推动了 Linux 容器、Kubernetes、微服务、无服务器等的兴起。鉴于社区推动的创新步伐迅速,社区领导层在 2019 年决定向 CentOS Linux 社区引入一个新模式:CentOS Stream,将社区工作转向上游。CentOS Stream 是一个面向开发者的发行版,旨在帮助社区成员、红帽合作伙伴和其他人在更稳定和可预测的 Linux 生态系统中充分利用开源创新。对最终用户影响最大的是 CentOS Linux 7 和 8 逐渐停止维护和更新。现有 CentOS Linux 操作系统用户如何应对?有哪些策略和实践经验可以借鉴?面对广大用户和开发者的普遍问题,亚马逊云科技 Tech Talk 特别邀请红帽高级解决方案架构师朱贺带来主题为《CentOS 操作系统停止维护后的对应方案与技术实践》的相关技术分享。CentOS 停更后,Linux 生态系统变化很多开发者无法理清 Linux 生态系统中各种版本之间的关系。那么我们首先做一个回顾,从 2014 年开始,红帽企业级 Linux 生态系统形成了 Fedora、RHEL 和 CentOS Linux 协同发展的局面。社区上游通过 Fedora 面向广大开发工程师提供桌面操作系统的持续创新和技术架构整合,大约每 6 个月发布一个版本;中游是红帽企业级 Linux,主要面向广大企业和应用开发商,特点是稳定、安全和性能优化,产品迭代和发展节奏有条不紊;下游就是社区领导的 CentOS Linux ,面向成本敏感用户和生态开发者。CentOS Linux 版本,产品迭代节奏紧跟 RHEL,用户在零成本获取的同时,一样可以享受到红帽 RHEL 的产品优势。7 年后, CentOS Linux 社区在 2021 年开始做出调整,逐步停更处于下游定位的 CentOS Linux 7、8 版本。CentOS 社区主要工作将转向 RHEL 上游,并开发维护新的 CentOS Linux 版本——CentOS Stream。CentOS Stream 是一个 Linux 开发平台,来自 CentOS 项目,旨在增加透明度和围绕 Red Hat® Enterprise Linux®开发过程的协作。CentOS Stream 对任何人开放,所有人都可以免费使用。它主要面向开发人员、合作伙伴和最终用户。这些角色都能够通过 CentOS Stream 提前获得 RHEL 新特性,在此基础上来做诸如开发第三方组件等工作,拓展他们对于 RHEL 生态的影响。相当于 CentOS Stream 是 RHEL 的试验田。在此过程中 Fedora 和 RHEL 的生态定位并未发生改变。用户可以从下面的地址获得 CentOS Stream 的安装介质:https://centos.org/downloadCentOS 社区由下游转到上游,发布的 CentOS Stream 也会给下游原来在使 CentOS 的用户带来一些影响。目前 CentOS 各版本的变化情况如下:CentOS Linux 6 早在 2020 年 11 月就已停更;CentOS Linux 8 在 2021 年底停止更新;CentOS Stream 8 将在 2024 年 5 月 31 号停止支持,它继承于 CentOS Linux 8;CentOS Linux 7 用户较多,这个版本将在 2024 年 6 月 30 日停止支持;CentOS Stream 9 于 2021 年二季度发布,红帽正在 CentOS Stream 9 的基础上开发 RHEL 9 产品;未来社区不会再有 CentOS Linux 的新版本,只有 CentOS Stream 不断向前发展。考虑到上述情况,红帽建议广大 CentOS Linux 用户提前行动起来,尽快选择一条适合的路径开始迁移工作。迁移至新操作系统的关键因素在开展迁移工作时,对于不同的用户,应采用不同的迁移策略。在企业用户迁移至新操作系统时,主要会考虑成本因素、平滑过渡和服务托底三个角度,进而拆分为八个关键因素来做出决策:迁移转换简单,业务中断最少运行稳定,奠定扎实的 IT 基础生产级,稳定性、支持和安全性专业支持为您 IT 团队保驾护航庞大合作伙伴生态支持多种供应商选择生命周期支持和版本灵活性的长期价值清晰的产品路线图值得您信赖主动分析环境减少企业的风险对于 CentOS 用户来说,常见的几种转换策略包括:生命周期结束后直接下线,适用场景极少。转向其他社区免费版本,如 Rocky Linux、Ubuntu 或国内的社区版本。但这条路径风险较大,因为这些社区版本与 CentOS 存在很多区别。转向国内外发行版,如 SUSE、Amazon Linux 2。转向红帽主导的社区或发行版,如 CentOS Stream 或 RHEL。如果用户只是想在操作系统环境上做一些功能验证和兼容性验证工作,或者准备以 CentOS 为基线开发自己社区的 Linux 版本,强调代码贡献和修复问题,那么转向 CentOS Stream 就比较合适。但考虑到该版本生命周期非常短暂、很难满足合规要求、未经安全认证、更新节奏不规则、缺乏商业支持等问题,红帽不推荐在生产环境中运行 CentOS Stream。基于 2021 年后 Linux 社区新的上下游关系,对于桌面使用场景和操作系统开发需求,红帽推荐用户使用 Fedora 做测试开发版本基线,在 CentOS Stream 上做和红帽未来企业版 Linux 兼容的软件组件开发工作。生产环境关键业务负载推荐在企业级 Linux RHEL 上运行。另外,一个新的方向是容器打包、制作过程,需要基础镜像作为底座。为此红帽提供了基于 Linux RHEL 的统一基础镜像,即为 UBI,方便用户在标准的底层容器 OS 之上构建统一安全的企业应用并分发。在亚马逊云科技上,体验全面升级的的 Linux 有何不同亚马逊云科技从 2008 年就成为了红帽认证的全球云服务提供商(CCSP),在亚马逊云科技上可以通过多种方式使用红帽 RHEL 操作系统产品。第一种叫做 PAYG 方式(“随付随用”),直接在亚马逊云科技上面选择相应的实例订阅即可。另一种叫做 BYOS 方式,即用户自带的订阅上云,这种方式更适合已经购买了红帽订阅的客户,实现混合云部署策略。亚马逊云科技红帽 RHEL 产品有三条主线:标准的企业版 Linux 订阅,是技术标准 RHEL 版本。针对 SAP Hana 的专有版本。用于容器化应用的 RHEL UBI 产品。此外还有 OpenShift 产品、红帽中间件、容器化存储都可以在亚马逊云科技上进行认证和测试。红帽 RHEL 和亚马逊基础设施环境结合在一起,能够带来相较传统基础设施环境更高的性能优势和构建稳定性。用户在云环境上可以使用灵活、稳定、高效的运行环境,来构建面向未来的混合云基础设施,自由选择哪些应用部署在本地,哪些应用部署在公有云上,将两者更好结合在一起。亚马逊云科技提供的 RHEL 环境经过优化,可以为用户提供开箱即用的最佳体验。企业级 Linux 特性也被带到公有云上,可以在云上运行计算负载。亚马逊云科技业务分析能力也能够与 RHEL 结合,帮助用户更好地了解环境运行状况。在一些比较弹性的使用场景当中,在云上安装应用能够节省资金和成本,同时保证应用最佳性能。在亚马逊云科技上,RHEL 还能够提供高可用性(HA),为关键生产负载提供可靠性、可用性与可伸缩性。通过 HA 能够解决单点故障问题,自动将故障切到新节点上,保证灵活性和不间断服务。用户在亚马逊云科技上使用企业版 Linux 运行关键业务应用会有很多利处,总结为以下几点:红帽企业级 Linux 有长达十年的主要版本生命周期维护,包括更高级的安全功能、补丁、相关指南和技术支持工作。红帽还提供一些就地升级工具,使迁移工作可以顺畅便捷。RHEL 有一个可以预测、对于生产环境友好的发布节奏,方便用户规划自己的版本升级策略和路径。同时 RHEL 会提供完整的文档和支持,帮助用户更好地规划更新。RHEL 在安全性和合规性方面带来很多企业级内置功能,比如自动化工具、定期主动版本发布和更新通知、推送,还有可以方便查阅相关问题和资料的知识库。另外红帽订阅还有用于管理、自动化、和预测分析的红帽 Insights 工具。红帽 Convert2RHEL 工具可以让用户在 CentOS 环境上做原地升级,简化升级路径。对于广大 RHEL 用户,亚马逊云科技上的红帽 RHEL 提供了覆盖全面、非常灵活的订阅计划。尤其面向个人开发者和企业开发者,红帽都准备了 0 成本的开发者可用订阅。转向红帽企业 Linux 迁移实践 如果用户选择从 CentOS 转向 RHEL,亚马逊云科技提供一些工具来帮助用户完成任务,确保用户享受到红帽订阅的价值。主要的转换途径有两种:公有云预构建镜像。客户在亚马逊云科技的虚拟实例上申请节点时选择 RHEL,安装的虚拟环境就使用了公有云预构建镜像。亚马逊在自己的云市场里提供了一些 CentOS 预构建镜像,所以在云上使用了 CentOS 的用户只需在云市场里面选择相应的 RHEL 镜像,部署新的实例,就可以快速切换到 RHEL 上。切换镜像需要重新部署相关应用、备份和导出数据,存在一些迁移工作量。针对本地数据中心使用的 CentOS,红帽提供一些相关的迁移服务和工具支持,帮助用户通过自服务方式和现场实施方式迁移到 RHEL 上。如果用户同时要部署到亚马逊云科技,亚马逊云科技会提供一些自定义云的 RHEL 镜像应用工具和方式,帮助用户制作 AMI 的亚马逊云科技应用镜像,让用户可以自定义镜像上云,同时可以满足 RHEL 相关应用上云的需求,一举两得。红帽引入了 Convert2RHEL 标准化工具来简化迁移工作,它也支持从 Oracle 的 Linux 迁移到 RHEL 上。Convert2RHEL 会自动根据 CentOS 版本确定转换路径,用红帽原厂 RHEL 工具包替换 CentOS 社区包。转换结束后操作系统会重启,完全替换成 RHEL 版本并激活,完成红帽 RHEL 订阅。对于 CentOS Linux 7 或 Oracle Linux 7,转换目标系统为 RHEL 7;对于 CentOS Linux 8 或 Oracle Linux 8,转换目标系统为 RHEL 8。这种切换方案将带来很多收益:无需重新部署操作系统或应用程序,可以原地升级;原有环境配置都被保留;内置故障安全和灾难恢复,支持版本回退;迁移过程非常短暂,维护窗口较小;转换后立即激活红帽 Linux 订阅,简化操作步骤;通过此过程可获取最新的 RHEL 版本。朱贺现场演示了通过 Convert2RHEL 快速将 CentOS 操作系统转换为 RHEL 的过程。由于上层应用与操作系统的依赖程度不同,当升级系统对前者的影响比较大时,用户还需要一个实施迁移过程。例如迁移之前会对有些应用进行新环境的兼容性测试,应用在迁移过程中可能需要做拆分、聚合等重构过程。重构过程中可能做一些应用开发工作,做一些改造或优化,或者老旧硬件迁移到新硬件上,等等。实施迁移流程就是用来应对操作系统迁移所带来的各类问题。红帽会帮助用户进行项目迁移引导或者规划,提供一系列帮助和全方位管理服务。红帽在数据中心运营环境基础设施方面会帮助用户做评估梳理,在运行时方面帮助用户考察应用兼容性、迁移方案可行性,在应用开发优化方面也有相应的咨询协助。针对迁移过程中跨平台、应用程序回收、部署设计等问题,红帽都可以提供现场运维保障支持,保证用户平稳过渡直到迁移完成。亚马逊云科技的环境也可以通过很多种方式使用红帽 RHEL 镜像,包括云市场 AMI、私有 AMI、自定义AMI 上云、官方发布的红帽金牌镜像、第三方合作伙伴提供的亚马逊 AMI 的版本等渠道获得。国内用户最直接的方式是云市场镜像、内置与构建镜像。如果没有适用版本或可用选项,RHEL 用户仍能通过红帽支持的自定义 AMI 镜像将 RHEL 迁移到亚马逊云科技。红帽支持标准商业订阅客户将数据中心的 on-promise 订阅直接部署到亚马逊云环境。总结 编辑删除 总结综上所述,可以看到 CentOS 是源于 RHEL 的,企业迁移到 RHEL 可以获得最大程度的安全性、稳定性、可靠性保障,也是对已有资产的最大保护。通过红帽提供的订阅、产品、服务,结合亚马逊云科技在 CentOS 转换过程中提供的服务和支持,能够帮助用户很好地解决 CentOS 停更带来的种种问题。以下是红帽官方渠道相关的二维码,感兴趣的读者可以扫码加入:
| 5,760 | 1,650,009,668,731 |
InfoQ
|
177 |
亚马逊云基础架构16年创新史
|
在亚马逊的每一份年报中,Jeff Bezos 都会附上一份 1997 年致股东信的原件副本。在信中,Bezos 概述了亚马逊是否成功的基本衡量标准:坚持不懈地关注客户、创造长期价值而不是关注企业短期利润,以及持续进行大胆的创新。Bezos 写道,“如果我们执行得很好,那么每天都是‘第一天(Day one)’。”2006 年,亚马逊推出了 Amazon Web Services,从此开创出了云计算市场。过去的十一年,亚马逊在 Gartner 的云基础设施和平台服务魔力象限 (CIPS) 上一直处于遥遥领先的领导者位置。在云计算行业普遍的盈利困境下,今年 2 月亚马逊公布了上一财年第四季度数据,亚马逊云服务本季营收 178 亿美元,同比增长 40%,营收增速在 2021 年连续 4 个季度持续提升。如今,云计算领域竞争对手均日渐成熟,市场竞争异常激烈,而亚马逊却能一直保持领先地位,一直被追赶,但从未被超越。如果从亚马逊云科技诞生与发展的过程来看,你会发现“基于客户需求,快速的产品更新与技术迭代”的 Day one 理念始终贯穿其中,从而能让亚马逊一路领跑云计算市场。云计算的诞生亚马逊云科技的技术思想实际诞生于 20 年前,非常具有前瞻性。当年亚马逊推出的 Prime 服务为用户数量带来了爆发性增长,于是亚马逊开始计划第二个名叫“Merchant.com”的项目,目的是为大型零售客户提供在线体验。该项目投入了很多工程师,但没能如期交付。因为当时 Amazon.com 采用的是单体应用程序,庞大而且多平台组件交织在一起。为了给客户添加新功能,开发人员必须在这个单体程序上从零编辑和重写大量代码,主要是计算和数据库。此外,每次团队解决问题时,都仅限于解决自己项目中的问题,大家都在做着重复的工作。为了加快应用程序的迭代过程,亚马逊以非常严格的方式理清业务并重新设计了架构,将单体程序重组为被称为“服务”的更小部分,还拆解了开发人员的职能层次结构,形成众多小型的“两个披萨团队”。每一个小团队都集中在特定的产品、服务或功能集上,赋予他们对应用程序特定部分的更多权限,以加快对自己负责的产品的决策过程。最后,Merchant.com 服务得以成功推出,亚马逊为用户提供了可自己设置价格、标题和可用性的 API,在没有任何推广的情况下,成千上万的开发者涌向这个 API。而这种用来构建 Merchant.com 应用程序的“微服务”思想,延续至今已经彻底改变了现代应用程序的构建方式。分解应用程序和组织结构,这只是故事的一半,另一半是关于“基础架构”的。2003 年,亚马逊网站工程经理 Black 写了一篇简短的论文,论述了一种重组亚马逊基础设施的方法,提出了“将虚拟服务器作为服务出售”的可能性。虽然与零售业务无关,但显然 Bezos 认可并推动了它。2006 年,亚马逊云科技正式推出了他们的前三款产品:EC2(弹性计算机云)、S3(简单存储服务)、SQS(简单队列服务)。亚马逊将所有的 IT 基础设施都分化成了最小的单元,其中包括网络、存储、计算等。开发者可以自由选择这些单元,以及亚马逊云科技提供的软件服务,来构建自己的产品。亚马逊 CTO Werner Vogels 博士说,“亚马逊想用可扩展系统软件方面的专业知识,将原始基础设施通过服务接口的方式交付,让开发人员不再专注于构建、维护基础设施。这是一个关于‘创新’的故事,至于‘因产能过剩而发明云计算’的说法是不对的,因为 Amazon Web Services 推出之后的 2 个月内,就已经耗尽了 Amazon.com 所有的过剩产能。”随后十年,亚马逊逐渐推出了更多服务,Amazon Simple DB、Amazon CloudWatch、Amazon Route53、Amazon CloudFormation、Amazon Dynamo DB 等等。随着服务的完善,越来越多企业迁入了云中。作为独角兽迅速崛起的 Slack 公司,在 2015 年分享了他们的构建方式:使用 Amazon EC2 实例进行计算,用于 Amazon S3 存储用户上传的文件和静态资产,用 Elastic Load Balancing 来平衡 Amazon EC2 实例之间的工作负载,以及使用 Amazon Elastic Block Store (Amazon EBS) 对 Amazon EC2 实例上运行的 MySQL 实例进行夜间备份。来源:https://aws.amazon.com/cn/solutions/case-studies/slack如同 Slack 公司一样,不同的企业可以根据自己的需求选择不同的服务,构成自己的 IT 架构,企业不用再自己解决基础问题,免去重复性造轮子的工作。可以说,云技术是亚马逊的技术发展到一定程度后,得到的一种资源优化方法,一种系统性的创新方法。截至 2021 年,亚马逊云科技包含超过 245 种产品和服务,包括计算、存储、网络、数据库、分析、部署、管理、机器学习、开发者工具等。虽然数量众多,但这种模块化、单元化的技术解决方案,作为一个整体在设计上又特别协调和流畅。据媒体报道,有国内知名技术专家参加 2016 re:Invent 时感叹:“看 Amazon Web Services 的架构,有一种感觉仿佛整个 Amazon Web Services 是一个人做的一样,模块定义、复用、互通,看的真是一个赏心悦目。”重构云底座:构建可进化的系统计算2006 年 8 月,Amazon Elastic Compute Cloud (EC2) 开放了 beta 测试,并从此启动了云上计算革命。如果没有这种计算能力上的创新,我们认为现在一些理所当然的事情——从外卖、快递中的调度计算,到生命科学中的基因计算,都是不可能被轻松实现的。亚马逊最初的想法是为开发人员提供针对计算基础设施的按需访问,并让他们只为自己所使用的资源付费。EC2 服务副总裁 Dave Brown 曾回忆道:“最初在南非的开普敦建立研发中心时,亚马逊云科技团队只有 8 个人,但我们当时做的事领先于时代。以至于当我们在 2006 年 8 月发布产品时,Reddit 和 Slashdot 上的大多数评论,都表示很难理解我们在做什么。一个世纪前,美国的很多大型制造企业自己发电为工厂供电,随着电网的普及,公司开始关闭自己的发电厂,因为他们可以随时随地获得更经济的电力资源。计算领域也应如此,就像早期电网的转变一样,算力可以在你需要的时候打开和关闭。”亚马逊最初选择在开源 Xen 上进行修改定制的办法来实现 EC2 架构,通过 Xen hypervisor 虚拟化 CPU、存储和网络,并提供丰富的管理能力,让多个虚拟机 (VM) 在一台物理机器上运行,由管理程序提供虚拟机之间的隔离和多租户功能。Xen Hypervisor EC2 架构,来源:https://www.allthingsdistributed.com/2020/09/reinventing-virtualization-with-nitro.html经过数年发展,EC2 成为了一个庞大、稳健的环境和数十亿美元的业务。虽然传统虚拟化架构已经被亚马逊优化到了极限,但是使用这种架构,一个实例中多达 30% 的资源被分配给了虚拟机管理程序以及网络、存储的监控运营。为了降低这些损耗,亚马逊云科技开始定制化专用硬件,从头开始重新发明底层 EC2 技术。这不是一蹴而就的事情,2013 年,亚马逊发布了 EC2 C3 实例,将网络进程卸载到硬件(将功能从软件转移到硬件)。2014 年,亚马逊云科技与 Annapurna Labs 合作,再次推出了 EC2 C4 实例。C4 将 EBS 存储卸载到硬件中,但仍然依赖英特尔至强芯片作为控制器。据报道,亚马逊云科技在 2015 年斥资 3.5 亿美元收购了 Annapurna,引入 C5 实例,用 Nitro hypervisor 取代了 Xen,将虚拟机与 ASIC 紧密耦合。Werner Vogels 表示,这个里程碑卸载了控制平面和其余 I/O,使用近 100% 的处理来支持客户工作负载,还启用了裸机版本的计算,催生了与 VMware 的合作伙伴关系,以启动 VMware Cloud on AWS。2017 年,亚马逊正式推出完整版 Nitro。Nitro 是一组自定义硬件和软件,目的是将虚拟机管理程序、网络和存储虚拟化转移到专用硬件,从而释放 CPU 以更高效地运行。2017 年的 Nitro 系统架构,来源:https://www.allthingsdistributed.com/2020/09/reinventing-virtualization-with-nitro.html2018 年,亚马逊云科技推出了基于 Arm 的定制芯片 Graviton。据相关数据显示,基于 Arm 的 Graviton2 的性价比比基于 x86 的同类实例高 40%。这打破了对 x86 的依赖,开启了架构的新时代,现在亚马逊已经能够以多种配置支持密集型计算任务。这些举措为亚马逊云科技的其它创新奠定了基础,包括针对从训练到推理环节的机器学习和人工智能任务进行了优化。自推出 Nitro 系统之后,EC2 实例也快速增加,现在 Amazon EC2 已经拥有超过 475 个实例。计算方式也不断更新,从 EC2 实例开始,逐渐支持容器和无服务器。一般云平台只提供 Kubernetes 托管,亚马逊云科技提供了 EKS(托管 Kubernetes 服务)、 ECS(自研)和 Fargate 三种容器管理工具。Amazon Lambda 也开创了无服务器计算时代,无服务器计算是一种按需提供后端服务的方法。无服务器提供者允许用户编写和部署代码,而不必担心底层基础设施。存储2006 年,亚马逊云科技推出了 S3 (Simple Storage Service) 服务,S3 定义了对象存储,是对象存储事实上的标准,具有划时代的意义。S3 的推出时间实际上比 EC2 还早 6 个月,最初设计时的一个重要原则就是“简单”,所以当时只提供了 GetObject 和 PutObject 功能,核心 API 只有四个 REST 命令(GET、PUT、LIST 和 DELETE)。Werner Vogels 和亚马逊前技术副总裁 Tom Killalea 在谈到 S3 的发展时,两人认为“‘尽可能的简单’是 S3 成功的关键之一,虽然这在当时颇具争议,但一个可进化的架构一开始不可能被设计得很复杂。”开始时用户主要是用 S3 存储图像和视频数据,但随着时间的推移,越来越多的事务日志、parquet 文件、客户服务记录等数据被放进了 S3。然后用户想要的就不仅仅是“弹性存储”和“低成本”了,他们还希望能够让数百个应用程序使用这些共享数据集,于是亚马逊就添加了“Access Points”功能。这个过程足以说明 S3 的演进原则:用户希望用他们的数据来做什么,亚马逊云科技就添加什么功能或服务。通过技术和商业的服务,亚马逊云科技与用户建立了一个快速的反馈循环,成为一个快速成长的飞轮。2006 年的时候,S3 只有 8 个服务(Services),到 2019 年,S3 已经拥有 262 个了。而且亚马逊致力让 S3 拥有更高性能、更低成本,推出了七种不同层次的存储产品:Standard、Intelligent Tiering、Infrequent Access、One-Zone Infrequent Access、 Glacier、Glacier Deep Archive,以及 S3 Intelligent Tiering。S3 Intelligent Tiering(智能分层)产品又分为“频繁访问”和“非频繁访问”两个层级,会自动将连续 30 天未访问的对象移动到“非频繁访问”层,降低了运营复杂度。2021 年,智能分层也从2个层级增加到了3个层级,添加了新推出的归档即时访问层,最经典的存储仍在不断进化。S3 存储本身具备了计算存储分离的特性,在云原生时代,非常适合作为数据湖存储的核心。企业可以基于 Amazon S3 构建数据湖,同时利用原生 Amazon Web Services 服务,来运行人工智能或机器学习服务(SageMaker),从而可以更高效地处理各种结构化和非结构化数据。S3 持久性设计为“11 个 9”(99.999999999%) ,意味着使用 Amazon S3 存储 10000000 个对象,则预期平均每 10000 年发生一次对象丢失。今年,亚马逊宣布 S3 存储的对象数量已经超过 200 万亿,每秒需要处理数千万个请求。如今,S3 已经演变为了庞大而健壮的分布式存储系统,为保持数据持久性,亚马逊于去年底宣布升级了 S3 的存储后端系统 ShardStore,引入了“自动推理”方法,以保证“崩溃一致性”,即系统崩溃时数据仍能保持“11 个 9”的一致性状态。ShardStore 实现比较复杂,包含超过 4 万行 rust 代码,使用 soft update 提供崩溃一致性,传统的验证方法速度无法跟上系统的开发迭代速度。亚马逊采用了轻量级形式化方法(lightweight formal methods)提高 ShardStore 的可靠性,自动生成一系列的操作调用键值存储系统的接口,同时检查操作过程中参考模型和 ShardStore 具体实现之间的行为和状态是否一致。基于上述方法,亚马逊成功在 ShardStore 找到并修复了 16 个重要的问题,涉及崩溃一致性和并发等方面的错误。亚马逊云科技还在 SOSP 大会上发表了一篇相关论文,并获得了最佳论文奖。网络网络是云计算业务最基础的支撑之一,亚马逊云科技拥有规模最大的全球骨干网络,现有 25 个区域,81 个可用区,14 个 Local Zone,17 个 Wavelength Zone,超过 300 个边缘站点,以及 108 个专线接入点。这些都是在 2006 年单一扁平子网的基础上,历经 16 年的不断创新和优化发展而来。在全球化浪潮下,不少大型跨国企业会在全球设置多个站点,在构建全球化网络时,亚马逊云科技的用户可以利用 Amazon VPC 创建多个虚拟网络。传统的做法是利用 VPC Peering 功能,将区域内或者跨区域之间的 VPC 进行连接,利用 Direct Connect 或 VPN 实现非亚马逊云科技基础设施与亚马逊云科技的互联。但如果云上负载增多,管理工作将成倍增加,这时就可以采用集中管理链接的方案,亚马逊在 2018 年 Re:Invent 推出了 Amazon Transit Gateway。使用 Amazon Transit Gateway,可显著简化管理并降低运营成本,因为每个网络只需连接到 Transit Gateway,而不是连接到所有其他网络。当网络在全球范围内延伸并且还需要混合各种技术时,企业构建、管理和监控它们的复杂度也会明显增加。在 2021 年 re:Invent 大会上,亚马逊云科技宣布了 Cloud WAN 全球网络托管服务。借助这项网络服务,企业可以借助于亚马逊的骨干网,使用 Cloud WAN 图形界面一键创建属于自己的全球网,实现设置中转网关或云连接,监控网络运行状况、安全性和性能等功能。来源:https ://aws.amazon.com/cloud-wan/在 2021 年的 re:Invent 大会的主题演讲和博客文章中,Werner Vogels 还提到了亚马逊对“无处不在的云(the everywhere cloud)”的愿景,即通过有针对性的硬件和解决方案将亚马逊云科技带到新的地区。Werner Vogels 在博客中写道:“我们将在 2022 年见证转变:云将在边缘上变得高度专业化。我们会为边缘提供量身定制的解决方案,那么无论是车间、餐厅、零售小店或偏远地区,都可以充分发挥云的优势。”安全没有安全这个保障,云的一切优势都将无从谈起。随着上百万的组织迁入云中,数据、流量更为集中,云早已成为安全攻防的主战场。作为云计算的先驱,亚马逊首创的“安全责任共担模型”已经是云安全联盟中大家公认的事实上的行业标准,这个模型明确了云厂商和租户的安全边界,也明确了云厂商内部的安全责任。今年,亚马逊云科技再次提出了五层“洋葱型防护方法论”:威胁检测与事件响应、身份认证与访问控制、网络与基础设施安全、数据保护与隐私、风险管控及合规。在 280 多项安全、合规服务及功能基础上,亚马逊云科技利用这五层防护体系,为客户提供全方位的安全服务。可持续发展联合国于 2015 年制定了一个全球框架《巴黎协定》,随后各缔约国纷纷制定了“碳中和”路径和目标,对地球环境的健康发展做出承诺。埃森哲的分析表明,倘若采用绿色方法迁移至公有云,全球二氧化碳排放量每年可减少 5,900 万吨,这相当于动动手指就能减少 2,200 万辆汽车的碳排放量!亚马逊作为世界级科技巨头,引领了“绿色云”改造。亚马逊表示将提前十年达成《巴黎协定》,并在 2025 年实现 100% 可再生能源,而且还设计了一套从基础设施到软件设计的具有前瞻性的解决方案。这些举措也取得了显著的成果,2021 年,亚马逊云科技可持续发展架构副总裁 Adrian Cockcroft 表示:亚马逊云科技的基础设施能源效率比普通美国企业数据中心高出 3.6 倍。同时,亚马逊在执行相同任务时,可以减少 88% 的碳足迹。重构云底座:面向客户和未来进行创新诞生于 16 年前的亚马逊云科技,开创了一个全新的云计算领域,亚马逊的创新可以说对 IT 产业演进产生了革命性的影响。虽然如今各云厂商竞争激烈,但亚马逊云科技却始终能处于市场的领先位置。据相关数据显示,亚马逊云科技在云基础设施服务提供商中的份额最大,为 33%,客户也早已超过百万,无论是技术巨头、银行还是政府,不同的组织都在使用 Amazon Web Services 来开发和部署自己的应用程序。早期的典型用户有 Netflix,从 2009 年就开始采用 Amazon Web Services,2015 年中 Netflix 关闭了自己的最后一个数据中心。纳斯达克从 2014 年就开始使用 Amazon Web Services 在云中存储股票交易所数据,今年再次增加了边缘解决方案的使用,将 Markets 逐步开始迁移到亚马逊云服务上。NASA 于 2000 年开始,利用 Amazon Web Services 服务,提供对照片、视频和音频的在线访问,上周,NASA 再次宣布采用亚马逊云服务为空间站构建“太空物流”基础设施体系…这样的成绩归功于亚马逊不断地围绕客户业务进行技术创新,有业界专家认为,亚马逊云科技的一大亮点是能非常敏感地发现用户当前紧迫面临的是什么问题,并快速提供解决方案或者产品。这也像 Dave Brown 所说的:“我们可以应对几乎所有需求以及挑战,并且永远不会对客户说不。在亚马逊云科技,我们拥有‘顾客至尚’的文化,不仅满足他们当前需求,而且会预测他们未来的需求。”以客户为中心,不断进行创新,这也正是“第一天(Day one)”理念的一种体现。面向未来的发展过程中,亚马逊云科技在这 16 年当中无疑有很多技术理念和决策经验值得我们借鉴和思考。2022 年 4 月 20 日,亚马逊云科技将在线召开 INNOVATE 创新大会,这也是亚马逊首个专门针对云基础架构的技术大会,设置 6 大分会场、30+ 前沿技术主题,将更全面、更详细地分享亚马逊云科技的底层创新,解读不同业务场景的应用,帮助您构建数据驱动型企业!参考链接:https://www.allthingsdistributed.com/2020/09/reinventing-virtualization-with-nitro.htmlhttp://muratbuffalo.blogspot.com/2021/10/using-lightweight-formal-methods-to.htmlhttps://www.youtube.com/watch?v=6ryVoGlgwU4https://perspectives.mvdirona.com/2016/03/a-decade-of-innovation/https://thestack.technology/aws-shardstore-s3/https://dl.acm.org/doi/fullHtml/10.1145/3434571.3434573https://www.allthingsdistributed.com/2021/12/tech-prediction-for-2022-and-beyond.htmlhttps://aws.amazon.com/cn/blogs/publicsector/amazon-aws-reimagine-space-station-operations-logistics-orbital-reef/点个在看少个 bug 👇
| 11,198 | 1,650,003,145,994 |
InfoQ
|
178 |
2022 年 Java 将何去何从?
|
自从我们在《2020 年 Java 将何去何从》(Where's Java Going In 2020)中深度探讨 Java 生态系统以来,已经有一段时间了。JRebel 最新发布的《2022 年 Java 发展趋势和分析》报告(Java Development Trends and Analysis 2022)为我们提供了一个契机,可以重新审视 Java 生态系统。那么,根据 JRebel 的报告,这篇《2022 年的 Java 将何去何从》便出炉了。这份标志着 JRebel 倡议十周年的新报告,从以下角度审视了 Java 生态系统的状况:微服务的采用和使用趋势CI/CD 构建时间和提交频率流行的框架、应用服务器、虚拟机和其他工具开发人员的整体生产力,包括各种挑战和障碍该报告共收到了 846 份回复,其中一半的受访者是开发人员,占了大多数;其余的则由 Java 架构师、团队领导、总监、顾问和其他人员组成。最重要的是,有 31% 的样本在超过 1000 名员工的大型企业中工作,因此这份报告很好地说明了 Java 在工业领域的使用情况。Java 为何总是受到企业的青睐?企业在过去和现在一直都在谈论 Java。我们可以从《财富》500 强企业中了解到他们对 Java 的依赖程度。是的,蓝筹股喜欢 Java。理由有很多。企业最看重的是向后兼容性,他们对激进的更新和升级是出了名的“过敏”。20 年前用 Java 5 编写的系统,应该能够在第 8 版下编译和运行。对他们来说,稳定性才是最重要的。说起来,另一个重要的指标是 Java 版本的采用情况,以及 Oracle JDK 是否比 OpenJDK 更受欢迎。8 版之后的发布周期要快得多,现在已经发布到 18 版,你会期望大多数人都会迁移到最近的版本。但事实却不是这样。正如调查所强调的,37% 的接受调查的开发人员仍然使用古老的 8 版(2020 年为 58%),尽管 Java 11 有 29%(2020 年为 22%)取得了进展。这表明人们更喜欢稳定,而不是掌握所有最新花里胡哨的特性。至于 OpenJDK 与 OracleJDK 方面,与 JRebel 的 2020 年报告相比,情况发生了一些变化,该报告评论道:看到我们的调查对象中有多少人在为 Oracle JDK 付费,这非常令人惊讶。我完全预计开源选项会有更大的市场份额。并提出了一个理由:在我们的调查中,有大量的 Java 8 开发人员代表。我们认为,使用 Java 8 的开发人员的数量表明,该项目已经有很长一段时间没有更新了,这也许是将应用程序保留在 Oracle 发行版中的原因。并补充道:Oracle JDK 提供的支持可能比我们想象的更重要。今年 OracleJDK 份额从 2020 年的 48% 下降到 36%。GraalVM 从 2020 年的 0.25% 上升到今年的 3%其余的问题是关于性能问题、微服务和 CI/CD。受访者开发的主要应用程序的架构是基于微服务的(32%),其次是老式的单体应用(22%)。我认为,这肯定是由于基于 JVM 的框架的卷土重来,使得 Java 在微服务领域中处于领先地位。我指的是 Quarkus,它与 Micronaut 和 Helidon 一起,是过去几年涌现出来的新的开源框架联盟的一部分,开源框架联盟旨在推动 Java 在微服务领域的应用。它们的 AOT 能力,加上 GraalVM 的本机镜像可执行文件,应该真的会有所作为。尽管 Spring Boot 仍然占据首位,高达 74%,其次是 Quarkus、Vert.x 和 DropWizard,分别为 5%、2% 和 1%,位列前四。然而,魔鬼就在细节中。Quarkus 在 2020 年有 0.5% 的份额,而 Spring Boot 为 82%。鉴于 Spring 是占主导地位的框架,他们不是将其与 Spring Native 结合起来使用吗,Spring Native 可以让你使用 GraalVM 本机映像编译器将 Spring 应用程序编译成本机映像?报告中提到的一个主要问题是,自最初转换/创建微服务以来,微服务应用中启动服务的时间有所增加。调查发现,总共有 60% 的人都有过这样的体验,而 35% 的人没有受到影响。另一个令人失望的结果是,在将一个单体分解成不同的可管理部分后,非但没有获得更好的重新部署时间,而且大多数人发现重新部署时间超过 5 分钟;还有人超过 10 分钟。在 Java 虚拟机平台类别下,Docker 是迄今为止最受欢迎的选择,占总体受访者的 41%。Kubernetes 排在第二位,为 26%,而 VMWare 位居第三,为 16%。Jenkins 被评为最受欢迎 CI/CD 技术,为 46%;而 Github Actions 紧随其后,为 16%。在其他类别中,亚马逊云科技是最受欢迎的 PaaS 供应商,Tomcat 再一次成为应用服务器的首选,Maven 是最受欢迎的构建工具,占 68%,Gradle 占 23%,紧随其后。Maven 比 2020 年的 44% 有所上升,Gradle 比 2020 年的 47% 有所下降。这表明,虽然 Gradle 被夸大其词,但对于一般的 Java 开发来说,它被证明过于繁琐;最好坚持使用 Android。总结一下最有趣的发现,企业转向微服务,并不是因为启动和重新部署的时间更快,而是由于其他一些因素,如模块化和灵活性等。另一个值得注意的方面是,Spring Boot 依然是处理 Java 微服务的主导方式,而其他较新的竞争对手必须覆盖很多领域才能达到相同的水平。这让我们开始思考 AOT 和 GraalVM 的使用情况。它是否被高估的低级炒作,或者说,它太新了,至今仍未被视为一种可行的替代方案?最重要的结论是,尽管技术在不断地改变,但是没有人会迫不及待地去接受。这一点在大型企业中特别有共鸣,因为他们更倾向于稳定,而非创新。当然,在某些时候,他们最终也会踏上这条路,但是要花很多时间和周密的规划。原文链接:https://www.i-programmer.info/news/80-java/15317-wheres-java-going-in-2022.html
| 8,476 | 1,649,399,602,435 |
InfoQ
|
179 |
数据库技术新版图-Serverless数据库
|
数据库的发展已走过近四十年,作为基础软件之一,数据库称得上是一个“古老”的领域。而随着新技术的涌现,这个传统的领域也正不断焕发出新的生机。如果说云时代的到来推动了数据库的变革,那么,与 Serverless 的结合,则再次为数据库的发展添了把火。Serverless 数据库会成为未来的趋势吗?又该如何让 Serverless 数据库从概念走向落地?亚马逊云科技 Tech Talk 特别邀请资深数据库专家马丽丽带来分享《 Serverless 数据库为应用开发带来的变革》。为什么我们需要 Serverless 数据库?从自建数据库到迁移上云,云数据库帮助企业和开发者省掉了很大一部分精力。开发者不再需要进行数据库的安装或备份工作,然而,数据库的选型难题却并未得到很好的解决。尽管云上数据库能够提供一些监控信息,但在多数场景下,工作负载是不均衡的,波峰和波谷往往差异极大,那么在这样的情况下该如何进行数据库选型呢?一般来说,有以下几个方式:第一,为了避免数据库成为瓶颈,开发者可以按照波峰的方式进行部署。但工作负载不是始终都处于波峰,如果统一按照波峰位置部署数据库,就会带来资源浪费,提升成本。第二,开发者可考虑按照波峰波谷的工作负载,配置一个平均值。这样成本的确有所节约,但问题是,一旦工作负载达到波峰,数据库将成为瓶颈,严重影响终端用户的体验。第三,也是开发者现阶段最为常用的方式,即对不同指标进行监控,设置预警,比如设置当监测到 CPU 利用率到达 80% 的时候,系统发送告警信息,然后由开发或运维人员手动对数据库容量进行调整。尽管这样的方式的确可行,但却会耗费大量的时间成本。从以上 3 种方式可以看出,在预算有限的情况下,依赖持续的监控和手动对数据库容量进行调整是非常困难的。是否有一种方式能够解决数据库这方面的痛点?Serverless 数据库正是这样一种切实有效的解决方案。Serverless 数据库可按需求自动缩放配置,根据应用程序的需求自动扩展容量,并内置高可用和容错能力,采用 Serverless 数据库开发者将无需考虑选型问题,只需要关注如何设计数据库模式,怎样查询数据,及如何进行相应的优化即可。Serverless 数据库给应用开发带来的改变自动扩展容量,解决了开发者面临的数据库选型难的问题。那么,Serverless 数据库的出现,为应用开发又带来了哪些改变呢?马丽丽将 Serverless 数据库数据库的应用场景概括为以下四种。利用 Serverless 数据库开发多租户的 SaaS 应用最初在 SaaS 应用的数据库实现上,对于多租户的数据管理来说,每个租户的数据都是单独放在一个数据库里的,因此每个租户都会占用一个数据库,这样就会产生成千上万个数据库,成本高昂。针对这一问题,当时的解决办法是将多个用户的数据库部署同一个 Aurora 集群来提高利用率和成本效率,这样一定程度上能够解决多租户 SaaS 应用研发的痛点,但会牺牲单个数据用户数据库操作的粒度。而采用 Serverless 数据库,可辅助进行多租户的 SaaS 应用开发,把每个租户对应到一个 Serverless 数据库,随着应用的变化,可对每个租户数据库的容量进行自动收缩或扩展。利用 Serverless 数据库支撑企业中同时发展的多个应用程序在企业内部,也常常会出现要运行很多应用程序的情况,少则几百,多则甚至达到几千个应用程序,每个应用程序由一个或多个数据库支持。逐步发展的应用程序要求需要调整数据库容量,在有限预算内的调整各个数据库非常困难。而通过 Serverless 数据库就可以自动根据应用程序对数据库的需求进行调整。利用 Serverless 数据库简化分库分表的数据库容量选择当数据放在单一的关系型数据库中容量受限时,往往需要进行分库分表操作。在进行分库分表时,分几份,如何分呢?需要写入可扩展性的应用程序将其数据库分散到多个节点以提高吞吐量,但预测每个节点的容量既困难又低效。创建的节点过少,必须在停机期间重新分配数据,创建的节点过多,成本较高,因为所有节点的利用率都不同。有了 Serverless 数据库,可以考虑相对灵活的设定容量,因为随着业务的变化,Serverless 数据库 可自动进行扩展和收缩,而不需要额外的运维。结合 Serverless 数据库实现全栈 Serverless 应用架构在应用研发的过程中,越来越多的开发者接受了无服务器的理念,并尝试采用无服务器,所谓无服务器就是不需要管理服务器,从而实现自动缩放能力,并且按需付费、内置高可用、容错能力保证。当数据库也采用 Serverless,就可以实现端到端的 Serverless 架构,进一步提升用户体验。Serverless 数据库在应用程序如何重新开发、维护,如多租户管理、分库分表、无服务器化等方面均起到不可替代的作用。那么该如何让 Serverless 数据库从抽象的概念走向具体的落地实践呢?Serverless 数据库从概念到落地事实上,Serverless 数据库并非这两年才有的新概念。早在 2004 年的时候,由于亚马逊的电商网站面临数据库扩展性的挑战,Serverless 数据库的探索之旅便已经启程。当时,亚马逊内部自研了名为 Dynamo 的分布式键值存储,以解决数据库扩展性方面的挑战。在进行一系列内部实践后,亚马逊于 2012 年正式对外推出可商用的 Amazon DynamoDB,DynamoDB 在发布之初就被定义为 Serverless 架构。而当初发表的论文《Dynamo: Amazon's Highly Available Key-value Store》也凭借着对 NoSQL 的启发与深远影响,在操作系统领域顶级学术会议 SOSP2017 上,获得了 Hall of Fame Award 终身成就奖。如今,DynamoDB 已发展整整十年,并在众多领域都有着非常广泛的应用。与此同时,在 NoSQL 领域,亚马逊云科技也不断在 Serverless 数据库方面进行着探索,形成了完善的 Serverless 数据库服务体系。马丽丽着重对专为云平台打造的关系型数据库 Amazon Aurora 展开介绍。首先,在性能方面,Amazon Aurora 跟开源引擎完全兼容,可获得 5 倍于标准 MySQL 以及 3 倍于标准 PostgreSQL 的吞吐量,并行查询加速联机分析处理 (OLAP);其次,在高可用方面,Amazon Aurora 能实现可用区 (AZ)+1 的高可用,Global Database 可以完成跨区容灾备份;第三,在扩展性方面,Amazon Aurora 支持 15 个只读副本自动扩展,Aurora Serverless,高达 128T 存储;第四,在成本方面,Amazon Aurora 提供商用级数据库性能的同时,成本仅为其 1/10,存储无需预置按用量付费。从架构上来看,Amazon Aurora 架构支持 Serverless。它采用计算与存储分离的架构,可以做到存储层的快速扩展,从而提升数据分析方面的能力。Amazon Aurora 还采用了独特的日志即数据库的理念,省去节点跟存储层数据传输的量,以达到性能的提升。Amazon Aurora Serverless 目前为 V1 版本,马丽丽透露,V2 版本已支持预览版。相比于 V1 版本,V2 最显著的提升在于可立即扩容以支持高要求的应用程序。它能够一秒内实现 CPU 和内存资源的原地扩展,运行中的数十万项事务不会因为扩展受到影响。不仅如此,它还能持续监控和扩展计算节点。在保持状态的同时,对空闲实例后台移动 (例如,缓冲池、连接),缩放 scale down 速度是 V1 的 15 倍。此外,V2 版本能够在容量调整时做到更细粒度,并能够依据多个维度进行容量调整。更值得一提的是 Amazon Aurora Serverless 支持跨 AZ 的高可用部署和读取扩展,通过持续的监控和尽可能大的利用缓冲池,V2 原地扩展可以做到秒级别。在全球扩展方面,Aurora Serverless V2 支持全球数据库。全球数据库可以满足用户的两个需求:跨区域的故障恢复和增强应用程序的就近访问。如果在从区域部署 Aurora serverless V2 用来支持跨区域灾难恢复,它在空闲时会占用较低的资源,一旦发生故障恢复从区域提升为主区域时,Serverless 数据库能够快速扩容来支撑应用访问,这样能够带来空闲时数据库成本的节约。如果在从区域部署 Aurora serverless V2 用来支持本区域应用程序的就近访问,它可以根据本地应用程序的访问负载进行独立于主区域的自动扩展,进而提供更多的灵活性。随着国内越来越多企业出海诉求的涌现,Amazon Aurora Serverless V2 将在很大程度上满足业界对于全球数据库的需求。去年 12 月,权威咨询机构 Gartner 发布了报告——2021 Gartner Magic Quadrant for Cloud Database Management System。亚马逊云科技连续七年被评为云数据库领导者,在“执行能力”上获得 20 家参评厂商的最高位置。就像云技术的引入催生了一代创新一样,亚马逊云科技相信下一波创新浪潮是由数据驱动的。对于数据库,马丽丽在分享的最后谈到:“无服务器化架构是数据库未来发展的必然趋势之一。”
| 5,155 | 1,649,227,740,485 |
InfoQ
|
180 |
企业上云真的安全吗?亚马逊云科技提出洋葱型多层防护方法论,为云上安全护航
|
最近几年,安全合规成了所有与数据相关的行业都绕不开的话题。全球已经有132个国家跟地区制定了数据保护和隐私相关的法律法规,而最近几年我国也出台了《数据安全法》、《个人信息保护法》等保障用户数据和隐私安全的法律法规。随着企业上云速度的加快,可以预见的是,企业放到云上的数据类型、数据的数量也会继续增加。 伴随着经济全球化趋势不可逆的态势,我国企业不断走出国门,在全球范围内拓展业务,甚至有很多企业是跨若干行业赛道做竞争,所有这一切都会加剧企业面对安全合规的挑战。为应对这些挑战,亚马逊云科技提出了“洋葱型多层防护”方法论,为企业上云保驾护航。 亚马逊云科技大中华区战略业务发展部总经理顾凡表示,自己在出去见客户时通常会被问到三个问题:一是从自己的数据中心,把应用迁移到云上,安全吗?二是亚马逊云科技本身是不是安全合规的?三是如果现在想上云,那么把应用放到云上之后,亚马逊云科技如何帮助企业在云中安全合规?企业上云,真的安全吗? 企业自建数据中心的时候也要构建安全,只不过需要自己构建一切,需要考虑到安全设备管理、合同签订、成本问题等。当应用上云之后,企业并不需要关心琐碎的底层基础设施安全,而且在云端的安全治理有机会再上一个台阶。安全再上台阶可以体现在几个方面: 一是更加自动化。可以充分利用云端安全服务之间的超高集成度,更好地做到安全自动化。在本地的环境下,采用的是不同厂商的产品,安全数据整合非常复杂,而在云上,服务之间的深度集成,会让数据整合变得更简单。 二是更好的可见性。有了更好的数据整合,在云上也会更有机会用一个集中的平台,实现安全的可视化管理。 三是更灵活的成本控制。云端安全是没有前期投入成本,按使用付费。 四是更高效地做合规。自建数据中心做合规需要从零开始做起。如果选择亚马逊云科技,客户可以继承云厂商的合规,可能是从50分开始做起,另外50分云厂商已经做好,可以直接继承。 正因为如此,全球有数百万的用户已经选择并且信赖亚马逊云科技,亚马逊云科技服务的客户几乎覆盖了所有行业,其中包括金融、电信等很多强监管的行业,都已经借助亚马逊云科技将业务上云。 值得一提的是,世界最大的股票交易所纳斯达克会分阶段把全部业务迁移到亚马逊云科技,日本最大的电信运营商NTT docomo会把PB级别的数据仓库迁移上云。安全是Job Zero 顾凡称,“多年来,亚马逊云科技持续不断加大安全方面的投入,而且我们从来不会给安全服务部门设定硬性收入指标,因为安全服务就跟水和空气一样,并不会靠水和空气产生运营,我们真正要给用户提供的优质的水和空气,创造一个安全的环境。当我们说安全是Job Zero的时候,它其实代表的不仅仅是技术问题,也是管理问题。” 那么,到底亚马逊云科技如何把Job Zero真正执行到位?据顾凡介绍,亚马逊云科技 CEO和公司管理高层每周都会召开安全会议,而每个级别的亚马逊云科技员工都肩负安全责任的目标,定期会举办安全合规的培训、考试等等,每个亚马逊云科技的服务从设计阶段就要开始考虑安全问题。很多亚马逊云科技服务研发团队里都会有自己的安全官。此外,亚马逊云科技非常看重安全自动化,只有自动化,才有机会更好做到标准化、规模化做执行一个安全的任务。今天亚马逊云科技的数据中心已经能够根据事件实现自动化的响应和修复,比如水电和能源等很多问题的排查。 在云服务安全方面,亚马逊云科技有三个理念: 第一,利用云上的事件驱动型架构去构建自动化防护栏,而非设立关卡。基于事件驱动的架构,建立起一套从威胁检测到事件反应、原因分析、恢复的自动化防护,让企业的开发团队把更多的时间放在业务创新上。 第二,云中安全是主动设计出来的,而不仅是被动响应。安全合规应与企业业务充分结合,作为业务开展的首要条件。安全建设应该未雨绸缪,根据业务的情况和系统的特点,主动从技术和管理的层面去落实。 第三,云中安全必须是一个洋葱型的多层防护,而不是一个鸡蛋。多层次的安全防护,层层递进,层层展开。提出了“洋葱型多层防护”方法论,为企业上云保驾护航 亚马逊云科技目前提供了280多安全、合规服务及功能,在五大领域为客户提供全方位的安全服务。亚马逊云科技为客户打造五层防护体系。 洋葱模型第一层:威胁检测与事件响应。威胁检测就像“专业的天气预报员”,需要能够对安全威胁做到精准定位、快速反应、时刻监控,并且能够分析原因。重点服务包括:1)Amazon GuardDuty为客户提供了经济高效的智能选项,可持续检测在亚马逊云科技中发生的威胁,具有丰富的情报源。Amazon GuardDuty 集成了机器学习的能力,实现威胁的精准定位,让报警量减少了50%。2)Amazon Security Hub安全事件统一管理平台,让客户针对威胁检测7x24 小时全天候监控,及时响应,并自动执行合规性检查。 洋葱模型第二层:身份认证与访问控制。身份认证和访问如一座坚固城堡的大门。某一点的身份认证被攻破,有可能会带来意想不到的严重后果。没有好的身份认证的访问策略,就好像建了一座坚固的城堡,却把门打开给未知访客。关于身份认证,亚马逊云科技有两个经验和三个技术建议。经验之一是保持最小授权原则,每一次授权都要确认是否必须,是否与业务/职责相关。经验之二是要对最小授权原则定期进行审计,不要有永久授权,所有的授权都必须有时效性。三个技术建议:一是尽可能细化访问的颗粒度,可以根据时间,地点和服务来设置访问条件;二是结合多因素鉴证(MFA)技术加强身份认证;三是减少长期凭证的使用。Amazon Identity and Access Management (IAM) 是身份认证与访问控制的核心服务,它可以提供涵盖整个亚马逊云科技所有服务和资源的精细访问控制。Amazon Organizations是一个高效的身份认证与访问控制服务,可以对一个组织的多账号进行集中管理和治理,建立权限防护机制和数据边界。 洋葱模型第三层:网络与基础设施安全。防御DDoS(分布式拒绝服务攻击)是这一层防护的重点。DDoS防御应全年从始至终,而不能像急诊。如果等发现DDoS攻击之后再处理,业务的稳定性和持续性已经受到影响了。Amazon ShieldAdvanced就可以为客户提供全天候的保护。网络访问规则是一切防御的基础,Web应用防火墙服务Amazon WAF 提供了丰富的规则库,有亚马逊安全团队自研的全托管规则,客户也可以自定义规则,还国际一线安全厂商的托管规则。 洋葱模型第四层:数据保护与隐私。亚马逊云科技提供了数据全生命周期的加密服务,对数据的保护涵盖了数据的存储、传输以及使用的各个环节。Amazon KMS密钥管理服务实现存储过程中的加密,它与亚马逊云科技140个服务集成,可以对存储在这些服务中的数据加密。高集成度减少了人工操作,降低了出错的概率。针对数据保密性要求更高的客户,Amazon CloudHSM提供了安全、简单的云上专属加密机。Amazon Nitro Enclaves提供了一个云端的机密计算环境,通过它,客户可以创建一个隔离的环境来处理敏感数据,而无需向他们自己的系统管理员、开发人员和应用程序提供访问权限,从而减少敏感数据处理过程中的攻击面。 洋葱模型第五层:风险管控及合规。亚马逊云科技从三个方面帮助用户合规。一是确保亚马逊云科技服务本身的合规性;二是合规方案落地;三是自动化审计。亚马逊云科技的合规认证不仅在基础设施区域,还会深入到每一项云服务,客户部署亚马逊云服务,其合规性能够得到认证机构的认可。通过Amazon Audit Manager 简化审计管理和合规性评估,Audit Manager可能自动扫描、搜集证据,还提供了各种合规认证的模板,可以简化合规审计的证据收集工作。此外,亚马逊云科技还提供了Amazon Trusted Advisor定制云计算专家、Amazon Security Bulletins安全公告、Amazon Security Documentation云服务配置建议等各种在线工具,将所有的安全合规经验都对客户倾囊相授。 亚马逊云科技也首创了安全责任共担模型,推动安全及合规建设。亚马逊云科技不仅要负责云基础设施和云服务的安全,更重要的一点是要为云基础设施和云服务拿到全球各种各样的合规认证,让客户继承这些合规认证。 责任共担也是有分界线的。在IaaS、PaaS、SaaS不同的场景分界线会有所移动。如果客户使用的是基础资源,分界线是云厂商保护云基础设施,例如虚拟机、网络存储、计算,用户负责虚拟化之上的资源,例如操作系统、应用、数据访问、加密。如果客户在云上采用的是PaaS服务,亚马逊云科技肩负的责任会更多。到SaaS服务的时候,客户主要负责的就是数据,以及数据的访问权限。 老话说“打铁还需自身硬”,当然,亚马逊云科技云也通过四个方面保证了自身的安全合规。 安全的基础设施。亚马逊云科技的数据中心和网络架构以最高安全标准构建,全球所有数据中心或服务都会使用相同的构建标准和控制措施,所有客户无论规模大小都可以受益于这样具有高安全性的基础设施。 安全的云服务。亚马逊云科技重视每一个服务的安全性,安全团队从一开始就深入参与新服务和新功能开发,如果存在任何已知的安全问题,新服务将不会启动。亚马逊云科技还会通过深度集成的服务,实现安全自动化,减少人工配置错误,降低风险。 坚持客户拥有和控制数据的理念。亚马逊云科技不接触客户数据,客户始终拥有自己的数据,并且可以选择任何方式加密自己的数据。所有数据流动在离开亚马逊云科技的安全设施之前,都经过物理层自动加密。 亚马逊云科技获得了众多安全标准和合规性认证,几乎满足全球所有监管机构的合规认证。亚马逊云科技获得的安全标准及合规认证,用户可以继承。亚马逊云科技已经把全球积累的安全保护经验、安全合规能力实践到中国区域。亚马逊云科技会定期对数千个全球合规性要求进行第三方验证。
| 2,478 | 1,648,803,028,283 |
InfoQ
|
181 |
如何提升HBase 大规模集群下的低延时性能
|
HubSpot 的数据基础设施团队,每天都要处理 2.5PB 以上的低延迟流量,他们亲眼目睹了 Locality 对于 HBase 的性能有多么重要。请继续阅读,以了解更多关于这些问题:什么是 Locality ,为什么如此重要,以及我们如何在不断增长的 HBase 集群中使保持 Locality 成为一个不成问题的问题。 HubSpot 的一些最大的数据集存储在 HBase 中,这是一个开源的、分布式的、版本化的、非关系型的数据库,模仿谷歌的 BigTable。我们拥有将近 100 个生产 HBase 集群,包括亚马逊云科技两个区域的 7000 多个 RegionServer。这些集群每天能处理 2.5PB 以上的低延迟流量,由于亚马逊云科技的每个区域是由多个数据中心组成的,因此我们认为,Locality(译注:即局部性 、本地性,指将数据放在离需要者尽可能近的地方)是保持这些延迟的关键。 什么是 Locality? HBase 数据存储在 HDFS 中,默认情况下,会有 3 种方式来复制你的数据。 如果可能的话,第一个副本会在本地写入客户端(HBase RegionServer)。第二个副本被写到与第一个副本不同机架上的主机上。第三个副本被写到第二个机架上的不同主机上。 所有这些都是很好的做法,但是 HBase 数据也被分割成了连续的小块,称为区域(regions)。区域必须能迅速地在不同的主机间移动,从而在托管 RegionServer 崩溃等情况下,能够维持可用性。为了保证快速,当一个区域移动时,底层数据块不会移动。HBase 依然可以轻松地从 3 个副本主机中仍然可用的任意一个远程获得数据,从而为该区域提供数据。 在高度优化的单一数据中心中,远程主机的访问对延迟的影响微乎其微。在云中,这些副本主机可能与请求的 RegionServer 不在同一栋楼里,甚至不在同一个地区。在运行一个对延迟敏感的应用程序时,这个附加的网络跳跃会对终端用户的性能造成很大的影响。 Locality 是衡量 RegionServer 的数据在给定时间内存储在本地的百分比,这也是我们在 HubSpot 非常密切监测的一个指标。HDFS 除了具有网络延迟之外,还具有“短路读取”的特性。当数据在本地时,通过短路读取,可以使客户端(HBase)在不通过集中的 HDFS 数据节点处理的情况下,从磁盘上直接读出数据文件。这将会降低可能来自 TCP 栈或 DataNode 进程本身的延迟。 在过去的几年中,我们一直在定期进行性能测试,以确认 Locality 对延迟的影响。下面是我们最近一次测试的一些结果: 所有这四个图表都有相同的时间窗口。在这个时间窗口开始时,我打乱了处理集群上的 Locality。正如你所看到的,单个 Get 延迟(左上图)没有受到很大的影响,但吞吐量(右上图)却显著地下降了。MultiGets 在延迟(左下角)和吞吐量(右下角)方面受到明显的影响。我们发现,一般来说,MultiGets 对延迟回归格外敏感,因为它们会击中多个 RegionServer,通常至少与最慢的目标一样慢。 下面是几个月前我们遇到的一个生产事故的例子: 这个集群有一个相对较小的数据集,但负载较重。左轴(浅紫色)是第 99 个百分点的延迟,而右轴(蓝色虚线)是 Locality。在这次事件中 ,Locality 约为 10%,延迟在 2~8 秒之间。利用我们将在本文讨论的工具,我们在 11 点左右解决了这个问题——在短短几分钟内,我们就将 Locality 提高到 100%,并使延迟减少到不足 1 秒。 解决 Locality 问题 Locality 可能会因为不同的原因而下降,而所有这些原因都源于区域的移动: RegionServer 可能会崩溃,所以它的所有区域会随机地分布在集群中。Balancer 可能会移动一些区域以更好地分配请求负载。你可能会扩大或缩小集群的规模,从而导致区域移动以适应新的规模。 以上三种理由在我们看来都是很普遍的。当 Locality 下降时,你有两种选择: 利用 Balancer 将区域移回它们有良好 Locality 的地方。这很少是一个好的选择。在本地重写数据,使用“高度压实”(major compaction)。 HBase 中的数据最初被写到内存中。当内存中的数据达到一定的阈值时,它就会被刷到磁盘上,从而形成不可变的 StoreFile。由于 StoreFile 是不可变的,所以更新和删除不会对数据进行直接的修改。取而代之的是,它们和其他新的数据一起,被写入到新的 StoreFile 中。久而久之,你就会创建很多 StoreFile,在读取时,这些更新需要跟旧数据进行协调。这种即时的审核会减慢读取速度,因此会执行后台维护任务来合并 StoreFile。这些任务被称为“压实”(compaction),它们被分成两种类型:轻度(minor)压实和高度(major)压实。 轻度压实只是将较小的、相邻的 StoreFile 合并成较大的 StoreFile,以减少在许多文件之间寻找数据的需要。高度压实则是重写一个区域内的所有 StoreFile,将所有更新和删除的数据合并成一个 StoreFile。 回到 Locality 的定义,我们的目标是确保新的托管服务器对 StoreFile 中的每个块都有一个本地副本。通过现有的工具,做到这一点的唯一方法是重写数据,这要经过上述的块放置策略。要做到这一点,高度压实会非常重要,因为它们涉及重写所有数据。不幸的是,它们也是非常昂贵的: 压实必须读取整个区域的数据,过滤掉不相干的数据,然后重写数据。读取数据包括解压和解码,这需要 CPU。过滤也需要 CPU。写入数据需要对新数据进行编码和压实,而这需要更多的 CPU。写入数据还涉及 3 倍的复制。因此,对 10GB 的区域进行压实会导致 10GB 的读取 + 30GB 的写入。 无论我们的 Locality 目标是什么,这种成本都会在每一个高度压实中体现出来,而且会对长尾延迟产生影响。通常,你只想在非工作时间运行高度压实操作,以尽量减少对终端用户的影响。然而 ,Locality 在高峰期有最大的影响,所以这意味着在你等待非高峰期压实工作开始时,可能会有几个小时的痛苦。 就 Locality 而言,还有一个隐藏的成本——很有可能只有某个区域的部分 StoreFile,有非常糟糕的 Locality。一个高度压实会压实所有的 StoreFile,因此,如果一个 10GB 的区域中只有 1GB 是非本地的,那么从 Locality 的角度来看,这就是浪费了 9GB 的努力。 下面是我们的一个集群的图表,我们试图通过压实来修复 Locality : 这张图显示了一个相对较大的 HBase 集群,每条线是集群中单个 Regionserver 的 Locality。在我们耗尽时间之前,我们花了大约 6 个小时,才慢慢将 Locality 提高到一个只有 85% 左右的峰值。几个小时后,发生了一起事件,使我们的部分工作毁于一旦,而按照集群的负载方式,我们要等到第二天晚上才能继续运行压实操作。 多年来,上述情景一再出现。当我们的规模变大时,我们发现,压实并不能很好地对 SLO 进行足够快的 Locality 修复。我们的相隔更好的办法。 削减成本,将小时变为分钟 我在 HBase 上断断续续地试用了好几年,而用压实来解决 Locality 的做法总是令人失望。我很久以前就了解过诸如 HDFS Balancer 和 Mover 之类的工具,它们可以进行低级别的块移动。如果有一个类似的工具,可以利用低级别的块移动来解决 Locality 问题,这将会很有吸引力,原因有以下几点: 你只是把字节从一个主机移到另一个主机,不需要处理压实、编码或昂贵的过滤。你在做 1-1 的转移,而不是写新的块。因此,3 倍的复制成本并没有发挥作用。你可以专门选择只移动非本地块的复制,而不去考虑其他所有的块。 通过 dfsadmin -setBalancerBandwidth,可以实时地编辑块传输带宽,而且可以很好地根据集群的大小进行扩展。 在这个项目中,我希望能看到我们能不能开发出相似的产品,从而提高低延时应用的 Locality。 现有组件 为了建立我们自己的块 Mover,我必须采取的第一步是了解移动块、读取块和计算 Locality 的所有各种组件。这一节有点深奥,所以如果你只想了解我们的解决方案和结果,请跳到下一节。 Dispatcher Balancer 和 Mover 的核心是 Dispatcher。这两个工具都将 PendingMove 对象传递给 Dispatcher,Dispatcher 处理在远程 DataNodes 上执行 replaceBlock 调用。HBase 集群的典型块大小为 128MB,而区域通常为多个 GB。因此,一个区域可能有十几个到几百个块,一个 RegionServer 可能承载 50 到数百个区域,而一个集群可能有数百或数千个 RegionServer。Dispatcher 的工作是并行地执行许多这样的 replaceBlock 调用,当远程 DataNode 进行数据拷贝时,它会追踪进度。这个 Dispatcher 不会处理所选定的要移动的副本,因此我必须创建一个流程来检测低 Locality 区域,并将这些区域转化为 PendingMove 对象。 替换块 远程 DataNode 从 Dispatcher 接收 replaceBlock 调用,其中包括 blockId、源和目标。然后,数据通过代理 DataNode 从源头流向目标。 当目标 DataNode 完成接收块时,它会通过 RECEIVED_BLOCK 状态更新来通知 NameNode。该状态更新包括对用于托管该块的 DataNode 的引用。NameNode 会更新其内存中的块记录,并将旧的 DataNode 标记为 PendingDeletion。在这一点上,调用获取块的 Locality 将包括新的和旧的 DataNode。 当下一次旧的 DataNode 报告时,NameNode 会回应:“谢谢,现在请删除这个块。” 当 DataNode 完成删除块时,它再次向 NameNode 发出 DELETED_BLOCK 状态更新。当 NameNode 收到这个更新时,该块被从其内存记录中删除。在这一点上,对块 Locality 的调用将只包括新的 DataNode。 使用 DFSInputStream 读取数据 HBase 在打开每个 StoreFile 时都会创建一个持久的 DFSInputStream,用于服务该文件的所有 ReadType.PREAD 读取。当 STREAM 读入时,它会打开额外的 DFSInputStream,但 PREAD 对延迟最为敏感。当一个 DFSInputStream 被打开时,它获取文件前几个块的当前块位置。在读取数据的时候,利用这些块的位置来决定从何处获取块数据。 如果 DFSInputStream 试图从一个崩溃的 DataNode 提供数据,该 DataNode 将被添加到一个 deadNode 列表,并将其排除在将来的数据请求之外。然后 DFSInputStream 将从 deadNodes 列表以外的其他块位置之一重试。如果 DFSInputStream 试图从不再提供块服务的 DataNode 中获取块,也会出现类似的过程。在这种情况下,ReplicaNotFoundException 将被抛出,并且该 DataNode 也同样被添加到 deadNode 列表中。 一个单一的 StoreFile 可以从几 KB 到十几 GB 不等。由于块的大小为 128MB,这意味着一个单一的 StoreFile 可能有数百个块。如果一个 StoreFile 具有较低的 Locality (本地副本很少),这些块就会分散在集群的其余部分。随着 DataNode 被添加到 deadNode 列表中,你会越来越有可能遇到一个所有位置都在 deadNode 列表中的块。在这一点上,DFSInputStream 会回退(默认为 3 秒),并从 NameNode 重新获取所有块的位置。 除非有一个更系统的问题,否则所有这些错误处理将导致暂时性的延迟增加,但不会引起客户端的异常。不幸的是,延迟的影响是明显的(尤其是 3 秒的回退),所以这里还有改进的空间。 基于 Locality 作出报告和决策 在 RegionServer 上打开 StoreFile 时,RegionServer 会调用 NameNode 自身来获取该 StoreFile 中的所有块位置。这些位置被累积到每个 StoreFile 的 HDFSBlockDistribution 对象中。这些对象被用来计算 localityIndex,并通过 JMX、RegionServer 的 Web UI 和管理界面报告给客户。RegionServer 本身也将 localityIndex 用于某些与压实有关的决策,并且它将每个区域的 localityIndex 报告给 HMaster。 HMaster 是 HBase 进程,运行 HBase 自身的 Balancer。Balancer 试图根据许多成本函数来平衡整个 HBase 集群中的区域:读取请求、写入请求、存储文件数量、存储文件大小等等。它试图平衡的一个关键指标是 Locality。 Balancer 的工作方式是通过对集群成本的计算,假装将一个区域移动到一个随机的服务器,再对集群成本进行重新计算。若成本降低,则接受这个移动。否则,尝试不同的移动。为了通过 Locality 进行平衡,你不能简单地使用 RegionServers 报告的 localityIndex,因为你需要能够计算出,如果一个区域移动到一个不同的服务器 ,Locality 成本会是多少。所以 Balancer 也维护它自己的 HDFSBlockDistribution 对象的缓存。 LocalityHealer 在了解了现有组件之后,我就开始了一项新的守护程序的工作,我们亲切地称之为 LocalityHealer。通过深入研究 Mover 工具之后,我想出了一个设计来实现守护程序的工作方式。这项工作的关键在于两个部分: 发现哪些区域需要愈合。将这些区域转换为 Dispatcher 的 PendingMoves。 HBase 提供了一个 Admin#getClusterMetrics() 方法,可以对集群的状态进行轮询。返回值包括一堆数据,其中之一是集群中每个区域的 RegionMetrics。这个 RegionMetric 包括一个 getDataLocality() 方法,而这正是我们想要监控的。因此,这个守护进程的第一个组成部分是一个监控线程,它不断地轮询哪些 getDataLocality() 低于我们阈值的区域。 一旦我们知道哪些区域是我们需要愈合的,我们就有一个复杂的任务,就是把它变成一个 PendingMove。一个 PendingMove 需要一个块、一个源和一个目标。到目前为止,我们所拥有的是一个区域的列表。每个区域由 1 个或多个列族组成,每个列族有 1 个或多个 StoreFile。因此,下一步是在 HDFS 上递归搜索该区域的目录,寻找 StoreFile。对于每个 StoreFile,我们得到当前块的位置,为每个块选择一个副本作为源,并为每个块创建一个 PendingMove,目标是当前托管的 RegionServer。我们之所以选择移动源,是为了保证我们遵循了 BlockPlacementPolicy,并且最大限度地降低了在不同机架之间的网络流量。 一旦我们把所有生成的 PendingMoves 移交给 Dispatcher,就只需要等待它完成。当它完成后,我们再等待一个宽限期,让我们的 Locality 监视器注意到更新的 Locality 指标,然后重复这整个过程。这个守护进程一直持续这个循环,直到它关闭。如果 Locality 是 100%(现在经常是这样),那么在监视器线程发现下降之前,它会一直闲置。 确保读取受益于新改进的 Locality 因此,这个守护进程是运行的,并且保证所有 RegionServer 上的 DataNode 都会为这个 RegionServer 上的全部区域托管一个块副本。但 DFS InputStream 仅在开始时或者在特定的条件下才能获得块的位置,而在每一个 StoreFile 中都有一个持久的 DFS InputStream。实际上,如果你继续追踪,你也许会发现,如果块不断地移动,我们将会发现很多 ReplicaNotFoundException。这实际上是一种痛苦,最好能避免。 使用 V1 快速交付 当我在三月份最初构建这个系统时,就已经决定使用回调函数来刷新 HBase 中的读取数据。我对 HBase 最熟悉,这也是阻力最小的方法。我为 HMaster 和 RegionServer 推送了新的 RPC 端点到我们的内部分叉。当 LocalityHealer 处理完一个区域的所有 StoreFile 后,它就会调用这些新的 RPC。RegionServer 的 RPC 特别棘手,需要进行一些复杂的锁定。最后,它所做的是重新打开存储文件,然后在后台透明地关闭旧的存储文件。这个重新打开的过程将创建一个新的 DFSInputStream,其中有正确的块位置,并更新报告的 Locality 值。 自那以后,这个部署的系统取得了非常大的成功,但是我们目前正在进行一次重大的版本升级,需要让它在新版本中工作。结果发现这个问题要复杂得多,所以我决定尝试为这部分设计一种不同的方法。本博客的其余部分提到了新的 v2 方法,该方法自 10 月份以来已经全面部署。 迭代和适应 在调查我们的主要版本升级时,我发现 HDFS-15199 为 DFSInputStream 添加了一个特性,可以在打开时周期性地重新读取块位置。这似乎正是我想要的,但是在阅读实现时,我意识到,重新获取是直接建立在读取路径上的,并且无论是否需要,它都会发生。对于这个问题的最初目标,即每隔几小时刷新一次位置,这似乎很好,但我最多只需要每隔几分钟刷新一次。在 HDFS-16262 中,我采纳了这个想法,并使其成为异步的和有条件的。 现在,DFSInputStream 将只在有 deadNode 或任何非本地块的情况下重新获取块的位置。重新获取的过程发生在任何锁之外,而新的位置会被快速地与锁交换到位。这对读取的影响应该非常小,特别是相对于 DFSInputStream 中现有的锁的语义。通过使用异步方法,我觉得它可以在 30 秒的计时器上进行刷新,这样我们就能够很快地适应块移动。 负载测试 这种异步刷新块位置的新方法,意味着一堆 DFSInputStream 在不同的时间都会影响到 NameNode。如果 Locality 良好,请求的数量应该是零或接近零。一般来说,当你运行 LocalityHealer 的时候,你可以期望你的整体集群的 Locality 几乎一直在 98% 以上。所以在正常情况下,我是不会担心这个问题的。我所关心的一件事是,如果我们发生了一个完全的故障,并且 Locality 几乎为零,那会是什么样子。 我们倾向于分割大型集群,而不是让它们变得过于庞大,所以我们最大的集群有大约 350k 个 StoreFile。在最坏的情况下,所有这些文件每 30 秒就会向 NameNode 发出一次请求。这意味着大约 12000 次/秒。我有一种预感,这不会是一个大问题,因为这些数据完全在内存中。我们用 8 个 CPU 和足够的内存来运行我们的 NameNode,以覆盖块的容量。 HDFS 有一个内置的 NNThroughputBenchmark,可以准确地模拟出我所期望的工作负载。我首先在我们的 QA 环境中对一个 4 块 CPU 的 NameNode 进行了测试,使用了 500 个线程和 50 万个文件。这个单一的负载测试实例能够推动 22k req/s,但 NameNode 上仍有 30%-40%的 CPU 闲置时间。这比我们最坏的情况下的两倍还多,而且非常有希望。 我很好奇 prod 能做什么,所以我在一个 8 块 CPU 的 NameNode 上运行它。它很容易就能推送 24k req/s,但我注意到 CPU 几乎是闲置的。在我使用的测试主机上,我已经达到了该基准的最大吞吐量。我在另一台主机上针对同一个 NameNode 启动了另一个并发测试,看到总吞吐量跃升至超过 40k req/s。我继续扩大规模,最终在超过 60k req/s 时停止。即使在这个水平上,闲置的 CPU 仍然超过 30%~45%。我相信,对我们的 NameNode 来说,这样的负载不会有任何问题。 减轻痛苦 早期部署的 locality healer 在运行时确实产生了一些小麻烦。这都要追溯到我之前提到的 ReplicaNotFoundException,它有时会导致昂贵的回退。当我第一次做这个工作时,我提交了 HDFS-16155,它增加了指数回退,使我们能够将 3 秒减少到 50 毫秒。这对解决这个问题很有帮助,使它变得非常容易管理,而且为了长期改善 Locality 也是值得的。 作为我对 HDFS-16262 调查的一部分,我学到了更多的东西,说明了当一个块被替换后,这个过程是无效的。我在描述上面的组件时简要介绍了这一点,同时也让我意识到,我可以完全消除这种痛苦。如果我可以在 NameNode 发出的“请删除此块”的消息周围增加一个宽限期呢?这个想法的结果就是 HDFS-16261,在那里我实现了这样一个宽限期。 有了这个特性,我在我们的集群上配置了一个 1 分钟的宽限期。这让 DFSInputStream 中的 30 秒刷新时间有足够的时间来刷新块的位置,然后再把块从它们的旧位置上移走。这就消除了 ReplicaNotFoundException,以及任何相关的重试或昂贵的回退。 在指标和 Balancer 中反映更新的 Locality 这里的最后一块拼图是更新我提到的 localityIndex 指标,以及 Balancer 自己的缓存。这一部分由 HBASE-26304 覆盖。 对于 Balancer,我利用了 RegionServer 每隔几秒钟向 HMaster 报告它们的 localityIndex 这一事实。这被用来建立你在调用 getClusterMetrics 时查询的 ClusterMetrics 对象,并且它也被注入到 Balancer 中。这个问题的解决方法很简单:在注入新的 ClusterMetrics 时,将其与现有的进行比较。对于任何区域,其报告的 localityIndex 发生了变化,这是一个很好的信号,表明我们的 HDFSBlockDistribution 缓存已经过期。把它作为一个信号来刷新缓存。 接下来是确保 RegionServer 首先报告正确的 localityIndex。在这种情况下,我决定从支持 PREAD 读取的底层持久化 DFSInputStream 中导出 StoreFile 的 HDFSBlockDistribution。DFSInputStream 公开一个 getAllBlocks 方法,我们可以轻松地将其转换为 HDFSBlockDistribution。以前,StoreFile 的块分布是在 StoreFile 打开时计算的,而且从未改变。现在我们从底层的 DFSInputStream 派生出来,随着 DFSInputStream 本身对块移动的反应(如上所述),这个值会随着时间自动改变。 结果 案例研究:跨 7000 台服务器管理 Locality 首先,我要让数据来说明问题。我们在 3 月中旬开始向一些问题较多的集群推出 LocalityHealer,并在 5 月初完成向所有集群的推出。 该图表显示了从 2021 年 3 月 1 日到 2021 年 6 月 1 日,我们所有生产集群的第 25 百分点的 Locality 值。在 3 月之前,我们看到许多下降到 90% 以下,一些集群持续下降到几乎 0%。随着我们开始推出 LocalityHealer,这些下降变得不那么频繁和严重。一旦 LocalityHealer 被完全推出,它们就完全被消除了。 我们喜欢把 Locality 保持在 90% 以上,但注意到当 Locality 低于 80% 时,真正的问题就开始显现出来。另一种看问题的方法是,在一个区间内 ,Locality 低于 80% 的 RegionServer 的数量。 这张图显示了与上面相同的时间段,你可以看到我们曾经有数百个服务器在任何特定时刻都低于 80% 的 Locality。从 5 月初开始,这个数值一直为 0,并保持到今天。 这些图表最好的一点是它是自动的。遗憾的是,由于 Locality ,我们没有警报量的指标标准,但 HBase 团队的任何人都可以告诉你,他们曾经几乎每天都会因为某个集群的 Locality 而被呼唤。这一直是一个令人讨厌的警报,因为你唯一能做的就是启动需要数小时才能完成的高度压实。随着时间的推移,我们降低了 Locality 警报的敏感性,以避免警报疲劳,但这对集群的稳定性产生了负面影响。 有了 LocalityHealer,我们就不再考虑 Locality 问题了。我们可以使我们的警报非常敏感,但它们永远不会发出。 Locality 总是接近 100%,我们可以专注于其他的操作问题或价值工作。 案例研究:快速解决由于 Locality 不佳造成的超时 这里还有一个关于仅承载 15TB 的特定集群的示例。你可以看到在时间线的开始附近,棕色的线是一个新的服务器,它以 Locality 为 0 启动。在时间耗尽之前,压实花了大约 7 个小时才达到大约 75% 的 Locality。那天晚上晚些时候,增加了更多的服务器,但对它们开始压实为时已晚(由于其他任务,如备份,在凌晨运行)。 当我们在第二天达到流量高峰时,HBase 团队被一个产品团队呼唤,他们遇到了超时的问题,导致客户出现 500 毫秒的情况。此时,HBase 团队有两个选择: 启动压实,这将进一步增加延迟,并需要 8 个小时以上的时间来解决这个问题。 试试新部署的 LocalityHealer,它还没有作为一个守护进程运行。 他们选择了后者,这使得整个集群的 Locality 在 3 分钟内达到 100%。放大来看,你可以看到下面的影响。 在本例下,我通过绘制单个平均位置(左轴,蓝线)来总结第一个图表。我把集群的第 99 个百分点的延迟叠加在一起(右轴,黄线)。在整个上午,我们看到了越来越多的超时(500 毫秒,用灰色虚线表示)。我们知道,当我们达到流量高峰时,这将变得非常关键,所以在 11:30 运行了 LocalityHealer。 Locality 跃升至 100% 后,立即减少了延迟波动和超时的情况。 结论 LocalityHealer 改变了 HubSpot 在管理快速增长的集群的关键性能指标方面的游戏规则。我们目前正在努力将这项工作贡献给开源社区,在 HBASE-26250 这个总的问题下。 这就是我们的数据基础设施团队每天都在处理的工作。 作者介绍: Bryan Beaudreault,HubSpot 首席工程师。曾在 HubSpot 领导过多个团队,包括创建数据基础设施团队,并带领 HubSpot 在高度多租户的云环境下,在多个数据存储中实现了 99.99% 的正常运行时间。后来回到产品方面,致力于为 HubSpot 即将推出的一款产品实现对话自动化。 原文链接: https://product.hubspot.com/blog/healing-hbase-locality-at-scale
| 3,932 | 1,647,763,566,562 |
InfoQ
|
182 |
“神奇”的AWS无服务器开发体验
|
当开发者想要开发无服务器和云原生应用时,一个常见的问题是:这方面的开发体验到底怎么样呢?这个问题很很重要,因为良好的开发体验和快捷的反馈通道会让开发者更开心、更有生产力,从而能够快速交付特性。 由于我们在建立Plain时有意缩小规模,所以我们必须有出色的开发体验。我们需要确保公司聘请的少数几位工程师能够在保持高质量的同时快速交付产品特性,产生最大的影响力。 2021年我们有了时间去思考这个问题的解决方案,因为Plain是从头开始建立的。在我们选择常用的技术栈时,一方面要考虑到公司每天都会做变更,另一方面我们希望基础平台能够支持未来5-10年的业务成长与成就。这意味着平台应该能以较低的成本大规模运行我们的服务,而不需要专门划分出一个部门来管理自主研发的基础设施。 作出这些决策背后的理由肯定需要单独写文章来谈了,不过我们最终决定完全投入无服务器和云原生、全栈TypeScript,并使用AWS作为我们的云供应商,因为它足够成熟也非常流行。我们认为,使用AWS的专有服务是一种可以接受的供应商锁定权衡,因为相比更换云供应商的自由度来说,从这一决策中获得的价值是更高的。我确实看到过一些公司花了大量精力去尝试做跨云(cloud-agnostic,云不可知),但实际上并没有从中得到任何现实收益。无服务器开发的独特之处无服务器应用程序的开发和测试工作有一些独特的要素。与传统开发相比的一大区别在于,你最终会使用大量云服务,并会尽量把责任卸载给无服务器解决方案。 就AWS Lambda而言,这意味着你最后往往会使用API Gateway、DynamoDB、SQS、SNS、S3、EventBridge、ElastiCache等来构建你的应用。使用这么多服务需要开发、测试和部署大量配置、权限和基础设施。如果你只关心你的lambda代码的测试工作,那么就会略过很大一部分特性。如果你不验证你的基础设施,可能会遇到以下情况: 缺少一个SQS或Lambda函数的S3 trigger缺少一个将事件路由到正确目标的EventBridge规则使用一个新的AWS服务时缺少Lambda IAM角色更新API Gateway中的CORS或授权器配置不正确 你要回答的一个最重要的问题是:你想要什么时候发现这些错误? 在编写和运行你的测试时?在进行特性开发和开发人员手动尝试他们的特性时?在你通过一些E2E集成测试套件运行的持续集成中?在一个共享的部署环境中,如开发或暂存?或者在最坏的情况下:在生产环境中? 我们的选择是越早越好:在编写和运行测试时。这意味着,“你应该mock云的依赖项还是拥抱云“这个争论其实并不是一个问题。如果让我们的Lambda使用AWS mock或一些localhost仿真,在部署时还是很难做到无条件正常运行。Gareth McCumskey的“为什么无服务器的本地部署是一种反模式”这篇博文为“模拟还是上云“的争论给出了很好的答案,我强烈推荐大家阅读。 云端开发带来的最大影响是需要互联网接入来编写代码。虽然这对某些公司或人们来说可能是一个不可接受的权衡,但对我们这家远程优先的公司来说,我们本来就需要互联网接入来与同事沟通,因此很少会出现无法接入网络的情况。 本着我们希望进行云端开发,而们开始评估各种工具和技术,以找出适合我们的方法。🌈神奇的🌈堆栈那么,我们神奇的AWS无服务器开发体验是什么样子的呢?从高层来看,以下内容构成了开发体验的关键部分: 每位开发人员都有自己的个人AWS账户用AWS CDK来开发我们的基础设施,用无服务器栈(SST)来获得非常快速的反馈通道编写明显多于单元测试的集成测试全栈TypeScript 采用这些技术和实践产生了相当出色的开发体验。个人AWS账户完全转向无服务器后,每位开发人员就必须有自己的个人沙盒AWS账户。如前所述,构建大多数特性时,仅仅编写代码是不够的,还有大量的基础设施需要开发、修改和测试。拥有个人的AWS账户让每位开发人员都可以进行实验和开发工作,而不会影响其他工程师或像开发或暂存这样的共享环境。再结合我们强大的基础设施即代码,每个人都可以拥有一份生产环境的个人克隆版本。 你可能会想:这不是很贵吗?我们是不是要向AWS支付数百美元?不,无服务器解决方案不是这样的!真正的无服务器解决方案都是按使用量付费的,所以如果你的AWS账户没有任何活动(例如在工程师不工作的晚上和周末),那么你就不会支付一分钱。这方面有一些例外,如S3存储、DynamoDB存储、RDS存储、Route53托管区等费用,但它们一般没几个钱。 例如,Plain公司1月份为我们的7个开发者账户支付的账单总计150美元,而我们每个人都有自己的生产环境克隆,因此开发速度大幅提升,相比之下这点费用真不算什么。通常情况下,每位开发人员涉及的最大成本是我们的关系数据库:Amazon Aurora Serverless v1 PostgreSQL。在开发过程中,当它收到请求时会自动扩展,并在无活动30分钟后降至零。每个开发者账户的AWS用量总账单。我的AWS账户的使用量明细(注意:CloudWatch的高额费用是由于在1月份评估了可观察性工具和平台)AWS CDK和SST由于我们的所有特性都相当依赖云资源,因此将我们的基础设施定义为代码和版本控制是一个硬性要求。我们最初研究了Terraform、Pulumi、Serverless Framework、AWS SAM等工具,但它们要么要求我们学习新的编程或模板语言,要么开发者对整个特性生命周期的体验达不到我们的期望。 2021年3月,我们偶然发现了Serverless Stack(SST),当时它还是0.9.11版本。他们的实时lambda重载特性和建立在AWS CDK上的特点一下子就吸引了我们。SST和AWS CDK原生支持TypeScript,所以它很好地满足了我们对TypeScript全栈的渴望。 实时lambda开发允许我们编写Lambda代码,并使用实时的AWS服务运行我们的集成测试,反馈循环只需2-3秒。SST将你的lambda替换成一个垫片,通过Websockets将所有Lambda调用代理到你的本地开发者机器上,它可以调用其他AWS服务并返回响应。本地运行时使用AWS Lambda执行角色的权限,并对真正的服务调用AWS API,所以当变更部署到生产环境时我们会很有信心它能正常运行。总的来说,这意味着与mocking或仿真相比,我们能极快地发现基础设施问题。实时lambda开发架构概述。(来源:docs.serverless-stack.com) 这种设置的好处是我们可以轻松做到真正的全栈开发。我们可以将React前端应用指向个人AWS账户部署的API Gateway URL,并同时改变前端和后端,两个代码库都可以实时重载。鉴于一切部署都在使用与生产环境相同的AWS服务,我们的前端应用程序不需要调整就能完全正常工作。 虽然选择在一个(当时)相对未知的工具上建立我们的后端堆栈是有一点风险的,但我们知道我们有AWS CDK这个逃生舱口。如果我们遇到SST不支持或我们不喜欢的东西,还可以使用非常成熟的AWS CDK构造。这使我们在SST的奇妙开发体验与AWS CDK的成熟度、特性丰富度和第一方支持之间取得了最佳平衡。 Serverless Stack也有一些非常棒的特性,比如说: 在Lambda代码中加入断点,在本地IDE中调试。这得益于-increase-timeout标志,该标志将所有Lambda超时时间增加到15分钟。如果你对此感兴趣可以查看这里的文档或视频。检测基础设施变更并提示你部署它们,即尽可能地接近实时重载。部署仍然需要一些时间,因为在底层它是Cloudformation。一个基于Web的控制台(SST控制台),可以可视化你的堆栈、Lambda、S3桶,还有回放单个Lambda事件的能力。自动导出已删除的Cloudformation堆栈输出:我们以前曾多次遇到这种情况,有时我们注意到的时候已经太晚了,所以很麻烦。一个不断增长的构造库 每当我们遇到问题、有疑问或特性请求时,SST的Slack社区都能提供很大帮助。Frank、Jay、Dax和社区总是很乐意帮助我们。我强烈建议大家尝试一下SST,因为很难找到如此好用的东西了。测试一开始我们就有一个野心,就是对我们的测试套件能有充分的信心。如果我们的CI是绿色的,那么应该就可以安全地将该变更部署到生产环境中——这正是我们在合并到主分支时所做的事情。为了实现这一目标,我们决定将测试工作集中在一个强大的集成测试套件上,而不是对单个lambda函数或小代码块分别进行单元测试。这似乎是不好的实践,或者是违背了传统的测试金字塔原则。但当我们遇到像无服务器这样的阶梯式创新时,有必要对现有的实践提出质疑,看看这些实践是否仍那么有意义。 要明确的是:我们确实会在有意义的地方写单元测试。如果我们有一些业务逻辑或计算,那么就会写一个详尽的单元测试套件。一个例子是我们的核心客户状态机对所有可能的状态和状态转换都有单元测试。但是像SQL查询、AWS API调用或我们的GraphQL请求这样的单元测试是绝对不可能写的,因为它不会带来什么实际的保证。你最终要测试的是大量的实现细节,而维护高质量的mock或仿真需要投入很大资源,并不值得。 拿数字说话,我们目前的测试套件比例是30%单元测试和70%集成测试用例。我们的集成测试是以一种合理的方式设计和编写的,它们速度够快,主要测试行为而非实现。这意味着我们尽量避免断言内部实现细节,例如DynamoDB或RDS中存储的数据。相反,我们专注于验证外部(从Lambda的角度)可见的行为,如API响应或正在发布的事件。对于我们的事件,我们的原则是只测试一个已经发布的事件,而不是断言所有下游消费者。我们为每个消费者编写单独的集成测试。这也要求我们在代码中保持合理的领域边界,以确保每个领域都可以独立测试。集成测试的边界 这种编写测试的方式也有一个好处,就是能够针对共享环境运行。我们目前有一个完整的集成测试套件,在部署后合并到主环境时针对我们的开发环境运行,并按计划检测flaky测试。没有什么能阻止我们在生产环境中也运行这些完全一样的测试。理论上,我们可以删除100%的代码,用Delphi重写所有的Lambda,只要我们的集成测试套件通过就可以把它发布到生产环境。(注意:我们还没有尝试过这件事,也不打算在短时间内这样做)。 一个典型的GraphQL API查询或突变的集成测试大致上会做以下工作: 从认证的用户池中请求一个用户(我们遇到了一些配额和身份提供者的限制)创建一个新的工作区,以便有一个干净的状态设置测试的状态,如创建一个客户、发送一个聊天信息等进行GraphQL查询断言GraphQL响应在突变的情况下:断言任何应该被发布的事件describe('create issue mutation', () => {
it('should create an issue', async () => {
// Given: workspace + customer + issue type
const testWorkspace = await testData.newWorkspace();
const ctx = await testData.testAggregateContext({ testWorkspace });
const issueType = await issueAggregate.createIssueType(ctx, {
publicName: 'Run of the mill issues',
});
const customer = await customerAggregate.createCustomer(ctx, factories.newCustomer());
// When we make GraphQL Mutation
const res = await testWorkspace.owner.graphqlClient.request(CREATE_ISSUE_GQL_MUTATION, {
input: { issueTypeId: issueType.id, customerId: customer.id },
});
// Then:
// 1. Expect a successful response:
expect(res).toStrictEqual({
createIssue: {
issue: {
id: jestExpecters.isId('i'),
issueType: { id: issueType.id },
customer: { id: customer.id },
status: IssueStatus.Open,
issueKey: 'I-1',
},
error: null,
},
});
// 2. Expect an event to be published:
await testEvents.expectEvents(testWorkspace, [
jestExpecters.standardEventStructure({
actor: testWorkspace.owner,
payload: {
eventType: 'domain.issue.issue_created',
version: 1,
issue: res.createIssue.issue,
},
}),
]);
});
});一个典型的EventBridge事件监听器集成测试会: 设置任何所需的状态(这在很大程度上取决于具体的Lambda)。在总线上发布一个EventBridge事件等待并期待副作用的出现,这可能是:另一个EventBridge事件被发布数据存储中的状态被更新(如DynamoDB、RDS、S3) 如果你曾写过任何集成测试,一定会在脑子里大喊:运行这些东西一定很慢!它们肯定比单元测试慢,但也不是慢得让人无法忍受。由于我们使用的所有服务都是无服务器的,而且我们确保集成测试有0个共享状态,所以我们有能力并行运行所有的测试。我们还没有达到这样的优化程度,但举例来说,我们的CI并行度为40,在2分钟内就能在110个测试套件中运行656个测试用例,对我们应用的每个角落进行详尽的集成测试。来自我们CI的集成测试套件结果 集成测试的不稳定性是我们积极解决的另一个问题,为此我们在工作周内按计划运行测试。一旦遇到测试失败,我们就会跳出来,追踪问题的根源。这也需要我们重新思考,并把某些东西(如GraphQL订阅)的测试调整成一种稳健和可靠的方式。 我们才刚刚开始研究我们的集成测试设置,这个话题绝对值得另起一篇文章。也就是说,鉴于我们的API是产品的一个关键部分,对每一个GraphQL查询和突变的整合进行测试是至关重要的。我们认为,就算测试套件稍慢一些,但对特性或变更能正确运行有更高的信心就足够值得了。全栈TypeScript虽然使用全栈TypeScript并不是在AWS上拥有良好开发体验的严格必要条件,但它确实让我们的团队获得了更高的效率。无需学习新的语言就能在前端、后端和基础设施代码之间来回切换,这对团队的每位成员来说都是非常宝贵的体验。 在开发后端代码时你仍然需要学习AWS服务,但这在使用任何东西时都是很自然的需求。你同样需要了解CSS/HTML来开发前端Web应用。有了TypeScript中的SST和CDK,在你弄清楚自己想使用哪些AWS服务后,TypeScript类型和编辑器的自动完成特性会引导你定义正确的基础设施。 我们的大部分后端代码库都在一个单一的单体仓库中,并使用了一些库,如pnpm、zod、true-myth、swc,来让我们的代码更容易编写——未来的文章中会有更多介绍。实践那么,这在实践中是什么样子的呢?让我们来看看一个变更该怎么做:(视频见原文) 在这个例子中,我们通过我们的核心GraphQL API在Plain中创建了一个工作空间。这验证了E2E的API调用是有效的: 用户从我们的身份提供者那里获取了一个有效的JWTAWS API Gateway处理了GraphQL请求并验证了JWT的有效性。GraphQL Lambda在我们的Aurora Serverless PostgreSQL数据库中创建了一个新的工作区,并向EventBridge发布了一个事件这验证了Lambda具有正确的IAM权限,可以从PostgreSQL中读/写并发布到EventBridge一个成功的响应被返回到客户端总结有了这些技术和实践,我们就可以专注于发布特性了: 由于每个人都有自己的AWS账户,所以不会影响到其他工程师有了SST和实时lambda开发,我们可以使用实时的AWS服务实现快速的反馈循环,知道它在部署时可以正常工作利用CDK轻松开发无服务器基础设施因为有我们的集成测试,所以我们对正确性有很高的信心在前端、后端和基础设施之间切换时,不必学习不同的编程或模板语言 我们还能做的更好吗?改进的余地肯定还有,但我认为这已经是相当🌈神奇的🌈体验了!如果你有任何问题,或者知道如何让我们的堆栈变得更好,请在Twitter上@builtwithplain或我@akoskrivachy,与我们联系。 如果你对我们的🌈神奇🌈技术栈感兴趣,请在Plain的工作页面上查看我们目前的职位空缺。 原文链接:https://journal.plain.com/posts/2022-02-08-a-magical-aws-serverless-developer-experience/
| 7,167 | 1,647,590,460,301 |
InfoQ
|
183 |
IT 大危机,俄罗斯数据存储告急,剩余资源仅够使用两个月
|
近日,据俄媒 Kommersant(生意人报)消息,俄罗斯正迅速耗尽用于服务器和其他关键 IT 设备的国内数据存储,本地剩余可用云存储仅够维持两个月。国外云提供商撤出,本地资源将耗尽 俄乌战争引发了其他国家制裁的一系列制裁,谷歌、Meta、苹果以及许多科技公司正在逐步关闭俄罗斯的业务,俄罗斯无法购买新设备,另外谷歌、亚马逊等国外云存储提供商也切断了与俄罗斯的业务联系,所有俄罗斯公司都被迫转向其国内云存储服务提供商。 从数据来看,俄罗斯移动运营商 MegaFon 本地存储容量需求增长了 5 倍,MTS 增长了 10 倍,VK 为了应对也在短短一周时间内增加 20% 的存储资源。 咨询公司 iKS-Consulting 的顾问 Stanislav Mirin 表示,目前公共部门对计算设备(服务器和数据存储)的需求平均每年增长 20% 以上,他说到:“事实上,公共服务需要大量资源用于存储。公共服务的每一项新功能都需要额外的容量。“智能”或“安全城市”计划也是需求驱动因素。” 举例来说,俄罗斯正在开展的“智慧城市”项目,涉及广泛的视频监控和面部识别系统,对存储和数据处理有着巨大的资源需求。 这些都导致了一个无法克服的问题,俄罗斯本地没有足够的数据中心来满足当地运营商的需求,2 个月的时间,他们的所有存储容量就会耗尽。 据 Kommersant 知情人透露,“情况极其严重,没人预料到,国家部门的实际容量最多只够数据中心运行一个半月”。应对措施迫在眉睫 面对迫在眉睫的计算机资源短缺,俄罗斯政府正在探索各种解决方案来解决这个 IT 存储问题,3 月 9 日,俄罗斯数字化转型部召开了一场关于云存储短缺的回忆,会见了该国的最大的几家公司,其中包括 Yandex、Rostelecom、Atom-Data、MTS、Sberbank 等,各方讨论了数据存储不足的情况和解决方案。 其中之一就是租赁所有可用的国内数据存储以及收缴所有从俄撤出企业留下的 IT 资源,包括服务器和存储,目前这一方案仍在规划分析中。 此外,俄罗斯数字发展部修订了 Yarovaya 法,暂停要求电信运营商每年为反恐监控目的增加 15% 的存储容量分配。 最后,则是要求互联网服务供应商暂时放弃流媒体服务和其他在线娱乐平台如游戏等,以节省宝贵的 IT 资源。 即便如此,整体情况仍然不容乐观,无法购买外部资源注定不能长久坚持,尤其现在多数人的工作生活都严重依赖于云存储,同时限制流媒体和云游戏带来的影响也会越来越大。
| 8,647 | 1,647,586,300,652 |
InfoQ
|
184 |
Azure 发展迎来好消息,或将赶超 AWS
|
近日,一份 Flexera 的 2022 云状况调查报告显示,微软的 Azure 在企业中的占有率已经超过了 AWS。 Flexera 是一家专注于技术价值优化的公司,本次报告主要采访了 753 位在云计算领域的决策者。尽管 753 名受访者的数据并不足以判断全球云计算大局,但窥一斑而见全豹,也能从中找出有价值的趋势。Azure 发展迎来好消息 这一数据是 Flexera 本次调查的重点内容之一,与往年一样,AWS、Azure 和 Google Cloud Platform 仍是全球前三大公有云提供商。不过今年调查的数据表明,Azure 似乎正在缩小与 AWS 的差距或者已经略微在某些方面超过了 AWS。根据该报告,Azure 在企业中的使用率超过了 AWS,80% 的企业使用它,而 77% 的企业使用 AWS。同样,71% 的企业至少运行 51 台 Azure 虚拟机 (VM),而 AWS 为 69%。 对比采用率也有助于衡量市场中每个平台的相对实力,其中微软显示出 2021 年的最大增幅。Azure 在 2022 年在所有组织中的采用率为 77%,高于 2021 年的 73%。相比之下,AWS 的采用率下降了一个点,从 77% 下降到 76%。谷歌云增长了 1 个百分点,从 47% 增加到 48%。甲骨文从 29% 下降到 28%。IBM 保持稳定在 24%,阿里云保持在 12%。 同时,微软在对抗 VMware 方面也取得了进展,Azure Stack 用于 37% 的私有云,而 VMware 为 31%。 同样,微软在与 VMware 的竞争方面也取得不错进展,Azure Stack 在私有云的采用率上达到了 37%,超过了 VMware 的 31%。 尽管数据有轻微下滑,但中小型企业仍然倾向于使用 AWS,作为第一家大型云提供商,AWS 更频繁地被那些长期使用云并且是重度云用户的组织使用。在所有受访者中,81% 的重度云使用组织使用 AWS,使用 Azure 比例为 80%。在云使用量适中的组织中,Azure 略微领先,并且在轻用户组织中的采用率更高。 微软的增长势头给竞争对手提供了不小的压力。虽然 Azure 在某些领域正逐渐缩小与 AWS 的差距,但 AWS 仍是全球最大的云供应商,Synergy Research 数据显示,亚马逊、微软、谷歌三家共占全球云支出的一半以上,2021 年第三季度市场份额分别为 33%、20% 和 10%。 除了 Azure 的良好增长势头之外,云报告中还提到了以下几个重要趋势。多云成未来常态,FinOps 的需求不断上涨 调查显示,现在很少有企业锁定在一个云供应商上,多云的情况持续增长已成常态。调查结果显示 89% 的企业拥有多云战略,80% 的企业拥有混合云战略。 多云的趋势也造成了成本的管理比较困难,加上云成本一直在持续增长,在最新的调查报告中,多达 53% 的企业每年在云上的支出超过 120 万美元,远超去年的 38%。 根据报告,各种规模的组织的云支出都在增加,同时由于管理问题,浪费量依然很高,控制云成本就变得越来越重要,许多团队都在寻求通过 FinOps 来降低云成本。FinOps 译为云财务管理,又称云成本优化,是云计算成本管理的关键。FinOps 团队可以帮助企业管理者更好地了解云计算资源利用率,跟踪支出和利用率,与云供应商协商更优惠的价格或折扣,进而消除云支出的灰色地带。FinOps 基金会也曾提到,要鼓励云计算使用者(开发人员)参与到云成本管理。 报告地址: https://info.flexera.com/CM-REPORT-State-of-the-Cloud
| 6,332 | 1,646,990,180,936 |
InfoQ
|
185 |
随着Kubernetes的成熟,边缘容器化需求应运而生
|
摘要供应商正在其Kubernetes平台上进行着大量的工作,以满足企业日益增长的需求,越来越多的企业将它们的Kubernetes成果投入生产应用。此外,企业的另一个关键需求是将这些Kubernetes平台的简化版本带到快速扩张的边缘环境,使企业无论是在数据中心、分支机构和其他远程场所还是在边缘都有一致的IT体验。正文本文最初发布于The Next Platform博客。在短短几年的时间里,Kubernetes已经击败了包括Docker Swarm和Mesosphere等在内的竞争者,成为管理软件容器事实上的编排平台。自从8年前从谷歌拆分出来后,Kubernetes的发展速度非常快,新版本的推出频率高达每年四次。Kubernetes还催生了一系列的平台,如红帽有OpenShift(这是IBM在2019年以340亿美元收购红帽的主要原因)、VMware有Tanzu、SUSE有Rancher。现在,亚马逊云科技、微软Azure和谷歌云等顶级公有云公司都将其作为一项服务提供。也就是说,在云原生计算基金会(CNCF)的支持下,Kubernetes变得日益成熟和稳定。首先,发布速度开始放缓,从一年四次发布变为大约三次。据红帽公司OpenShift产品战略高级总监Brian Gracely说,现在,Kubernetes项目内部有人在谈论可能推出长期支持版本。“Kubernetes项目核心有一定的稳定性,”Gracely告诉The Next Platform,“纯从Kubernetes的角度来看,如果你看看社区,看看社区所处的位置——社区的发展速度——有很多人可能会告诉你,在大多数情况下,真正的Kubernetes——API、调度系统、允许嵌入存储和网络等资源的框架——是相当完整的,虽然我从来不想说它已百分之百完成。”然而,供应商正在其Kubernetes平台上进行着大量的工作,以满足企业日益增长的需求,越来越多的企业将它们的Kubernetes成果投入生产应用。正如我们去年写的那样,Pure Storage看到,Kubernetes在管理数据和基础设施方面开始变得日益重要。此外,企业的另一个关键需求是将这些Kubernetes平台的简化版本带到快速扩张的边缘环境,使企业无论是在数据中心、分支机构和其他远程场所还是在边缘都有一致的IT体验。这就得说下K3s了。这是一个轻量级的Kubernetes发行版,它更容易安装,面向边缘,并针对低功耗的Arm芯片架构进行了优化。红帽还推出了MicroShift,这是OpenShift的一个版本,旨在与针对边缘端做过优化的Linux版本搭配使用,包括Red Hat Enterprise Linux (RHEL) for Edge和Fedora IoT。“我们已经看到人们采用Kubernetes,从根本上讲,它是为数据中心和云计算设计的,然后,我们也已经看到了一个小型化的趋势,”Gracely说,“技术是一样的,但我们可以把什么东西小型化?我们可以减少什么,是控制平面还是什么?我们发现,人们已经意识到,Kubernetes中这个非常结构化的控制平面有点大。……然后我们看到,像Cluster API(一个围绕声明式API和多Kubernetes集群管理工具的项目)这样的东西,我们看到了各种说法,‘我想有一个更轻量化的控制平面’,这些最终会成为实现细节。”他指出,这是“Kubernetes使用方式的一种变化。公司不一定想要一个多租户的大集群了。也许他们想要更轻量化的东西,可能是一个或一组应用程序。我们也看到,为了匹配这种需求和工作负载,出现了不少这样的Kubernetes变种。”使已相当成熟的Kubernetes适应更特殊的工作负载和需求,这一趋势的出现部分是因为Kubernetes开发者推进项目的方式。Kubernetes开发者没有将无数的元素加入项目——如服务网格或操作系统——而是让这些元素成为Kubernetes核心开发工作之外的辅助性工作。它们与Kubernetes紧密联系,但不是Kubernetes的组成部分。“那些东西呈爆炸式增长,”Gracely说,“我们看到,Service Mesh、Istio这些东西真的成熟了。我们看到,像KubeVirt这样的项目为它带来了虚拟化。现在看,可能有十几家供应商支持这个项目。我们看到Knative(用于无服务器、云原生应用程序)成熟了。我们看到了一整个的安全生态系统,如OPA和其他东西的出现。Kubernetes有点是......你在云上所做工作的新核心,然后其他的东西都将以它为基础。”Kubernetes已经变得相当稳定,每个人都在本地或云中消费相同的API,相关工作的成果成为用户空间及立于其上的应用程序。让人感到一些安慰的是,可以保证用户在Kubernetes上的工作不会以不可预测的方式偏离轨道。它将继续以一种稳定的方式适应新变化。他用OpenStack项目作了对比。这个开源、免费的云计算平台是Rackspace和Anso实验室的联合项目,于2010年推出,可以在公有和私有云中运行。其中,Anso实验室是美国国家航空航天局的承包商,同时也是基于Python的Nova云计算结构控制器的创建者。它一开始是一个基础设施即服务(IaaS)平台,但最终开始增加其他组件,如平台即服务(PaaS)和人工智能(AI)及机器学习能力,所有这些都将成为OpenStack的组成部分。“他们最后做的那些事情——可能给他们带来一些挑战——人们不想要所有这些东西,每一种用例,”Gracely说,“他们并不需要所有这些东西。但是,这个项目却说,‘我们必须拥有所有这些东西。’Kubernetes所做的事情之一——我想他们可能从Linux和OpenStack那里吸取了教训——是打下一个非常好的基础,为该项目构建某种内核,而且承认无法在2015年或2014年就知道所有的项目在2022年是什么样子,并接受这一点。有时候,这是一件困难的事。有些人可能会主张向项目添加更多内容”。正是这种想法导致红帽在2017年前后采用了模块化方法,继续开发OpenShift。当时,看到围绕Kubernetes开展的相关工作——从服务网格到无服务器——工程师们意识到,要在OpenShift上提供这些功能,就意味着必须转向模块化架构。这也为红帽提供了更大的灵活性,可以根据企业需求在OpenShift上添加和删除组件。最近,该公司在其OpenShift Platform Plus产品中增加了OpenShift Data Foundation——本质上是容器的软件定义存储——这是一个综合性的多云Kubernetes栈,不仅包括容器平台,还包括Kubernetes集群安全和集群管理以及红帽的Quay(一个可扩展的容器注册中心)。加入存储技术,使OpenShift Platform Plus成为一个更完整的产品。“但同时,这种模块化也让我们现在可以说,当我们想在边缘做单节点OpenShift时,我们可以将其拆分,”Gracely说,“我们可以去掉很多在边缘不需要的东西。我们认为,我们的架构足够灵活,如果我们想添加一些新组件,用已知的方法来插入就很好,它不会毁掉系统。它不是单体的,它给我们的客户提供了足够的灵活性,允许他们选择自己需要的东西。”查看英文原文:AS KUBERNETES MATURES, THE EDGE NEEDS CONTAINMENT
| 4,510 | 1,646,566,597,982 |
InfoQ
|
186 |
那些扎根于乌克兰的知名软件企业
|
技术无国界。 自2月24日开始,乌克兰政府和银行网站不断遭遇网络攻击,急剧变化的局势也让大家进一步地关注到了乌克兰的科技生态圈。 据统计,乌克兰拥有数量庞大的熟练软件开发人员,总共有超过25万名在职开发人员。快速增长的 IT 行业是乌克兰最具吸引力的行业之一,据其政府网站介绍,他们已经拥有了超过4000 家科技公司,其目标是成为欧洲的技术中心。目前,乌克兰不仅拥有数百家初创公司与大型科技企业,同时也分布着全球多家科技巨头的当地研发中心。 那些扎根于乌克兰的知名软件企业 有许多著名的科技公司起源于乌克兰,要么创始人的出生地是乌克兰,要么产品和服务是在乌克兰创造的。我们来看看一些扎根于乌克兰的顶级公司和初创公司。 WhatsApp,这个应用程序的创始人和前首席执行官是Jan Koum,是一位乌克兰裔软件工程师,于1976年出生在基辅,在法斯蒂夫长大。2009 年 1 月,Jan Koum创立了WhatsApp,之后WhatsApp使用者稳定增长,于2013 年达到 2 亿活跃用户。2014 年,Facebook以高达 190 亿美元的价格收购了WhatsApp。 PayPal,全球最重要的跨境支付公司,前联合创始人兼首席技术官Max Levchin来自乌克兰。Levchin出生在乌克兰,16 岁移居美国, 于 2002 年 12 月离开 PayPal——在该平台被 eBay 收购几个月后。之后,Lavchin 还创立了美国即买即付 (BNPL) 平台 Affirm,又与其他人联合创立社交应用软件Slide.com等。 Grammarly,基于AI的语法与写作引擎,是世界上最受欢迎的语法和拼写检查工具之一,由 Max Lytvyn、Alex Shevchenko 和 Dmytro Lider 三位乌克兰人创立。该公司最大的开发办公室仍在乌克兰基辅。 Readdle,一家专门开发PDF、电子邮件及其他生产工具的厂商,总部位于乌克兰南部城市敖德萨。 MacPaw,专门开发Mac软件与工具程序的乌克兰软件厂商,创建了很多受欢迎的苹果软件,包括2008 年推出的CleanMyMac。因为拥有成熟的用户群,CleanMyMac于2018年转为SaaS订阅模式,一年之内使MacPaw 的收入增长了 200%。 还有两家外包企业: EPAM ,乌克兰最大的科技企业,拥有 10,000 多名员工,其中大多数是软件工程师。该公司与谷歌、Expedia、微软、甲骨文、瑞银、SAP 或汤普森路透等都有合作。 Luxoft,一家在乌克兰拥有 2,000 多名技术员工的公司,客户包括波音、戴尔、IBM、德意志银行等。 不过对于我们程序员来说,还有一家不得不提的企业,即代码托管平台 GitLab。 GitLab,截至 2021 年 8 月,活跃许可用户已超过 100 万,注册用户已超过 30 万。2011年,GitLab 的联合创始人 Dmitriy Zaporozhets 在乌克兰的家中创建了 GitLab。随后Dmitriy Zaporozhets 与 Valeriy Sizov等人一起在2014 年注册了 GitLab 公司,合并了 GitLab。同年,GitLab 申请了硅谷的技术加速器 Y Combinator。 截至 2015 年,GitLab 的客户已包括阿里巴巴集团,IBM 和 SpaceX 等知名企业。发展到现在,全球有 10 万多家企业或机构正采用 GitLab 进行高质量的软件开发与交付,如 Ticketmaster、捷豹路虎、纳斯达克、DishNetwork 和 Comcast 等。2021年 10 月 14 日,GitLab 正式登陆纳斯达克股票交易所,上市当天市值达到了 148.58 亿美元。 GitLab 从创立开始便一直都是远程办公。目前,GitLab 在超过 65 个国家/地区拥有约 1,400 名团队成员,这些成员全部 100%实行远程办公,GitLab 根据员工所在地的薪酬水平支付工资。 GitLab没有设置总部办公室,当前这种情况下,显然远程工作更有助于业务的稳定运行。实际上,在新冠疫情之前, GitLab 远程办公的方式还不被大多数人所理解,但在疫情期间他们远程工作手册帮助了很多企业进行远程办公上的管理。Sid 也因宣传远程工作而被《福布斯》(Forbes)评为最伟大的智者之一。 科技企业如何应对当前局势 作为乌克兰最知名、拥有良好运营态势的初创公司之一,Readdle公司董事总经理兼主要发言人Denys Zhadanov对媒体表示目前需要处理的紧急事务太多,“我们不久前已经制定了业务连续性计划,目前正在具体执行当中,Readdle的所有产品和服务都保持着正常启动与运行。” Zhadanov指出,Readdle已经成长为一家国际企业,员工遍布全球11个国家。但他强调,团队中的“很大一部分”成员仍驻扎在乌克兰国内。 他补充道,“乌克兰拥有最优秀的工程师、设计师及其他技术专业人士。我发现不少科技企业的CEO已经开始有意选择乌克兰作为创业舞台,其中很多人正在尽自己的力量捐赠和帮助这个国家和这里的人民。” Grammarly 发言人 Senka Hadzimuratovic 表示该公司制定了应急计划,如果危机加深也能保持其服务正常运行,包括“例如确保备用通信方法和将关键业务职责临时转移给乌克兰以外的团队成员,以确保我们驻乌克兰的团队成员能够专注于自己和家人的即时安全。” MacPaw在一篇博文中提到,虽然他们的总部位于乌克兰首都基辅,但基础设施实际托管在乌克兰境外的亚马逊云科技之上。他们的支付处理平台Paddle位于英国,所以预计战事不会对用户造成“任何影响”。 在乌克兰,本土初创公司还有家庭无线安全厂商Ajaz、换脸应用开发商Reface、宠物摄像系统厂商Petcube、销售与营销智能初创公司People AI以及语言教学市场平台Preply等,这些企业先后从全球最大的风险投资商手中筹集到资金,现在的大问题就是他们的生存与发展是否会受到影响。 除了初创公司之外,不少大型科技企业也在这里设有开发业务,同时部署了从内容创作到广告营销的众多本地化服务团队。以面向消费者的Google YouTube和字节跳动旗下的TikTok为例,他们除了业务层面上的事情,还需要考虑整体服务的可持续性,即业务是否可能中断而被迫关停。从一些表面信息来看,Google在乌克兰拥有约200名员工,工作内容涵盖全球服务的研发和本地化运营等多个领域。目前,Google地图关闭了在乌克兰的实时交通数据,因为普通人可能会根据在线数据拼凑出当地的情形。 TikTok及其母公司字节跳动一般不会透露在各国家/地区拥有多少员工,所以无法判断他们的乌克兰业务受到何种影响。但TikTok应用在乌克兰倒是大受欢迎,有估计称这款应用去年在乌克兰的覆盖率已经达到30%,较上一年翻了一番。TIkTok公司一位发言人在声明中提到,“我们一直把保障社区与员工安全视为首要任务。我们将对威胁平台安全的内容或行为采取行动,包括删除涉及有害、错误信息的内容,并将持续监控并随事态发展投入更多资源。” 微软也发布了一篇博客,表示其员工遍布世界各地,包括乌克兰、俄罗斯和东欧,“与其他跨国公司一样,微软致力于保护其员工。”另一方面,微软的一项主要工作是帮助保护政府和国家免受网络攻击,在过去的一周,微软及时发现了针对乌克兰基础设施的新的恶意软件(微软将其命名为 FoxBlade)并提供防御建议。 Lyft也为身在乌克兰的员工们提供有预防措施。Lyft公司发言人Ashley Adams在采访中提到,“我们的首要任务就是保障乌克兰团队成员的安全与福祉。我们正在紧急准备并计划临时搬迁,同时增加休假时间并投入资金设立额外的心理健康服务。我们一直密切关注当地情况,并在必要时持续评估公司的响应议案。”根据路透社的报道,Lyft公司在乌克兰估计拥有约60名员工;在另一篇去年12月发布的博文中,Lyft表示他们计划进一步扩大4月份刚刚开办的基辅办事处的规模。但Lyft在乌克兰仅设有工程技术办公室,并未实际经营拼车服务。 Facebook公司安全政策负责人Nathaniel Gleicher表示,Facebook建立了一处由以乌克兰语为母语的员工为主体的特别行动中心,负责“密切关注局势并尽快采取行动”。Facebook平台还在乌克兰部署了另一项功能,允许用户暂时冻结自己的账户,保证除亲朋好友之外的他人不得下载或分享他们的个人资料图片、也无法查看他们之前发布的帖子。Twitter则警告乌克兰用户注意保护自己的在线账户,例如使用多因素身份验证并在推文中禁用位置共享功能。 互联网基础设施巨头Cloudflare公司CEO Matthew Prince也表示,该公司已经“从乌克兰服务器上删除了所有Cloudflare客户的加密材料”,以避免数据中心被入侵后客户数据与通信内容遭到破坏。Cloudflare的基辅数据中心开设于2016年,根据该公司的服务状态页面,此处数据中心目前仍在正常运行。Cloudflare公司主要负责为各乌克兰组织机构提供内容交付与网络安全服务。免责声明:本文不带有任何立场。 参考链接:https://about.gitlab.com/company/history/https://macpaw.com/news/macpaw-amidst-aggressionhttps://blog.cloudflare.com/kyiv/https://lemon.io/2020/01/15/top-7-reasons-for-you-to-hire-ukrainian-developers/https://ukraine.ua/invest-trade/it-ukraine/https://newsletter.pragmaticengineer.com/p/war-in-ukraine?utm_source=urlhttps://www.fastcompany.com/90725211/ukraine-tech-companieshttps://techcrunch.com/2022/02/24/russia-ukraine/
| 8,403 | 1,646,108,981,457 |
InfoQ
|
187 |
无服务器系统的设计模式
|
在软件架构和应用设计领域,设计模式是基本的构建块之一。设计模式的概念是由Christopher Alexander在上世纪70年代末提出来的(The Timeless Way of Building, 1979以及A Pattern Language—Towns, Buildings, Construction, 1977):每个模式都描述了一个在我们的环境中不断出现的问题,然后描述了该问题的解决方案的核心。通过这种方式,我们可以无数次地使用那些已有的解决方案,而无需重复相同的工作。—— Alexander et al随后,这个概念被软件社区所采用,从而产生了应用于软件设计领域的不同种类的设计模式。面向对象的设计模式是一个抽象工具,用来设计遵循OOP方式的代码级别的构建块。Erich Gamma、Richard Helm、Ralph Johnson和John Vlissides(Gangs of Four - GoF)合作撰写的图书Design Patterns Elements of Reusable Object-Oriented Software(中译本名为《设计模式:可复用面向对象软件的基础》由机械工业出版社出版——译者注)为开发人员提供了面向对象设计领域的一个指导手册。这本书于1994年首次出版,从那时起,设计模式就成为了软件设计的一个组成部分。设计模式也适用于组织。一个大型的组织确实就像一台庞大的机器,它有很多的齿轮、管道、过滤器、马达等等。在数字时代,我们正在试图将人脑数字化,因此将企业机器进行数字化并不是什么了不起的事情。将企业的某一组成部分或者某一区域实现数字化是不够的。实际上,要操控一个企业,就必须要集成其所有不同的组成部分。企业和解决方案架构师在尝试使用模式来解决日常的集成场景。这个过程是真正敏捷的。每天,来自世界各个角落的思想家们都在解决问题,并发明新的企业集成模式。在这里,我想要提及该领域的两位大师,Martin Fowler和Gregor Hohpe。高层管理人员在不断追逐新的技术趋势,每天都有新的数字产品变种问世。商业人士都想方设法在这个数字海洋中获取最大的利益,所以有必要对遗留系统进行现代化改造,也就是所谓的数字化转型。在这个领域中,像Ian Cartwright、Rob Horn、James Lewis这样的研究人员也基于他们多年的迁移经验,在最近的Patterns of Legacy Displacement文章中提出了一些模式。在这个快速变更的时代,敏捷性是成功的关键。弹性、持续交付、更快的上市时间、高效开发等等,这些都是推动系统向微服务架构转移的力量。但与此同时,并不是所有的场景都适合微服务。为了帮助我们理解这个边界在哪里,微服务模式的作者Chris Richardson为不同的使用场景提出了大量的微服务模式。除了我上面提到的这些之外,还有更多的模式类别。事实上,关于企业系统架构和软件的模式有大量的文献。这意味着,架构师们需要明智地选择该如何满足他们的要求。进入无服务器的领域到目前为止,我们已经讨论了针对不同需求和架构的不同类型的模式,但是我们忽略了一个重要的场景,也就是无服务器的系统。在当前的技术范围内,无服务器是最重要和最有活力的方式之一,尤其是在IaaS和云计算领域。无服务器平台可以分为两大类,分别是函数即服务(Function as a Service,FaaS)和后端即服务(Backend as a Service,BaaS)。FaaS模式允许客户建立、部署、运行和管理他们的应用,而无需管理底层的基础设施。与之不同的是,BaaS提供在线服务,通过云的方式处理特定的任务,比如认证、存储管理、通知、消息等等。所有面向无服务器计算的服务都属于FaaS这一类别(比如AWS Lambda、Google Cloud Function、Google Run、Apache OpenWhisk),而其他的无服务器服务则可以归为BaaS,比如无服务器存储(AWS DynamoDB、AWS S3、Google Cloud Storage)、无服务器工作流(AWS Step Function)、无服务器消息(AWS SNS、AWS SQS、Google PubSub)等等。无服务器这个术语非常具有吸引力,但是它可能会有一定的误导性。真的有服务能够无需服务器就能存在吗?在云供应商提供的所有无服务器组件的背后,隐藏着一个很简单的魔法:在这些组件幕后,都有一个服务器。云提供商负责管理物理机和/或虚拟服务器的可扩展性(自动扩展)、可调用性、并发、网络等,同时还会为终端用户提供一个接口来配置它们,包括像自定义运行时、环境变量、版本、安全库、并发、读/写容量等。如果我们专注于使用无服务器方式实现一个架构的话,那么随之而来的是一些基本的、高层次的问题。使用无服务器构建块设计一个系统时,首选的架构风格是什么?我们的应用要采取纯粹的无服务器方式,还是采用混合方式?我们该在哪些用例中采用无服务器方式呢?在实现无服务器应用的时候,有哪些可重用的架构构建块或模式呢?在本文剩余的内容中,我将会阐述上述四个问题的答案。无服务器模式在技术领域,无服务器模式相对比较新,而且正处于快速发展之中。它所涉及的不同方面,包括运行机制、适用性、使用场景、使用模式、实现模式等,每一步都在不断发生着变化。不仅如此,随着云供应商不断发明新的无服务器产品,同样的微服务模式可以通过各种方式来实现,它们的价格和性能也各不相同。在世界范围内,软件工程师都在从不同的视角出发,使用不同的方式在思考。因此,到目前为止,尚未形成构建无服务器系统的通用方式。在API Days澳大利亚会议上,来自亚马逊云科技的解决方案架构师Cassandra Bonner做了一个关于Lambda无服务器服务的五个主要使用模式的演讲。她从需求的角度定义了这五个模式:事件驱动的数据处理。Web应用。移动和物联网应用。应用生态系统。事件工作流。Peter Sbarski在他的Serverless Architectures on AWS一书中给出了在无服务器架构下解决通用设计问题的五个模式。它们是:命令(Command)消息(Messaging)优先级队列(Priority queue)扇出(Fan-out)管道和过滤器(Pipes and filters)这些模式并不是无服务器架构所特有的。实际上,它们是分布式系统模式的一个子集,比如由Gregor Hohpe和Bobby Woolf总结整理的65个消息模式,它们代表了这种模式最广泛的集合。我撰写本文的目的是在AWS云环境中按照无服务器的方式实现管道(Pipe)和过滤器(Filter)模式。我将会讨论一些可供选择的实现方式以及它们各自的优势和劣势。在实现过程中,可重用性是我要考虑的一个具体的方面。无服务器架构的管道和过滤器模式在敏捷编程中,以及对微服务友好的环境中,设计和编码的方式已经与单体时代不同了。敏捷和微服务开发者不再把所有的逻辑放到一个功能单元中,而是倾向于更加细粒度的服务和任务,遵循单一职责原则(single responsibility principle,SRP)。有了这一点,开发人员就可以将复杂的功能分解成一系列可独立管理的任务。每个任务会从客户端获取一些输入,然后消费这些输入以执行其特定的职责,并生成一些输出,这些输出会转移到下一个任务中。根据这一原则,多个任务构成了一个任务链。每个任务都将输入数据转换成所需的输出,而这些输出又会作为下一个任务的输入。这些转换器(transformer)传统上被称为过滤器,而将数据从一个过滤器传递到另一个过滤器的连接器(connector)被称为管道。管道和过滤器一个非常常见的用法是这样的:当客户端的请求到达服务器的时候,请求载荷必须要经历一个过滤和认证的过程。当请求被处理的时候,可能会有新的流量进来,在执行业务逻辑之前,系统必须要执行一些通用的任务,比如解密、认证、校验并从请求载荷中移除重复的消息或事件。另外一个场景就是在电子商务应用中将商品添加到购物车的过程。在这种情况下,任务链可能会包含如下的任务:检查商品的可用性、计算价格、添加折扣、更新购物车总数等。对于其中的每个步骤,我们都可以编写一个过滤器,然后使用管道将它们全部连接起来。实现这种模式最简单的方式就是使用lambda函数。我们知道,有两种调用AWS服务的方式,也就是同步方式或异步方式。在同步场景中,lambda运行函数并等待,直到发起调用的lambda接收到被调用lambda的响应为止,而在异步的情况中,不需要等待。AWS支持回调方法和future对象来异步接收响应。在这里,管道的角色就由内部网络来扮演。在这种直接的lambda到lambda的调用中,不管是同步还是异步,都有可能出现节流的情况。当请求的流入速度超过了函数的扩展能力,并且函数已经到了最大的并发水平(默认是1000),或者lambda的实例数量达到了配置的预留并发限制,所有额外的请求都会因为节流错误(状态码为429)而失败。为了处理这种情况,我们需要在两个lambda之间添加一些中间存储,这样能够临时存储无法立即处理的请求并实现针对被节流消息的重试机制,一旦有lambda实例可用,它就会获取这些消息并开始对其进行处理。我们可以通过使用AWS的简单队列服务(Simple Queue Service,SQS)来实现这一点,如下图所示。每个lambda过滤器处理一个事件并将其推送到队列中。在这种设计中,Lambda可以从SQS轮询多个事件,并作为一个批次进行处理,这也可以提高性能和降低成本。这种方式可以减少节流的风险,但是并不能完全避免。这里有一些可配置的参数,我们可以使用它们来平衡节流。除此之外,我们还可以为lambda实现一个死信队列(Dead Letter Queue,DLQ)来处理被节流的事件/消息,并能够防止这些消息丢失。有一篇很好的文章题为“在数据项目中组合使用SQS和Lambda的经验教训”,读者可以通过它来了解解决该问题的关键参数。在下一节中,我将会构建一个通用的、可重用的解决方案,该方案会用到另外一个适用于无服务器事件处理的AWS组件,即Amazon EventBridge,我会实现管道和过滤器设计模式。在无服务器架构中实现管道和过滤器模式Amazon EventBridge是一个无服务器事件总线,它可以利用从你的应用程序、集成的软件即服务(SaaS)应用程序和AWS服务中产生的事件,从而能够更容易地构建大规模的事件驱动应用。在了解它如何运行之前,我们需要理解一些与AWS EventBridge相关的术语。事件总线是EventBridge的关键组件之一。事件总线接收来自不同源的事件/消息,并将它们与一组定义的规则相匹配。EventBridge有一个默认的事件总线,但用户也可以创建自己的事件总线。在这个POC中,我创建了一个名为“pipe”的事件总线。规则(Rule)必须要与特定事件总线关联。在这个POC中,我为三个不同的过滤器创建了三个规则,如下图所示。对于每个规则来讲,事件模式和目标是两个非常基本的配置。事件模式是一个条件。它与自己所匹配的事件具有相同的结构。如果传入的事件具有相匹配的模式,那么规则就会被激活,并将传入的事件传递给目标(目的地)。目标是一个资源或端点,EventBridge能够将事件发送给它。对于特定的模式,我们可以设置多个目标。在我们的例子中,我将lambda名设置为模式中的detail.target,一旦lambda名称匹配,目标lambda就会被触发。注意:detail.target是一个json字段。目标是事件的一个可配置的端点/目的地。在事件流中,可以执行的不同步骤如下所示:1.源生成一个事件(它必须遵循事件源生成器和event bridge规则创建者所定义的模式)。为了测试我们的实现,我使用了如下的事件:2.基于测试事件的具体detail.target值,会有一个规则匹配并执行。在我们的场景中,这将会导致事件/消息会路由到与规则关联的目标lambda上,即filter1_lambda。3.目标lambda完成其任务,并将事件目标(detail.target)替换为detail.filterlist json列表中的下一个lambda,也就是filter2_lambda。4.目标lambda随后调用lambda层的工具函数next_filter()。5.next_filter()函数负责构建最终的事件并将其放到event bridge中。6.基于新的目标值(即filter2_lambda),另外一条规则能够被匹配,从而会调用一个单独的过滤器lambda。{
“Detail”: {
“target”: [“filter2_lambda”]
}
}
7.在完成所有的任务之后,终端过滤器会将消息发送给下一个非过滤器的目的地。在本POC中,终端过滤器是filter3_lambda。这个lambda不再调用next_filter函数,而是调用DynamoDb API,将数据保存到DynamoDb的表中。正如我们所看到的,借助EventBridge的模式匹配路由功能,我们可以用单一的事件总线来实现管道和过滤器模式,即便链中的某个后继阶段依然在忙于处理前一个事件,链中的其他阶段都可以自由地开始处理下一个事件,从而提高整体效率。如上图所示,事件最初会到filter1_lambda中,因为客户端事件的detail.target属性与目标为filter1_lambda的filter-rule1事件模式相匹配。执行完成后,filter1_lambda将事件的detail.target设置为下一个lambda,即filter2_lambda,并将修改后的事件发回给事件总线。由于detail.target的值是filter2_lambda,所以filter-rule2就会被触发,如此反复。通过这个递归过程,所有的过滤器都会被执行。最后一个过滤器可以调用一些其他资源,而非调用next_filter()工具层。在上面的实现中,每个lambda共同的重要任务之一就是将事件目标(detail.target)修改成filterlist中的下一个lambda。为了完成这个任务,我们使用了lambda层(lambda layer)。lambda层是lambda的一个特性,它可以帮助开发者从lambda代码中提取通用功能或库,并将其放入一个层中。这个层可以作为一个工具式的代码块,实际的lambda代码可以在这个层上面执行。Lambda可以根据需要重用该层的通用功能和/或库。AWS文档这样说:Lambda层是一个包含额外代码的归档文件,如库、依赖,甚至是自定义运行时。对于这个POC来讲,我写了一个工具层,它导出了next_filter函数。Lambda过滤器使用这个函数从filterlist中推断出下一个过滤器的名字。相关的代码片段在本文末尾的附录中给出。整个POC代码以及AWS云开发工具包(AWS Cloud Development Kit,CDK)的基础设施代码可以在github仓库中找到。总结模式是软件设计领域中最有用、最有效的工具之一。为了以标准的方式解决常见的设计问题,我们可以使用合适的设计模式。模式就像一个设计插件。在技术方面,无服务器是一个快速增长的领域,所有的云计算供应商都在定期推出新托管的无服务器服务。因此,要决定一个合适的无服务器管理服务的技术栈是很困难的。在这篇文章中,我讨论了如何使用不同的AWS无服务器托管服务,以无服务器的方式完成一种设计模式的不同实现方法。附录next_filter的代码片段:module.exports.next_filter = (async function (event) {
var i = event.detail.filterlist.indexOf(event.detail.target);
if (event.detail.filterlist.length === i + 1) {
return null;
} else {
event.detail.target = event.detail.filterlist[i + 1];
var finalEvent = {
"Source": event.source,
"EventBusName": "mypipe",
"DetailType": event["detail-type"],
"Time": new Date(),
"Detail": JSON.stringify(event.detail, null, 2)
}
var Entries = [];
Entries.push(finalEvent);
var entry = { "Entries": Entries };
var result = await eventbridge.putEvents(entry).promise();
return result;
}
});
参考资料Lambda SQS扩展SQS消息的短轮询和长轮询节流在数据项目中组合使用SQS和Lambda的经验教训作者简介:Tridib Bolar 在印度加尔各答工作,是一家IT公司的云计算解决方案架构师。他已经在编程领域工作了18年以上。他主要从事AWS平台相关的工作,同时也在探索GCP。除了是云计算无服务器模式的支持者之外,他也是物联网技术的爱好者。原文链接:https://www.infoq.com/articles/design-patterns-for-serverless-systems/Design Patterns for Serverless Systems
| 7,676 | 1,645,516,178,027 |
InfoQ
|
188 |
使用 Kafka 和动态数据网格进行流式数据交换
|
数据网格(Data Mesh)是近来受到广泛重视的一种新型架构范式。每家数据和平台提供商都说明了怎样使用自己的平台来构建最好的数据网格。数据网格的故事包括像亚马逊云科技这样的云计算提供商,像 Databricks 和 Snowflake 这样的数据分析提供商,以及像 Confluent 这样的事件流解决方案。本文详细讨论了这一原理,并探索了为何没有一种技术最适合构建数据网格。本文列举的例子表明,为何像 Apache Kafka 这样的开放和可扩展的分布式实时平台一般都是数据网格基础设施的核心,而其他数据平台则是为了解决业务问题而提供支持。静态数据与动态数据在我们开始数据网格的讨论之前,必须先弄清楚静态数据和动态数据之间的差异和关联性。 静态数据:数据被摄取并存储在一个存储系统中(数据库、数据仓库、数据湖)。为存储系统执行业务逻辑和查询。日常用例包括:使用业务智能工具的报告、机器学习中的模型训练,以及诸如洗牌、映射和 Reduce 等复杂的批处理分析。因为数据是静态的,所以处理对于实时用例来说太迟了。动态数据:当将新的事件传送到平台上后,对这些数据进行了连续的处理和关联。实时执行业务逻辑和查询。常见的实时用例包括库存管理、订单处理、欺诈检测、预测性维护,和很多其他的用例。实时数据优于慢速数据 在几乎任何行业的所有用例中,实时数据都优于慢速数据。所以,问问你自己或者你的业务团队,他们希望或者需要在下一个项目如何消费和处理数据。静态数据和动态数据是有取舍的。因此,这两个概念是相辅相成的。基于此,现代云计算的基础设施在其架构中同时应用了这两个概念。《使用 Kafka 的无服务器事件流与亚马逊云科技 Lakehouse 的结合》(Serverless Event Streaming with Kafka combined with the AWS Lakehouse)是一个很好的资源,可以了解更多的信息。但是,尽管将批处理系统连接到实时神经系统是可能的,但反过来说,将实时消费者连接到批处理存储就不太可能了。关于 《Kappa 与 Lambda 架构》(Kappa vs. Lambda Architecture)文章的讨论,将会给我们带来更多的见解。 Kafka 是一种数据库。因此,对于静态数据,也可以使用。比如,如果要确保排序,那么历史事件的可重放性就是很多用例所必需的,也是有帮助的。但是,Kafka 的长期存储存在着一定的局限性,例如,它的查询功能受到了限制。所以,对于很多用例来说,事件流与其他存储系统是相互补充而非相互竞争的。数据网格:一种架构范式 数据网格是一种实现模式(不同于微服务或域驱动设计),但应用于数据。ThoughtWorks 发明了这个词。你可以在网络上发现很多资源。Zhamak Dehghani 在 2021 年欧洲 Kafka 峰会上就“如何构建数据网格基础及其与事件流的关系”(How to build the Data Mesh Foundation and its Relation to Event Streaming) 做了精彩演讲。域驱动 + 微服务 + 事件流 数据网格并非一种全新的范式。它产生了若干具有历史意义的影响:这种架构的范式能够大规模解锁分析数据,为整个组织的机器学习、分析或数据密集型应用等大量消费场景快速解锁了对数量不断增加的分布式域数据集的访问。数据网格解决了传统的集中式数据湖或数据平台架构的常见故障模式。数据网格是一种逻辑视图,而非物理视图! 数据网格转变为借鉴现代分布式架构的范式:将域视为第一流的关注点,应用平台思维来创建一个自助式数据基础设施,将数据视为一种产品,并实施开放的标准化,从而实现具有互操作的分布式数据产品的生态系统。 下面是一个数据网格的例子:概括:数据网格结合了现有的范式,包括域驱动设计、数据集市、微服务和事件流。数据即产品 但是,差异的一面集中在了产品思维(“数据的微服务”),即将数据作为一流的产品。数据产品是事件流与“动态数据”的完美结合,从而构建出创新的、全新的实时用例。具有事件流的数据网格为什么事件流很适合数据网格? 流是实时的,所以一旦有新的信息,你可以立即在整个网格中传播数据。流还具有持久性和可重放性,因此它们可以让你用一个基础设施同时捕获实时和历史数据。由于它们是不可改变的,因此它们是一种很好的记录来源,可以帮助治理。 在大部分创新用例中,动态数据是关键。正如之前所讨论的,在几乎所有的情况下,实时数据都优于慢速数据。因此,数据网格架构的核心是一个事件流平台,这是合理的。它提供了真正的解耦、可扩展的实时数据处理,以及跨边缘、数据中心和多云的高可靠性操作。Kafka 流 API:移动数据的事实标准Kafka API 是事件流的事实标准。我不再对此进行重复的讨论。在我们进入“Kafka + 数据网格”内容之前,这里有一些参考资料: 《为什么 Kafka 会像 Amazon S3 一样成为标准 API?》(Why Kafka became a Standard API like Amazon S3)《事件流和 Kafka 供应商的比较,如 Red Hat、Cloudera、Confluent、Amazon MSK 的比较》(Comparison of event streaming and Kafka vendors like Red Hat, Cloudera, Confluent, Amazon MSK)《Apache Kafka 与 Apache Pulsar》(Apache Kafka versus Apache Pulsar)Kafka 支持的数据网格 我强烈推荐大家观看 Ben Stopford 和 Michael Noll 关于《Apache Kafka 和数据网格》(Apache Kafka and the Data Mesh)的演讲。本文的几张截图也是来自那个演讲。为我的两位同事点赞!演讲探讨了数据网格的关键概念以及它们与事件流的关系: 域驱动的去中心化数据作为一种自助式服务的产品一流的数据平台联合治理 下面让我们看看,Kafka 的事件流如何融入数据网架构,以及其他解决方案,如数据库或数据湖如何与之互补。数据产品,一种“数据世界的微服务”: 数据网格中的一个节点,位于域内。在网格中产生并可能消费高质量的数据。封装了其功能所需的所有元素,即数据和代码加基础设施。数据网格不只是一种技术! 数据网格基础设施的核心必须是实时、解耦、可靠和可扩展的。Kafka 是一个现代的云原生企业集成平台(今天也经常被称为 iPaaS)。因此,Kafka 为数据网格的基础提供了一切功能。 但是,并非所有的组件都可以或者应当以 Kafka 为基础。为问题选择合适的工具。在接下来的几节中,我们将探索 Kafka 原生技术以及其他的解决方案在数据网格中的应用。利用 Kafka Stream 和 ksqlDB 在数据产品中进行流处理 将来自一个或多个数据源的信息,基于事件的数据产品实时地聚合并将其关联起来。无状态和有状态的流处理是通过 Kafka 原生工具(如 Kafka Streams 或 ksqlDB)实现的:数据产品中的各种协议和通信范式:HTTP、gRPC、MQTT 等 很明显,并非所有的应用都仅将事件流用作技术和通信范式。上图显示了一个消费者应用,它还可以使用 HTTP 或 gRPC 这样的请求/响应技术进行拉取查询。相比之下,另一个应用则用任何编程语言(如 Java、Scala、C、C++、Python、Go 等)的原生 Kafka 消费者持续消费流式推送查询。 数据产品往往包括一些互补的技术。例如,如果你构建了一个车联网基础设施,那么你很有可能会利用 MQTT 进行“最后一公里”的整合,将数据摄入 Kafka,然后再通过事件流来进行处理。《Kafka + MQTT 博客系列》(Kafka + MQTT Blog Series)是关于如何利用互补性技术来构建数据产品的一个典型实例。数据产品内的各种解决方案:事件流、数据仓库、数据湖等 微服务架构的美妙之处在于,每个应用都可以选择合适的技术。一个应用程序可以包含数据库、分析工具其他补充性组件,也有可能不包括。数据产品的输入和输出数据端口应该与选定的解决方案无关:Kafka Connect 是正确的 Kafka 原生技术,可以将其他技术和通信范式与事件流平台连接起来。评估你是否需要另一个集成中间件(如 ETL 或 ESB),或者 Kafka 基础设施是否是数据网内的数据产品更好的企业集成平台(iPaaS)。全球流数据交换 数据网格的概念与全球部署有关,而不只是局限于某一项目或区域。多个 Kafka 集群是常态,而非例外。很久以前,我就写过《客户将 Kafka 的事件流用于全球架构》(Event Streaming with Kafka in global architectures) 的文章。 目前有多种架构可以将 Kafka 部署到不同的数据中心和不同的云上。某些用例要求较低的延迟,将某些 Kafka 的实例部署到边缘或者 5G 区域。其他的用例,包括在全球各地、国家和大陆之间进行数据复制,用于灾难恢复、聚合或分析用例。 下面是一个例子,跨越亚马逊云科技、Azure、GCP 或阿里巴巴等多个云计算提供商和内部/边缘站点的流式数据网格:这个例子显示了上述章节中所讨论的数据网格的所有特性: 跨域和基础设施的分布式实时基础设施云内和云间的域之间的真正解耦几种通信范式,包括数据流、RPC 和批处理与传统和云原生技术的数据集成在能增加价值的地方进行连续的流处理,并在一些分析汇总中进行批处理实例:汽车行业跨域的流数据交换 以下是汽车行业的一个实例,显示了在不同的公司中,独立的利益相关者是怎样利用公司内部的流数据进行交换的:创新永远不会止于自己的边界。流复制适用于所有实时性优于慢速数据的用例(对大多数场景有效)。举几个例子: 从供应商到 OEM 到中间商到售后的端到端供应链优化跨国追踪溯源第三方附加服务与自身数字产品的整合嵌入和组合外部服务的开放 API,以建立一个新产品。 我可以继续列举下去。许多数据产品都需要通过第三方进行大规模的实时访问。在这种情况下,有些 API 网关或 API 管理工具就会发挥作用。 一个 由 Kafka 支持的流数据交换的现实世界的实例是移动服务 Here Technologies。他们公开了 Kafka API,可以直接从其映射服务中获取流数据(作为他们的 HTTP API 的一个替代选择):但是,即便所有的合作伙伴都在自己的架构中使用 Kafka,那么直接向外界公开 Kafka API 并不一定总是正确的。Kafka 生态系统的某些技术能力(例如访问控制或连接到成千上万的设备),以及缺失的业务功能(如货币化或报告),使得事件流基础设施之上的 API 层在许多实际部署中发挥作用。用于第三方集成和流 API 管理的开放 API API 网关和 API 管理工具有很多种类,包括开源框架、商业产品和 SaaS 云产品。功能包括技术路由、访问控制、货币化和报告。 然而,大多数人仍然以 RPC 的方式实现开放 API 的概念。我猜 95% 以上的人还在使用 HTTP(S) 来使 API 能够被其他利益相关者(例如其他业务部门或外部各方)访问。如果数据需要实时地大规模处理,那么 RPC 在流数据网格架构中就没有什么意义了。 事件流和 API 管理之间仍然存在阻抗不匹配的问题。但是,现在情况有所好转。像 AsyncAPI 这样的规范,自称是“定义异步 API 的行业标准”,还有类似的方法为数据流世界带来了开放 API。我那篇名为《Kafka 与 MuleSoft、Kong 或 Apigee 等工具的 API 管理》(Kafka versus API Management with tools like MuleSoft, Kong, or Apigee)的论文,如果你愿意对此进行更深入的探讨,那么它依然是非常正确的。IBM API Connect 是最早通过 Async API 集成 Kafka 的厂商之一。从 RPC 到流 API 的演变,一个很好的例子就是机器学习领域。《用 Kafka 原生模型部署流式机器学习》(Streaming Machine Learning with Kafka-native Model Deployment)探讨了 Seldon 等模型服务器如何在 HTTP 和 gRPC 请求—响应通信之外用原生 Kafka API 增强他们的产品:使用 Kafka 的流式数据网格之旅 范式的转变是很大的。数据网格不是免费午餐。对于微服务架构、领域驱动设计、事件流和其他现代设计原则,过去和现在都是如此。 与 Confluent 的事件流成熟度模型相类似,我们的团队描述了部署流式数据网格的历程:这些努力在大多数情况下可能需要几年时间。这一转型不仅涉及技术层面,也涉及组织和业务流程的调整。我认为大部分公司都还处在起步阶段。告诉我你在这个旅途中发生了什么!流数据交换作为数据网格的基础 数据网格是一种实施模式,而非特定的技术。然而,大多数现代企业架构需要一个分散的流数据基础设施,以便在独立的、真正解耦的域中构建有价值的创新数据产品。因此,Kafka 作为事件流的事实上的标准,在许多数据网格架构中起着重要的作用。 很多数据网格架构跨越了不同地区,甚至是大陆的许多域。部署在边缘、内部和多云上运行。这种集成连接到许多解决方案,具有不同通信范式的技术。 基于开箱即用的云原生事件流基础设施,可以构建一个现代化的数据网格。没有一个数据网格会使用单一的技术或者厂商。从你最喜欢的数据产品提供商(如亚马逊云科技、Snowflake、Databricks、Confluent 等)的鼓舞人心的帖子中学习,从而成功地定义并构建你的自定义数据网格。数据网格是一段旅程,并非一场大爆炸。作者介绍: Kai Wähner,在 Confluent 担任技术布道师。他的主要专业领域是大数据分析、机器学习/深度学习、消息传递、集成、微服务、物联网、流处理和区块链等领域。他经常在国际会议上发言,如 JavaOne、O'Reilly 软件架构或 ApacheCon,为专业期刊撰写文章,并在他的博客(www.kai-waehner.de/blog)上分享他对新技术的经验。 原文链接: https://dzone.com/articles/streaming-data-exchange-with-kafka-and-a-data-mesh
| 6,088 | 1,645,414,259,762 |
InfoQ
|
189 |
2022 年需要避免的 6 大云成本优化问题及解决方案
|
降低云成本已连续五年成为企业最关注的项目。根据 2021 年云计算状况报告,超过 60% 的组织计划优化其云成本。本文介绍了导致云资源、时间和金钱浪费的最常见问题,以及相应的有效解决方案。降低云成本已连续五年成为企业最关注的项目。根据 2021 年云计算状况报告,超过 60% 的组织计划优化其云成本。那么到底出了什么问题,为什么那么多的工程团队都在努力进行云优化呢?为什么云成本优化如此具有挑战性?公有云按使用付费模式给工程团队带来了更多的自由,但这种自由是有代价的。正如 Pinterest 等公司的云账单故事所表明的那样,有时账单数额惊人。研究证明,大多数组织都难以应对不断增长的云计算账单。典型的公有云支出平均超出预算 24%。有很多原因可以解释为什么这还在不断发生。这些问题通常归结为低成本可视化、复杂的云定价以及预估未来需求的问题。所有这些问题都可能会影响到你企业的花费以及需要花费的金额。云服务供应商也不能完全帮助降低成本。仅仅解读一张云账单就可能让人望而生畏,以至于一些团队选择平日视而不见,待到月底收获“惊喜”。2022 年需要解决的 6 大云成本优化问题第 1 条:仍然受预留和储蓄计划的诱惑当考虑在云上节省开支时,首先想到的是为团队使用的服务支付更少的费用。公司之所以选择储蓄(Savings Plans)或预留计划,是因为与按需定价模式相比,它们可以享受到相当大的折扣。为一个看起来可以预测的云计算开支提前做支付计划,听起来很棒。但如果仔细观察就会发现,你不是在解决问题,而是在这个问题上得到了折扣,并承诺在接下来的几年里继续这样做。那么,陷阱在什么地方呢?Pinterest 预定了亚马逊云科技(AWS)价值 1.7 亿美元的服务,但随后又不得不花费 2000 万美元购买额外的资源。他们的故事说明了这样一个事实,即了解企业从现在起一到三年内需要多少容量是一项艰巨的任务。长期依赖于一个供应商,你会失去灵活性,被锁定,并且可能不得不为不断变化的需求付出高昂的代价。如何应对储蓄计划?最好的解决办法是完全避免储蓄计划(Savings Plans)!不要提前购买资源,而是考虑解决云计算开销的方法:规模优化(Rightsizing)自动伸缩(Autoscaling)任务装箱(Bin packing)资源调度(Resource scheduling)第 2 条:落入过度配置的陷阱当团队选择的资源大于运行工作负载实际需要的资源时,就会发生过度配置(Overprovisioning)。这背后有一种安全的心态,因为没有人希望自己应用程序的运行会受到干扰。在某些业务设置中,团队习惯于获得超出其工作负载所需的更多资源,“以防万一”。虽然从性能角度来看,这种方法对工程师来说非常有意义,但它会造成云浪费,并增加云成本。过度配置有什么问题?最直接的答案是,它会导致云浪费和不必要的开支,并且这些开支可能会失控。从长远来看,让过度配置成为团队中的一种习惯是一个坏主意。如果为了安全起见,你习惯了选择比工作负载所需更大的实例,那么请考虑一下随着公司和应用程序的增长,这会发生什么事情。你将会收到一份会让你付出巨大代价的账单。把这笔钱花在更重要的事情上不是更好吗?例如,用在应对气候危机方面——顺便说一下,过度配置正在加剧这个问题。如何应对过度配置?通常的做法是投资于定制的监控和成本管理解决方案。他们的规模优化建议可以帮助你减少对过度配置资源的依赖,但你仍然需要手动实施这些建议。另一种解决方案是自动化。自动规模优化可以选择最合适的实例类型和大小,以满足应用程序的需求,同时降低成本。每当集群需要额外的节点时,AI 驱动的实例选择算法就会选择能够实现最高性能的资源。最棒的是,你的团队不需要动一根手指,因为一切都是自动发生的。由于过度配置与许多组织的文化交织在一起,因此必须建立成本优化例程以平衡性能、可靠性和成本。在实现更广泛的组织变革的道路上,自动化可能是向前迈出的重要一步。第 3 条:被孤立的云资源所困扰为项目启动一个实例,但最后忘记关闭它是很容易发生的。因此,许多团队都在努力处理没有所有权但仍会继续产生成本的孤立实例。还记得 Adobe 的错误,即每天花费 80,000 美元计划外的 Azure 费用吗?这是一类你必须要避免的问题。这一问题在大型组织中尤为严重,因为这些组织同时执行了许多活动,而没有实现集中的资源可视化。在 IT 部门不知情的情况下(影子 IT)管理的活动可能占公司所有 IT 支出的 40%。此外,研究表明,影子云的使用量可能是已知云使用量的 10 倍。孤立的云资源有什么问题?孤立的云资源意味着资金的流失,具有复杂的可持续性影响。简而言之,数据中心消耗了大量的电力和硬件,大大增加了 ICT 行业的碳足迹(Carbon Footprint)。他们需要的能源量每四年翻一番,而 AWS 或 Azure 等供应商开放的每个新区域都会加剧这个问题。这就是为什么减少云浪费是停止不必要的开支和相关碳足迹的关键。如何应对这一挑战?确保只运行真正需要的资源可能很有挑战性,特别是在大型组织中。但是,如何识别并停用未使用的实例呢?这就是自动化再次发挥作用的地方了。自动化的云优化解决方案可以随时不断扫描你的使用效率,并尽可能压缩资源。它们还可以关闭未使用的实例和进程,以降低云成本。第 4 条:管理需求量峰谷值的效率低下构建过电子商务基础设施的工程师非常清楚事物的变化有多快。例如,一个影响因素的提及可能意味着数百万的新销售额,或者网站在流量激增时出现下滑。大多数其他的应用程序也会随着时间的推移而发生使用情况的变化,但在开支和性能之间取得平衡仍然是一个持续的难题。如果你将标签页始终保持打开状态,流量峰值可能会产生大量且无法预料的云账单,如果你严格限制应用程序的资源,流量峰值会导致应用程序崩溃。当需求量较低时,你将面临多支付的风险。当需求量很高时,你提供给客户的服务可能会很差。是的,有云成本管理解决方案可以监控你的使用情况,如果超过设定的水平或出现任何异常,会实时向你发出报警。这些工具可以为你提供有用的建议,帮助你根据当前需求量调整云资源。然而,手动伸缩云容量既困难又耗时。除了要注意跟踪系统中所发生的一切外,你通常还需要注意:优雅地处理流量高峰和低谷——并在你使用的所有服务中为每个虚拟机垂直伸缩资源;确保应用于一个工作负载的更改不会对其他工作负载造成任何问题;自行配置并管理资源组,以确保它们包含适合你的工作负载的资源。如何解决这个问题?这是云自动化可以发挥作用的另一个领域,可以帮助你节省大量的时间和金钱。自动伸缩可以自动处理上面列出的所有任务,并控制云成本。如果使用容器编排器 Kubernetes,你可以从三个内置机制中受益。容器水平自动伸缩(Horizontal Pod Autoscaler,HPA)添加或删除 Pod 副本以匹配应用程序不断变化的使用情况。它监控应用程序以了解其副本的数量是否应该变更,并计算删除或添加副本是否会使当前值更接近目标值。容器垂直自动伸缩(Vertical Pod Autoscaler,VPA)增加和减少 CPU 和内存资源请求,以便更好地将分配的群集资源与实际使用情况相匹配。集群自动伸缩(Cluster Autoscaler,CA)可在受支持的平台上变更集群中的节点数。如果它识别出具有可以重新调度到集群中其他节点的 Pod 节点,则会将其驱逐并删除备用节点。在像 CAST AI 这样的解决方案中,你只需要定义你的水平和垂直自动伸缩策略,自动优化工具则会为你处理其余的工作。第 5 条:没有利用竞价实例的机会云服务供应商以极低的价格出售其未使用的容量,尤其是当你将该成本与常规的按需付费进行比较时。在 AWS 中,竞价实例(Spot Instance)可享受高达 90% 的折扣。竞价实例有什么棘手问题?由于你竞标的是空闲的计算资源,因此你永远不知道这些容量究竟能保持多长的可用时间。有些竞价实例带有预定义的持续时间;例如,AWS 提供了一种类型,可以为你提供长达 6 小时的不间断时间保证。但除此之外,供应商可以回收你正在使用的竞价实例,并仅提前 30 秒到 2 分钟的时间通知到你。人类没有足够的时间做出反应。创建一个新的虚拟机也需要更多的时间,因此你面临着潜在的宕机风险。这就是为什么如果你决定使用竞价实例,你需要接受这样一个事实,即中断必然会发生。对于至关重要或无法忍受的工作负载,它们显然不是正确的选择。如何应对这一挑战?尽管存在风险,但竞价实例非常适合无状态且可扩缩的服务(即具有多个副本)。幸运的是,在现代架构中,大多数服务都是无状态的,因为 Kubernetes 就是为这种类型的设置而设计的。使用竞价实例的过程如下所示:你需要限定你的工作负载以及它处理中断的能力。然后,你应该检查供应商提供的实例,并选择最适合你需求的实例。一个经验法则是选择不太流行的实例并检查它们的中断频率。现在是时候策略性地设定最高出价了,以避免价格上涨时可能出现的中断。你可能还需要考虑分组管理竞价实例并请求多种类型以增加补充它们的机会。你可以手动完成这些步骤,但要使这一切能正常运行,需要准备大量配置、设置和维护任务。这就是自动化能再次派上用场的地方了。除了上述过程之外,当你需要的竞价实例暂时不可用时,自动化解决方案可以立即提供帮助。竞价回退(Spot fallback)之类的解决方案通过将受影响的工作负载临时转移到按需节点上,并在竞价节点可访问时将其自动返回到竞价实例来保证容量。CAST AI 的功能目前支持 EKS、Kops 和 GKE 集群。第 6 条:延迟采用自动化云优化在本文中,我已经提到了自动化云优化,这是有原因的。如果你已经采用了云原生技术,那么你正在运行 Kubernetes,甚至可能使用现代的 DevOps 方法——自动化这部分基础设施绝对是一个好主意。云自动化被列为德勤(Deloitte)2021 年及以后的最大趋势之一,为 IT 团队带来了切实的成果,尤其是在大型企业环境中。首先,它减少了你在配置虚拟机、创建集群或选择正确资源等方面所需的手动工作。这一变化节省了时间,让工程师可以专注于更重要的任务、创新并更充分地利用云基础设施。更重要的是,自动化工具允许更频繁的更新,这是持续部署理念的关键。它还降低了人为错误的可能性,降低了基础设施成本,提高了系统的安全性和弹性,并增强了备份流程。最后,自动化使你能够了解整个公司正在使用的资源,否则这些资源将难以控制。简而言之,云自动化已经成为科技行业的新常态。如果云自动化带来了许多无可争议的优势,而且似乎是不可避免的,那么为什么不是所有的企业都欣然接受它呢?自动化可能会带来许多挑战,从对新解决方案的抵制,到对实施成本过高的担忧,再到更新现有流程的需要。与大多数数字化转型项目一样,成功的关键在于人,并鼓励在人的层面上进行变革。说到工作场所,麦肯锡(McKinsey)的研究证明,工人们普遍担心会被技术所取代。然而,自动化带来的好处远远大于风险。例如,在《2021 年 DevOps 状况报告》(State of DevOps Report)中,97% 的受访公司认为自动化提高了他们的工作质量。在 2022 年推迟采用云自动化等于错过了以下好处:为应用程序选择最有效的实例类型和大小;自动伸缩云资源,以处理需求的峰值和谷值;排除那些不能用于削减成本的资源;通过管理潜在的中断来优化竞价实例;减少其他领域的不必要开支,例如存储、备份、安全、配置更改等——所有这些都是实时的,而且成本只相当于手动实现的一小部分。如何克服人类对变革和新解决方案的抗拒,这是一个由来已久的问题。提醒团队自动化云优化能使他们从重复性的任务负担中解脱出来,这可能还不够。展示和体验总是比讲述更好。希望你能在 2022 年享受到自动化云优化带来的好处。原文链接:https://cast.ai/blog/6-top-cloud-cost-optimization-issues-to-avoid-in-2022-and-how-to-deal-with-them
| 4,672 | 1,644,804,388,870 |
InfoQ
|
190 |
亚马逊工程师:我在职业生涯中学到的 8 个重要经验
|
免责声明:本人并非亚马逊的代言人。所有观点都是我自己的。首先,让我来做一个简短的自我介绍:我叫 Daniel,今年 28 岁,是一名软件工程师。我从 13 岁起就开始学习编程。在工作了八年之后,我在 2019 年进入了亚马逊,并担任 SDE2。大约两年零三个月后,也就是 2021 年,我晋升到了亚马逊的高级 SDE。在本文中,我将与大家分享我在职业生涯中所学到的一些经验,这些经验是我在之前就希望能够学到的。这些经验承载了我的个人经历和个人信仰。但愿这会对你有所帮助。1. 尽管编程很酷,但如果能支持其他同事,你将会取得更大的成就。编程很酷,非常酷。作为软件工程师,我们热爱软件开发。对于我们而言,软件开发的最直接方式就是实际编写一款软件。但如果你把一天的时间都用在了编写代码上,那么你就相当于在一个特殊的项目花了 6~8 个小时来写一段代码。没有人能够从你身上学到什么,你也什么都学不到,因为你是一名高级工程师,所以这一领域对你没有任何挑战性。就算你的代码写得比没有经验的工程师要快,但那又有什么用呢?这是无法持久的,并且没有将团队的长远发展和个人的提高考虑在内。作为一名高级工程师,你拥有足够的支持和技能,可以在许多项目中进行平行开发,在很多方面,例如代码审查、系统设计、产品规范、业务验证、卓越运营等等。这样,你的工作就会变得更有策略性,把你的技能用来让你的团队变得更加敏捷,加强团队与项目的协作,让你的同事在他们的职业生涯中取得进步等等。这就是我们所说的力量乘数,你的影响力、知识和行为能够让整个团队在交付能力、软件质量、团队协同、士气、工作和生活的平衡,以及其他与软件工程相关的积极方面成倍增长。2. 你的话语是强大的,无论是积极的还是消极的。先倾听,再发言。你在你的组织中是一个参考,可能在你的公司也是如此。有的人很崇拜你,认为你是一个可以引导他们在事业方面取得进步的人。你的赞扬能激发那些缺乏经验的人取得非凡的成功。你的批评会使那些没有经验的人生活得很糟糕,甚至会因此而放弃。如果你觉得别人有错误,或者有改进的机会,那就和他单独谈话,不要无礼。此外,要谈论这个人的想法,而不是讨论这个人。人并不是他们的想法。别假装自己掌握了真理,什么都知道,相反,你要做的只是一个关注别人进步和帮助别人的人。认真倾听,努力了解别人的想法。人各不相同,背景、信仰也各不相同。在开会或做团队决策时,你的意见可能会使整个团队产生偏见,因为人们会认为不可能出现他们是对的而你是错的情况,因为他们很崇拜你。在开会时,当开始讨论一个主题时,请大家先发言,认真听取所有的意见和想法,并在最后发言。如果你一上来就发表自己的意见,那么,别人要么会因为相信你(通常比你自己更相信)而对你的意见产生偏见,要么他们会压抑自己的想法,因为他们不相信自己会是对的,而你却是错的。即便你是个很酷的人,在你的公司里,人们可以轻松、安全地交谈,但总是会有人胆怯,或者没有信心。3. 如果因为缺乏经验而不采取行动,你就永远不会获得经验。经验很重要,但你不必知道所有的事情才能开始“演戏”。实际上,正相反,为了积累经验,你必须把所学的知识付诸实践。有些东西,你无法从书上或课堂上学习到,例如,如何修复你在创建网站时出现的那个小错误,或者你在部署服务器时与队友学到的那个技巧。这可不是钱能买到的,你得活学活用。别怕犯错误,怕什么都不懂。你要做的,就是行动起来,寻求帮助,去尝试。你会找到让一切都变得顺利的方法,相信我。大家都专注于目标,但是你要努力把注意力集中到你所要做的事情上,并享受它。当你的目标已经完成,你的学习之路将会永远走下去,正所谓:路漫漫其修远兮,吾将上下而求索。4. 你的英语不需要完美这是上次学习的补遗,但是它值得有一个特别的主题。这里没有什么可说的,就是标题中已经提到的:你的英语不需要完美,你不必说得跟当地的人一样。在你的日常工作中,没有人会注意到你的语法错误。别误解我的意思,我并不是说,如果有机会的话,你不能努力提升自己的英语水平,我想说的是,你对不完美的恐惧,不应该阻碍你迈出下一步。我写的这篇文章中也许有许多语法上的错误,写得不好的句子,但是没有关系,你仍然能够领会我要表达的意思,这才是最重要的。大部分人都不会说第二语言,如果你的母语不是英语,但你也能说得出口,那么就说明,你的英语水平相当不错。5. FAANG 的工程师并不比你强FAANG 是一个缩写,用来指 Facebook、Amazon(亚马逊)、Apple(苹果)、Netflix 和 Alphabet(G 指 Alphabet 的核心公司 Google)这五家科技公司。在我进入亚马逊之前,我觉得自己不如 FAANG 的那些工程师。因为某些理由,我一度将他们视为软件之神。他们创造了我每天都在使用的应用,每秒钟提供十亿次请求。在我进入亚马逊的时候,我还有些担心,怕自己不够好,没有足够的能力去扮演那个角色。不过,我很快就注意到,FAANG 的人其实都是些普通的人,他们只知道一些话题,但不知道其他话题。当然,我在亚马逊遇到了出色的人,但是,我在我以前工作的其他公司也遇到过这样的人。最后送你一句话,与君共勉:三人行,必有我师。现在我是一名 FAANG 工程师,我不比任何人好,也不比任何人差。你不比我差,也不比我好。大家都一样。我并非无所不知,也永远不会无所不知。最重要的是要敞开心扉,与其他人一起学习。6. 对业务的理解有助于你作出更好的决策归根结底,开发软件是为了解决业务问题。如果一个软件不能解决问题或者没有用户,那么构建一个具有完整 CD 管道、100% 测试覆盖率和遵循最佳实践的杰作软件,也没有任何意义。而一个低品质的软件,除了会给用户造成一些麻烦之外,也很难解决用户的问题。高级工程师是团队中的关键人物之一,在技术团队和业务团队之间起着黏合剂的作用。要做到这一点,你必须对业务和产品有充分的了解。在这个基础上,你将学习到怎样进行权衡,除了考虑技术方面,也要考虑业务方面。最终,你会发现,大多数情况都依赖于风险和潜在的回报。你是否会在生产中部署一个有已知 bug 的软件?一个初级工程师也许会说不会。而高级工程师会这么说:这要视具体的情况而定。取决于这个 bug 的影响。要看它在生产中会存在多长时间。能够看出该 bug 在多大程度上被用户池所控制。客户成功团队是怎样参与到帮助用户解决这个 bug 的。对于用户和企业来说,等待 bug 修复才能启动全部功能是多么糟糕。了解你正在开发软件的业务,与业务团队和客户成功团队联系,了解项目和产品的路线图,以及客户的挫折和抱怨,这些都是制作高质量软件并为人们带来价值的关键。7. 注意你的坐姿,注意你的健康你整天都是坐在计算机面前度过的。从长远来看,不良的坐姿会造成严重的脊椎问题,这会带来痛苦,而且可能难以治愈。因此你要舍得花大钱去买符合人体工学的座椅、桌子、键盘和鼠标。注意你的坐姿。此外,尽量每小时站立起来,去喝水,睡好觉,锻炼身体。我知道这听起来像是父母的忠告,我年轻的时候也会这么认为,但是你会衰老,你的身体会感受到现在的不良嗜好带来的影响。我不是专业人士,无法提供具体的指导,所以我建议,你向专业人士寻求帮助。8. 你应该学会如何将一个想法转化为一个网站或应用程序,这将有助于你的创新和探索你的创造力大家都有自己的想法,而且我们中的很多人已经有了创建一个革命性的应用或平台的想法。作为一名开发人员,由于你懂得怎样去开发你的应用,你会比其他人领先一步。然而,如果你是一个前端开发者,你可能无法开发应用程序的后端逻辑,或者无法从头开始创建一个服务并部署它。如果你是一个后端开发者,你可能无法开发一个前端应用,也无法开发一个移动应用。最后,尽管你是一个开发人员,但是在创造你的应用、测试你的想法、以及通过实践和试验来学习时,仍然存在着许多困难。因此,我极力推荐你学会怎样构建应用的前端(HTML、CSS、JavaScript、React)和后端(任何后端语言,如 Java 和 Python),以及如何部署应用(亚马逊云科技、谷歌云、Azure、Firebase、Heroku……),还有一点点 UX 设计师的经验。作者介绍:Daniel Costa,亚马逊高级软件工程师。原文链接:https://levelup.gitconnected.com/amazons-sr-software-engineer-at-27-8-important-lessons-i-ve-learned-so-far-in-my-career-9fdfbfbc1a6a
| 9,581 | 1,644,387,498,138 |
InfoQ
|
191 |
云计算成本优化终极指南
|
Pinterest 由于在某个节日期间对云计算使用量的增加,该公司的云计算账单大大超过了原先的预估。Pinterest 必须计划 1.7 亿美元的预留资源上向亚马逊云科技再额外支付 2000 万美元。 云计算的可扩展性是福也是祸。过度配置的情况确实存在,每到季末甚至会让科技巨头的首席财务官们瞠目结舌。解决云计算对成本长远影响的唯一办法就是对云计算实施成本优化。 可能有人会问:值得在优化云计算成本上花费时间吗?可以先看看通信、娱乐、SaaS 和电子商务领域公司报告的优化收益。 Zoom 公司在 2021 年一季度的财报中称,其毛利率从前一季度的 69.4% 上升至 73.9%,这主要是由于在公共云资源的优化上下了很大功夫。Spotify 开发了一款叫 Cost Insights 的自定义工具,用于追踪云计算开支,同时鼓励工程师们掌握云计算支出的所有权,这使其每年节省了几百万美元的云计算开支。Segment 在基础设施决策上做了一些增量优化,使公司的毛利上升了 20%,流量增长了 25%,同时减少了 30% 的基础设施成本。这一切都是在三个月之内完成的。电子商务初创公司 La Fourche 发现自己的云计算账单急剧飞涨,因此启动了 CAST AI 节约报告,以寻求优化机会。通过启动自动化优化,公司将每月云计算的费用降低了 69.9%,而无需增加工程师的工作量。 可以看出,做云计算的成本优化是值得的。那应该如何避免云计算费用失控呢? 从了解你的云账单开始 查看你的云计算账单时,你很有可能会感到困惑。由于每项服务都有确定的收费标准,所以账单变得又长又复杂,难以理解。能够知道自己的使用情况并给能信心十足地作出决策几乎是不可能的。 这还只是在一个云和一个团队的费用,多个团队或者多云来结算就更麻烦了。 费用分摊就是要显示出谁在利用什么资源,否则无法知道应该是谁来承担这笔费用。但在 Kubernetes 上运行的动态基础设施中,费用分摊颇具挑战性。 对云计算账单进行核对并分摊费用,能够帮助企业更好地预测需求,并且保证有足够的资源,并且避免过度配置。但是,估算将来需要的资源并不是一件容易的事情。以下可供参考的一系列示例: 1. 获取可见性,并对消费报表进行分析,从而确定消费模式。2. 利用历史数据对峰值资源的使用情况进行定期分析和处理。3. 考虑到顾客的季节性需求,可以看看它们是否和峰值资源利用有关系。如果有关系,就能更好地做出预估。4. 对资源的使用情况进行定期监控,并设定警报来控制云计算费用。5. 建立应用程序级的费用规划,方法是衡量一个应用程序或工作负载所需的具体费用。这让所有云计算基础设施的费用计算都变得方便。7. 查看云计算供应商的定价模式,并计划一段时间的容量需求。8. 将所有的数据集中到一起,更好地了解费用情况。 上述任务并非一劳永逸,必须定期实施,才能达到理想效果。 在这里了解更多关于如何分析你的云计算账单:《为你的云计算账单而大吃一惊?五个常见问题及解决方法》(Surprised by your cloud bill? 5 common issues & how to deal with them)选择最佳的计算资源 如果你的应用程序对计算资源依赖性强,那么合适虚拟机的选择会对费用产生很大影响。但是亚马逊云科技有近 400 种不同的实例。相似的实例类型在不同的云厂商里提供不同的性能,甚至在相同的云计算环境下,更昂贵的实例并不等同于更高的性能。 具体如何选择最佳的计算资源呢? 定义最低要求 确保在所有计算维度包括CPU(架构、计数、处理器选择)、内存、固态硬盘和网络连接性上都进行此操作。 选择正确的实例类型 你可以从不同的 CPU、内存、存储和网络能力组合中选择,并将其封装到实例类型中,以便对这种能力进行优化。 设置实例的大小 请记住,实例必须有足够的容量来适应工作负载,必要时还需要包含一些选项,如突发事件。 检查不同的定价模式 三大云计算供应商提供了不同的收费标准:按需(即付即用)、保留容量、Spot 实例和专用主机。这些选项都各有利弊。这份指南对它们进行了详细的介绍:《如何为工作选择最佳的虚拟机类型,并节省你的云计算费用》(How to choose the best VM type for the job and save on your cloud bill)。 用 Spot 实例实现更大的节约 向亚马逊云科技和其他大型云计算供应商购买闲置容量是非常明智的,因为 Spot 实例比按需购买要便宜 90%。但这也存在一个问题:供应商有权随时收回这些资源。你必须确定你的应用已经做好了准备,然后才能加入 Spot 行列。 以下是使用 Spot 实例的一些方法: 检查你的工作负载,看其是否为 Spot 实例准备就绪 能否经受中断?完成工作需要多长时间?是否是一项重要的工作负载?这些问题和其他一些问题可以帮助确定 Spot 实例的工作负载。 检查云厂商的服务 查看不太流行的实例是一个好主意,因为它们不太可能被中断,并且可以运行更长的时间。在解决一个实例之前,检查它的中断频率。先检查其中断的频率,然后再决定一个实例。 是时候投标了 设置你要为你所选的 Spot 实例支付的最大数额。请注意,它只会在市场价格符合你的报价(或更低)情况下运行。我们的经验是把最高价格设定在按需定价的水平。 分组管理 Spot 实例 通过这种方式,你就能够同时请求多个实例类型,从而提高获取 Spot 实例的几率。为使上述所有功能正常工作,请准备好在配置、设置和维护任务上花费大量时间(除非你决定将其自动化)。 想了解更多关于现货实例的信息?这里有一份完整的指南:《Spot 实例:如何将亚马逊云科技、Azure 和 GCP 的成本降低 90%》(Spot instances: How to reduce AWS, Azure, and GCP costs by 90%) 不要被储蓄计划诱惑 提前一年或三年,以较低的价格预订容量是个有趣的选择。既然你已经确定了无论如何都要用这个服务,那为何不预先购买呢?但是,预先购买只是看上去容易。预测云计算的费用很难。即使是那些有专门负责云计算费用优化的公司也会失手。 在不清楚未来一到三年内团队需要多大容量的情况下,应该如何提前规划?这主要是像预留实例和储蓄计划等产品的问题。 关于预留容量,你需要了解如下内容: 预留实例的工作方式为“非用即失”,每闲置一小时,你的团队就会损失一小时(包括你可能获得的任何经济利益)。如果你对某项特性资源或者支出作出承诺,那么会被认为合同期间你的需求不会发生变化。但即便是一年的承诺在云端也是永恒的。一旦需求超过了预期,那么你就要为其付出代价——就像 Pinterest 那样。一旦出现新问题,你的团队就会被迫投入更多资源。或者,你会发现自己已经支付了未被充分利用的容量。无论是哪一种情况,你都是输家。与云计算提供商签署这样的合同,你将面临供应商锁定的风险。今后的1~3年中,你会一直依赖这个供应商并接受他们提出的任何变更。如何选择最佳的保留资源是非常复杂的(只需参阅上文的第 3 点)。 这还只是冰山一角。我们写了一整篇文章深入探讨了预留实例的细节:《亚马逊云科技保留实例和节省计划真的能降低费用吗?》(Do AWS Reserved Instances and Savings Plans really reduce costs?) 选择合适的工具 为控制云计算费用,公司会采用多种费用管理、优化策略和解决方案: 费用可见性和分配。利用各种费用分摊、监测和报告的工具找出费用的源头。其中,实时费用监控尤其有效,因为一旦超出了设定阈值,监控系统就会立刻发出警报。Azure 上的一项计算操作使 Adobe 的一个团队花费超过了计划的 50 万美元云计算费用。这种情况用一个警报就能阻止。成本预算和预测。如果你处理了足够的历史数据并对未来需求有一个合理的认知,就可以估算出你的团队将需要多少资源,并计划你的预算。这听起来很简单?事实并非如此,Pinterest 的故事很好地说明了这一点。传统成本优化解决方案。你可以在此处结合前两点中获得的所有信息,建立一个全面的云计算开支图表并找出可能提高的目标。市面上很多解决方案都能帮到你,比如 Cloudability 或 VMware 的 CloudHeath。但是大部分时间,他们只是给出了一些让工程师手动实施的静态建议。自动的、云原生的成本优化。这是减少云端费用最有效的方法。这种类型的优化可以全天候节省 50% 以上的成本,而无需团队进行额外的工作,即便是手动优化也是如此。能够迅速响应资源需求和价格变动的具备完全自主和自动化的解决方案是最好的。云自动化实现最大节约 从以上几点可以看出,手工成本优化是一个复杂而耗时的过程。 无论工程师的技能水平如何,许多成本优化任务都不适合人工去做。 你会发现分配、理解、分析和预测云计算的费用有多难。然后,你需要进行基础架构调整、调查定价计划、启动更多实例并执行各种其他任务来创建具有成本效益的基础架构。 自动化可以使你很容易地做下面的事情: 出于以下原因,自动化解决方案在可以摆脱上述所有任务外,还能带来更多价值: 选择最具成本效益的实例类型和大小,以满足应用程序的需求。自动增加和减少你的云资源,以应对需求的高峰和下降。移除不使用的资源来避免浪费。利用 Spot 实例,并能优雅地管理中断。自动存储和备份、安全和合规性管理以及配置和设置更化,以帮助你在其他方面节省资金。 最重要的是,自动化平台能够实时实施所有这些修改,并且能够把握云计算成本优化的时机。 我们使用 AWS On-Demand 和 Spot 实例的组合来运行在 8 个 CPU 和 16GB 内存上运行的应用程序。然后我们决定用 CAST AI 来检查配置是否需要优化。这个平台推荐迁移到 INF1 的 Spot 实例。不过,这不是一个昂贵的、ML专门的 GPU 实例吗?事实证明,当时那个实例实际上比我们使用的通用计算实例便宜。如果没有自动化,我们就会失去这个隐藏的宝藏。 从 Zoom、Spotify 或 La Fourche 等中可以看出,降低云成本会对企业利润产生重大影响。这通过云计算费用优化便戳手可得。但是,诸如费用监控和报表之类的标准策略只能让你用巨大的工程师时间成本换取一半的成果。原文链接: https://cast.ai/blog/the-ultimate-guide-to-cloud-cost-optimization/
| 4,185 | 1,643,380,863,855 |
InfoQ
|
192 |
应云而生,一文看懂端到端的可观测体系构建
|
2021 年初,可观测性的概念在国内市场还鲜少有人提到,但到了 2021 年下半年,有关可观测性的研讨和实践却开始如雨后春笋般层出不穷,知名公司 Grafana 甚至直接将原来的监控工具改成了可观测性技术栈并推了一系列服务。可观测性真的能够解决传统监控体系面临的诸多问题吗?又该如何构建可观测体系?本期,亚马逊云科技 Tech Talk 特别邀请到观测云 CEO 蒋烁淼带来分享《构建端到端的可观测体系最佳实践》。可观测性为何突然“火出圈”可观测性看似是个新鲜词,但其实它的起源远比我们的认知要早得多。可观测性最早是匈牙利裔工程师鲁道夫·卡尔曼针对线性动态系统提出的概念。若以信号流图来看,若所有的内部状态都可以输出到输出信号,此系统即有可观测性。1948 年伯特·维纳发表的著作《控制论 - 关于动物和机器中控制和通讯的科学》同样提到了可观测性。控制理论中的可观测性是指系统可以由其外部输出推断其内部状态的程度。随着云计算的发展,可观测性的概念逐渐走入计算机软件领域。为什么近期可观测性的热度显著提升了呢?蒋烁淼认为,这很大程度是由于系统复杂性的增强。IT 系统的本质是一个数字化的系统,过去,系统本身结构简单,多为单体式架构,且基础设施相对固定,可以通过监控去查看系统。但随着云原生时代的到了,管理对象从单一主机逐渐变成云,后来又变成云原生的分布式复杂系统,传统的面向基础设施的监控、简单的日志和简单的 APM 没有办法解决问题,因此,需要构建系统完整的可观测性。可观测性中使用的主要数据类是指标、日志、链路。它们通常被称为“可观测性的三大支柱”。指标(Metric):指标是连续时间下的系统的值的记录,基础指标通常用于描述两种数据类型,一种是计数(Count),一种是计量(Gauge)。日志(Log):系统 / 应用输出的时间相关的记录,通常由系统 / 软件开发人员输出,方便定位系统的错误和状态。链路(Tracing):基于有向无环图构建的软件各个模块直接地调用关系。三大支柱至关重要,开发者正是通过这三个维度的数据来判定应用系统的状况。和传统监控相比,可观测体系拥有诸多优势。传统监控面向已知的问题,只能去发现和通知那些已知可能会发生的故障,如:CPU>90%。主要监控对象是 IT 对象,仅面向服务端的组件,解决基础的运维问题。而可观测性则能够协助发现并定位未知的问题。其核心是不断收集系统产生的各种核心指标与数据,通过数据分析的方式来保障和优化业务,如:发现小程序客户端在某个城市的支付失败率非常高,从而判断是否是代码层面上导致这样一个异常。可观测性主要监测的对象不仅仅是 IT 对象,还有应用和业务,面向云、分布式系统、APP/ 小程序。在分享中蒋烁淼谈到,随着基础设施的发展,传统监控将逐步被可观测性所取代。他将构建可观测性的价值总结为以下五点:让 SLO 可视化,清晰的目标和现状发现与定位未知问题减少团队间的澄清成本降低业务异常造成的无法预知的经济损失提升最终用户体验和满意度开源 or SaaS,可观测性构建正确的打开方式是? 相比于传统监控体系,构建可观测性既然有诸多优势和价值。那么该如何构建可观测性呢?首先,需要尽可能地收集所有组件系统的所有相关⾯的基础数据,包括云、主机、容器、Kubernetes 集群,应⽤和各种终端。实时收集这些数据的成本并不⾼,但如果没有收集,⼀旦系统故障需要排查分析的时候,就⽆法有效评估当时的状态。其次,要明确系统可观测性构建的责任。谁是这个组件的构建者,谁负责定义这个组件的 SLI,谁负责收集所有的相关基础数据并构建相应的仪表盘以及谁为相关的组件的 SLO 负责,需要责任到人。第三,开发者需要为可观测性负责。开发者要将⾃⼰开发系统的可观测性数据暴露作为软件质量⼯程的⼀部分,如果说单元测试是为了保证最⼩单元代码的可⽤性,那么开发者标准化暴露可观测性基础数据也将作为⽣产系统可靠性的必要条件。第四,需要建⽴统⼀的指标、⽇志、链路规范,统⼀团队的⼯具链。即采取相同的指标命名规范,相同的⽇志格式,相同的链路系统。如果在遵循 OpenTelemetry 标准后,仍有不同,则可定义串联整个系统的统⼀TAG 规范,如:所有错误都是 state:error。第五,要持续优化改进整体可观测性。针对整个系统的可观测,包括数据收集,视图构建,TAG 体系建⽴,这些步骤均需要时间,不能因为覆盖度或者构建的仪表盘未能在某次事故中发挥作⽤而继续⽤过去的⽅式处理问题。每次未被观测的故障都是进⼀步提升可观测范围的绝佳机会。从可观测性构建的路径不难看出,其过程是非常复杂的。那么,主流的构建方式有哪些?蒋烁淼介绍了两种最为常见的可观测性构建方式,分别是通过开源的方式构建和采用 SaaS 产品进行构建。得益于开源生态的蓬勃发展,为可观测性的构建提供了诸多选择。采用开源的方式构建,需要构建者从前端的数据抓取到后端的数据处理,包括数据展示、告警等周边功能的相关知识有非常详尽的了解掌握。因此,这种方式适合于那些有足够实力或者学习成本及时间成本相对充足的团队。相比于开源的方式,采用成熟的 SaaS 产品构建可观测性是一种更加高效的方式。蒋烁淼以观测云的产品为例,介绍了这种方式的四点优势。不做缝合怪:在服务器内仅安装一个 agent 就可以收集这台主机所有相关的系统数据,避免成堆的 agent 和配置项。不做小白鼠:能提供端到端的完整覆盖,并能做到开箱即用,避免良莠不齐的集成,如:观测云就能够支持超过 200 种技术栈,实现端到端的覆盖。不封闭、高度可编程:可实现轻松构建任意的可观测场景,甚至将业务数据参数引入到整体的观测中,灵活性强。此外,还能够避免死板的集成,拥有强大的二次开发能力。不留隐患:观察云对用户侧代码永久开源,单向通讯,不会也不能向客户环境下发指令。所有的数据收集默认脱敏且用户可对整个过程进行控制。前面提到,可观测性的构建是应“云”而生的,不仅如此,观测云本身也是完完全全的云原生产品。观测云中整套产品包括数据平台,都是部署在亚马逊云科技的 EKS 之上的,并基于容器进行编排。观测云的整体架构非常简单,即通过一个 agent 将海量数据进行统一,进入数据平台,然后通过平台的能力提供完整的可观测性。整个系统分为核心平台层、Web 层和数据接入层,核心平台层是完全由观测云进行自研的,没有进行开源。上层的 Web 层,在核心数据处理平台上有一套与平台对接的 API。蒋烁淼说:“对于客户来说,更推荐直接选择观测云的 SaaS 产品,如果愿意,客户也可以在亚马逊上完全孤立地进行部署,也是非常方便的,只不过整体费用要比直接采用 SaaS 产品高得多。为什么会选择亚马逊云科技?主要是基于以下考量:观测系统本身要有高一个数量级的可靠性和更高的 SLA:观测云是帮助客户构建可观测性系统的平台,因此需要自身拥有很高的可靠性,如果不能提供足够高的可靠性,一旦观测系统出现故障,便无法及时提醒客户,提供详细的分析更无从谈起。此外,选择云服务本身也能够让一部分观测云平台的 SLA 由亚马逊来提供。更成熟的 Marketplace:用户可通过中国的团队直接在亚马逊上进行产品购买,亚马逊云科技会把产品消费直接在 Marketplace 上记账。需要说明的是,观测云的产品是根据数据规模来付费的,当用户没有数据量的时候几乎是免费的。全球性:亚马逊云科技能够提供比海外产品更好的兼容性,尤其对于中国的技术栈整体成本更低。蒋烁淼在分享中透露:“在春节过后,观测云将会在海外亚马逊云科技节点部署我们的观测平台。观测云希望用中国力量为中国的出海客户提供比海外产品更好的、成本更低的选择。”借力 APN 融入亚马逊云科技全球网络:观测云希望借助亚马逊云科技强大的生态,将可观测性作为最终对客户提供服务的手段,并希望能够借力 APN,帮助更多用户了解可观测性的效果,这个也是观测云选择亚马逊科技非常重要的原因之一。除了是完完整整的云原生产品,在观测云的系统中,还包含几个非常有趣的设计。首先,在采集侧:观测云把第三方指标, 日志, 链路采集协议统一转为观测云协议插件式采集栈设计, 各插件之间采用 go 协程隔离, 互不影响主动式资源消耗控制防止 agent 端资源压力过大 (cgroup 控制采集资源占用)被动式资源消耗控制防止 server 端压力过大 (背压机制)潮汐机制的分布式日志解析 (pipeline)其次,在存储查询侧,观测云统一了查询语法,用户无需关心底层数据存储,简单易上手。第三,在分析侧,观测云实现了全部数据串联,并构建了统一的查看器,将原始数据以类似多维分析和列表的方式进行分析,用户可以去构建自己的查看器。此外,由于数据量大,为避免前端造成用户浏览器压力过大,观测云可以按照指定百分比来采集数据,并提供 SLO/SLI 的面板,帮助客户构建自己应用系统整体可靠性的度量方式。构建端到端的可观测体系实践案例在对概念层和技术层面进行详细的介绍后,蒋烁淼以某电商客户作为案例,就具体该如何构建端到端的可观测体系进行了讲解。案例中电商客户面临的问题是:交易流程从客户下单到仓库到最后财务记账,一个订单需要将近 10 次接口调用,其中任何环节都有可能出现问题,例如程序问题,网络异常,库存卡住等。目前没有有效的监控工具能够把对订单流程进行监控,出问题一般都是门店员工反馈过来,然后运维人员根据订单去参照流程去查询问题出在哪里,非常被动,且工作量较大,每天需要运维人员去查询业务接口是否走完。针对该客户构建端到端的可观测体系的过程大致分为四步:第一步,梳理观测对象集成接入。采用观测云的产品,整个接入过程仅需要 30 分钟左右就可以完成。第二步,统一查看与分析。具体步骤为,首先,对用户体验进行监测,然后查看该行为下的和后端打通的链路,并点击具体的链路进入链路查看器,最后查看相应链路的日志。第三,通过查看器实现业务的可观测。第四,通过 SLO 监控器预警。通过观测云完成端到端的可观测性构建后,该电商客户将订单流程节点状态可视化,可实现以订单号检索订单流程节点状态,流程卡在哪个环节,报错信息是怎样一目了然。从用户操作界面、网络、后端服务到依赖的中间件、操作系统,任意故障都能够提供清晰的溯源与分析。不仅如此,观测云还提供实时异常监控告警,确保问题能够被及时发现并及时处理。除电商领域的应用外,观测云的 SaaS 产品还适用于非常多应用场景。在观测云的官网有完整的系统可观测性构建的最佳实践,感兴趣的小伙伴可直接去观测云官网查看相应文档。官网链接 https://www.guance.com/?techtalk=
| 5,089 | 1,643,358,134,488 |
InfoQ
|
193 |
Java之父独家专访:我可太想简化一下 Java了
|
IEEE Spectrum 2021 年度编程语言排行榜新鲜出炉,不出意料,Java 仍稳居前三。自 1995 年诞生以来,Java 始终是互联网行业炙手可热的编程语言。近年来,新的编程语言层出不穷,Java 如何做到 26 年来盛行不衰?面对技术新趋势,Java 语言将如何发展?在亚马逊云科技 re:Invent 十周年之际,InfoQ 有幸对 Java 父 James Gosling 博士进行了一次独家专访。James Gosling 于 2017 年作为“杰出工程师”加入亚马逊云科技,负责为产品规划和产品发布之类的工作提供咨询支持,并开发了不少原型设计方案。在本次采访中,James Gosling 谈到了 Java 的诞生与发展、他对众多编程语言的看法、编程语言的未来发展趋势以及云计算带来的改变等问题。Java 的诞生与发展InfoQ:Java 语言是如何诞生的?是什么激发您创建一门全新的语言?James Gosling:Java 的诞生其实源于物联网的兴起。当时,我在 Sun 公司工作,同事们都觉得嵌入式设备很有发展前景,而且随着设备数量的激增,整个世界正逐渐向智能化的方向发展。我们投入大量时间与不同行业的从业者进行交流,也拜访了众多东南亚、欧洲的从业者,结合交流心得和行业面临的问题,决定构建一套设计原型。正是在这套原型的构建过程中,我们深刻地意识到当时主流的语言 C++ 存在问题。最初,我们只打算对 C++ 做出一点小调整,但随着工作的推进、一切很快“失控”了。我们构建出不少非常有趣的设备原型,也从中得到了重要启示。因此,我们及时对方向进行调整,希望设计出某种适用于主流业务和企业计算的解决方案,这正是一切故事的开端。InfoQ:Java 作为一门盛行不衰的语言,直到现在依旧稳居编程语言的前列,其生命力何在?James Gosling:Java 得以拥有顽强的生命力背后有诸多原因。首先,采用 Java 能够非常便捷地进行多线程编程,能大大提升开发者的工作效率。其次,Java 提供多种内置安全功能,能够帮助开发者及时发现错误、更加易于调试,此外,各种审查机制能够帮助开发者有效识别问题。第三,热修复补丁功能也非常重要,亚马逊开发者开发出的热补丁修复程序,能够在无须停机的前提下修复正在运行的程序,这是 Java 中非常独特的功能。第四,Java 拥有很好的内存管理机制,自动垃圾收集大大降低了内存泄露或者双重使用问题的几率。总之,Java 的设计特性确实提升了应用程序的健壮性,特别是极为强大的现代垃圾收集器方案。如果大家用过最新的长期支持版本 JDK17,应该对其出色的垃圾收集器印象深刻。新版本提供多种强大的垃圾收集器,适配多种不同负载使用。另外,现代垃圾收集器停顿时间很短、运行时的资源消耗也非常低。如今,很多用户会使用体量极为庞大的数据结构,而只要内存能容得下这种 TB 级别的数据,Java 就能以极快的速度完成庞大数据结构的构建。InfoQ:Java 的版本一直以来更新得比较快,几个月前发布了最新的 Java17 版本,但 Java8 仍然是开发人员使用的主要版本,新版本并未“得宠”,您认为主要的原因是什么?James Gosling:对继续坚守 Java8 的朋友,我想说“是时候作出改变了”。新系统全方位性更强、速度更快、错误也更少、扩展效率更高。无论从哪个角度看,大家都有理由接纳 JDK17。确实,大家在从 JDK8 升级到 JDK9 时会遇到一个小问题,这也是 Java 发展史中几乎唯一一次真正重大的版本更替。大多数情况下,Java 新旧版本更替都非常简单。只需要直接安装新版本,一切就能照常运作。长久以来,稳定、非破坏性的升级一直是 Java 的招牌特性之一,我们也不希望破坏这种良好的印象。InfoQ:回顾当初,你觉得 Java 设计最成功的点是什么?相对不太满意的地方是什么?James Gosling:这其实是一种博弈。真正重要的是 Java 能不能以更便利的方式完成任务。我们没办法设想,如果放弃某些问题域,Java 会不会变得更好?或者说,如果我现在重做 Java,在取舍上会有不同吗?区别肯定会有,但我估计我的取舍可能跟大多数人都不一样,毕竟我的编程风格也跟多数人不一样。不过总的来讲,Java 确实还有改进空间。InfoQ:有没有考虑简化一下 Java?James Gosling:我可太想简化一下 Java 了。毕竟简化的意义就是放下包袱、轻装上阵。所以JavaScript 刚出现时,宣传的就是精简版 Java。但后来人们觉得 JavaScript 速度太慢了。在 JavaScript 的早期版本中,大家只是用来执行外部验证之类的简单事务,所以速度还不太重要。但在人们打算用 JavaScript 开发高性能应用时,得出的解决方案就成了 TypeScript。其实我一直觉得 TypeScript 的定位有点搞笑——JavaScript 就是去掉了 Type 的 Java,而 TypeScript 在 JavaScript 的基础上又把 type 加了回来。Type 系统有很多优势,特别是能让系统运行得更快,但也确实拉高了软件开发者的学习门槛。但如果你想成为一名专业的软件开发者,那最好能克服对于学习的恐惧心理。Java 之父的编程语言之见InfoQ:一款优秀的现代化编程语言应该是怎样的?当下最欣赏哪一种编程语言的设计理念?James Gosling:我个人还是会用最简单的评判标准即这种语言能不能改善开发者的日常工作和生活。我尝试过很多语言,哪种更好主要取决于我想干什么。如果我正要编写低级设备驱动程序,那我可能倾向于选择 Rust。但如果需要编写的是用来为自动驾驶汽车建立复杂数据结构的大型导航系统,那我几乎肯定会选择 Java。InfoQ:数据科学近两年非常热门,众所周知,R 语言和 Python 是数据科学领域最受欢迎的两门编程语言,那么,这两门语言的发展前景怎么样?因具体的应用领域产生专用的编程语言,会是接下来编程语言领域的趋势之一吗?James Gosling:我是领域特定语言的铁粉,也深切认同这些语言在特定领域中的出色表现。大多数领域特定语言的问题是,它们只能在与世隔绝的某一领域中发挥作用,而无法跨越多个领域。这时候大家更愿意选择 Java 这类语言,它虽然没有针对任何特定领域作出优化,但却能在跨领域时表现良好。所以,如果大家要做的是任何形式的跨领域编程,肯定希望单一语言就能满足所有需求。有时候,大家也会尝试其他一些手段,希望在两种不同的领域特定语言之间架起一道桥梁,但一旦涉及两种以上的语言,我们的头脑通常就很难兼顾了。InfoQ:Rust 一直致力于解决高并发和高安全性系统问题,这也确实符合当下绝大部分应用场景的需求,对于 Rust 语言的现在和未来您怎么看?James Gosling:在我看来,Rust 太过关注安全了,这让它出了名的难学。Rust 解决问题的过程就像是证明定理,一步也不能出错。如果我们只需要编写一小段代码,用于某种固定不变的设备,那 Rust 的效果非常好。但如果大家需要构建一套具有高复杂度动态数据结构的大规模系统,那么 Rust 的使用难度就太高了。编程语言的学习和发展InfoQ:编程语言倾向于往更加低门槛的方向发展,开发者也更愿意选择学习门槛低的开发语言,一旦一门语言的学习成本过高,开发者可能就不愿意去选择了。对于这样的现象,您怎么看?James Gosling:要具体问题具体分析。我到底需要 Rust 中的哪些功能特性?我又需要 Java 中的哪些功能特性?很多人更喜欢 Python,因为它的学习门槛真的很低。但跑跑基准测试,我们就会发现跟 Rust 和 Java 相比,Python 的性能实在太差了。如果关注性能,那 Rust 或 Java 才是正确答案。另外,如果你需要的是只有 Rust 能够提供的那种致密、安全、严谨的特性,代码的编写体量不大,而且一旦出问题会造成严重后果,那 Rust 就是比较合适的选择。只能说某些场景下某些语言更合适。Java 就属于比较折衷的语言,虽然不像 Python 那么好学,但也肯定不算难学。 InfoQ:当前,软件项目越来越倾向采用多语言开发,对程序员的要求也越来越高。一名开发人员,应该至少掌握几种语言?最应该熟悉和理解哪些编程语言?James Gosling:我刚刚入行时,市面上已经有很多语言了。我学了不少语言,大概有几十种吧。但很多语言的诞生本身就很荒谬、很没必要。很多语言就是同一种语言的不同方言,因为它们只是在用不同的方式实现基本相同的语言定义。最让我振奋的是我生活在一个能够致力于解决问题的世界当中。Java 最大的吸引力也正在于此,它能帮助我们解决几乎任何问题。具有普适性的语言地位高些、只适用于特定场景的语言则地位低些,对吧?所以到底该学什么语言,取决于你想解决什么问题、完成哪些任务。明确想要解决什么样的问题才是关键。 InfoQ:2021 年,技术圈最热门的概念非元宇宙莫属,您认为随着元宇宙时代的到来,新的应用场景是否会对编程语言有新的需求?可否谈谈您对未来编程语言的理解?James Gosling:其实人们从很早开始就在构建这类虚拟世界系统了,所以我觉得元宇宙概念对编程不会有什么影响。唯一的区别是未来我们可以漫步在这些 3D 环境当中,类似于大型多人游戏那种形式。其实《我的世界》就是用户构建型元宇宙的雏形嘛,所以这里并没有什么真正新鲜的东西,仍然是游戏粉加上社交互动机制的组合。我还想强调一点,虚拟现实其实没什么意思。我更重视与真实人类的面对面互动,真的很难想象自己有一天会跟独角兽之类的虚拟形象聊天。写在最后:云计算带来的改变InfoQ:您最初是从什么时候或者什么具体事件开始感受到云计算时代的到来的?James Gosling:云计算概念的出现要远早出云计算的真正实现。因为人们一直把计算机摆在大机房里,再通过网络连接来访问,这其实就是传统的 IT 服务器机房,但这类方案维护成本高、建造成本高、扩展成本也高,而且对于人员技能等等都有着很高的要求。如果非要说,我觉得多租户云的出现正是云计算迎来飞跃的关键,这时候所有的人力与资本支出都由云服务商负责处理,企业客户再也不用为此烦心了。他们可以单纯关注自己的业务重心,告别那些没完没了又没有任何差异性可言的繁重工作。InfoQ:云计算如今已经形成巨大的行业和生态,背后的根本驱动力是什么?James Gosling:云计算的驱动力实际上与客户当前任务的实际规模有很大关系。过去几年以来,数字化转型已经全面掀起浪潮,而这波转型浪潮也凸显出新的事实,即我们还有更多的探索空间和机遇,例如,现在人们才刚刚开始探索真正的机器学习能做些什么,能够以越来越有趣且多样的方法处理大规模数据,开展数据分析,获取洞见并据此做出决策,而这一切既是客户需求,也为我们指明了接下来的前进方向。亚马逊云科技做为云科技领导者,引领着云科技的发展,改变着 IT 世界,切实解决了企业客户的诸多痛点。
| 12,929 | 1,643,354,529,682 |
InfoQ
|
194 |
湖仓一体会成为企业的必选项吗?
|
作为一种新兴架构,湖仓一体在扩展性、事务性以及灵活度上都体现出了独有的优势,也正因如此,无论在技术圈还是资本圈,湖仓一体都受到了前所未有的关注度。虽然湖仓一体的优势不言而喻,但其实际在落地过程中还是面临着巨大的挑战,这也让我们不禁发问:湖仓一体架构是否会成为企业的必选项?面向未来,数据平台架构将会朝哪个方向演进?湖和仓是大数据架构的两种设计取向湖仓一体出现的契机是什么?想要回答这个问题,需要结合数据仓库与数据湖各自的优劣势来看。拿数据湖来说,它的特点便是能够保障数据的完整性,因为它存储了结构化数据、非结构化数据以及半结构化数据,其更多会应用在机器学习的场景中。与此同时,由于数据湖本质上就是一个文件存储系统,所以它存在的问题也较为明显:数据不够规范,无法用于数据分析。除此以外,数据湖的维护成本非常高,如果数据量持续上涨,企业需要能力较强的 IT 建设团队。反观数据仓库,如传统数据仓库 Teradata、新兴的云数据仓库系统 Redshift、OushuDB、MaxCompute 等等,它们均没有对外暴露文件系统,而是提供了数据进出的服务接口。由于数据仓库存储的都是结构化数据,所以它支撑业务决策的效率自然更高。当然,存储结构化数据的前提是事先建模,这也意味着数据仓库的启动成本要高于数据湖。根据上述不难看出,数据仓库和数据湖是大数据架构的两种设计取向,它们之前一直是并行存在的。由于企业对于数据的需求是一个渐进式的探索过程,前期较为注重成长性的企业,就需要选择数据湖架构;当企业经过了数据创新探索阶段以后,随着数据规模不断增长,处理数据的成本不断增加,出于对业务长远发展的角度考虑,企业就需要数据仓库架构。正是由于两者各自特有的优势和局限性,让企业在进行大数据系统设计时也陷入了困境。业务驱动架构演进,湖仓一体走向舞台中央那么业界是否存在一种方案,同时兼顾数据湖的灵活性和云数据仓库的成长性呢?事实上,架构的演进是由业务驱动的,如果业务侧提出了更高的性能要求,那么在大数据架构建设的过程中,就需要在仓和湖的建设上各自做技术升级。如果企业的数据增长很快,在 PB 级别甚至 10PB 级别,同时还要兼具高性能的数据分析,包括满足从 T+1 到 T+0 的处理能力,那就必须考虑湖仓一体的架构。现阶段,各大云厂商也陆续推出了自己的“湖仓一体”技术方案,如亚马逊云科技 Redshift Spectrum、微软 Azure Databricks、阿里云 MaxCompute+DataWorks、华为云 Fusion Insight 等等。在大方向趋同的背景下,各大厂商也会基于自身情况调整落地路径,如 Redshift 、MaxCompute 是以数仓为核心,支持访问数据湖;Databricks 则是在数据湖架构上建立数据仓库。综合来看,湖仓一体架构的主要特征表现在以下几个方面:统一数据集成,支持分析结构化和非结构化数据;支持各种工作负载,同时适用于分析师和数据科学家;打通元数据,数据和元数据可治理;事务支持,高性能查询和检索能力;极致弹性,降低数据使用成本。湖仓一体解决方案应运而生如果从落地难度的角度出发,湖仓一体本身的技术挑战对企业而言是不容小觑的,因为它要解决“数据湖 + 数据仓库”融合以后的数据流转问题。如果要落地湖仓一体架构,企业首先需要解决技术选型难题;其次是仓或湖到“湖仓一体”的模型迁移、数据迁移以及应用迁移工作;此外,还要保证迁移后的业务一致性和数据的正确性;再之,还需要建立企业自己的数据科学家团队,在湖仓一体平台上去挖掘业务数据价值。据了解,不乏一些企业对“湖仓一体”的技术认知没有问题,但在管理上却遇到了巨大的挑战。比如,有些企业的组织结构分为数据仓库部门和大数据部门,对数据的管理权限是分开的,这也天然形成了数据鸿沟,如果在组织结构上不做调整,数据共享和价值发现等都会遇到很大难题。为了帮助企业降低湖仓一体架构的落地门槛,很多厂商也相继推出了湖仓一体解决方案,偶数科技便是其中之一。由于偶数科技是一家独立的厂商,所以相比于其他云厂商推出的解决方案,它防止了厂商绑定的现象,可以支持部署多云、混合云及跨云;其次,它还能够支持虚拟计算集群,虚拟计算集群之间资源可以隔离,相互不影响;另外由于存算分离的特性,偶数湖仓一体架构的计算和存储分别可以横向扩展,单集群可以支持上万节点,查询性能更高。除此以外,偶数湖仓一体的关键技术还包括可插拔存储、弹性扩展、支持一致性事务、多级资源管理等能力。相比于湖、仓各一套集群再打通,偶数科技这种湖仓一体的架构的确更加简单,也正是因为这种极简化,使其在运维人员、硬件投入等方面的投入大大减少。关于湖仓一体架构的未来畅想虽然湖仓一体是当前的大热点,但面向未来,它还有一系列问题等待被解决:据 Gartner 预测,湖仓一体架构还需要支持三类实时场景:第一类是实时持续智能;第二类是实时按需智能;第三类是离线按需智能,这三类场景将可以通过快照视图、实时视图以及实时批视图提供给数据消费者,这同样是未来湖仓一体架构需要持续演进的方向。此外,湖仓一体平台还需要解决计算资源虚拟化的问题,并需要支持混合负载,即不同的业务场景可以使用计算资源隔离的虚拟计算集群,这也是云计算的多租户特性在湖仓一体数据平台上的体现。据了解,偶数科技的下一步发力方向便是,基于上述提及的问题,在 2022 年持续进行技术迭代,并会推出兼容各公有云的湖仓一体数据库版本。写在最后回归开篇的提问:湖仓一体是否会成为每个企业构建大数据栈的必选项?答案几乎是肯定的,对于高速增长的企业来说,选择湖仓一体架构来替代传统的独立仓和独立湖,将成为不可逆转的趋势。很多企业出于 IT 建设能力的限制,导致很多事情没法做,但通过湖仓一体架构,之前被限制的数据价值得以充分发挥。如果企业能够在注重数据价值的同时,并有意识地把它保存下来,企业就完成了数字化转型的重要命题之一。我们也有理由相信,伴随着企业的数字化转型,湖仓一体架构也有着更加广阔的发展空间。
| 2,945 | 1,643,249,838,520 |
InfoQ
|
195 |
解读编程语言的2021:Go与Rust走向「成熟」,Kotlin、wasm、Julia「无限生长」
|
本文是“2021 InfoQ 年度技术盘点与展望”系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦编程语言领域在 2021 年的重要进展、动态,希望能帮助你准确把握 2021 年编程语言领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。“InfoQ 年度技术盘点与展望”是 InfoQ 全年最重要的内容选题之一,将涵盖架构、AI、大数据、大前端、云计算、数据库、中间件、操作系统、开源、编程语言十大领域,后续将聚合延展成专题、迷你书、直播周、合集页面,在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。特此感谢· 阿里云程序语言与编译器团队负责人 李三红· Go 语言编程专家 郝林· Julia 社区核心成员 田俊、陈久宁· 独立咨询顾问 /《Rust 编程之道》作者 张汉东· JetBrains 技术专家 / 布道师 范圣佑· 英特尔高级技术经理 王鑫对本文的贡献。他们都以直接或间接的形式,参与建设该篇文章,部分内容还以特别策划的形式独立成文,出现在盘点合集中。可以说,他们的真知灼见,是该盘点能与大家见面的关键。需要声明的是,编程语言不能算作一个真正意义上的“技术领域”,因此它在本系列盘点中,显得尤为特殊。通常,当我们谈及一个独立的技术领域时,往往意味着该技术存在相对独立的商业价值、产业链、开发者群体。但编程语言只是个实现工具,同时又是整个 IT 世界的基础设施,这种矛盾让对编程语言的盘点显得有点沉闷,却又非常必要。在电影《天国王朝》里,主角贝里安问萨拉丁,耶路撒冷有什么意义?萨拉丁回答道:“Nothing”,随后又说道:“Everything”。同样的台词,套用在“编程语言”身上,或许刚好合适。另外需要指出的是,IEEE 将编程语言以四个标签划分,分别是:用于开发网站和应用的语言(Web)、用于企业、桌面和科学应用的语言(Enterprise)、用于移动设备端的语言(Mobile)以及用于嵌入式环境的语言(Embedded)。但在本文中,凡在超过 2-3 个标签领域都有广泛应用的编程语言,我们将其称之为“通用型语言”,以将 C/C++、Java 等语言和 JavaScript、R 等语言做好区分。我们将先对 2021 编程语言宏观层面的发展情况做个回顾,再对 Kotlin、Rust、Go、Julia、WebAssembly 五种较有代表性语言的具体发展作垂直解析。2021 编程语言核心趋势通用型语言:关注硬件性能及异构编程近两年业界出现一种声音:摩尔定律已经失效了。这主要源于主流硬件厂商在 14nm 工艺上的长时间停滞,以及英伟达 CEO 黄仁勋在 2019 年 CES 展会上的发言:“摩尔定律过去是每 5 年增长 10 倍,每 10 年增长 100 倍。而如今,摩尔定律每年只能增长几个百分点,每 10 年可能只有 2 倍。因此,摩尔定律结束了。”诚然,这个判断所引起的争议是非常大的,无论是苹果 M1 芯片,还是亚马逊云科技的 Graviton3 都在晶体管密度上延续了“摩尔定律”的判断。但在所有担忧背后,是 IoT 、AI,乃至元宇宙引发的越来越旺盛的算力需求与硬件工艺极限之间的矛盾。放在今日,则深刻地影响了通用型编程语言的发展——从早期如何追求单核环境下的极致性能,到今日如何充分利用多核算力。对协程的支持,就很好地反映了主流编程语言关注点的转移。2021 最重要的一个动态,当数 2021 年 11 月第三周,Java 即将支持虚拟线程(协程)的消息。消息来自 Oracle 提交的一份 JDK 增强建议(JEP)草案,草案要求将虚拟线程作为 Java 标准版的一部分进行预览。草案中提到虚拟线程将补充 Java 的平台线程(代表操作系统线程),采用轻量级的用户模式线程实现,将更有效地利用可用的硬件,并大大降低成本。虚拟线程目的是更好地支持编写和维护高吞吐量并发应用程序。这则消息,意味着最主流的编程语言已经全部支持或正在支持协程,包括 C++、Python、C#、Go(原生) 。这也代表着对硬件性能利用率的关注,已成为各家编程语言的大势所趋。Python 是其中尤为典型的例子,与 Google TPU 、TensorFlow 生态的高度契合,助其第五次问鼎 TIOBE 年度编程语言。另外需要重点提及的,是异构编程。异构编程是对“编程语言 & 硬件性能”这个议题在宽度上的延展。2021 年,华为发布了北冥多样性计算融合架构,其中包含了毕晟 C++ 及其他组件,而这里的毕晟 C++ ,主要是服务于跨 CPU、GPU 算力编程的需求。这是国产基础软件,在编程语言层面向前迈进的一大步。如果从这个时间点向前查找,我们会发现在 2020 年 10 月,英特尔发布了 oneAPI 1.0,目标在于简化跨不同计算体系结构的应用程序开发;2008 年,苹果带头创建了跨平台计算框架 OpenCL;而在更早的十余年前,英伟达就发布了 CUDA,用于支持 GPU 编程。问题在于,异构编程,无论在语言还是框架层面,学习成本都非常的高。从本质上讲,异构编程要求开发者对硬件之间的差异性有深刻的洞察,并能结合硬件差异做异常精细的性能调优。这导致团队引入后,研发效率相对降低(学习成本、迁移成本)。所以常规的通用型语言,也会提供异构编程接口作为折中,比如 Java TornadoVM 就是用于支持异构硬件的特性。况且,异构编程底层支持工具的推出和更新,重度依赖于自研硬件的各个厂商。但当今的硬件市场,不但没有收敛,反而有更加碎片化的趋势。各家的异构编程框架,往往只注重适配自己的体系,对其他的行业主流硬件既不愿过问,也没有足够的资源过问,这也为底层开发者的工作开展增加了难度。放眼未来,开源,或许是打破现存问题的一种更好的组织模式。我们既要性能也要安全,研发效能则需特别讨论这随之引发了另一矛盾:性能和研发效率,通常是相悖的。在此前 InfoQ 对“Java 之父” James Gosling 的采访中,他用 Java 和 JavaScript 的区别来说明这个问题。至于内存安全,在相当漫长的时间里,在以 C/C++ 为底层技术栈的开发群体内,则通常不在考虑范围内。Rust 在 2021 年的大火,为全行业提供了新的启发。在 InfoQ 2021 编程语言榜单 中,Rust 无论是关注度还是期望值,都紧随 Go 语言之后。若单论关注度的增速,Rust 无疑是 2021 年最吸睛的编程语言。尤其是在 2021 年 12 月,Linux 内核和 Rust on Linux 的主要开发者 Miguel Ojeda 向 Linux Kernel 邮件列表提交了一个新补丁 (v2),进一步推进了 Rust for Linux 的工作进展,将公众对 Rust 的关注推向了新的高潮。Rust 最重要的优势在于以媲美 C/C++ 的性能表现,解决了编程过程中的内存安全问题,从而成为各团队在系统级编程领域的重点调研对象。C++ 问世四十年,相关方法技巧已经成熟,催生了编程大神无数,但在 2021 年的今天,我们仍然在寻找其替代品。其根本原因在于,人们逐渐明了,性能并非系统级编程语言的全部,随着软件逐渐接管 IoT 设备(尤其是自动驾驶车辆),内存溢出 / 指针悬垂类的内存安全问题,已经不只会造成经济损失,更会威胁人身安全。与其面向结果,出了问题再改 Bug,不如面向过程从一开始就把控好内存安全。但 Rust 的上手难度,又在一定程度上,制约了语言本身的普及(知乎有一吐槽:为什么用 Rust 实现链表都这么难)。了解函数式编程或对学习 Rust 有所帮助,但编程世界未来的主流仍将是 OOP(面向对象程序设计)。更大的问题在于中小型公司的替换成本 —— 不存在成熟的人才梯队,不存在坚实的技术积累,直接采用 Rust 面临的问题是:无人可招。当下,几乎所有准备采用 Rust 的公司都是大型公司或创业团队,前者可以通过内部转岗积累人才,后者则从一开始就是围绕 Rust 构建的创业 idea。相比性能与安全,研发效能在今天反倒成为了一个模糊问题。狭隘地说,选择一门学习门槛低,开发效率高的语言,就是提升了研发效能;站在更大范围、更长的时间尺度来看,选择一门性能满足研发需求、生态成熟、内存安全有保障的语言,也是提升了研发效能;选择社区够完善,招聘难度低的语言,方便快速组建研发团队,也是变相提升了研发效能。那么,在 2021 ,一个研发团队应该如何选择适合自己的编程语言?在保证了性能需求和安全需求后,则需要结合业务场景、公司发展阶段具体分析了。八仙过海,承诺兑现除通用型语言外,如果要用四个字形容 2021 年各家垂直领域语言的发展,那么恐怕是“八仙过海”了。垂直领域用特定语言解决特定问题的趋势越发明显,语言的“工具”属性愈发突出。在移动端开发,Kotlin 独树一帜;在数据科学领域,Python 和 R 语言应用甚广;在 Web 端,有越来越多的人开始尝试使用 TypeScript。但需要注意的是,当下所谓的 xx 领域专用语言,或许到了 2022 年,就会产生天翻地覆的变化。如果细细琢磨,你可能会发现,这种变化正在发生,比如 Kotlin、Julia。WebAssembly 是其中比较另类的存在,它致力于让其他语言都能以接近原生语言的速度在 Web 端运行,目前最主流的应用是将 C/C++ 编译为 WebAssembly。其在 2021 的具体进展,我们在接下来的“2021 主要编程语言的具体发展”中单独讨论。同时,编程语言也在兑现给开发者的无数承诺,那些在社区内早有风声的前瞻性修改,在 2021 最终完成了“填坑”。2021 代表性编程语言的发展概况(关于 Go、Rust、Julia 的更多内容,可额外参考本次盘点特别策划部分,文章链接详见附录)Go说到“填坑”,2021 当数 Go 语言最得人心。作为编程语言界最近几年最受欢迎的一员,Go 却长期存在三个主要问题为开发者所诟病,即:模块管理工具、泛型语法支持,以及程序错误的处理方式。关于模块管理工具,Go 语言开发团队基本已经解决或给出路径;对泛型的支持,相当于有了定论;错误处理方式还未找到妥善的解决办法。而 Go 语言的 2021 主要动态,也是围绕着模块管理工具和泛型展开。GO111MODULE 是个系统环境变量,目的是方便开发者们在原始的 GOPATH 机制和新的 go module 机制之间做切换。Go 团队在 1.16 版本中把 GO111MODULE 的默认值设置为了 on ,这标志着 go module 机制的成熟。同时,这也说明 Go 团队已开始正式普及 go module 机制。从 Go 官方提供的标准工具来看,原有的那些 go 命令都已经完全适配了 go module 机制。比如,go get 命令现在可用于调整 Go 模块的依赖关系,go install 命令现在可用于下载、编译和安装 Go 模块, go test 命令现在也可用于编译并测试 Go 模块,等等。围绕模块管理中的配置文件,另外有三点值得注意:模块图修剪:在 go.mod 文件中,针对主模块的直接依赖模块记录和间接依赖模块记录已变得完整;新的指令:在 1.16 版本中,Go 团队为 go.mod 文件增加了一个新指令。这个指令的名字叫做 retract。我们在这里可以把它理解为“撤回”,用于撤回当前模块的某个已发布版本;新的注释:在 1.17 版本中,Go 团队为 go.mod 文件增设了 deprecation 注释,用来废弃整个模块。对泛型的支持,最早要追溯到 2018 年,但直到 2021 年 8 月,Go 团队才放出了一个终极的设计方案:Type Parameters Proposal(https://github.com/golang/proposal/blob/master/design/43651-type-parameters.md) 。至此,一个紧密贴合了 Go 语言的泛型模型才算正式出炉。Go 语言的 1.17 版本中已经包含了一些与自定义泛型有关的代码,不过要想自由地使用泛型,则要等到 1.19 甚至更远的版本了。除此之外,2021 年,Go 在标准命令、标准库、语法、性能方面都有更新,我们这里简单列举,作为参考:标准命令:在 1.16 版本,Go 官方对 go install 命令进行了改进,使它可以接受一种版本后缀(如:@v1.0.0),并以此来下载、编译并安装(以下统称为安装)某个代码包的特定版本;从 1.16 版本开始,Go 官方推荐开发者在 go module 机制下只使用 go install 命令来安装代码包,并强烈建议,在使用 go get 命令的时候应该携带 -d 标记;标准库:新增三个代码包:runtime/metrics 包(获取运行时指标,涉及垃圾回收、内存使用、并发调度等)、io/fs(代表了一种全新的文件系统模型)、embed(在可执行文件中嵌入额外的资源);废弃 io/ioutil 包;语法:支持从切片到数组指针的转换。更具体地说,类型为 []T 的切片现在可以被正确地转换为以 *[N]T 为类型的数组指针了;性能:在 64 位的 Linux 操作系统上,其链接速度比 1.15 版本快了 20%-25%,同时链接操作所占用的内存空间也减少了 5%-15%。此外,由于更激进的符号修剪,Go 程序经处理后产生的二进制文件通常也更小了。在 1.17 版本中,Go 团队实现了一种使用寄存器而不是堆栈来传递函数参数值和结果值的新方法。这一新方法让 Go 程序的运行性能提升了大约 5%。并且,Go 程序产出的二进制文件通常也会小 2% 左右。目前,在 Linux、macOS 和 Windows 操作系统的 64 位计算结构上,Go 语言都自动启用了此功能。Rust2021 ,Rust 的热度丝毫不逊于 Go 语言,但本次盘点特约专家张汉东有一句话说得很好:“Rust 的出现不是为了重写这个世界已经存在的一切,而是为了让未来更加美好。”对于当下本就关注度极高的 Rust 来说,分外适用。2021 年,Rust crates 的下载总量达到 11,012,362,794 次,即 110 亿次。伴随着下载量的增长,Rust 语言内存安全初步成果也已经显现。据 2021 年 12 月 31 日发布于 arXiv 的论文 《SOK: On the Analysis of Web Browser Security》中所言:比较了四种浏览器架构,以及近十年来浏览器中内存安全问题依然是主流,比如 Firefox 就通过 Oxidation 项目(Rust)替换了 12% 的组件。自 2015 年以来,Firefox 的内存安全漏洞数量出现了小幅但稳定的下降,其中,渲染器的内存安全漏洞明显下降。Oxidation 是专门用于将 Rust 代码集成到 Firefox 中的一个项目。Firefox 54 以来,所有平台都需要 Rust 支持,并且第一个主要的 Rust 组件是在 Firefox 56 (encoding_rs) 和 57 (Stylo) 中发布的。展望未来,Oxidation 的目标是让在 Firefox 中使用 Rust 变得更容易和更高效,并相应地增加 Firefox 中的 Rust 代码量。可以说经过六年的应用,Rust 语言的内存安全保障终于看到了初步的效果。该论文建议浏览器供应商遵循这一最佳实践,并逐步将他们的浏览器转向内存安全的语言。Rust 语言及相关生态在 2021 年一些看点简单罗列如下:Rust 编译器引入了一个新的实验性 GCC 后端,以及另一个基于 gcc 的实现(目前两者都在进行中)。Rust 正在进入 Linux 内核,这也为语言和库带来了一些改进以促进这一壮举。Rust 首次进入 Redmonk 指数前 20 名 ,并连续 第六年获得 Stack Overflow 调查的“最受欢迎的编程语言”桂冠。IEEE 2021 编程语言排行榜,Rust 排 17。按趋势来排,Rust 在第十位。2021 年初 Rust 基金会刚成立,到年末,已经有二十五家来自不同领域并且有一定建树的成员。并且基金会也开始落实一些具体安排,比如组织专业的 crates.io 运营。瑞士 Concordium 基金会宣布 DevX 计划,将赞助 Rust 生态的维护者们。Espressif (乐鑫)正式雇佣 mabez 针对 eso 芯片开发 Rust 支持:esp-rs。嵌入式 Rust 生态得到长足发展:嵌入式并发框架已经 1.0 、嵌入式异步框架正在大力开发且支持 STM32,nRF 和 RP2040 平台,并且还深深影响着 Rust 异步的改进、嵌入式开发和调试工具又发布了新的探针工具、嵌入式 smoltcpTCP/IP 栈发布了新版本、嵌入式图形库 Matrix 发布了新版本、新的嵌入式实时 OS Hubirs 开源。WebAssembly 领域。前文提到的字节码联盟的 wasmtime 的 Cranelift 编译后端完成了新的后端架构更改,还得到了 IBM 大型机的支持而引入了新的 s390x 后端。有两个和 Rust 相关的 Wasm 项目进入了 CNCF :WasmEdge 和 WasmCloud 。图形计算领域:rust-cuda 和 rust-gpu 这两个项目,为推动 Rust 成为 GPU 计算第一语言开始发力。前者是将 Rust 作为 GPU 第一语言,后者则推动 Rust 成为图形渲染第一现代化着色语言。国内 Rust 职位招聘有所增长:字节跳动、海致星图(图数据库)、非凸科技(量化)、达坦科技(分布式存储)、Datebend(数据仓储)都大量需要 Rust 人才。GUI 领域的 SixtyFPS 和 tQCS 这样的咨询公司建立了合作关系,找到了第一个客户,招募了新成员。tQCS 提供世界 No.1 的 Qt 咨询和 UI/UX 设计服务,选择和 SixtyFPS 合作,这也算是 Rust 在 GUI 领域的一个里程碑。Embark Studios 发布了它们公司第一个 3A 游戏,在其游戏后端也用到了 Rust 。Embark Studios 是 Rust 游戏工作组的成员之一,致力于将 Rust 推广到游戏开发中。rust-gpu 库就是他们开源的项目之一,并且该公司也赞助了很多游戏和图形学相关的 Rust 生态库。Rust 在 音视频领域也得到了应用,Signal 公司使用 Rust 开发了支持 40 人高质量语音群组通话的服务。Rust 也成为前端基础设施的一员:Next.js 公司用 swc 和 Rust 完全取代 Babel(transpilation)和 Terser(压缩)。就版本更新而言,Rust Edition 现在已经确定了 —— 每三年发布一个版次。这就意味着 Rust 每三年都会围绕一个引领 Rust 发展的主题。2021 Edition 的主题是「成熟(Mature)」。2021 edition 并没有引入太多新特性,而是清理了一些技术债务,比如持续对 Rust 编译器进行重构和改进,包括内部使用的新的 trait 系统 chalk 和 query 系统(开源版本:https://github.com/nikomatsakis/salsa)。另外还处理了一些向后兼容的问题,以及持续投入一些影响未来发展的关键特性,比如 常量泛型、泛型关联类型等。前文我们也提到, Rust 今年的一个重要动态就是对 Linux 内核的支持。到 2022 年,我们很可能会看到 Linux 内核中的实验性 Rust 编程语言支持成为主流。而在 2021 年 12 月 6 日早,Rust 团队发出的更新的补丁中,则介绍了在内核中处理 Rust 的初始支持和基础设施。这次更新的内容包括:升级到了最新 Stable 编译器和 Rust 2021 edition 。因此可以摆脱了 const_fn_transmute,const_panic、const_unreachable_unchecked、core_panic 和 try_reserve 这几个之前未稳定的特性。自定义 core 和 alloc。为 alloc 添加了更加模块化的选项,以便禁用一些他们不需要的功能:no_rc 和 no_sync,主要是为上游 Rust 项目添加。更严格的代码、文档和新的 lint。抽象和驱动程序更新。添加了序列锁、电源管理回调的抽象,io 内存(readX/writeX)、irq 芯片和高级流处理程序,gpio 芯片(包括 irq 芯片)、设备、amba 设备和驱动程序以及证书。此外,也改进并简化了 Ref(refcount_t 支持)对象并用它替换了 Rust 的 Arc 的所有实例。完全地从 alloc crate 中删除了 Arc 和 Rc。从现在开始,Rust for linux 团队将开始定期提交补丁,每两周左右。关于 Rust,还有一点不得不提,那就是发生在年末的审核团队(mod team)集体离职事件。但当尘埃落定,事件本身的性质已经不好评价,涉及美国独有的政治、文化及种族问题。张汉东在采访中说道:“2020 年 Rust 1.44 版本发布时,官方博客说过这么一句话:「tech is and always will be political」。对于美国文化不太了解的我,之前还对审核团队存在的重要性嗤之以鼻,现在感觉审核团队的存在对于 Rust 这样深处文化政治复杂的美国是多么重要。我终于理解 Rust 官方团队所说这件事的背景相当复杂的原因了。真心希望 Rust 团队能处理好这件事。对此,我们能做些什么呢?也许只能祈祷世界和平。”Kotlin2021 年刚好是 Kotlin 10 周年,在这一年里,Kotlin 共发布了 1.5 及 1.6 两个版本,目前最新版本为 Kotlin 1.6.10。如果要将其中的关键动态总结一下,那么会分为如下四点:K2 编译器:目标是全新打造的编译器架构,提供更好的性能并为多平台发展建立良好的基础。Kotlin Multiplatform Mobile(KMM)持续更新,预计在 2022 年春天发表 Beta 版本;Kotlin/JS:新的 IR 编译器发表 Beta,更多 JS 库迁移到新 IR 编译器;Compose Multiplatform 1.0:可用于 Desktop 和 Web 的声明式 UI 框架,对安卓开发者来说,更容易从 Jetpack Compose 切入;K2 编译器是 Kotlin 在 2021 年最重要的更新。编译器分为前端和后端,功能包含生成语义信息的 IR (中间表示),并转为相应目标平台(JVM、JS、Native)的可执行文件。Kotlin 1.5 版本就已经开始支持 K2 编译器,目前 Kotlin/JVM 已是稳定版本,Kotlin/JS 是 Beta 版本。Kotlin 的开发生态圈非常活跃,目前 Kotlin 团队共有约 100 位开发人员,超过 360 位开源贡献者参与开发工具,2021 年约有 25 万个与 Kotlin 有关的代码仓库在 GitHub 上被创建出来。有两份报告可供我们参考:开发人员及开源贡献者数据:https://kotlinlang.org/lp/10yearsofkotlin/present/Kotlin 开发生态系调查:https://www.jetbrains.com/zh-cn/lp/devecosystem-2021/kotlin/而 2021 年, Kotlin 整个生态的活跃,也从侧面印证了这些官方团队和开源贡献者的工作成果。生态进展如下:JetBrains 方面:UI 框架:Compose Multiplatform 1.0Server-side:Ktor 2.0 beta,Kotless 0.2.0Data Science 及 ML:Kotlin API for Spark,Kotlin DataFrame library,KotlinDL工具:Dokka 1.6(文档引擎),Kover(代码覆盖率),Qodana(静态分析器)Google 方面:Jetpack Compose for Android:声明式 UIKSP (Kotlin Symbol Processing)社区方面:Spring NativeArrow (Kotlin library for functional programming) release 1.0Koin (dependency injection framework) release 3.0KorGE (Game engine) release 2.0Okio (I/O library for Kotlin Multiplatform) release 3.0Apollo (GraphQL client) release 3.0此外,Kotlin 也很重视中国开发者的生态建设,2021 年,他们与 Kotlin User Group 合作,举办了中文开发者大会,吸引了 1500+ 观众参加。Kotlin 2022 年的发展重点可以总结为如下四点:持续发展 K2 编译器:优化性能、编译速度及支持插件的能力改善开发者体验:优化 Kotlin IDE 插件,提升稳定度及性能,让修改、测试除错循环可以更高效深化支持 Kotlin 在 Server-side 的应用:更多是 Spring 及 Ktor 方面的应用推出新版 Kotlin Multiplatform Mobile(KMM):预计在 2022 年春天推出 Kotlin Multiplatform Mobile Beta,并持续改善共享代码的开发体验(具体路线图可参考:https://kotlinlang.org/docs/roadmap.html)而在这背后,是 Kotlin 积极地向多平台语言演进的努力,用本文的话语体系来讲,就是“通用型语言”。我们可以看到 JetBrains 提供了多个支持多平台的库如 kotlinx.coroutines,kotlinx.serialization,kotlinx-datetime,而 Kotlin 社区也紧跟着这样的趋势发展,出现了愈来愈多的库、框架来支持多平台,如 Arrow、Okio、Apollo 等在新版本中都支持了多平台开发。令 Kotlin 社区工作者苦恼的是,自 2017 Google 发表声明后,Kotlin 总被当成是安卓专用开发语言。实际上,Kotlin 极有可能在接下来的两个领域成为主流编程语言:Desktop:设计 Kotlin 的初衷就是要拿来开发 IntelliJ IDEA,随着 Compose Multiplatform 的发布,使用 Kotlin 开发 Desktop 软件将更加轻松;Server-side:Kotlin 100% 与 Java 互操作的特性让许多 Java Server-side 开发者转而使用 Kotlin,现也有 Spring 官方的支持及 JetBrains 推出的 Ktor 框架,使用 Kotlin 开发 Server-side 应用将有机会成为主流。2021 年 使用 Kotlin 做 Server-side 开发的用户提升了 40%,可见其潜力;同时,Kotlin 对 WebAssembly 的支持工作也提上了议程,未来也将成为 Web 端编程语言的可选项之一。就这一点而言,我们倒不妨大胆畅想 Kotlin 2022 年的发展态势,看其在未来几年内,能否重现当初 Objective-C 两夺年度最佳编程语言的盛况。Julia在刚刚过去的 2021 年,Julia 编程语言社区依然保持了高速发展。据统计,目前 Julia 的全球总用户量已超过一百万,有一万多家公司和一千五百多所高校下载和使用了 Julia。此外,一些世界名校,如北京大学,MIT、Stanford 和 Berkeley 等,已经在教学中使用 Julia 语言。Julia 默认的注册表中新增了 1128 个包,累计达到了 5397 个。详细的信息可以前往 JuliaHub.com 查看,获取各个库下载信息的方法也已在官方论坛中公布。2021 年,Julia 发布了两个重要版本,分别是 Julia@v1.6 和 Julia@v1.7。此外,在 Julia@v1.7.0 于 11 月 30 日发布的同时,社区正式宣布 Julia@v1.6 为新的长期支持版(LTS)。Julia 官方博客中详细介绍了 Julia@v1.7 的一些新特性,这里我们列出尤其值得关注的几点:全新的多线程特性:解决了许多运行时的竞态条件,优化了多线程之间任务的调度,同时让默认的随机数生成器对多线程更加友好,此外还新增了一类原子操作作为基本的语言特性;包管理的更新:新版的包管理工具会自动识别出该包是否已经注册,如果是的话,则会提示你是否要自动安装;对 Apple Silicon 的支持:Julia@v1.7 是首个能运行在 Apple Silicon 上的版本,但对该平台的支持还仅处于 tier 3 (即仅处于实验性质,编译 / 测试有可能失败);BLAS/LAPACK:运行时的后端切换;编译延迟和运行时体积优化;更好的类型推断、代码分析和检查;而在社区和生态方面,Julia 的进展和动态极多。关于社区,我们尚可简述重点:FluxML 社区于 12 月 1 日正式宣布挂靠在 NumFocus;JuliaComputing 完成 A 轮融资。以及国内镜像站进一步增加,包括:北京外国语大学 (https://mirrors.bfsu.edu.cn/julia)清华大学 (https://mirrors.tuna.tsinghua.edu.cn/julia)上海交通大学(https://mirrors.sjtug.sjtu.edu.cn/julia)中国科学技术大学 (https://mirrors.ustc.edu.cn/julia)南方科技大学 (https://mirrors.sustech.edu.cn/julia)南京大学 (https://mirrors.nju.edu.cn/julia)但关于生态,以及 Julia 在行业内的实践,则受限于篇幅,需要你移步附录中的特别策划了。总的来说,Julia 的发展和 Kotlin 有共通之处,都在由特定领域的专用语言,转而向多领域通用语言发展。WebAssembly于 WebAssembly 而言,2021 年发生了一件大事。就在 2021 年的 10 月, Photoshop 发布了 Web 版本,大量使用了 WebAssembly。Photoshop 是传统的巨型桌面软件,代码库完全基于 C++ 编写。这次成功发布 Web 版本,验证了大型、高复杂度、基于传统高级语言编写的软件,是完全可以通过 WebAssembly 运行在 Web 端的。而在区块链智能合约领域,WebAssembly 因为对 Web 的兼容,且允许使用 C++、Rust 编写高性能程序,已成为事实上的王牌语言。在 IoT、可信计算、轻量级容器等领域内,WebAssembly 都有十分契合的特性。这让开发者群体对 WebAssembly 的关注度迅速增长。2021 年,WebAssembly 语言技术值得关注的发展包括:WebAssembly 开源项目开始支持 GC(垃圾回收器),为实现 WebAssembly 支持像 Java、Kotlin 这样的前端语言做准备;WebAssembly SMID 可变长度取得关键进展,帮助 WebAssembly 应用充分获得 CPU 向量化计算加速能力;WebAssembly 模块化取得关键进展,为进一步构建 WebAssembly 的生态提供了核心的支撑;源码调试能力的增强,WebAssembly Micro Runtime 和 WASMTIME 等开源项目都提供了源码的调试能力,极大促进应用开发的效率另一个重要动态是“字节码联盟(Bytecode Alliance)”正式成为了非营利性实体组织,致力于开发基于 WebAssembly 和 WASI 的安全开源软件栈,建立一个默认安全的 WebAssembly 生态系统,让应用程序开发人员和服务提供商能够自信地在任何基础设施、任何操作系统或设备上运行不受信任的代码。字节码联盟发展十分迅速,其成员包括 Fastly、英特尔、微软、Google、Amzaon、Arm、 西门子等企业。业界普遍期望字节码联盟可能会更有效率地推进 WebAssembly 的更新和迭代工作。更多的编程语言,如 Python、Swift……我们难以在同一篇文章中全部盘点,只能寄希望于 2022 年,我们继续关注编程语言领域的核心动态。相信在 2022 ,各大编程语言也会为开发者带来新的惊喜。附录:2021 编程语言盘点特别策划及 Java 2021 部分动态盘点解读 Julia 的 2021:逐步迈向主流编程语言:https://url.cy/Sr7oU1解读 Go 语言的 2021:稳定为王:https://mp.weixin.qq.com/s/9LKyPfhwldgZY7H4iS7sjg解读 Rust 的 2021 (上):https://mp.weixin.qq.com/s/aTCogUxyUwE6Sa4Nfs9CYAJava 2021 部分动态盘点:https://www.infoq.cn/theme/125如果你对本文感兴趣,欢迎在文末留言,或加入 InfoQ 写作平台话题讨论:(https://xie.infoq.cn/article/2b890228e7b642b4026a5a261)后续,迷你书、专题将集合发布与 InfoQ 官网,登录 InfoQ 官网:https://www.infoq.cn/注册并将 InfoQ 添加进收藏夹,精彩不错过。同时,2021 InfoQ 年度技术展望直播周已于 2021 年 12 月 22 日首播,后续回放视频和文章也会在 InfoQ 官网放出。
| 15,275 | 1,642,410,210,595 |
InfoQ
|
196 |
可观测体系构建无从下手?最佳实践分享拿走不谢!
|
从“被动监控”到“主动观测”,在CNCF主导的云原生世界中,“可观测性”已成为炙手可热的话题之一。虽然“可观测性”是近年来重要的流行术语,但其实它最早起源于几十年前的控制理论。直到2018年,CNCF-Landscape率先出现“可观测性”分组后,“可观测性”才逐渐被应用于提高分布式IT系统的性能中。 过去,我们通过“监控”来保障系统的稳定性,很少提及“可观测性”的概念。而随着单体式架构逐渐向分布式、微服务、云原生转变,传统的监控体系面临着巨大的挑战。 监控关注指标,监控的对象是计算机所产生的数据,而监控的前提是被监控对象能够产生可被观测的指标等数据。因此,监控基于已知,首先需知道要监控什么,然后制定采集相应指标,根据指标建立相应看板以及告警规则。然而,随着技术的升级,系统的复杂性随之大幅增加,系统间相互的依赖关系也难以预测。相比于简单的系统,会产生更多无法被事先知道的“未知数”,这样的情况下,仅通过传统的监控体系便无计可施。 可观测体系很好地弥补了传统监控体系的不足,能够观察系统随时间推移的表现,并询问相关问题来确定什么是重要的,适合于解决分布式系统中那些事先不被知道的“未知数”引发的问题。可观测体系以应用为中心,通过覆盖全栈的各种可观测数据(指标、日志、链路、事件)在开发、测试、运维的全应用生命流程进行持续的分析,找出问题的根因,并建立可观测界面,从而指导用户的分析和决策。 近年来,可观测性得到越来越广泛地关注,其优势显而易见。首先,通过可观测体系,开发人员能够判定系统内部的健康状况,不仅能够更快地发现和定位问题,更能够端到端地解决问题。其次,系统平稳运行时,可观测体系能够评估风险,预测可能出现的问题,防患于未然。第三,通过可观测体系,开发人员能够加深对于系统的理解,提升开发及交付效率。此外,可观测体系还有一个非常值得一提的优势是能够在不影响系统稳定性的情况下更改应用程序和服务,这一点对于企业提升用户使用体验来说至关重要。 那么,该如何针对自己的应用进行可观测性建设呢?本期亚马逊云科技Tech Talk特别邀请观测云CEO蒋烁淼作为演讲嘉宾带来主题分享《构建端到端的可观测体系最佳实践》。观测云是云时代的系统可观测平台,同时也是亚马逊云科技重要的合作伙伴。观测云在中国信通院的支持下成立,标志着国内在可观测性概念、技术等方面的空白被填写,与国际前沿概念、尖端技术之间的距离逐渐缩短。本期主题构建端到端的可观测体系最佳实践课程内容可观测性的前世今生如何基于亚马逊云科技组件构建可观测SaaS平台利用观测云实现端到端的可观测最佳实践讲师介绍蒋烁淼,观测云CEO,资深系统架构师和软件架构师,DevOps、SRE 、IAC理念推动者,也是国内最早一批投身云计算方向的创业者,在业界被称之为中国云计算试飞员,其创立的观测云品牌,快速推进了国内可观测性理念的发展,引领行业颠覆性数字化变革。课程亮点对处在风口浪尖上的可观测理念的详细解读基于亚马逊云科技的大数据SaaS产品架构设计细节透析端到端的可观测最佳实现路径听众受益了解可观测的价值点了解大数据产品设计的实践分享了解如何针对自己的应用进行可观测性建设报名方式 扫描海报上的二维码即可报名,开发者报名后会立刻收到确认邮件,请注意查收~
| 3,736 | 1,641,967,148,085 |
InfoQ
|
197 |
解读架构的 2021:服务网格开道,云原生架构成型
|
本文是“2021 InfoQ 年度技术盘点与展望”系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦架构领域在 2021 年的重要进展、动态,希望能帮助你准确把握 2021 年架构领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。 “InfoQ 年度技术盘点与展望”是 InfoQ 全年最重要的内容选题之一,将涵盖架构、AI、大数据、大前端、云计算、数据库、中间件、操作系统、开源、编程语言十大领域,后续将聚合延展成专题、迷你书、直播周、合集页面,在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。 特此感谢成国柱、李云、田靖、翁扬慧、杨皓然(按姓名首字母排序)对本文的贡献,他们的真知灼见,是本文能与大家见面的关键。 过去几年,随着互联网发展以及业务的多样化,系统的架构也在不断发生变化。总体上来说经历了单体应用架构-垂直应用架构-分布式架构-SOA架构-微服务架构的演变。当下头部互联网企业已经在向服务网格类的云原生架构演进。今天借着这个机会,我们盘点一下 2021 年架构领域的各项技术。区别于云原生盘点,本文试图从架构的角度出发,挖掘出不同的内容,希望可以给你提供帮助。重点技术演进盘点 架构领域涵盖的技术类别较多,本文选择了 2021 年比较突出的几个领域如微服务、服务网格、Serverless、低代码、多云架构等,并以此展开年度回顾和趋势展望。篇幅有限,本文未提及的技术并非不重要,如果你对其他相关技术感兴趣欢迎留言告诉我们。微服务&服务网格(Service Mesh):羽翼渐丰,成熟完善 微服务生态图(图源:Chris Richardson Consulting, Inc.) 如果要总结 2021 年的服务网格的话,那就是技术日趋成熟,生态逐步完善,市场更加理性,回归价值本身。 一项新技术的发展基本都是会符合技术成熟度曲线(The Hype Cycle)规律的,服务网格也不例外。服务网格概念最早从 2017 年被提出,2018 年正式爆发,进入服务网格技术元年,之后随着众多云厂商纷纷入局,服务网格也达到了成熟度曲线的期望顶峰点。 随后的的两年时间里,服务网格在设计过程中算是颇为曲折,但也不乏突破创新。从早期废弃 Mixer,到回归单体架构设计调整,以及后来对 Web Assembly 技术的支持等等,都算是有一些比较大的变化调整或者是创新突破。 在刚过去的 2021 年,虽说服务网格仍被 Gartner 评定为处于技术发展的早期采纳阶段,但无论是商业还是技术都取得了长足的发展。 从商业的视角: 国外的专业提供服务网格产品与服务的 Solo 公司披露客户数出现强劲增长的态势(500%+ 季度比增长),并获得 C 轮 1.35 亿美元的融资;另一个国外的专业提供服务网格产品与服务的 Tetrate 公司收获了 B 轮 4000 万美元的融资;阿里云服务网格 ASM 产品的公有云客户数较前一年增长 250%,客户数出现跃变式增长;国内专业提供服务网格产品与服务的初创公司 Flomesh 获得 pre-A 轮数千万人民币的融资。 从技术的视角,Istio 继续引领全球服务网格的发展。在 2021 年 9 月 CNCF 的一项终端用户调查的结果显示, 采纳了 Istio 的用户数大约是采纳了 Linkerd 的 3 倍。 图源:cncf.io 以刚才提到的目前主流的服务网格技术选型 Istio 为例,无论是开源社区还是众多云厂商都在围绕网格技术做持续优化。相比以往大刀阔斧的进行架构调整、技术突破等,过去的一年里似乎更加“务实”,解决的都是一些真真实实业务侧的落地问题,比如性能优化、虚拟机支持、多集群和多网格支持等等。 在 2021 年,服务网格 Istio 并没有特别大的或者突破性的调整,更多是关注于技术本身的优化,聚焦于解决实际生产中的落地问题。例如通过完善对虚拟机的支持来扩大基础设施的适配范围,通过引入智能 DNS 代理来解决大规模服务场景下的 iptable 性能瓶颈,还有完善对多控制平面的支持,完善在生产中的运维操作等等,都是一些相对比较实实在在的优化。这也是一项新技术在经历期望膨胀之后,回落到低谷,又重新进入一个稳定的爬坡期,是一个良性的过程,也代表服务网格技术正变得越来越成熟稳定。 其次,可以看到的是围绕服务网格的开源技术生态正在完善,围绕 Istio 衍生的周边开源生态有向上发展的趋势且不乏很多创新。这里面主要分为两类,一类是将现有技术或者产品融入服务网格生态,比如为服务网格提供一种新的数据面技术支持等;另外一类是在服务网格落地过程中为了解决问题衍生出来的工具或者扩展支持,比如配置优化、协议支持等。 eBPF 技术也更加完善,可以在内核层面优化来提升服务网格性能以及可观测性,各类服务网格数据面的开源替换方案,或者是基于 Istio 控制面构建的云原生网关等等,刚才提到的还有用于解决服务网格生产落地中的一些扩展性、易用性等问题的开源项目,比如定位于服务网格智能管理器的 Slime 项目,它可以解决大规模服务场景下的配置性能问题,以及能力扩展问题;用于管理 Istio 七层负载的 Aeraki,提供了一种非侵入式的协议扩展解决方案等等。这些都是建立在服务网格 Istio 之上的,也都是服务网格技术日趋成熟的一种体现。 上面提到了 2021 年服务网格无论从商业还是技术都获得了长足的发展。Istio 继续引领行业的发展,除了易用性获得了巨大改善,还向业界展示了基于 gRPC 的无代理解决方案,清晰地描绘了未来服务网格的终极形态。 “架构不是一蹴而就,而是慢慢演进”,受访专家提到,微服务架构目前已经发展到第三代,即将微服务的基础能力从服务框架演进成一个独立进程 Sidecar,实现云原生微服务架构。被业界称为“下一代微服务架构”的服务网格,经历了前两年的“火热”,在 2021 年大家对于网格的看法更趋于理性,回归到了技术是用于解决问题的本质。通过服务网格能解决什么问题?现有业务想上服务网格还需要解决什么问题?上了服务网格之后会有什么新的问题?这些问题是需要大家进行理性思考的。好在这些问题,不同的云厂商分别都有丰富的经验沉淀和成熟的技术方案,可以值得关注。 受访专家表示,在 2022 年,企业对于服务网格的态度不再是“技术是否成熟”,而是“我们应以怎样的路径落地”。在落地的道路上,技术债才是企业面临的最大障碍。技术浪潮除了带来红利,还创造了让企业正视技术债的重大机会。技术债是技术发展的自然产物,技术进步与发展的一个表征是,我们用新的思维、站到新的高度去解决过去、现在和不久的将来的问题。Serverless:仰望星空,脚踏实地 “2021 年的 Serverless 可以用仰望星空,脚踏实地来形容”,受访专家总结道。 落地可以说是 Serverless 2021 年发展的关键词。Serverless 可以帮助开发者省掉基础设施运维等很多杂事,但在什么场景下使用 Serverless,如何把 Serverless 应用的开发部署集成到现有的开发运维流程中,如何调试、诊断 Serverless 应用等等,仍是困然多数开发者的主要问题。 因此,在 2021 年各个云服务商,都在不断拓展 Serverless 产品线的能力。在 Web 应用,微服务,事件处理,批处理任务等场景,Serverless 正在成为最流行的架构。 一方面是因为 Serverless 编程模型变得更加通用,例如 Google Cloud Run、AWS App Runner、阿里云函数计算/Serverless 应用引擎等产品支持实例并行处理多个请求,容器镜像等功能,Web 应用或者基于 Spring、Dubbo 等流行框架的微服务应用基本上不需要改造就能直接运行到 Serverless 平台上;另一方面,Serverless 平台在工具链,可观测等方面的长足进步,让开发者能用更习惯的方式开发和运维 Serverless 应用。 在落地场景上,以阿里为例,高德出行通过 Serverless 架构实现的 API 后端服务,支撑了十一出行高峰 50 万 TPS 的流量;公有云上的南瓜电影使用 Serverless 应用引擎,7 天完成了微服务的 Serverless 化;网易云音乐使用函数计算的极致弹性能力,让音频算法在业务上的落地速度提升了 10 倍。这几个头部厂商的成功案例,证明了 Serverless 的价值。 此外,2021 年云服务商产品体系 Serverless 化的趋势也越来越明显,不仅有 AWS App Runner、Azure Container Apps 这些计算领域的产品,还包含大数据领域的 AWS Redshift Serverless、AWS EMR Serverless、AWS MSK Serverless,机器学习领域的 AWS Sagemaker Serverless 等产品。全产品体系的 Serverless 化,体现了云厂商将 Serverless 视作云未来的坚实承诺。 2021 年的 Serverless 还有一个值得关注的点,就是开源开放。2019 年 CloudEvents 1.0 标准正式发布,为不同供应商的事件互通奠定了基础,2021 年 Serverless Workflow 标准按计划将推出 1.0 RC 版本,意味着在工作流领域很快也将出现正式的标准。2021年11月, Knative 正式发布了 1.0 版本,达到了生产环境可用的能力。Serverless 开放标准和开源软件的成熟,对消除 Serverless 的 vendor lock-in 有重要意义。 关联阅读: 从实践出发,解锁 Serverless 的不同面 Serverless 的承诺都兑现了吗?低代码:垂直发展,更获认可 低代码平台这一概念最早由 Forrester Research 在 2014 年提出,Gartner 用基于 aPaaS 的高生产力平台(hpaPaaS)来命名这一类别。随着西门子收购 Mendix、Outsystems 融资,低代码平台正式进入大众视野,国内低代码市场也进入快速发展期。 说到 2021 年国内低代码市场的变化,受访专家表示,主要有以下两个方面接受度提高 第一点也是最大的变化接受程度上的改变。就是随着业务多元化,尤其是遇到需要快速上线的业务,低代码可以在末端交付上显著提升效率,行业内对低代码的接受程度提升很高,对低代码的快速业务能力也表示认可。 另外,不仅是企业、市场对低代码的接受度变高,做低代码平台的开发人员也形成了共识。以前的程序员认为低代码是自己的死对头,两者是水火不相容的关系。慢慢的程序员圈也逐步接受一个概念,就是低代码可以释放程序员工作的能量。程序员接触核心开发,把简单或者固化的业务交给低代码平台去开发,并通过低代码平台交付给业务部门,提高业务响应效率。垂直发展 第二个比较大的变化就是低代码逐步从通用化平台向垂直方向演进和发展。 低代码的特点就是必须做约束和抽象规范才能达到高效的目的,这些都是带有垂直行业属性的。纯通用的低代码平台效率不会太高。同样,纯低代码平台也无法满足企业的需要,广义的低代码又在覆盖更多的业务,开发人群范围也在扩大,这些问题不是纯低代码平台可以解决的。 所以低代码必须像垂直领域发展,以更好的实现业务。另外提升效率和降低成本的核心就是复用,低代码从以前的纯技术组件级复用,到纯业务组件复用,也在逐步往垂直方向发展。 几个月前,Gartner 发布了《2021 年企业低代码应用平台魔力象限》,报告从多个维度对全球知名厂商进行了严格评选。 OutSystems、Mendix、微软、Salesforce、ServiceNow 被评为行业领导者; Appian、Oracle 和 Pega 被评为挑战者; Creatio、Kintone、Newgen 和 Quickbase 被评为利基市场参与者。 根据 Gartner 的预测,“到 2023 年,超过 70%的企业将采用低代码(LCAP)作为他们发展战略的关键目标之一。"同时,到 2025 年,整体 LCAP(低代码开发平台)市场规模将达到 290 亿美元,年复合增长率超过 20%。尽管低代码已成为行业热点并且获得了足够的认可,不过整体来看,目前国内低代码仍处于发展早期,市场还有很大的潜力等待企业去挖掘。值得关注的技术混沌工程(Chaos Engineering) 今年 11 月 11 日,在混沌工程实验室主办的“混沌工程与系统稳定性主题沙龙”上,中国信通院解读了国内首个《中国混沌工程调查报告》。 报告主要指出: 国内软件系统稳定性有较大可提升空间,企业期待构建完成、可度量的系统稳定性保障体系;混沌工程是提升产品可用性的有效手段,是建立稳定性的技术核心;混沌工程应用目前成熟度较低,在企业内普及与渗透偏低。 随后今年 12 月 21 日举办的数据安全产业峰会上,中国信通院发布了《混沌工程实践指南(2021年)》,首次提出混沌工程实践体系,混沌工程的重要性不言而喻。阿里巴巴开源 ChaosBlade、PingCAP 开源 Chaos Mesh,字节腾讯亚马逊等企业也在混沌工程上有深度实践,从几年前的被人质疑,到今年越来越多的落地实践,混沌工程证明了自己的价值。混沌工程演进时间线(图源:亚马逊云科技博客) 混沌工程重要事件参考: 2010 年,Netflix 开发 Chaos Monkey 项目并向社区开源;2015 年,Netflix 正式提出混沌工程原则;2016 年,混沌工程开始出现商业化产品。多云架构 数字化加速了企业上云的过程,另外随着企业业务的多元化,多云也成为必然的趋势。 多云架构主要有以下优点 灾难恢复与故障转移:企业使用一个云平台管理所有资源存在较大风险,使用多云架构,在一个云出现故障时,还有其他云可以承担工作负载,也便于快速恢复; 避免供应商锁定:多云可以让企业探索不同的供应商,从不同云平台选择服务,定制符合企业目标的基础设施; 数据主权:欧盟以及多个国家都通过了法律,对数据存储的位置和方式进行监管,受约束的公司可以采用多云的方式确保数据符合监管要求; 降低成本:将工作负载分布在多个云平台之间进行合理的规划,可以有效降低总体成本。 不过多云不是万能的,目前仍存在较大的部署挑战。复杂的环境,成本管理,数据隐私和保护,数据控制访问与跟踪等等都是企业面对的,也是云厂商要解决的问题,所以是否选择多云架构的形式还是要基于公司业务的现状。展望未来 云原生技术的发展势不可挡,老生常谈的“云原生”将依然会是未来的热门话题。随着数字化转型加速,企业对于云的使用将会达到新的水平,云原生架构和云原生应用也将会持续迭代演进。Serverless 在云原生第一阶段,云赋能开发者随时使用海量的算力,支撑了移动互联网等产业的兴起。当下,我们已经进入了云原生第二阶段,云的使命是重塑云原生应用的开发运维模式,帮助开发者获得前所未有的敏捷性和创新能力。 2022 年,开发者将越来越多的听到现代应用(modern application)的概念。现代应用是在应用架构,开发流程,可观测性,安全性等方面采用新的理念,实现安全且快速的软件开发方式。 现代应用的核心是采用微服务和事件驱动的松耦合架构,微服务和事件驱动架构的概念并不新鲜,但很多开发者想要很好的落地仍然面临很大的挑战,最主要的原因是这类将应用拆分为细粒度、松耦合的方式对基础设施的运维带来了很大的挑战。 因此云服务商需要提供越来越多的全托管产品,让开发者基于全托管服务以搭积木的方式实现应用,最终应用的运维演变成 Serverless 模式,即不再管理基础设施,从而大幅降低开发运维的复杂度。DevOps DevOps 是实践现代应用的关键。无论是云厂商还是开源社区,都围绕 DevOps 提供了大量的软件。在 2022 年,受访专家认为将会涌现出越来越多工具,帮助开发者整合应用开发、部署、运维、监控等各个环节的工具,实现清晰流畅的软件交付工作流程。 诸如 Backstage.io 这样的开源软件,让开发者能够轻松的访问共享的软件开发组件,API 文档,以及模板化的工作流,整个团队以一致的方式构建和部署应用,对于提升软件交付的速度和质量非常有价值。服务网格&云原生架构 从目标上看,服务网格试图将服务间的通信及治理下沉到基础设施以达到业务开发和运维解耦,而随着多运行时概念的提出,又试图通过抽象和隔离上层应用开发中的运行时依赖,来进一步解耦开发设计和技术能力的底层实现。 受访专家表示,或许云原生应用开发的愿景是试图通过一层标准化的 API 抽象定义,使得用户可以基于不同语言开发云原生应用,屏蔽外部的基础技术依赖,以及底层的运行环境。从而不被厂商和平台限制,实现跨云跨平台的可移植性。 此外设计和想法都具有一定的前瞻性,站在新业务的角度,大胆进行新技术的尝试,新架构的设计,是一种不错的探索,试错成本也相对较小。而现实中更多的是面临大量历史存量业务,改造难,迁移难,是很多业务方面临最头疼的问题。 这些问题导致企业在云原生架构的前进道路上步伐沉重,受访专家提到,面向多技术栈、多语言、多协议的 "混合应用架构治理" 是需要重点关注和解决的难题。好在目前已有不少厂商在做相关产品的落地设计。写在最后 回顾这一年,架构领域并没有像其他领域有特别多的重大新闻事件,但是各项技术也都有长足的发展。服务网格日趋成熟完善,Serverless 落地实践场景越来越多,低代码平台更受认可,云原生架构也初具规模。放眼更长远的未来,新技术创新和旧技术淘汰是必然趋势,服务网格也好,Serverless 也罢,都是云原生技术浪潮中的重要组成部分,或许有一天,这些技术将进一步相互组合使用,从而真正意义上,让用户只关注业务逻辑的设计和开发,实现 “Write Once, Run Anywhere” 的终极目标。采访嘉宾介绍(按姓名首字母排序): 成国柱,字节跳动 架构/服务框架团队负责人; 李云(花名:至简),阿里云高级技术专家,服务网格专有云负责人; 田靖,华为技术专家; 翁扬慧,网易数帆云原生团队,资深技术专家; 杨皓然(花名:不瞋),阿里云资深技术专家,阿里云 Serverless 负责人。 1 月 7 日晚上 8 点,我们邀请了阿里云 MSE 负责人、Nacos 联合创始人李艳林(彦林) ,阿里云云高级技术专家、服务网格专有云负责人李云(至简)做客 InfoQ 视频号,详细解读架构领域在 2022 年,有哪些值得关注的趋势。2021 InfoQ 年度技术展望直播周也将迎来收官战,关注 InfoQ 视频号,与行业技术大牛实时连麦~ 如果你对架构的发展有其他观察和看法,欢迎在文末留言,或加入 InfoQ 写作平台话题讨论。 后续,迷你书、专题将集合发布在 InfoQ 官网,登录、注册并将 InfoQ 添加进收藏夹,精彩不容错过。
| 15,481 | 1,641,539,245,200 |
InfoQ
|
198 |
Gartner 2021 云数据库管理系统魔力象限出炉:亚马逊云科技执行力最强,阿里云、华为云成国内唯二入选者
|
日前,市场咨询机构 Gartner 发布《2021 云数据库管理系统魔力象限》年度报告,评估基于云的数据和分析服务。其中,领导者象限共有包括亚马逊云科技、微软、Oracle、阿里云在内的 10 家数据库厂商。 2021 云数据库管理系统魔力象限出炉 《2021 云数据库管理系统魔力象限》是数据库领域的重磅报告。根据 Gartner 的定义,魔力象限的四个象限依次为领导者、挑战者、远见者和特定领域者。 在《2021 云数据库管理系统魔力象限》中,有包括亚马逊云科技、微软、Oracle 在内的 10 家厂商进入领导者象限,其中,亚马逊云科技在执行能力上位于第一。值得一提的是,这也是亚马逊云科技连续第七年被 Gartner 评为云数据库领导者。 截至目前,亚马逊云科技提供了十多种专门构建的数据库服务,支持关系、键值、文档、内存、图、时间序列、宽列和分类账八大数据类型。同时,亚马逊云科技的“智能湖仓”架构将旗下数据服务无缝集成,打通了数据湖和数据仓库之间数据移动和访问,形成统一且连续的整体,满足客户各种实际业务场景下的不同需求。 本次,共有两家国产数据库厂商上榜,分别是阿里云和华为云。其中,阿里云位于领导者象限,华为云位于特定领域者象限。 据悉,本次 Gartner 评估标准涵盖战略前瞻性和市场执行力两大维度,共 15 个核心指标以及 200 多项细则。相较 2020 年 16 个数据库厂商上榜,本次增加到 20 个。2022 年,云数据库营收将占据数据库市场半壁江山 从 Gartner 近 10 年的数据库市场份额走势图来看,云数据库发展迅速,市场份额大幅增长。 2020 年数据显示,云数据库已占据整体数据库市场份额的 40% ,据 Gartner 预测,到 2022 年云数据库营收数据将占据数据库整体市场的半数以上。 Gartner 对云数据库管理系统(Cloud DBMS)市场的定义如下:核心功能是用于管理云存储上数据的,由供应商完全提供的公有云或私有云软件系统。数据存储在云存储层(如云对象存储、分布式数据存储或其他专有云存储基础设施)。或者,它们可以满足多种数据模型和数据类型——关系型、非关系型(文档、键值、宽列、图形)、地理空间型、时间序列型和其他类型。
| 1,944 | 1,641,367,150,924 |
InfoQ
|
199 |
如何使用Java lambda语法和外部规则引擎开发定制应用程序
|
复杂的企业应用程序通常有着不同的业务逻辑。这些业务逻辑中的前置条件和后续系统动作(也就是我们所说的规则)总是变化的。而且,比起技术和编程,我们这里所说的规则更需要特定领域的知识介入。我们在实现这些规则时不应老想着靠代码,反而应该驻留在代码库之外,由具有核心领域专业知识的人去进行规则编写(他们只需要具备极少的技术及编程知识)。有一种特定类型的软件工具,也就是规则引擎可以帮助解决难以确定的业务规则需求。领域专家们并不需要擅长编码和技术,就像企业的品牌和营销团队不需要知道企业门户和移动应用程序的底层技术,但他们需要善于撰写编辑图像、横幅和其他内容等(这些工作用Instagram账号就能轻松做到)。Adobe aem是提供无代码/低代码内容创作的内容管理系统之一。新兴技术和云平台不断提出低代码和无代码的解决方案,而且这些解决方案也获得了需求市场广泛的接受。本文介绍了一种将业务操作外部化到低代码工具中实现的轻量级方法,使得具有各自领域专业知识的人员也可以实现业务规则方面帮上忙。 虽然我们已经可以在市场上选用到很多规则引擎,比如Drools(它是一个功能丰富的业务规则管理系统)、Easy Rules、Rule Book、Oracle Rules SDK、Blaze (fico)、IBM Decision Manager等等。这些规则引擎通过各自的丰富特性(包括版本控制)以声明的方式启用规则管理,这对许多应用程序来说通常非常有用。然而,在某些不太复杂的解决方案中,它们往往是多余的,并没有得到充分利用。反而显得维护这个额外的组件更像是一种负债而不是一种资产,开销大于实际使用价值。 在本文中,我们试图说明如何利用Java的固有特性,用尽可能简单的方式实现外部化规则,而不局限于附加框架的任何传递依赖。当技术规则(用Java编写的代码片段)需要外部化并且可能频繁更改时,这种方法非常有用。因此,这种方法在任何Java生态系统中都具有同等的价值,无论框架是什么。为从外部源(例如文件或URL)加载的规则提供一个简单的基于声明式模型的POJO,这些规则是代表一个谓语或者一个等同于lambda表达式的Java代码片段。外部源的内容是Java lambda风格的表达式或Java代码片段,来源范围包括本地数据库及云资源,这样就可以实现在应用程序之外编写规则,甚至不需要应用程序停机。我们可以很容易地将其与Spring微服务和云配置进行集成,用不用云总线均可。这种方法提供静止加密以确保业务规则的安全性(机密性和完整性)。另外,除了支持Jasypt和Spring Config Ciphering之外,任何自定义安全性都可以插入其中。 规则引擎:传统的方式处理业务逻辑频繁变化的最传统和最理想的方法是规则引擎。规则通常是一组IF-THEN条件。 规则≡前置条件+后续行动(RULE≡ CONDITION+ACTION) 规则引擎是软件工具,简单来说,为我们提供了在源代码之外设置规则的能力。规则引擎使得半技术人员/非编程人员以不同的方式设置规则。利用领域特定知识,这些规则引擎可以提供GUI驱动的、直观的规则编写。Drools,DTRules,Oracle Policy Automation system,Easy-Rules等就是常用的规则引擎。 传统的规则引擎帮助领域专家能够脱离代码库编写规则集和行为,这对于复杂的大型业务环境非常有用。但对于较小的并不复杂的系统来说,考虑运行在本地或云基础设施上的经常性成本以及许可证成本等,结果证实,往往对于这类小系统、简单系统来说,规则引擎功能必要性大不,难以得到充分利用。对于小型团队来说,添加任何需要额外技能集的组件都是对带宽的浪费。一些商业规则引擎有陡峭的学习曲线,一直在追求更好的规则引擎性能,对用户使用的性价比考虑得比较少。在本文中,我们试图说明如何成功地在源代码之外维护规则,以执行在Java Tech-Stack(像Spring Boot)上运行的中型系统,使其他用户自定义定制这些规则更容易。 这种方法适用于那些无法负担专用的规则引擎开销及其基础设施、维护、经常性成本等等成本的团队,并且团队中的领域专家具有软件基础,或者团队成员身兼数职。 这种极简主义的方法适合创业的人。深究大公司的起源,我们不难发现,许多大公司一开始也是小团队,预算都必须花在刀刃上,拥有优秀的人才和创新的想法。所以,综合考虑来看,虽然团队的规模可能无法完全确定,但10人及10人以下的团队在面临同样的限制条件时是可以充分利用这种方法的。 更大规模的团队也能从这种方法中受益。此外,砍掉一些专用的规则引擎也能受益,除非所有酷炫的核心功能(商用规则引擎主打功能)都是必需的。 结果概述&新颖性下图列出的步骤描述了这些组件,也展示了该机制下更高层次的功能概览。 配置存储了规则,这些规则只是简单的java方法或布尔表达式。为了避免Java语法的冗长,我们也采用了Lamda和方法引用,从而在Java方法的语法之上提供了一个额外的抽象层。 配置存储了由领域专家编写的规则。以下这些都是有效的语句,用类似lambda体的语法编写,以捕获专家的意图。例如,要将娱乐软件评级委员会(ESRB)定级的成人视频游戏划分到合适年龄范围的产品,领域专家可以这样写:customer -> customer.getAge()>=17 配置可以是一个文件、原始字节流或URL,可以放置在任何地方。放置位置选择广泛,如下均可选择:一个本地磁盘上的文件 。一个数据库(包括SQL和NoSQL)。一个远程网络位置(如HTTP URL、原始TCP套接字等)。放置到云上的一个位置(如亚马逊云科技的S3 bucket或谷歌的云硬盘等)。框架提供了对源编码、安全性和传输的全面抽象。任何标准或专有的编解码器(CODEC)都可以用于存储和检索规则,这同样适用于两种主要的安全范式-机密性和完整性。就这一点而言,每个人都可以编写自己的适配器(Adapter)。只有这样,它的检索过程的最后一步应该产生Java表达式或谓语中的规则。 通过另外做一些工作,增加一种机制,这种机制可以使流规则适合采用任何标准协议的浏览器(如WebSocket、HTTP/2、XMPP、MQTT)。这种方法甚至可以与Web-assembly结合在一起,在Web浏览器中集成安全和复杂的规则。 入门指南虽然传统来说,在开始使用SDK之前我们最好先了解一下它的结构,但为了方便和简单,我们颠倒了顺序。在本节中,我们将通过简单的问题陈述或用例来说明规则是如何被外部化的。先决条件用户必须具有使用Java SE 1.8或其更高版本进行软件开发的经验。除此之外,还需要一台带有Java SE 1.8(带有IDE)的标准机器。在整篇文章中的所有示例中,IDE将选用Eclipse,而构建工具选用MAVEN。 步骤1:从这里下载Library并将其保存在本地路径上,例如D:\ externalize-rules.jar。这里是完整的源代码。步骤2:创建一个Maven项目,将编译器源代码层级设置为带有依赖项的1.8,如图所示。 问题陈述:一个高档的服装零售店是经常在不同的场合为顾客提供折扣,基于一系列不同的可参考标准,比如职业、收入水平、工作/居住场所、教育水平等等。为了不复杂,我们假设一个简单的客户模型类如下: 我们进一步假定一个类Repo_Customer,它作为客户信息的来源,并根据特定的资格标准挑选符合折扣条件的客户。 然后,我们可以使用以下任何一种或几种的组合来定义折扣资格规则: 步骤3:值得注意的是,Lambdas没有那么冗长。主题专家不用深入了解Java编程语言,就可以使用它们定义规则。 我们将折扣规则保留在代码库之外,因为它可能经常更改。然后在所有可用存储选项中选择最简单的一个,将规则存储在本地磁盘的一个文件中。SDK帮助加载和执行这些规则。以下文件存储在本地磁盘上: 我们在文件中创建了自己的标记标准(它可以是任何一个设计和实现,不受任何特定实现的限制):<RuleName><ColDelimiter><TargetModel><ColDelimter><LamdaExpression><RowDelimiter> 步骤4:最后,我们写个小代码来检查我们的规则,看看规则是否顺利执行: 在SDK中现在,我们已经成功地启动并编写了一个简单的快速启动程序,我们可以回过头来开始探索这个SDK做了什么,示意图如下。 1. 总体方案结构: com.yourcompany.libs.externalizedrules.poc.RuleExecutor<T, R>是一个抽象类,它定义了一个规则执行方法。规则的实现需要为这两个抽象方法进行子类化,通过用户应用程序代码(提供实现的)。R表示决策的结果,T表示决策所基于的输入对象。例如,如果我们想定义一条规则来过滤60岁以上的所有客户,我们需要子类化。RuleExecutor<DTO_Customer, Boolean> com.yourcompany.libs.externalizedrules.poc.models.RuleExecutionConfig这个类从配置源加载规则,并且必须事先初始化。这个类负责以下工作:1. 从配置源加载原始规则库2. 将规则基础片段合成java代码(例如Lamda)3. 编译合成Java代码4. 最后将这个类加载到主内存中,以便执行规则。 定义框架的具体实现我们已经在【2】中使用 PredicateRuleExecutor 。这是一个特殊的实现 com.yourcompany.libs.externalizedrules.poc.RuleExecutor<T, R>,它的值是一个布尔值。 它执行以下3个任务: 1. 加载计算值为true或false的规则。也就是说,它将原始规则库或lambda表达式转换为一个java方法,该方法接受一个Object并返回一个布尔值,即形成一个java.util.function.Predicate<java.lang.Object>。 2. 其框架,特别是PredicateExecutionContextLoader,它是RuleExecutionContextLoader的子类,为底层任务提供了抽象。 3. 如果需要加载加密的,编码的/代码混淆的字节序列,根据一些标准的/定制的编解码器,必须重写该方法,com.yourcompany.libs.externalizedrules.poc.services.PredicateExecutionContextLoader.load(InputStream)。 4. 这个方法的一个优点是,它以字节为单位工作。因此,规则可以从文件系统、URL、云存储、数据库等地方加载。 5. 从本地文件加载原始规则。这个方法getConfigStream()返回一个java.io.inputStream。它提供了从任何地方加载原始字节的灵活性。 我们将简短说明如何从几个主要的和常用的源代码加载规则。一些通用源代码的实现在本节中,我们将探讨一些常见的而且重要的可以加载配置的源文件。HTTP上的远程URL 2. 亚马逊云科技S3 bucket要从S3 bucket中加载规则,我们只需要做以下更改: 把碎片按正确的顺序排列粗略来看,SDK的实用程序是一个PoC(Patch Output Converter成批输出转换程序)。然而,创作者们正在努力把它塑造成一个开源项目。在这一节,也就是文章的最后一部分,我们会着重强调它的一些显著特征:该框架可以轻松地与不同的安全框架(如JASYPT)协作,以确保业务规则的完整性和保密性,因此既不能滥用明文业务规则,也不能注入自己的规则。 因为它只是普通的java,所以它非常适合所有流行的框架,例如Spring and Spring BOOTJSFPlayZK无论是对于有云总线的,还是没有云总线的Spring云配置(Spring Cloud Config),它都非常适合。协议中立性使得它可以与任何源代码协作使用,无论源代码是部署在云提供商的云服务中,还是部署在本地(on-premise)存储中。人们可以在任何云提供商或本地(on-premise)存储上实现自己的自定义编解码器。.我们可以使用JMX hook重载已加载的配置,而无需重新启动应用程序。 作者简介: Soham Sengupta在学术界、研究和产业界有16年的工作经验。作为一名移动计算和网络技术的硕士,他一直在为PAYBACK公司(印度)进行数字化转型。他是一个真诚的基础科学崇拜者,狂热的文学爱好者,充满激情的程序员,喜欢在社交平台上分享自己的想法,而且这些想法往往被证明是超前的、具有创新性的。如果您想了解更多关于作者的信息,可以在他的LinkedIn上找到。 Srijeeb Roy在IT行业拥有超23年的经验。曾获印度Jadavapur大学的计算机科学与工程学士学位。他过去曾领导TCS垂直保险的Java基地团队,目前专注于各种数字技术加速器,这些加速器可以帮助TCS客户加速他们的数字旅程。他在Java/J2EE/JEE、Spring技术和混合移动应用框架方面拥有超过20年的经验。他曾经在Infoworld.com(前身是JavaWorld.com)上写过几篇关于Java SE、EE和ME的文章。 查看英文原文:Lightweight External Business Rules
| 8,655 | 1,640,995,200,035 |
InfoQ
|
200 |
构建企业现代化数据平台,从“智能湖仓”开始
|
2021 年初,在 InfoQ 全年技术趋势展望中,数据湖与数据仓库的融合,成为大数据领域的趋势重点。直至年末,关于二者的讨论依然热烈,行业内的主要分歧点在于数据湖、数据仓库对存储系统访问、权限管理等方面的把控;行业内的主要共识点则是二者结合必能降低大数据分析的成本,提高易用性。而此类争论,又反映了行业在大数据处理领域的核心诉求:如何通过数据湖、数据仓库的设计,有效满足现代化应用的数据架构要求。亚马逊云科技作为行业头部云厂商,也推出了与数据湖、数据仓库融合相关的“智能湖仓”。为什么“智能湖仓”可以更智能地集成数据湖、数据仓库和其他数据处理服务?“智能湖仓”架构备受关注意味着什么?在技术行业风向标的 2021 亚马逊云科技 re:Invent 大会上,我们看到了“智能湖仓”架构的现在和未来构想。被广泛关注的“智能湖仓”架构理解“智能湖仓”架构的现在和未来,需要先了解它的过去。早在 2017 年,“智能湖仓”架构就已初具雏形。当时,亚马逊云科技发布了 Amazon Redshift Spectrum,让 Amazon Redshift 具备了打通数据仓库和数据湖的能力,实现了跨数据湖、数据仓库的数据查询。这件事情启发了“智能湖仓”架构的形成。在 2020 年的亚马逊云科技 re:Invent 大会上,亚马逊云科技正式发布“智能湖仓”。如果从早期的技术探索开始算起,在 2021 亚马逊云科技 re:Invent 大会上发布的 Serverless 能力,代表了“智能湖仓”架构的第 8 轮技术演进。如今,“智能湖仓”基于 Amazon S3 构建数据湖,绕湖集成数据仓库、大数据处理、日志分析、机器学习数据服务,利用 Amazon Lake Formation、Amazon Glue 等工具可以实现数据的自由流动与统一治理。具体而言,“智能湖仓”架构下,首先需要打破数据孤岛形成一个数据湖;其次,需要围绕着数据湖,在不同应用场景为用户提供相应的分析工具;另外,需要确保数据在湖、仓以及专门的服务之间能够自由移动;此外,需要确保用统一的方式去管理湖里面数据的安全性、访问控制和审计;最终,需要能够采用低成本的方法将湖、仓各自的优势有效利用起来,并利用人工智能等创新手段进行创新。就像 Amazon Redshift 在 2012 年发布时,引导了云原生数仓的发展方向一样,“智能湖仓”架构一经发布就引发业内广泛关注,一方面是因为亚马逊云科技作为头部云厂商的行业地位,另一方面是因为此架构在技术上的创新思路能够为行业带来一些新的思考。“智能湖仓”更强调“架构”而非“产品”,更强调数据的自由流动与统一治理,以及基于湖仓的“智能创新”。如今,“智能湖仓”架构不是简单地将湖与仓打通,而是将湖、仓与专门构建的数据服务连接成为一个整体,让数据在其间无缝移动。面对向 TB 级、PB 级,甚至 EB 级增长的数据,“如何存”和“如何用”不再是相对孤立的话题。“智能湖仓”向行业传递了一个信号:企业需要统一数据分析工具,实现数据在整个数据平台的自由流转。不管是企业数据管理理念的视角,还是在技术视角下,“智能湖仓”架构被广泛关注也意味着,随着数据湖和数据仓库的边界在逐渐淡化,基于两者的大数据处理体系的架构正在被重构。“智能湖仓”架构下,重构中的大数据基础设施这种重构大概可以分为几个维度来理解,其中最重要的是更强的数据安全、治理和数据共享能力,更敏捷的构建方式,更智能的创新手段。数据安全、治理和共享,重点聚焦跨湖、跨仓库甚至跨企业的数据流通和治理,致力于实现真正意义上的数据跨域互通;更敏捷的构建方式则要将企业的敏态追求提升到极致,Serverless 能力的应用是其关键;更智能的创新手段则把 AI/ML 能力和大数据治理并入统一范畴,避免走入“为了大数据而大数据”的误区。在 2022 年,当我们再次谈起数据湖和数据仓库的融合问题时,包含以上关键点的“智能湖仓”架构,很可能成为被业内重点参考的构建思路之一。更强的数据安全、治理和数据共享能力数据的安全、治理和共享,原是大数据的本职任务,但当数据达到 PB 乃至 EB 级,需要跨多个区域、组织、账户进行数据共享或数据交互时,企业有些时候并非不想细颗粒度管理数据,而是无法管理。这种颗粒度的权限控制往往比单机系统设计或者单一的分布式系统要复杂得多。所以,数据治理成为了“智能湖仓”重要的发力点。在 2021 亚马逊云科技 re:Invent 大会上,支撑数据统一治理和自由流动能力的“智能湖仓”组件 Amazon Lake Formation 发布了多项新功能。除了之前早已支持的表和列级安全,Amazon Lake Formation 现在支持行和单元级权限,通过只限制用户对部分数据的访问权限,让限制访问敏感信息变得更加简单。此外,Data mesh 的概念在 2021 亚马逊云科技 re:Invent 大会上也被提及。Data mesh 概念也是 Gartner 提出的十大数据技术趋势之一。在 Data mesh 模式下,“智能湖仓”能够实现领域数据成为产品、轻松启用细粒度授权、数据更容易被使用、数据调用跨企业可见和联邦的数据管控与合规。这意味着,“智能湖仓”架构下,Data mesh 可以实现跨数据湖的数据共享和计算。亚马逊云科技借助自身数据湖安全、tag 级别的访问控制和共享能力,为 Data mesh 提供了实现方式与手段,让 Data mesh 概念走向落地。更敏捷的构建方式除了更强的数据安全、治理和数据共享能力,更敏捷的构建方式也是绝大多数企业当下主要关注的技术创新之一。敏捷在企业间的认可度和应用程度越来越高,而“智能湖仓”原本就是敏捷的架构。在“智能湖仓”架构中,Amazon Lake Formation 能够将建立数据湖的时间从数月缩短到数天。用户可以使用像 Amazon Glue 这样的 Serverless 数据集成工具快速实现数据入湖;使用 Amazon Athena 这样的 Serverless 查询引擎直接实现基于 SQL 语言的湖上数据查询分析。无论是超大型公司还是工作室,都可以从这种敏捷的构建方式中快速获益,提取数据的价值。为了让构建方式更敏捷,在 2021 亚马逊云科技 re:Invent 大会上,亚马逊云科技宣布推出更多数据分析服务的无服务器版,借助无服务器的能力,让用户可以更敏捷地构建自己的数据存储、分析、智能应用解决方案。Amazon Redshift Serverless ,让数据仓库更敏捷,支持在几秒钟内自动设置和扩展资源,用户无需管理数据仓库集群,实现 PB 级数据规模运行高性能分析工作负载;Amazon Managed Streaming for Apache Kafka (Amazon MSK) Serverless ,让流式数据接入与处理,支持快速扩展资源,简化实时数据摄取和流式传输,实现全面监控、移动甚至跨集群加载分区,自动调配和扩展计算和存储资源,让用户可以按需使用 Kafka;Amazon EMR Serverless 让大数据处理更敏捷,用户无需部署、管理和扩展底层基础设施,使用开源大数据框架(如 Apache Spark、Hive 和 Presto)运行分析型应用程序;Amazon Kinesis Data Streams on Demand 让流式数据分析与实时数据场景搭建更敏捷。每分钟可以处理数 GB 的写入和读取吞吐量,而不必预置与管理服务器、存储,在成本和性能之间取得平衡且变得更加简单。来自亚马逊云科技的数据显示,现在每天有数以万计的用户每天在使用 Amazon Redshift 处理超过 2EB 的数据。全球最大的制药公司之一罗氏制药(Roche)首席云平台和机器学习工程师 Yannick Misteli 博士表示:“Amazon Redshift Serverless 可减轻运营负担,降低成本,并帮助罗氏制药规模化实践 Go-to-Market 策略。这种极简的方式改变了游戏规则,帮助我们快速上手并支持各种繁重的分析场景。”更智能的创新手段正如 Yannick Misteli 提到的一样,近些年来,底层的技术创新推动业务层的改变,而业务层的诉求也倒逼底层技术的进步。游戏规则正在技术升级中改变。如今,“智能”是绝大多数技术的演进目标。在亚马逊云科技的“智能湖仓”架构中,也将“智能”提到了一个相当重要的位置。“智能湖仓”架构下,数据库服务与人工智能和机器学习深度集成。在具体的产品上,亚马逊云科技提供了 Amazon Aurora ML、Amazon Neptune ML、Amazon Redshift ML 等诸多数据库原生的机器学习服务。同时,在“智能湖仓”架构中,还有云原生人工智能平台 Amazon SageMaker ,它提供了多类机器学习库和开发工具包,帮助用户快速构建人工智能应用。当用户需要面对大量数据处理场景时,可以使用 Amazon SageMaker 内置的工具轻松快速连接到 Amazon EMR 集群进行大数据处理。而 Amazon EMR Serverless,也帮助人工智能相关的数据处理与分析变得足够敏捷。在 Gartner 2021 年发布的报告《Magic Quadrant for Cloud Database Management Systems》中,亚马逊云科技连续 7 年被评为“领导者”,这项报告面向的主要是对各大厂商提供的云数据库、云数据分析工具进行全景评估,并给出最终位置的“测评报告”,含金量可见一斑。亚马逊云科技参与评测的产品均为“智能湖仓”架构中的代表产品,这个“领导者地位”背后代表的技术成熟度不言自明。我们可以看到,“智能湖仓”提供的每一款服务工具的迭代,都在向更敏捷、更安全、更智能的数据架构目标迈进。数据架构作为企业数字化转型的最底层,也是应用现代化的底层动力。“智能湖仓”带来的数据管理方式的变革,也承载着亚马逊云科技对应用现代化的构想。写在最后回到文章开篇提到的问题,目前行业内已经形成了数据湖和数据仓库的融合必将降低大数据分析成本的共识,主要分歧点在于数据湖、数据仓库对存储系统访问、权限管理等方面的把控。在这些方面,亚马逊云科技的“智能湖仓”架构围绕这些问题都提供了相关的工具或服务。无论是在数据基础架构、统一分析还是业务创新上,从连接数据湖和数据仓库到跨数据库、跨域共享,“智能湖仓”在实际的业务场景中并非孤立存在,而是与应用程序紧密相连。底层数据架构的现代化演进,也将为企业乃至全行业带来更大的价值。数据,作为与土地、劳动力、资本、技术并列的“第五大生产要素”,重要性不言而喻。如今,亚马逊云科技“智能湖仓”架构在企业中的实践,已经为企业构建现代化数据平台提供了一条可供遵循的路径。
| 3,490 | 1,640,855,640,267 |
InfoQ
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.