Id
int64 1
278
| Title
stringlengths 7
81
| Content
stringlengths 560
16.9k
⌀ | View
int64 342
28.8k
| PublishTime
int64 1,605B
1,695B
| Site
stringclasses 1
value |
---|---|---|---|---|---|
201 |
从技术新趋势到云原生应用开发,云计算下一个十年将走向何方
|
从最初的新鲜词,到如今形成巨大的行业和生态,云计算已蓬勃发展十余年。在这十余年间,不断有新理念、新技术涌现,致使 IT 行业发生了天翻地覆的变化。作为一名新时代的开发者,把握技术的发展方向,在这个不断变化的世界显得至关重要。12 月 18 日亚马逊云科技深圳 User Group Community Day 举办。活动带领大家盘点了亚马逊云科技 re:Invent2021 全球大会的技术创新精华,解读云计算的最新动向。同时,来自亚马逊云科技的四位开发者围绕云原生应用开发的探索与实践进行分享,涉及无服务器、容器、云原生等多个前沿技术话题讨论。re:Invent 2021 创新技术盘点re:Invent2021 全球大会虽已圆满落下帷幕,但开发者对于这场盛会讨论的热情却丝毫没有退却。物联网、容器、无服务器、机器学习、5G、机器人……数十项前沿领域的新产品、新功能发布,其中部分可能代表云上世界未来的发展方向。亚马逊云科技首席开发者布道师王宇博,在本次 Community Day 上从开发者关注的角度,为大家解读了 re:Invent 2021 的技术创新精华。在亚马逊云科技所提供的二百多项全功能服务的背后,拥有一个核心的驱动力即 API。自 2002 年,贝索斯向全公司发布指令“从今天起,所有的团队都要以服务接口的方式,提供数据和各种功能”后,亚马逊电商系统都以 API 的方式进行连接、交互,这促使亚马逊平台的快速演进。这条准则后来同样也成为亚马逊云科技构建云服务的基石。在始终奉行这条准则的 15 年间,亚马逊云科技总结出 6 条使用 API 的相关经验。API 是永远的永远不要破坏向后兼容性从客户场景出发逆向工作让 API 的故障模式有据可查创建具有明确、特定目的,自描述的 API不惜一切代价避免泄露实现细节在介绍完亚马逊云科技众多服务背后的核心驱动力后,王宇博分别从开发工具、云原生架构、机器学习、社区这四个开发者最关心的维度分享了今年 re:Invent 上的创新和突破。开发工具一直以来,亚马逊云科技提供众多开发工具帮助开发者在云端快速的构建和开发。本次 re:Invent,又全新发布了三大 SDK,分别支持 Swift、Kotlin 和 Rust 语言,进一步满足开发者使用熟悉的语言在云端快速构建的需要。此外,王宇博还就基础架构即代码 (IaC) 进行介绍。基础架构即代码是在开发领域中非常热门的话题,通过可编程的方式帮助开发者快速的获取和配置资源,通过代码打通软件和硬件。亚马逊云科技主要有两款服务是针对基础架构即代码领域。第一个是 Amazon CloudFormation,以模板的方式帮开发者创建、配置、管理资源,第二是 Amazon CDK,能够帮助开发者以熟悉的语言定义云基础设施,并通过 CloudFormation 进一步实现。第三,亚马逊云科技在全栈应用的开发方面发布了一款名为 Amazon Amplify Studio 的产品,能够以低代码的方式构建 Web 应用和 UI,并可以结合 Amazon Amplify 快速构建全栈应用,打通云端全栈应用开发的全流程。云原生架构自 2018 年以来,随着 CNCF 对云原生的定义,云原生技术已经越来越得到各大厂商、开发者的认可。在这个领域亚马逊有很多的理念和实践分享给大家。容器是构建云原生现代化应用的核心基础设施,亚马逊云科技在容器领域提供了非常丰富的服务和部署方式。在今年的 re:Invent 中,亚马逊云科技主要针对 Kubernetes 集群的弹性伸缩推出了生产就绪的 Karpenter,它是一个开源项目,目前版本已经更迭到了 0.5 版,通过 Karpenter 进行灵活高性能的 Kubernetes 集群的弹性伸缩,有助于提高应用的可用性和资源的利用率。在无服务器领域,亚马逊云科技的 Lambda 一直是先行者,今年 re:Invent 对 Lambda 的临时存储进行了容量提升,有助于数据分析、机器学习推理在无服务器上的部署。机器学习向纵深发展,向行业发展是机器学习的发展趋势。亚马逊云科技在今年的 re:Invent 上宣布了与 Meta 在 PyTorch 领域的深入合作,一起推动 PyTorch 开源框架的研发和创新。亚马逊云科技上有大量 PyTorch 的开发者,亚马逊云科技和 Meta 一起,推动 PyTorch 中国用户社区的建设,帮助开发者进行更好的开发、探讨、交流。另外,针对机器学习开发者,亚马逊云科技发布了 SageMaker Studio Lab,可帮助开发者使用免费的算力和丰富的技术资源学习机器学习并试验新技术。社区开发者社区今年第一次在 re:Invent 的主题演讲中覆盖,可以看出亚马逊云科技对于开发者社区越来越重视。在今年的 re:Invent 中上发布了 Amazon re:Post,这是一个社区驱动的问答网站,帮助消除在使用亚马逊云科技产品中相关的技术障碍,进行相关的知识获取和学习并帮助大家进行知识交流和互动。同时,亚马逊云科技更加突出了 Hero 的重要性,Hero 们在开发者社区中扮演了越来越重要的角色,成为社区成长的重要驱动力。容器:Amazon EKS 的设计与演进在王宇博基于 re:Invent 对 2021 云计算发展趋势进行解读后,三位来自亚马逊的开发者分别就不同技术领域对云原生的应用开发经验展开分享。说到云计算发展的新趋势,不得不提的就是容器技术了。EKS 作为开源的容器编排引擎,它支持自动化部署、大规模可伸缩、应用容器化管理,而 Amazon EKS 消除了运行具有高可用性的 Kubernetes 集群的复杂性,并交付了可供生产环境使用的更具有弹性的架构,可让开发者在 AWS 上轻松运行 Kubernetes。亚马逊云科技资深解决方案架构师林俊在本次 Community Day 上重点阐述 EKS 背后的设计机制与开源社区的紧密合作并探讨了后续的技术发展路线。单纯部署、运行一个容器很简单,但要自己搭建 Kubernetes 的平台,就是一个比较痛苦的过程了,像高可用、etcd 备份、数据平面上节点的弹性伸缩、资源调度等等,EKS 是在这样的背景下诞生的。其背后的设计有以下几个特点:每个集群是单租户的模式,控制平面运行在 AWS 管理的 VPC,数据平面运行在用户自己管理的 VPC 上。EKS 会实现控制平面跨可用区的高可用。数据平面也可以选择使用 Fargate 服务,EKS 可以自动实现 Pod 弹性伸缩,按 Pod 运行的时间进行计费。可以以参数配置控制平面和数据平面的交互方式,无论通过内外网均在亚马逊的管控之下,从而保证安全性。以命令行或界面发起集群维护事件,以服务完成响应处理。以部署、验证、扩展部署的方式自动完成整个区域所有集群的版本更新。据林俊介绍,亚马逊云科技在 EKS 上的计划主要将围绕 Kubernetes 集群运维展开,比如在目前公开的路线图可以看到目前已推出的 EKS Anywhere 服务,即无论 Kubernetes 部署在何处,Amazon EKS 都可以帮助您部署,操作和保护 Kubernetes 环境。目前支持部署在 Vmware 环境,2022 年 EKS Anywhere 会计划支持裸金属环境的部署2022 年计划推出一个 karpenter1.0 版本,支持大规模节点下 Kubernetes 集群的高效扩缩容。无服务器:构造高可用低成本电商网站亚马逊云科技为我们带来了非常强大、全面的工具栈,如何用它来更好的创造价值是摆在我们面前的一个课题。如今我们越来越多地选择了网购这一购物方式,这就对电商平台的可用性和高性能提出了挑战,亚马逊云科技资深无服务器产品专家孙华为介绍了如何使用 Lambda、EFS 和 Aurora Serverless 构造高可用低成本的无服务器电商独立站。Serverless 计算具有以下四个特点:无需管理服务器自动缩放为价值付费内置高可用和容错能力因为 Lambda 是事件驱动,所以典型的基于 Lambda 的应用无外乎这样的架构——以事件源触发 Lambda 函数,在函数里可以访问后端的数据库,也可以访问任何其他的服务。Amazon Lambda Adapter 开源项目可以帮助开发者做 Lambda 的事件和 HTTP 请求之间的转换。这一版的架构设计旨在节约开支,为提升性能可以考虑分别在 WordPress、EFS、PHP 层面做有针对性的优化。 WordPress 优化选择轻量的主题。选择性能好的 Page Builder,推荐直接使用 Gutenberg。使用 Memcached 作为 Object Cache 的后端。 EFS 使用优化WordPress 代码包括大量小文件,EFS 访问大量小文件的延迟高把 WordPress 代码,主题和插件打包到 Lambda 容器镜像中仅保留 wp-content/uploads 目录在 EFS 文件系统上WordPress 代码、主题和插件均保存在 git 仓库中 PHP 性能优化代码更新后,通过 CI/CD 流水线部署新的 Lambda 版本使用 Opcache 缓存 PHP 文件编译结果使用 Opcache File Cache将预编译生成的 Opcache File Cache 文件打包到 Lambda 函数中通过这些性能优化和架构迭代,我们成功的在 Serverless WooCommerce 上支撑了每分钟 2 万笔订单的峰值流量。而且处理 1 百万订单的 API Gateway 和 Lambda 的成本仅为 $303。通过这个测试,我们证明 Serverless 电商独立站不仅可以支撑每小时百万订单的峰值,而且成本超低,非常适合构建电商独立站和电商独立站 SaaS 服务。云原生:快速原型设计和开发的核心技术不管是容器还是无服务器,产品的可用性和性能都是生产阶段非常重要的指标,是能够留住、承载更多用户的关键之一。而随着云原生时代的到来,大量企业从 On Cloud 走向 In Cloud,作为开发者更关心市场的需要,从而积极且迅速响应,快速将想法变为产品和服务。不从头造轮子,而是站在云的肩膀上,以搭积木的方式,在迭代中逐步添加新功能以完善用户体验。亚马逊云科技资深开发布道师黄帅以开发者的视角,探讨了快速原型设计在加速业务成果方面的作用,深入了解如何释放原型开发的力量。黄帅表示,其实云原生是一种构建或者运行应用程序的方法,它背后借助的是云计算本身特有的弹性及分布式的优势,让我们可以快速的把它构建出来,推到市场去看市场反馈,然后继续做下一步。云原生开发融合了 DevOps、持续交付、微服务和容器的概念。加尔定义里面讲过,一个运转正常的复杂系统总是从一个运转正常的简单系统演化而来。云原生应用的交付形态恰恰如此,从客户提出需求,初步演示(Demo),概念验证(POC),再到原型设计开发(Prototyping),然后试点应用(Pilot)到交付生产(Production),正是一个由简单到复杂演化的过程。其中,原型设计和开发的部分,是整个过程中承上启下的关键节点。我们对该阶段的核心期望有三点:快速创新:使用新型软件技术加速创新全面治理:自动可扩展地管理软件以及基础设施持续优化:缩减开发周期、降低风险和减少成本原型设计和开发的特征都是以时间来衡量的:从需求形成故事板(1 天)、架构设计(1 天)、UI 原型(1 天)、代码实现(5 天)、测试(2 天)和验证(2 天)。在整个过程中会借助大量的工具完成原型的设计和开发,借此快速推向市场。代码即云,万物皆 API。那么多云计算的服务,让我们可以从前端到后端、到数据库都能快速实现和部署。在亚马逊云科技的平台中,可以帮助我们实现原型的服务,都是建立在 Serverless 的基础上,以积木块的方式进行快速原型开发,其中有三款可以值得关注:Amazon App Runner,快速地大规模部署容器化 Web 应用程序和 API,开发人员无需具备基础设施经验。Amazon Amplify,前端 Web 和移动开发人员在云上快速轻松地构建全栈应用程序,无需有构建 API、编写服务器端代码或设置数据库的经验。Amazon Amplify Studio,低代码和可视化的方式,更快地从 UI 设计转换为安全、可扩展和可用于生产的应用程序,向最终用户提供新的创新,同时仍然可以完全控制应用程序代码。云原生到底是什么?黄帅在分享的最后对这个问题进行了总结,云原生是一个方向和一种文化,引领着企业更加深入地认识和使用云计算,使应用不仅长在云上,更是以一种适应云计算的方式,原生构建和持续迭代。他提到,快速原型设计在整个云原生中是承前启后,站在云计算的肩膀上,利用亚马逊云科技的大量 Serverless 服务,使应用和开发变得更快、更稳。
| 2,697 | 1,640,764,737,309 |
InfoQ
|
202 |
为什么云基础设施应该是不可变的?
|
本文最初发布于Stroobants博客,经原作者授权由InfoQ中文站翻译并分享。几乎所有人都在说不可变的微服务才是最好的,开发者社区也通过只读Docker镜像和CI/CD表达了对其的支持,但运营的世界似乎还是深陷手动配置的泥潭。原因呢?单纯是没有合适的工具罢了。当然,我们也可以通过部署让一部分基础设施不可变,但在没有内部API、软件和相关认知的情况下,我们只能盼着上一位运维同事能写份完整的、能读懂的文档,或者祈求上苍希望上次写完文档之后没再改过东西了。但尤其是在云环境中,随着API和IaC工具的崛起,我们还是可以梦想着有一天能跨过黑暗时代的。为什么要部署基础设施即代码?只要是报错,运维都可以通过重新部署解救问题。但如果我们把一切都通过基础设施即代码(IaC)定义了呢?再遇到这种莫名其妙报错的时候,我们就可以直接销毁出问题的资源,并重新将其部署即可。我们再也不用浪费时间纠结于一个不可能的报错了,把所有的debug都延后再做,先让服务跑起来再说。如果遇上超级大灾难,那就把运维放到另一个地域里重新部署这大概是云供应商的第一大卖点了。假如有一天真的天降大灾于你的一处云区域里,除非你真的把所有东西都用IaC定义了一遍,否则你很难直接转移到另一个地域里。但如果你只是刚刚开始用IaC并结合一些其他的什么工具进行手动更改的化,那么你大概需要的就是速效救心丸了。因此,请开始尝试在IaC中定义所有,或者做好RTO(恢复时间目标)增加的准备。运维可以快速回退到先前状态在过去,运维的眼里所有的变更都是永久性的,有的甚至不能回滚。但有了IaC之后,我们可以回滚了!如果不行至少还是可以回退到上一个状态的。有的IaC禁止回滚(Terraform)但是有“前进”(move-ahead)的策略。这二者各有各的优缺点,但我个人认为具体该用什么看团队的喜好就行。版本控制和同行评审当你在运维环境部署东西时,你的同事只会希望你所有都写对了。毕竟他们做不到蹲在你身边看着你干活,也不能在你完成后一步步重新检查所有东西,他们只是默认你没搞错。但如果有了IaC,那就意味着我们终于有了一个版本控制工作流。同事们可以检查你要部署的东西,没问题的话就给通过。他们也可以清楚看到具体要部署的是什么,有问题的留下评论并和你一起修改。忘了启用加密?很容易检测,完全不用对所有的资源都来个年度大审查。运维团队能用的工作流这对运维团队来说尤其重要。如果把一个小萌新扔到一群运维老鸟之中,而这群老鸟们干起活来又各有各的方法,再加上似是而非的检测和平衡……团队的leader或许觉得一切都在正轨上,一切都很顺利。当然,大多数情况下确实如此。但这对新员工来说可能就没有这么友好了。每位开发都有各自部署的方法,在向运维之神提交供奉的时候也都有各自的仪式。一旦我们修正了IaC中的坏习惯,知识和代码的分享将变得更快更轻松,只需要最低级的限制即可。管理一切的包虽然和上一个点有些类似,但你的同事们终于可以只实现部署中必要的部分了。从公司的角度来看,轻松打包架构,让同事们可以在其基础上进行构建或优化是非常好的,而运维也可以充分利用互联网上的开源包进行开发工作。我还记得当我第一次需要在亚马逊云科技上部署一个EKS时,发现Terraform注册表里的EKS包是多么的开心;一周的工作量瞬间缩减成了一天。检测漂移漂移是非常让人头疼的事情。如果业务有时间很紧的需求,那么就会引发漂移。一个要改架构的需求,但之前又完全没有文档可以参考,再加上执行请求的人又在休假……一切都散了架,而没人能解释清楚为什么。重置也没了作用,一切都乱了套以及这个见鬼的Redis实例是从哪冒出来的?原因也很简单,糟糕的文档记录、被无视的流程手续等等,让你的环境已经从最初的架构漂移走了,而直到最后所有都散架了你才发现它其实已经漂了很多年。但这对IaC来说小菜一碟,因为它可以让环境变得“不可变”。借助一些工具,我们可以检测到所有没有用IaC创建的资源,而没有使用IaC工具修改的资源也可以轻易被它检测到。这样,我们的环境就像是个Docker的镜像,如果出了什么bug,直接重新部署即可。沙盒环境如果你的环境是用IaC定义的,那么创建沙盒环境将会非常简单。要测试的东西需要改架构?没问题,搞一个沙盒账号然后把整个架构都部署进去就成,这个环境还可以测完就扔不用留念。如果你有个开发环境(dev),那如果你想试试把整个开发环境都干掉后重新运行管道,测试看IaC代码还能不能跑也是可以的。最好的情况是,整个开发环境一小时后就回来了,但最糟糕的呢?又有新操作点需要解决了。怎么才能让我的环境不变呢?我会尝试在这里解释如何从架构的角度来,至少确保生产环境的不变性所需要的一般性建议。环境希望看到这里的你们真的有环境相关的策略,而不是搞什么“测试环境即开发环境”。对小公司来说,有测试到生产两个独立环境即可。大一些的公司就可以采用测试->暂存->生产流的策略。在本文中,我将以大公司的环境策略为例进行展示,但请记住,这个框架也不是一成不变的。基础环境测试环境这里是你的沙盒。你的工作负载都部署在这里,但你的DevOps团队也有这个环境的管理员权限,虽然会有例外情况和一点点的限制条件,但不管怎么说,他们都是这个环境的老大。他们会在这个环境里练手、试验以及各种瞎搞,但你还是可以通过运行的管道回退环境到上一个状态的,并且创建在IaC之外资源也不会被销毁。测试环境也可以用来测灾难恢复的性能。这种一年都难得发生一次的小概率事件现在可以每周都拎出来测一测了,具体操作方法也很简单,直接干掉整个环境,然后让管道跑就完事了。这套操作同样适用于被开发者们玩弄过后重置沙盒恢复稳定的情况。暂存环境这里是生产之前的预演,是生产环境的复制品,当然还是会有一些小区别的,比如为了优化成本,暂存环境里只跑了两个实例而不是生产里的五十个。这个环境也可以被称作是指示灯环境,只要你想,这个环境应该随时可以扩展到足以运行生产环境工作负荷的程度。DevOps团队在这个环境里应有只读权限,方便他们随时查看日志、检查告警,修修bug之类的。但如果想要改架构上的东西,就必须要通过IaC进行了。同时,在这个环境里的所有部署也应要有DevOps团队的批准。生产环境正菜来了。这里是只有真正的用户才会涉足的地方,也就是为什么这个环境对开发来说是个黑盒,他们只有日权限以及一些常规的主页页面。根据我之前在金融和医疗行业干过的经验,登录到这个环境后会看到一些开发没权限随意查阅的用户个人信息。展示环境一切正常的主页页面没毛病,如果用户提了意见,授权给开发去看看是啥问题也ok。但至于其他的?不好意思全部锁定。与模拟环境一样,生产对开发来说也都是全部只读的。任何涉及这两个环境中的更改都应该通过IaC并且有管理层的审批。但紧急情况下,还是应该给开发额外的权限进行更改的。带权限的基础环境IaC管道讲完了环境,下一步就是部署了。无论你用的是GitHUb、Bitbucket、亚马逊云科技的Codepipeline,还是任何的的CI/CD工具,它们大都有基础的认证和我们需要的工具。概览IaC管道构建账号这里构建的账户是拥有访问其他所有账户权限的总账户。但你还可以给每个工作流、每个部门、每个组都建一个账户,只要你能确保这些账户的安全性,并且管道有几乎所有其他账号的管理员权限。构建的账号会包含有操作系统以及服务等一系列的镜像,而其他的账户也应能与其进行交互和利用。差异阶段这个阶段是我们能看到将要发生的一切。CloudFormation管这个阶段叫ChangeSet,Terraform有plan命令,CDK有diff。其实这个阶段什么也不会发生,这只是IaC的工具在检查当前阶段和变更的地方。类似Terraform的IaC工具会通过调用API来检查阶段是否仍然与实际情况相符,CloudFormation会用笨一点的方法,直接在后台检查阶段文件。审批阶段可能你也注意到了,我们部署到DEV环境是不需要审批的。有的团队可能会需要,但这完全要看团队内部是如何决定的。部署到暂存环境是需要另外的DevOps来审计变更条目的。暂存虽说还不是生产环境,但我们要在这里运行所有的环境测试,再加上暂存其实是为模拟生产环境……任何较大的中断都需要一定的沟通交流。生产部署最好也让管理层给出审批。这是为了能让管理能够跟得上项目变更的速度,方便与其他部门沟通,并在这个时间空窗运行他们自己的变更。实施阶段见证魔法的时间到了,在架构上真正动工地方。这也是为什么说暂存环境非常重要了,根据我多年的经验来看,无论是plan、ChangeSet,还是diff,有时候总会忘掉点什么。这部分已经不再局限于理论了,它更实际,开发能够更直观地看到中断需要的时长,应用所有变更所需要的时间等等各种在生产之前都应该了然于心的关键信息。至于生产环境的实施阶段,请准备好你向运维之神祈祷的祷文,并在手边备好速效救心丸。时间越短越好。但别忘了在继续部署之前先跑几个自动化测试。与开发和暂存之间的关系相比,暂存和生产之间的区别要小上很多,请继续保持,如果暂存有变更,完全可以直接在暂存的下次变更之前直接将这次的部署到生产之中。至于为什么,可以想象一下,如果你在配置数据库、前端服务器、缓存服务器等等一系列的设备,你会按照第一天配数据库,第二天配缓存服务器,第三天配前端服务器的顺序一步步走。看起来都没什么问题后,你决定开始上生产,砰,一切都挂了。一通调查之后,你发现,第一个部署上的是前端服务器,而它在试图链接还不存在的数据库和缓存服务器失败后开始尝试中断链接。崩溃导致IaC工具在收到错误信息后同样开始停止工作,导致数据库和缓存服务器都没能部署上。所以,请让暂存环境离生产环境近一点。抓住漂移搞定环境之后,我们还得确定它真的是不可变的才行。IaC工具的好伙伴:plan环境不可变的第一步操作是检查IaC部署的资源是否发生了任何漂移。这一点可以通过IaC工具中的内置命令来快速检查。以Terraform为例,我们可以创建一个每晚触发的plan,如果有检测到任何漂移,直接告警或进行修正。具体操作取决于你的团队的喜好,但就我个人来说,我从来都只见过实施的告警,从来没修ajsifas……对于CDK或者CloudFormation来说,我们可以通过运行drift命令来检测漂移。但要注意,这个命令不一定对所有资源都有效,非常的烦人。检查是否有不对劲的资源创建IaC创建的资源很好说,它自己就会检查是否有被修改到无法控制的情况。但对于那些未经过IaC创建的,它们就束手无策了。黑客可以部署20个加密货币采矿实例,而IaC只会淡定地告诉你“我这边一切正常”,当然这也不能怪它们,毕竟这确实不在它们的责任范围内。为了解决这种情况,我们可以使用其他工具,比如一些云供应商提供的原生工具,检查标签之类,不过头脑清醒的黑客一般都会注意到这一点。有的工具则是来自第三方的,比如[driftctl。从安全账号开始,我们可以在生产环境中应用aws-nuke一类的脚本,让环境非常接近不可变,直接杀死黑客塞进去的、未经IaC定义的资源。消灭漂移历史审计报警另一种检查资源是否在创建时用了IaC的方法是,直接在亚马逊云科技的CloudTrail里筛找写操作的例子。如果看到有在管道角色之外的写,直接报警。虽然这种方法不是百分百的保险,黑客还是可以通过管道角色攻击你环境的。现在再来回答为什么说你的基础架构应该是不变的这个问题:会更安全;让你的团队步伐一致;帮你在关键时刻debug并解决问题;让团队新成员更易明白你使用的环境;减少你的RTO;可能还有别的原因我忘了提。原文链接:Why your cloud infrastructure should be immutable
| 2,348 | 1,640,656,447,721 |
InfoQ
|
203 |
解读云原生的2021:抢占技术C位,迎来落地大爆发
|
本文是“2021 InfoQ 年度技术盘点与展望”系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦云原生领域在 2021 年的重要进展、动态,希望能帮助你准确把握 2021 年云原生领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。 “InfoQ 年度技术盘点与展望”是 InfoQ 全年最重要的内容选题之一,将涵盖架构、AI、大数据、大前端、云计算、数据库、中间件、操作系统、开源、编程语言十大领域,后续将聚合延展成专题、迷你书、直播周、合集页面,在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。 特此感谢傅轶、黄玉奇、马若飞、彭涛、彭锋、宋净超、汤志敏(按姓名首字母排序)对本文的贡献,他们的真知灼见,是本文能与大家见面的关键。 数据显示,云原生计算基金会(CNCF )现在拥有 730 多个成员组织和 100 多个开源云原生项目,整个云原生生态逐步趋于完善。根据CNCF统计,OpenTelemetry 在 CNCF 中拥有第二大贡献社区,仅次于 Kubernetes(下文简称K8s);如果把 Argo 和 Flux 项目的发展速度结合起来,那么 GitOps 生态系统在 CNCF 中的发展速度是最快的;Envoy 社区继续保持强大且不断增长,已成为整个 Service Mesh 生态系统中使用最广泛的数据平面之一。专注于开发者体验改进的项目,无论是 Backstage、Dapr 还是 GitOps 生态系统,都在持续增长。 SlashData最新数据显示,目前已经有 680 万云原生开发人员,其中460 万人使用容器编排工具,400 万使用 Serverless 平台,同时使用两者的人达180 万。 开发人员正在考虑如何通过云原生技术,用统一架构、统一技术堆栈来支撑更多类型的工作负载,避免不同负载、不同架构和技术带来的“烟囱”系统、重复投入和运维负担等问题。 此外,2021年,云原生领域还发生了哪些值得关注的事儿呢? 重要事件回顾技术动态 2 月 4 日,“策略即代码"项目 Open Policy Agent 正式从CNCF 毕业,意味着人们对统一授权解决方案越来越感兴趣。同月,Service Mesh 第一届社区会议 IstioCon 召开,展示了Istio 的实践经验等内容。 3 月,持续交付 (CD) 平台Flux 进入 CNCF 孵化阶段。Flux v2 提供了全面的 GitOps 解决方案,支持将 git 存储库存到本地或远程集群,自动更新、渐进交付。这在一定程度上意味着会有更多 GitOps 程序出现和成熟。 6 月 22 日,可观测性平台项目 Pixie 成为 CNCF 沙盒项目。 7 月,第一个Service Mesh 项目Linkerd 从 CNCF 毕业。Linkerd 可以在不需要更改代码的情况下,为云原生应用程序提供关键的可观测性、安全性和可靠性。 同样在7月,Kafka / Spark 宣布 K8s support GA,这意味着大数据生态开始全面拥抱K8s,大数据平台很快不再需要独立的资源管理。 8月26日,可观测性项目 OpenTelemetry 成为 CNCF 孵化项目。OpenTelemetry 现在在 CNCF 中拥有第二大贡献社区,表明大家对现代可观测性工具和协作的兴趣仍然很重要。 9月,AWS发布了EKS Anywhere,并开源了EKS Distro发行版,支持线下异构环境的K8s部署。同月,阿里云容器服务全面升级为 ACK Anywhere,并发布ACK发行版、ACK 敏捷版和ACK ONE分布式云容器平台。两者的目标都是让企业在任何环境都能获得一致的容器基础设施能力。 10月13日,基于 eBPF 的高性能容器网络项目Cilium 成为 CNCF 孵化项目。Cilium 是 Datadog 网络堆栈的重要组成部分,可以在云供应商之间提供一致的 Kubernetes 网络,以及性能和安全的通信。目前大多数大型云服务提供商都依赖于 Cilium。 11月,开源微服务构建软件 Dapr 正式加入 CNCF 孵化项目。Dapr 是一个开源、可移植、基于事件驱动的运行时,开发者可以用它构建运行在云端和边缘的具有弹性、无状态、有状态、基于微服务的应用程序。云原生本质上是进行解耦和分布式应用改造,所以在云原生的落地过程中,类似Dapr这样的服务变得越发重要。 11月2日,Serverless 项目 Knative 1.0 发布,同月 Google 宣布将 Knative 捐赠给云原生计算基金会 (CNCF)。Knative 提供面向 K8s 标准化 API 进行 Serverless 应用编排能力,支持基于流量的自动弹性、灰度发布、多版本管理、缩容到零、事件驱动 Eventing等诸多特性,已成为 K8s 上安装最广泛的无服务器层。 11月3日,腾讯云发布云原生操作系统遨驰Orca。据悉,腾讯云原生操作系统遨驰单集群支持10万级服务器、百万级容器规模,管理的CPU核数超过1亿,计算正式进入亿级时代。 行业动态 今年1月,红帽宣布收购 K8s 原生安全初创公司Stackrox,计划将其添加到Red Hat OpenShift 中。OpenShift 对 Windows 容器的支持普遍可用。 4 月,亚马逊云科技将分叉项目 Elasticsearch OpenDistro 重新命名为 OpenSearch,7 月发布了 OpenSearch 1.0 版本。9 月,Amazon Elasticsearch Service 更名为 Amazon OpenSearch Service,并支持 OpenSearch 1.0。 当地时间 7 月 7 日,美国国防部宣布正式取消与微软的100 亿美元 JEDI 云计算合作,后续计划将此分拆给微软和亚马逊两家公司。云计算领域竞争加剧。 当地时间 8 月 12 日,Google、Microsoft、Isovalent、Facebook 和 Netflix 联合宣布,Linux 基金会旗下的非营利性组织 eBPF基金会正式成立。该基金会致力于推动开源项目 eBPF 的发展,支持 Linux 和其他开源技术的商业增长。 当地时间 10 月 14 日,全球第二大开源代码托管平台 GitLab 正式在纳斯达克上市,市值接近 150 亿美元。12月,GitLab 公司宣布收购 Opstrace,用以扩展其 DevOps 平台。 当地时间,12月9日,开源软件公司 HashiCorp(HCP)正式在纳斯达克挂牌上市,成为今年全球市值最高的开源公司。HashiCorp 提供多云基础设施自动化技术,以及一套自动化工具来帮助企业转型为云运营模式。 直播预约卡片 重点技术演进 云原生领域涵盖的技术类别越来越多,但最关键的三项是容器、Serverless、Service Mesh,因此本文主要围绕这三个领域做了年终回顾和趋势展望。 容器:大规模应用的一年 2021年可以称得上是容器大规模应用的一年。基于K8s来屏蔽异构环境的差异,搭建分布式云架构已经成为企业和云厂商的共识。 “今年,对容器的应用呈现出井喷趋势,我们通过弹性计算、自动漂移等方式对业务容器的云原生进行了改造。”受访专家对InfoQ表示。这一现象也体现在了数据上:根据SlashData最新报告,现在有560万开发者使用K8s,较去年增长了67%,尤其在500 名以上员工的企业中,K8s 和容器的采用率猛增。 总体来看,企业对容器的应用诉求可以分为三个阶段: 第一阶段,降本增效。在这个阶段,企业主要收口线上资源,将IDC、物理网络、虚拟网络、计算和存储等资源,通过IaaS 、PaaS等实现虚拟化封装、切割和再投产的自动化流程。整合后的资源会形成统一的资源池,对特定服务器资源的依赖度大大降低。 第二阶段,增加服务的可扩展性和弹性。在这个阶段,企业在公有云、私有云和专属云等新型动态计算环境中构建和运行可弹性扩展的应用。业务对平台使用声明式API 调用不可变基础设施、Service Mesh和容器服务构建容错性好、易于观察的应用系统,同时结合平台的自动化恢复、弹性计算来提高服务的稳定性。第三阶段,“混合部署”成为常态。这个阶段中,企业需要做好服务依赖的梳理和定义。所依赖的基础组件、基础服务云原生化服务完全不需要关心底层资源、机房、运行和供应商。企业利用开放的生态和标准的云原生应用模型,完成跨地域、跨云的自动化灾备自举。目前,大多数企业已经进行到第二、三阶段。随着更大规模的应用,企业对容器核心技术的启动效率、资源开销、调度效率也有了更高的要求。 全链路的云原生化是目前比较核心的需求,也是落地场景比较难的课题。具体体现在以下几个方面: 落地难。整体来说,基于云原生概念构建复杂的生产环境业务是一个任重道远的过程。从基础组件的云原生化、到基础设施的全链路支持,再到公司内已有服务的云原生改造,都需要企业投入大量的时间和精力。虽然业界总体上在CNCF基金会的主导下趋于统一,但不同公有云厂商的标准实现起来仍有差异。这个问题关系到了企业能从云原生上具体获得哪些长效收益来支撑企业长期投入。集中式云计算中心很难支撑起对实时要求高的业务。业务的解耦程度越高,相互的调用时延也越长,时延放大到客户端就会带来用户体验的下降。这类问题是集中式云计算中心的通病。这个问题的解决将会让企业在现行计算模型下获得成本和用户体验上的极大改善。随着接入的服务越来越多,K8s 的配置复杂度随之上升。K8s 本意是想解放生产力,但相关的配置浩如烟海,开发人员需要了解很多概念。而面向终态的API设计和面向命令式的API设计之间存在思维方式冲突,往往需要加入第三方组件来协调,例如Service Mesh接管了流量等。 2022年,容器技术将持续发挥其高效调度和弹性能力,通过与最新节能数据中心技术、芯片等结合,帮助企业实现上下游的全栈优化。企业会构建出更多插件来扩展K8s 平台的能力。大型分布式应用都会面向K8s编程,整个 K8s 生态开始发生体系化的演进。 容器的智能化运维体系建立也是一个重点。复杂容器集群和应用也带来了一系列管理问题,为此,增强K8s master、组件和节点的自愈自恢复能力,提供更加友好的异常诊断、K8s配置推荐、弹性预测等能力是很有必要的。 另外,安全合规问题越来越被大家重视。StackRox 报告显示,55% 的受访者出于安全考虑推迟了将 K8s 应用程序部署到生产环境中。安全问题将促进 DevOps 向 DevSecOps 的全面演进,具体包括面向Helm、Operator等OCI Artifacts优化整体的安全定义、签名、同步和三方交付;加固容器的南北向和东西向的网络隔离和治理,推进零信任的链路安全;进一步提升安全容器和机密计算容器的性能和可观测能力等。Serverless:应用更加理性 Serverless 在2019年取得了重大发展,如今两年过去,企业对 Serverless 的使用变得更加谨慎。根据SlashData最新报告,参与 Serverless 架构的开发人员比例从 27% 下降到了 24%。 企业对 Serverless 的使用各有不同。有的企业选择自研 Serverless 平台,有的在开源项目如Knative 等上面自建平台,有的则直接采购商用平台。Serverless是要解决容器和Kubernetes未能解决的问题,如开发部署效率提升、运维自动化、事件触发与编排等。但是,不同的方向对Serverless有不同的出发点和需求。 比如对前端来说,Serverless 可以减少其对运维等不太擅长领域的依赖,解放出更多精力在SSR服务端渲染、小程序和H5开发、BFF接口聚合服务等方面进行深入探索。同时Serverless的自动扩缩容等特性可以在前端经常涉及的活动页面、长尾应用上提供很大帮助,减少前端在部署、运维层面的人力成本。对于批量任务、离线算法类操作,需要人为调整算法所需资源,没办法做到弹性自动化扩缩容,而Serverless平台自动扩缩容特性可以减轻日常运维压力。 Serverless涵盖了很多技术,基本分为两类:FaaS(Function as a Service,函数即服务)和BaaS(Backend as a Service,后端即服务)。在语言和环境方面,FaaS函数就是常规的应用程序。业务代码下沉至函数级、运维能力集成平台统一提供,或将带领云原生进入下一个发展阶段。 但是,目前Serverless 最核心的挑战是更广义层面的推广和实际落地。 企业内部基础架构部门研发的Serverless平台,想要真正帮助业务部门解决实际痛点就需要和应用场景更充分地结合。Serverless的应用场景多样化是很明显的一个特点,但是难点在于,一个好的Serverless平台既要避免太多定制化功能,还保持技术上的通用性和可复用性。 对于企业来说,Serverless 平台的搭建是直接采购商业化的项目还是完全自研,亦或是基于开源项目做定制化开发?这也是困扰很多企业的问题。 目前 Serverless 领域并没有一个被大规模使用的开源组件,市面上的很多项目或多或少存在一些不成熟或者不能满足需求的情况。正如SlashData最新报告中分析,Serverless 研发人员比例下降可能是由于Serverless 解决方案缺乏灵活性,公司担心被锁定在特定供应商中。尽管 Google Cloud Run 已经获得了很多拥护者,但目前有 53% 的 Serverless 开发者在使用 AWS Lambda ,其仍是目前最受欢迎的Serverless 解决方案。 Serverless的标准不统一也是个问题。虽然 CNCF 已经推出了 Serverless Workflow 规范,但目前各大云厂商和开源项目基本都是有着自己的标准,很少互相适配,造成了事件编排使用上的割裂以及厂商锁定和平台迁移困境。因此,Serverless 还需要朝着更开放、更友好的方向发展。 Serverless 生态,来源CNCF 接下来,Serverless 还需要做到更加智能地快速扩缩容。很多 Serverless 平台的自动扩容算法需要用户填写一些预估参数,但用户往往并不清楚自身服务的 Qps 或者并发请求数,这导致用户接入存在障碍。因此,Serverless平台一方面需要采集更多的指标数据,另一方面需要聚合全方位的指标后提出更智能的算法,减少用户接入和使用成本。 从技术角度看,Serverless 还面临的挑战有:企业内部的Serverless平台面对混合云场景时,如何扩展到公有云上,实现更加灵活的Serverless架构;Serverless技术实现上需要考虑与重视与Service Mesh融合、与现有微服务网关打通、与服务治理等能力适配问题;Serverless 快速扩缩容特性也会对网络、存储、中间件等提出更高的稳定性要求。 “Serverless 已经广为人知,各大厂商对其宣传也愈演愈烈。但开发者还是需要冷静思考自身的需求,避免被Serverless的各种概念引导和束缚。”受访专家提醒道。 Service Mesh:落地问题尚待解决 今年,Service Mesh 的落地越来越多,尤其是在银行电信等传统行业和中小企业中。“去年Service Mesh使用增长率在50%左右,虽然今年的统计还没出来,但我认为今年可能还是会大幅度提升。”受访专家表示。 随着Istio、Linkerd 和Kuma等开源项目逐渐成熟,企业对 Service Mesh 的兴趣越来越大。Service Mesh 是云原生网络基础设施,企业对于Service Mesh的需求主要体现在以下几点: 统一的服务治理方案。这个方案对系统是无侵入的,同时不受技术栈的制约。比如使用Spring Cloud必须受限于Java语言,但异构系统或多技术栈的综合性系统并不希望受此限制。流量管理的云原生实现。比如灰度发布、动态路由、弹性设计等无侵入的方案。较低的维护成本和学习成本。现有技术栈的使用方案,如 Spring Cloud 等的维护、学习成本等较高,都不利于落地。 Service Mesh 生态,来源CNCF 近一两年内,Service Mesh 仍需聚焦在一些落地问题的解决上。以Istio 为例,大家对其最大的疑问是 Istio 是否会影响应用性能、扩展性是否足够好。此外,Istio 太过复杂、旧服务迁移成本高,业界经验少、学习曲线陡峭也是很多开发者的顾虑。 现在,Istio 的架构已经稳定,也被很多企业应用,但整个生态还处于萌芽之中。今年,Istio 的开源生态有明显的向上发展趋势,例如网易轻舟定位于Service Mesh 智能管理器的开源项目Slime和基于 lstio Envoy 构建的云原生API网关Hango,以及腾讯云为 Istio 提供的一种非侵入式的协议扩展解决方案 Aeraki 等。可以看出,Istio 生态的发展也是围绕具体落地问题来进行的。 总体来说,Service Mesh 产品的成熟度还有待加强。首先,Service Mesh 产品需要解决易用性问题,从部署方式、使用方式等各方面着手,尽可能地降低开发者的学习和使用成本;其次,Service Mesh 需要有更高的性能,比如在延迟性上,有些业务对几毫秒延迟没有感知,但有些特殊业务就非常敏感,要求相对也更高;另外,虽然 Service Mesh 现有解决方案的流控是相对比较完整的,但也比较粗粒度,不够精细和完善。 “从技术角度来说,今年不是一个有剧烈变化或者重大突破的年份,更多还是在稳步发展的阶段。”受访专家表示。明年,Service Mesh 还是会继续按需迭代、稳步发展。 随着云原生技术领域里各种技术的发展,基于Serverless 部署的应用、Service Mesh、现有微服务网关打通和服务治理等等,如何更好地适配、更高效地发挥作用,都对技术提出了更高的要求。 值得关注的“新”技术 这里的“新“技术,并非指那些最新的研发成果,而是新加入云原生体系、用来解决新问题的技术,这些技术或许会对云原生的发展起到重要作用。边缘计算 随着5G、IoT、音视频、直播、CDN等发展,企业开始将更多的算力和业务下沉到距离数据源或者终端用户更近的地方,从而来获得更短的响应时间并降低成本。这就是区别于传统中心式的云计算模式——边缘计算。 边缘计算的正式概念是在2003年由IBM和Akamai 共同提出来的。作为云计算的延伸,边缘计算广泛应用在混合云/分布式云、IoT等场景,用来补齐算力集中的云计算在面对“低时延、大带宽、大链接、本地化、安全”等需求场景下的短板。 当前,边缘计算还在不断发展中。从 Gartner 预测报告来看,边缘计算还处于上升阶段,需要2~5年才能达到平稳期。当前业界对边缘计算的理解和应用主要分成五种: 传统的CDN 厂商(如Akamai,国内的帝联、蓝汛等),对于边缘计算的研究主要是以降低计算访问延迟为主。云厂商(如亚马逊、腾讯、阿里),主要是为了丰富自己的云计算产品,将用户的计算任务部署在云上,降低云服务的访问延迟。小米、华为等智能家居厂商,是最极端的边缘计算,从计算的发起到在网络上只需要“一跳”,通过边缘计算建立本地的计算中心。以Google、Facebook 为首的互联网厂商,将边缘计算作为AR、VR的基座进行开发,主要是利用边缘计算来降低计算时延和提升计算可靠性。以运营商为主的厂商则主要希望通过边缘计算来支撑更多的设备接入,降低带宽传输。 目前,边缘计算的挑战有很多。首先,不同的场景下的设备接入标准、预期等都不一样,很难有一个标准化的落地方案,这对边缘计算平台的设计能力是非常大的考验。其次,与集中式云计算不同,边缘端系统最需要考虑的就是在弱网甚至断网环境下如何提供服务,这很考验设备的的接入速度。再者,通常情况下,边缘节点不像云计算中心有大批量的资源冗余,往往节点很少,可靠性和可用性不高。如何让这部分计算任务无损平滑地完成是一个难度很高的课题。最后,边缘端系统接入的服务类型很多,比如智能驾驶接入边缘要完成视频解析,AR/VR要求完成实时渲染等,所以通用平台的建设很重要。 针对边缘计算云原生架构和技术体系,具体需要解决以下问题:云边运维协同、弹性协同、网络协同、边缘IoT设备管理、轻量化、成本优化等。 机器学习 在数字化转型浪潮下,企业需要处理的数据量越来越大。2015年,许多公司在初步尝试实现“大数据”的承诺时,建立了大型的本地数据湖。但在那个时候,云原生AI 平台还没有成熟到足以激励企业将数据密集型 ML 项目迁移到云环境。 随着云计算和人工智能的不断发展,两种技术的协同将为创新公司带来显著的竞争优势。企业内部使用容器的范围从最初的在线业务正在逐渐向 AI、大数据演进,对GPU等异构资源的管理和 AI 任务和作业的管理需求也越来越多。 深度学习、AI任务成为社区寻求云原生技术支撑的重要工作负载之一。AI 要成为企业生产力,必须以工程化的技术来进行模型开发、部署、管理、预测、推理等全链路生命周期管理。目前,AI 工程化领域有三大亟待推进的事情:数据和算力的云原生化、调度和编程范式的规模化、开发和服务的标准化普惠化。 这三件事情的实现,需要持续优化GPU等异构架构的高效调度,结合 Kubeflow Arena 的 AI 任务流水线和生命周期管理能力和分布式缓存、分布式数据集加速等技术。业内认为,云原生和AI的融合将在提高算法模型的开发效率和提升交付、部署、运维环节的效率并降低TCO等方面,起到很大作用。 可观测性 不管是容器、Serverless还是Service Mesh,监控、日志还是链路追踪,真正在生产环境中部署还需要可观测性的支撑。由于传统主机和 K8s 在很多方面存在较大差异,如何搭建一套适合云原生的可观测性体系是企业发展道路上必须面对的问题。 对于K8s 集群下的Pod日志采集,目前主要分为DaemonSet和Sidecar两个流派,不同的Agent部署方式在用户体验和运维形态上有较大区别。对业务应用部署方式是否有侵入,使用emtyDir、hostPath还是pv来挂载日志目录,如何注入 K8s 的 namespace、Pod等元信息,对下游带来的吞吐压力如何等,很多没有相关经验的企业都被这些问题困扰,而社区始终没有统一的答案。 相比日志的百花齐放,Prometheus提供了比较统一和标准化的监控,基于各类Exporter、AlertManager 和 Grafana 生态搭建一个基础的云原生监控平台对很多企业来说挑战不算大,甚至能够进一步在Prometheus-Operator的基础上加速达到更加云原生化的体验。但大部分企业长期停留在了这一阶段,基本可用和期望中的稳定、易用、智能化存在一定距离。 统一的可观测性平台能够将log、monitor和trace结合起来,这对很多企业都有很大的吸引力。国内外云厂商和提供可观测性服务的公司,一直在可观测性的融合上发力,同时CNCF在持续推行OpenTelemetry及其标准,也在这个方向添了一把火。 一定程度上,可观测性更多是关于组织的文化转变,而不仅仅是使用行业正在融合的一些技术、工具和平台。 写在最后 回顾这一年,云原生技术稳步发展,也更加注重解决落地实践上遇到的具体问题,未来方向也是如此。我们期待2022年云原生领域有更多的技术进展,整个生态更加繁荣。 采访嘉宾介绍(按姓名首字母排序): 傅轶,网易数帆架构师,轻舟日志平台负责人;黄玉奇(花名:徙远),阿里云高级技术专家,Kubernetes Member,CNCF边缘计算云原生项目OpenYurt负责人;彭涛,同程旅行容器云平台负责人、架构师,Kubernetes Flink 代码贡献者;彭锋,智领云联合创始人兼CEO,拥有20余年软件开发、大数据及云计算经验;宋净超(Jimmy Song),Tetrate 布道师,云原生社区创始人;马若飞,Freewheel首席工程师,《云原生应用架构》作者,AWS container hero;汤志敏,阿里云资深技术专家,目前负责阿里云容器技术相关后端产品和研发工作。 12月27日晚上8点,我们邀请了阿里云资深技术专家、云原生应用平台产品负责人李国强(崭岩)做客 InfoQ 视频号,详细解读云原生领域在2022年,有哪些值得关注的趋势。2021 InfoQ 年度技术展望直播周将在元旦前后两周持续输出精彩内容,关注 InfoQ 视频号,与行业技术大牛连麦~如果你对云原生技术的发展有其他观察和看法,欢迎在文末留言,或加入 InfoQ 写作平台话题讨论。后续,迷你书、专题将集合发布在 InfoQ 官网,登录、注册并将 InfoQ 添加进收藏夹,精彩不错过。
| 7,701 | 1,640,591,234,247 |
InfoQ
|
204 |
Max ReHIT Workout的架构:我为什么选择原生iOS环境而不是云环境进行开发
|
我知道我最近写得不多。这是因为在软件系统架构方面几乎没有什么演变。日复一日,同一件事。从很多方面来说,这很好,但写起来并不是很有趣。 在这篇文章里,我想讲讲应用程序使用原生iOS环境还是使用云环境的选择。这是每个开发者都必须做的选择。你是如何做选择的?这意味着什么?下次我会做出什么选择?我之前的几个项目大部分都基于亚马逊云科技(AWS):Best Sellers Rank。它跟踪你的书在亚马逊上的表现。它源于我想知道我自己的书表现如何。Basis Calculator。它根据一个复杂表格生成一个基准报告。如果你不是一个会计师,那它就没有任何意义,但相信我,它很复杂。Probot。它是一个Facebook和Slack聊天机器人,允许主题专家回答问题并获得报酬。它的运行成本很高,彻底失败了,所以我终结了这个项目。各种从未发布的项目的一些尝试。 它们使用了典型的亚马逊云科技服务:Lambda、DynamoDB、S3、Route 53、SES、SQS、Cloudfront、Cloud Watch、Cognito、API Gateway、HTTP API、Amazon Aurora、SNS、WebSockets等等。此外,我还按需使用PayPal、Nginx、AdMob、Node和Let's Encrypt等。 客户端是基于Bootstrap的Web前端或聊天机器人前端,后端具有不同程度的复杂性。 只有我一个人,所以我尽量让项目简单。我很少成功。我知道在这些事情上我只有自己一个人。对于我的最新项目——Max reHIT Workout,我想要尝试一些完全不同的东西。 虽然我发现了一些直接可以使用的亚马逊云科技组件,但其它组件并不能直接使用。我的大部分时间都在与Cognito抗争来使其屈服,虽然我不愿承认这一点。至少可以说,文档和示例代码缺乏质量。 你说用AppSync?AppSync对我来说太偏执了。它规定使用我不喜欢使用的工具链、流程和服务。 亚马逊应该制作可重用的、文档良好的、可组合的组件,而不是将其打包成一个框架。他们转而使用Ruby on Rails。这对很多人来说都很好,但我想自己对这些做选择。 此外,我也厌倦了Web框架之争。CSS、JavaScript、HTML——输家多于赢家的持续战场。 我需要改变。我需要从Web之争中休息一会儿。使用SwiftUI的原生IOS因此我决定尝试一些完全不同的东西:使用SwiftUI的原生iOS。 我的直觉是,与Web + 亚马逊云科技体验相比,原生开发者的体验更令人愉快。我基本上是对的。 我不是完全的iOS新手。很多月以前,我用Objective C创建了一个简单的应用程序。作为一名长期的C++编程人员,我发现Objective C非常难以理解,所以我匆匆回到了Web。 后来,我用Swift和UIKit制作了另外一个简单的应用程序。那个就好多了。Swift是一种很好的语言,即使看起来并不复杂。而且我发现使用Swift的UIKit虽然有点冗长,但能用。 我认为SwiftUI将是这两个世界中最好的。而且考虑到我不太出色的UI技能,我认为它可以提高效率。因此,我上了一些SwiftUI课,做了一些自己的研究,然后就开始上手了。SwiftUI是不同的SwiftUI对我来说是一个巨大的范式转变。在Web世界,我从不做响应式开发,因为我不认为额外的复杂性是值得的。但是为了避免使用Xcode的Interface Builder,我会做很多事情。SwiftUI只是代码。 至少对我来说,SwiftUI不负众望。因为我一开始不是一个熟练的UIKit开发者,所以我没有错过其他开发者抱怨的大部分事情。 并不是说SwiftUI没有自己的问题。它有许多令人烦扰的编译器怪癖和令人迷惑的异想天开的bugs,这些bugs只能通过一些套路来修复。但一旦你掌握了窍门,你就可以制作一个相当不错的界面了。而这就是我的目标。 根据数据变化进行UI更新有一个小窍门。当它起作用时,它是神奇的。但除了人们喜欢展示的简单示例之外,让它在应用程序变得比较复杂时起作用需要对SwiftUI有更深入的理解。 大多数SwiftUI管道隐藏在听起来几乎相同的属性包装器后,这些包装器本身是一种更深层次的Swift窍门。当用户界面没有按照预期更新时,找出错误并将其纠正可能是一种非常令人沮丧的体验。数据并不一定正常流动。构建一个完整的应用程序对我来说,SwiftUI的复杂性在于学习如何将其整合到一个完整的应用程序中。 您如何处理登录模式与登出模式?您如何处理离线?您如何处理广告?您如何集成应用内购买?您如何存储数据?您如何查询、更新和删除数据?您如何处理登录/登出?您如何处理设备间同步?您如何在Xcode中测试?您如何处理上线?您如何学习Swift + SwiftUI语法的所有诀窍细节?您如何验证表单?您如何呈现错误?您如何集成异步服务?您如何处理在背景中来回移动?您如何处理推送通知?您如何在视图之间导航?您如何适配不同的屏幕尺寸?当这些在响应式范式中变化时,您如何应对这些模式? 在Web世界中,我知道如何做到这一切。在SwiftUI中,我花了很长一段时间才能够在没有过程代码或熟悉流程的支持下使所有功能协同工作。 我的选择也使应用程序变得更加复杂。在使用了十几种不同的健身应用程序后,我开始讨厌那些立刻要求你登录并在你“免费”试用之前收费的应用程序。因此,Max reHIT Workout在无需登录或应用程序内购买的情况下也能良好运行。这意味着要处理所有这些模式。不好玩。走向原生顺应原生iOS生态系统意味着使用应用程序内购买、CloudKit、CoreData、Apple登录等框架。其中大部分我都没有用过。因此会有一个学习曲线。 总是有学习曲线。总是有bugs。总是有工具问题。总是存在糟糕的文档和几乎完全缺乏良好示例代码的问题。作为一名软件开发人员,我不认为有办法绕过这些问题。但你可以自己选择。 我使用Revenuecat来帮助进行支付处理。它简单吗?一点儿也不。如何集成到一个SwiftUI应用程序是显而易见的吗?一点儿也不。AdMob也一样。这就是为什么每件事都要花很长时间才能完成。 我犯的一个大错误是没有从一开始就使用CloudKit和CoreData。这是因为我最初的计划是让应用程序在一台设备上运行。我做了最简单的可行的事情,像往常一样,我后来为此付出了代价。 我使用CoreData来存储用户数据和用户默认值。对于存储的大型数据集,我使用了JSON文件。这是可行的,但是很复杂。一切都很复杂。 后来,我决定让Max reHIT Workout跨设备运行。我使用CloudKit将JSON文件存储在云端。这起作用了,但是不同步。 为了同步,我不得不使用CoreData和CloudKit。我开始慢慢迁移所有东西来使用CoreData。然后我迁移了CoreData来使用PersistentCloudKitContainer。当你在视图中使用SwiftUIs @FetchRequest时,它可以正常工作。另外,它还保留了一个本地缓存,因此它可以离线工作,并在恢复连接时重新同步。它可以同步所有东西,可以进行扩展,安全,并且完全免费。 问题在于并非所有数据都发生在视图中。这就是SwiftUI倒下的地方。它是以视图为中心的。所有灵巧的工具在视图之外都不起作用。所以你必须弄清楚。 当然,要使这一切顺利运行,需要复杂的窍门和技巧。我通常可以通过谷歌搜索或在Reddit上提问来找到答案。我会再做一次吗?使用原生iOS生态是否比使用 Web + 亚马逊云科技 更快速更简单?一开始并不是。学习曲线是巨大的。我的下一个应用程序将会是更加流畅的体验。 我现在有了可重用的代码。Swift的一个优点是,它鼓励制作可重用的组件。你不必与环境做斗争。而且由于SwiftUI是围绕组件构建的,因此一旦你了解了绑定和可观察状态的黑暗艺术,你就可以创建可重用的UI组件。就我个人而言,我会远离SwiftUI中的协议。它们比其它任何东西造成的编译器问题都多。 明显的缺点是我的应用程序只能在iOS上运行。需要一个网站或安卓应用程序?运气不好。 对于这个应用程序,我认为这是值得做的权衡。这是iOS用户可能觉得有价值的付费应用类型。他们会在网站上寻找和使用这类应用程序吗?他们会在安卓上购买它吗?这是你必须根据逐个属性决定的事情。 当然,如果苹果公司决定他们不喜欢我的应用程序,我没法申诉。我不希望发生这种情况。我经历过的应用程序审查一般都是积极的,但你永远不知道会发生什么情况。 30%的应用商店抽成怎么样?谁喜欢那样?对我来说,这个抽成比例是15%,因为我最终被接受进入应用商店小微企业计划。如果我一年的销售额超过一百万美元,我才会担心这件事。 我觉得15%的抽成比例可以接受。原生的应用内购买和登录体验比PayPal和Cognito好得多。在Xcode中测试和调试它几乎是不可能的。 当你加入云存储和同步功能时,我认为Apple公司的抽成是值得的。但是如果你是多平台的,并且没有利用iOS服务,成本就会很高。 我会再次使用iOS生态系统吗?是的,因为某些类型的属性。既然我知道自己在做什么了,我的工作效率就会很高。 但如果我需要面向多平台,并且我无法为每个平台提供一个原生团队,我会选择不同的方法。一种方法是为SwiftUI创建不同的后端代码生成器。SwiftUI可以用来创建网站,甚至可能被用来创建Android应用程序。 原文链接:Architecture Of Max ReHIT Workout
| 2,473 | 1,640,255,294,187 |
InfoQ
|
205 |
一场数据架构变革正在来临
|
现有数据架构难以支撑现代化应用的实现。随着云计算产业的快速崛起,带动着各行各业开始自己的基于云的业务创新和信息架构现代化,云计算的可靠性、灵活性、按需计费的高性价比等优势已经让很多企业把“云”业务列入到未来发展战略规划中。现代化应用是现有应用程序的再升级,也是基于新技术新模式开发的新应用。现代化应用可以帮助企业面对更加复杂的业务竞争,并在这样的竞争中凭借模型的先进、数据的洞察、应用的创新实现领先。因此,许多企业希望通过采用现代应用程序开发的模式,转变应用程序的设计、构建和管理方式,从而提高敏捷性,并加快自身的创新进程。以云原生、容器、微服务、Serverless 等为基础的现代化应用开发兴起之际,各行业都把关注的目光瞄准到了数据架构上。毕竟微服务、Serverless 构建的应用就像是引擎,而数据才是真正的动力。现代化应用开发之难亦是数据架构创新之难现代化应用对规模、可用性和性能都提出了更高的要求。对于现代化应用来说,不仅要应对剧增的用户数量,还要支撑不断增长的应用负载种类和数量。这是现代化应用开发面对的第一个难题——更强的可扩展性。以游戏的场景为例,目前排名靠前的国民级游戏日活用户已经超过 1 亿多人,未来百万以上用户量将成为应用程序的常态,我们畅想一下最近大火的元宇宙场景,如果是一个全球级别的元宇宙应用,其用户数量会是这个数据的数倍,甚至数十倍,媲美亚马逊黑色星期五大促销的高并发情况将成为日常。所有人都在一个元宇宙进行交互的场景,对应的后端系统响应并发的要求是极高的。这不是在揣测,而是基于事实和现状,对未来的合理预测。因此首先需要解决的,就是更大规模并发问题。现代化应用开发面对的第二个问题,是如何存储海量数据,以及存储海量数据之后,如何对这些数据进行实时化和智能化处理。当前数据已呈现出“二八定律”:结构化数据占 20%,非结构化数据占 80%。《微软飞行模拟器》模拟真实的山脉、道路、云朵,产生了超过 2.5PB(2.5 x 10^6 GB)的结构化数据,终极元宇宙所需数据量至少比此高出多个数量级。根据 IDC 的最新报告,现有数据中非结构化数据占比已超过 90%。随着新型软件的增多,非结构化数据占比将越来越高。不同格式、不同标准的非结构化数据在技术上比结构化数据更难存储和分析。传统数据架构应对这样的海量数据将会很吃力。另外,现代化应用还需要考虑性能和延迟的问题。未来,新的现代化应用都会以遍布全球的用户为目标,这就对延迟有极高的要求。在游戏中,10ms 的延迟都是不可接受的,有些游戏甚至需要内存级别的延迟。超强的带宽、超快的传输速度等的实现,需要遍布全球的通信基础设施建设。需要注意的是,在考虑高并发和低延迟的同时,还需要兼顾考虑总体质量和成本。建立、运行和维护这么大规模的应用需要耗费的人力和物力,一般企业可能难以承受。所以除了质量,成本也是需要考虑的问题。总结来看,现代化应用至少要处理 TB 级、PB 级的结构化数据和数倍于此的非结构化数据,支持分布在全球的数百万用户,并以极低的延迟每秒处理数百万个请求。对于非结构化数据,如今很多企业开始基于 Amazon S3 这类具备 EB 级扩展能力的云存储构建云上数据湖,并通过云原生数据分析处理工具对这些数据进行处理分析。而对于结构化数据,还需要弥补以下缺陷:企业被传统商业数据库束缚,而难以开展创新。传统商业数据库不仅价格昂贵,还有专有技术及许可条款,需要经常进行审计。虽然越来越多的企业转向了 MySQL 和 PostgreSQL 等开源数据库,但他们仍需要商用数据库的性能。无法满足特定场景需求。随着应用场景的不断增加,不同应用程序有了自己特定的需求。现在,开发人员越来越多地使用微服务架构来构建应用程序,并且选择新一代的关系型和非关系型数据库。但关系型数据库的结构数据耦合性大,不利于扩展分布式部署。非关系型数据库没有事务处理,复杂查询方面略微欠缺。传统数据库运维模式仍旧需要耗费精力和成本。运维耗时但价值输出较低,但企业又不得不在这方面耗费精力和成本。现代化应用需要什么样的数据架构作为支撑?既然现有数据架构难以支撑现代化应用的实现,一场数据架构变革势在必行。这个新型数据架构要能够解决上述提到的问题,即需要拥有更高的扩展性、能够适应多样化的数据形态、有更高的数据处理能力和更低的延迟,当然还要有实现的路径和工具。相关技术方案与创新当下,IT 界的最佳技术组合可能就是“云计算 + 人工智能”。云计算解决了扩展性、数据存储、性能等问题,而人工智能技术则大大提高了数据分析和处理效率。云计算可以为现代化应用的峰值需求“无限续杯”与平稳运行时的“最佳能耗”。作为云计算模型之一的 Serverless,在理论上可以自动适配应用从零到无穷大的需求峰值,更加擅长解决扩展性的问题。Serverless 架构的好处在于可以按需加载,这样应用便不会持续占用资源,只有在请求到达或有事件发生时才会被部署和启动,避免了成本浪费。同时,Serverless 应用原生支持高可用,可以更好地应对突发的高访问量。当数据库也 Serverless 化,就可以实现高度扩展性及容量自动伸缩,做到按量付费、降低支出成本,进一步解放数据库的管理和运维。2012 年亚马逊公司推出的 Amazon DynamoDB 就是 Serverless 数据库。2007 年,亚马逊公司发表的关于 Key-value 存储的划时代论文《Dynamo: Amazon’s Highly Available Key-value Store》解决的核心诉求就是满足“永远在线”的用户体验,提升其数据库的可用性、扩展性和性能,被认为是 NoSQL 的开山之作,之后催生了一系列 NoSQL 分布式数据库。而 Amazon DynamoDB 就是 Dynamo 理念的正统实现,它正在驱动那些传统数据库难以承载的新一代高性能、互联网规模应用。以 Serverless 数据库为代表,云数据库正在迅速发展成熟,并带来更好的可访问性和高可用性,还有高扩展性与可迁移性。此外,云数据库也降低了部署的难度和成本,不会给企业造成特别大的负担。面对大规模数据,传统数据库组件还存在业务类型不敏感、自动运维能力弱等问题,机器学习算法可以分析大量数据记录,标记异常值和异常模式,还可以在系统运行时自动、连续、无人工干预地执行修补、调优、备份和升级操作,尽可能减少人为错误或恶意行为,确保数据库安全、高效运行。而亚马逊云科技在 re:Invent 上最新发布的 Amazon DevOps Guru for RDS 就可以帮助检测数据库问题、执行根本原因分析和推荐更改建议,甚至能够自动修复数据库问题。现代化应用最终是面向全球的,现在很多企业也在做全球化布局。在这个过程中,全球分布式应用系统成为企业首选。分布式系统中各个节点通过一个通信网络互联在一起,不仅方便通信还可以实现资源共享,也加快了计算速度。不过,这也让企业的运维压力变大,同时存在一定的数据传输安全问题。所以,自动化的、安全的部署非常重要。技术的选择永远伴随着一定性能的牺牲,很难有一个产品能够在性能、功能和可用性等方方面面都做到极致。传统数据库厂商“一个数据库打天下”的做法已经无法满足需要。按照不同的目的、使用场景构建不同类型的数据库产品,做到“专库专用”则是新数据架构的核心。专库专用可以适配各种不同规模的应用程序,优先提供应用程序最需要的性能,可用性大大提高。如何实现架构现代化?架构的通俗理解就是,企业可以使用现代的数据架构来摆脱传统数据库的束缚,并有专用工具来完成基础设施的现代化。当然这并不容易,很大程度上取决于厂商的能力。根据 Gartner 2020 全球云数据库魔力象限报告,亚马逊云科技持续保持创新与领先。因此,我们以亚马逊云科技为例,看看其是如何为企业数字驱动转型助力的。三大重要特性,两大重要支持首先,亚马逊云科技开创了 Serverless 数据库,来实现数据库的弹性伸缩,进一步简化企业创建、维护和扩展数据库的操作。亚马逊云科技旗下有五大 Serverless 数据库:Amazon Aurora、Amazon DynamoDB、Amazon Timestream(一种时间序列数据库服务)、Amazon Keyspaces(兼容 Apache Cassandra 的托管数据库服务)和 Amazon QLDB(一种全托管的分类账数据库)。其中,Amazon Aurora 已经进化到 v2 版本,可以在一秒内将数据库工作负载从数百个事务扩展到数十万个事务,与为峰值负载配置容量的成本相比,最多可节省 90%。那么,Serverless 数据库的表现如何呢?华米科技健康云可以算得上是一个典型案例。截至 2021 年 2 月 2 日,华米科技智能可穿戴设备记录的累计步数为 151 万亿步,累计睡眠记录 128 亿晚,心率记录总时长 1,208 亿小时。华米科技健康云每天需要完成 TB 级数据的收集和存储,不仅需要存储的数据量巨大,同时还必须保证极高的数据安全性、稳定性和低延迟响应。为了解决这些难题,华米科技健康云使用 Amazon DynamoDB 作为核心数据库,存储用户的健康及与运动相关的数据。而 Amazon DynamoDB 在任何规模下都能提供延迟不超过 10 毫秒的一致响应时间,支持构建具有无限吞吐量和存储空间的应用程序,满足了华米健康云的数据存储需求。此外,Amazon DynamoDB 的无服务器架构使用户无需预置、修补和管理任何服务器,也无需安装、维护或运行任何软件。目前,华米科技已经全面引入了亚马逊云科技。华米科技大数据及云平台副总裁张稷表示,“华米科技健康云在数据存储和处理方面的特点是冷热数据分层明显,数据访问的波峰波谷也很明显,亚马逊云科技丰富的功能使我们可以选用不同的服务来应对不同的需求以平衡性能与成本。”现在,华米科技使用 Amazon DynamoDB 存储核心数据;用 Amazon Simple Storage Service (Amazon S3) 存储冷数据、日志以及备份数据;用 Amazon Simple Queue Service (SQS) 、Amazon Simple Notification Service (Amazon SNS) 和 Amazon Managed Streaming for Apache Kafka (Amazon MSK) 进行数据同步;用 Amazon Lambda 进行数据迁移和转存;用 Amazon Kinesis 和 Amazon EMR 进行大数据分析。与切换到亚马逊云科技之前相比,如今华米科技健康云的 P0 和 P1 级别故障数量大约减少了 20%,故障恢复时长减少了约 30%,总体服务可用性提升了 0.25%,系统的可用性指标达到 99.99%。此外,九州通也使用 Amazon Aurora 替换了传统 MySQL 数据库,整体数据库性能提升了 5 倍,TCO 降低了 50%。其次,为实现专库专用,亚马逊云科技现在已有十多种专门构建的数据库服务,囊括了关系、键值、文档、内存、图、时间序列、宽列和分类账八大数据类型。这些数据库产品各有优势,分别适用于不同的应用场景。其中,Amazon MemoryDB for Redis 是一个与 Redis 兼容的、持久的内存数据库服务。它是为具有微服务体系结构的现代应用程序专门构建的, 可以用作微服务应用程序的高性能主数据库,企业不需要再分别管理缓存和持久数据库。Amazon DocumentDB 则是一项快速、可扩展、高度可用且完全托管式文档数据库服务,支持 MongoDB 工作负载。作为一个文档数据库,Amazon DocumentDB 可以简化存储、查询和索引 JSON 数据。开发人员可以使用与今天相同的 MongoDB 应用程序代码、驱动程序和工具,来运行、管理和扩展 Amazon DocumentDB 上的工作负载,享受改进后的性能、可扩展性和可用性,而无需担心底层基础设施的管理。Amazon DynamoDB 是为海量数据、大型混合工作负载而生的键值数据库服务,根据官方介绍,Amazon DynamoDB 可以构建吞吐量和存储空间几乎无限的应用程序,在任意规模环境中提供一致的个位数毫秒响应时间,极其适合游戏、广告技术、移动互联以及其它需要任何规模的低延迟数据访问的应用程序。虎牙已经通过 Amazon DynamoDB 自动扩容来应对 10 倍以上的流量突增。众所周知,NoSQL 很多时候是在做“大力出奇迹”的事情,即通过大量的冗余存储 + 索引实现快速访问,但是这也有可能造成存储空间的浪费。而在亚马逊云科技 re:Invent 大会上正式发布的 Amazon DynamoDB Standard-Infrequent Access (DynamoDB Standard-IA),在保持同样性能、耐用性和伸缩性的同时,最高还可以为使用者节省 60% 的存储空间。再者,亚马逊云科技的数据库服务与人工智能技术深度集成。亚马逊云科技的 Amazon Aurora ML、Amazon Neptune ML 等服务,支持数据库开发者在不具备机器学习专业知识情况下,只需使用熟悉的数据库查询语言(比如 SQL)即可进行机器学习操作。我们不得不谈的是云数据库在提供数据存储服务于应用之后的价值, 实现统一分析和利用机器学习进行业务创新,助力企业数据驱动的业务转型。像亚马逊云科技提出的“智能湖仓架构”实现的是通过一系列的服务,允许数据库,数据仓库以及各种分析工具之间的数据无缝流动,同时在数据库内提供直接开始机器学习的能力, 让 DBA、数据库工程师也能很快利用机器学习来进行业务创新而不是关注技术学习, 这都是云数据库的优势。人工智能平台公司启元世界使用了“智能湖仓”进行云上创新,实现了数据的融合和统一治理,加快了其全生命周期产品矩阵理念的落地和规模发展。同时,对流数据处理系统实现了分钟级部署,并能够轻松承载百万 QPS(每秒查询率)流数据,还将批处理运行时间减少 80%,运营总成本下降 50%。另外,为支持企业的全球分布式应用系统,亚马逊云科技推出了 Amazon Aurora Global Database(全球数据库)、Amazon DynamoDB Global Tables(全局表)、Amazon ElastiCache for Redis Global Datastore(全局数据存储)、Amazon DocumentDB Global Clusters(全局集群)等功能,企业可以一键配置现有集群,本地写入数据全球可读,并享有亚毫秒级延迟能力。根据 CAIDA 统计,亚马逊云科技也是全球大的互联网带宽拥有者之一。亚马逊云科技全球所有的区域、可用区和边缘节点之间,均通过跨越大洲和大洋的高带宽冗余光缆连接,并 100% 加密。据悉,亚马逊云科技的基础设施遍及全球 25 个地理区域的 81 个可用区(AZ)。最后,制定迁移计划对企业来说可能是一项挑战。为此,亚马逊云科技研发了多种迁移工具,如 Amazon Schema Conversion Tool 可用于转换数据库模式、Amazon Database Migration Service (Amazon DMS)用于迁移数据,还有今年新发布的 Amazon DMS Fleet Advisor,可以用来收集分析数据库模式和对象,包括关于功能元数据、模式对象和使用情况指标的信息,并且允许企业通过确定将源数据库迁移到亚马逊云科技中目标服务的复杂性来构建定制的迁移计划。此外,刚刚在全球上线的 Babelfish for Amazon Aurora PostgreSQL 还可以帮助企业迁移到 SQL Server 应用程序。据悉,目前全球已有超过 45 万个数据库迁移至亚马逊云科技。值得注意的是,亚马逊云科技已经成为元宇宙公司 Meta 的战略云服务提供商。Meta 将使用更多亚马逊云科技的计算、存储、数据库和安全服务,并将在亚马逊云科技上运行第三方合作应用,同时 Meta 将使用亚马逊云科技的计算服务来进行包括人工智能项目在内的相关研发工作。此外,当下十分流行、在全球已经拥有超过 3.5 亿用户的元宇宙游戏“堡垒之夜”,其工作负载,如 3D 图像建模、实时渲染等也几乎全部都运行在亚马逊云科技的产品之上。英雄联盟的开发商 Riot 也将游戏的基础设施部署在亚马逊云科技之上。全球化运营的三七互娱也已经将一部分数据迁移到亚马逊云科技服务上,基础设施方面的压力得以大大减轻,此外,三七互娱还在亚马逊云科技的帮助下快速构建出了全球同服的云架构,使全球各地玩家都能获得几乎一致的顺畅体验。对于这些正在构建现代化应用的企业来说,亚马逊云科技已经成为不可或缺的支撑平台。结束语Serverless、AI 赋能、专门构建、全球部署和平滑迁移这五大理念,正是亚马逊云科技“现代端到端数据战略 - 架构现代化”的内涵。亚马逊云科技的现代端到端数据战略是一种面向未来应用的战略思考,也是一种可交付的架构,旨在为企业发展提供源源不断的动能。现代端到端数据战略主要包括三个要素:首先是我们前文所述的数据架构现代化。架构现代化是一切创新的基石,其最重要的理念是“The right tool for the job”,即在不同的场景使用专门构建的工具,而专门的工具需要专业的现代化托管平台,这些都可以大量节省企业的时间、金钱和精力。另外还有两大部分内容我们在本文没有扩展:统一分析数据。统一分析数据则是通过云上专门工具实现数据有机整合与统一,将所有数据连接到一个安全且管理良好的连贯系统中,使企业拥有灵活扩展与极致性能。企业在获得实时反馈和数据后,可以很快地扩大服务规模。基于数据进行业务创新。“蓬勃发展的公司与艰难求生的公司之间的关键区别在于是否将创建一个数据驱动型组织视为当务之急。”Amazon 机器学习副总裁 Swami Sivasubramanian 在亚马逊云科技 re:Invent 全球大会上说道。企业植根于自身业务的创新诉求是创新的原动力,其中训练与调优、模型部署与管理都涉及到了基础设施层面的创新。当前企业主要面临着严重的基础设施老旧、自动化程度低和专用工具缺乏的问题,同时繁重的资本支出也阻碍了企业前进。因此,企业要做出改变的决心是很大的。Gartner 预测,到 2024 年,企业为成为数据驱动和数字化企业,将在数据和分析上增加 40% 的投入。未来,亚马逊云科技的产品布局将进一步扩大。在现有产品基础上,亚马逊云科技将根据客户需要研发各种新产品,包括面向金融、电信、医疗和汽车等特定行业。这些都将成为企业数字驱动转型的重要利器,也会是现代化应用建设的重要基础设施。对于技术圈而言,这一年中,各种技术与领域的发展,既站高峰,也历跌宕。在2021年最后时刻,我们也想聆听来自云计算领域开发者的声音,为此,云计算开发者有奖调研正式开启,诚邀各位伙伴参与(戳这里),多重好礼等你来领!
| 4,438 | 1,640,001,694,588 |
InfoQ
|
206 |
2021 一整年,技术圈都发生了什么?
|
作者:InfoQ 编辑部整理:王一鹏如果我们从编程语言开始。让人不省心的编程语言2021年,2 月 8 日,Rust 基金会宣布正式成立,由亚马逊云计算、华为、谷歌、微软和 Mozilla 联合成立,并承诺在两年的时间里,投入 100 万美元的预算,用于 Rust 项目的开发、维护和推广。Rust 是一种系统编程语言,它把对性能的低程度控制与现代语言特征相结合,同时它也关注内存安全。2月8日前,Rust 就广泛吸引了企业和开发者的注意,亚马逊云科技、Facebook、微软以及谷歌等科技巨头正疯狂吸纳人才市场上的 Rust 语言程序员。微软软件工程合伙人 Chris McKinsey 提到,他们也建立了专项团队以支持公司内部的 Rust 项目,并与该语言社区合作整理说明文档、开发工具等。所以,Rust 基金会的成立,是一个重要的信号,仿佛在对着正处于观望态势的团队说:来吧,用 Rust 逐步替换 C++。不过,仅仅过了 9 个月,11 月 24 日,Rust Moderation Team(Mod 团队)就在 GitHub 上发布了辞职公告,即刻生效。根据公告,该团队辞职是为了抗议 Rust 核心团队(Core team):“除了自己,他们不受任何人的监督和约束。”因此,Mod 团队一直无法按照社区的期望标准执行 Rust 行为准则 (CoC)。该事件基本得到了 Rust 官方的确认。目前官网上,Khionu Sybiern 和 Joshua Gould 组成了新的 Rust Moderation Team。消息一出,轰动开发者社区。自问世起,Rust 呼声一路高涨,此时如同被兜头泼了一盆冷水。在过去的十年里,Rust 是最受开发人员喜欢的语言之一,但社区治理正成为 Rust 的大问题,而毁于社区的先例也不是没有。Rust 的实际发展情况如何?Rust 的未来如何?编程语言的 2021 有说不完的故事,Rust 只是其中之一。相比于编程语言,大数据的 2021 可以用“狂飙突进”四个字来形容。“狂飙突进”的大数据9 月 20 号,ClickHouse 的创建者 Alexey 在 GitHub 宣布他们决定正式从 Yandex 独立,成立一个公司:ClickHouse, Inc。初始成员包括创建者 CTO Alexey Milovidov,联合创始人、产品和工程总裁 Yury lzrailevsky,CEO Aaron Katz。同时 ClickHouse 公司获得由 Index Ventures 和 Benchmark 领投的 5000 万美元 A 轮融资,Yandex 也参与其中。ClickHouse 的火爆非同一般,国外的 Uber、eBay、Cloudflare、Cisco,国内的阿里巴巴、腾讯、字节、携程、有赞、快手等国内许多头部大厂都在深度使用 ClickHouse 技术。此次独立运营,标志着大数据市场再入一头“猛虎”。不仅是,久负盛名的独角兽 Databricks 也在今年宣布获得 16 亿美元 H 轮融资,估值已经飙升至 380 亿美元。也就是说,距离上一轮 10 亿美元的G轮融资才 7 个月时间,其估值就已经增加了 100 亿美元。自 80 年代以来,大公司已在数据仓库中存储了大量结构化数据。近些年,像 Snowflake 和 Databricks 等公司则为非结构化数据提供了类似的解决方案,称为数据湖。在 Ghodsi 看来,将结构化和非结构化数据结合到一个地方,让客户能够在不移动底层数据的情况下执行数据科学和商业智能工作,是大数据发展的一个关键变化。11 月 2 日,Databricks 在其官方博客发布声明,表示其数据湖仓(lake house)技术创下 TPC-DS 基准测试新纪录,并强调第三方研究表明实际性能可达 Snowflake 的 2.5 倍。在博客中,Databricks 声称这是一件大事,有助于证明数据仓库在未来十年要么不复存在,要么会大变样,“从长远来看,所有数据仓库都将被纳入数据湖仓”。但 Snowflake 显然有不同的意见。11 月 12 日,Snowflake 做出回应,发布了自己的测试结果,同时称 Databricks 公布的性能比较结论缺乏完整性,而且研究本身也存在缺陷。Snowflake 公司创始人还强调这种基准测试没什么意义,在这个年代发布数据库基准测试结果是“将正常的技术交流变成了缺乏完整性的营销噱头”。狂飙突进是一码事,市场头把交椅之争,则又是另一码事了。2021 全年技术盘点与 2022 技术展望2021 的故事太多了,在故事背后,是“新兴技术”与“成熟技术”的争执,也是各技术领域趋势变化的具现。InfoQ 编辑部,希望联结近 50 位技术专家,解读并展望架构、AI、大数据、大前端、云计算、数据库、中间件、操作系统、开源、编程语言的 2021 和 2022,为你呈现一个完整的关键技术动态知识网络,捕捉技术世界的脉搏。我们的技术展望直播周开始时间:12 月 22 日。你可以在 InfoQ 视频号预约直播,加入直播社群,并在 InfoQ 官网阅读后续的直播整理。我们的技术盘点系列文章连载开始时间:12 月 27 日。你可以在 InfoQ 公众号、官网看到它们。我们的专题和迷你书上线/发布时间:2022 年 1 月 11 日我们的 Web 专区上线时间:2022 年 1 月 13 日你可以扫码关注 InfoQ 视频号,预约直播:也可以在 InfoQ 写作平台参与话题讨论:https://xie.infoq.cn/article/2b890228e7b642b4026a5a261或者在微博话题下参与讨论:https://m.weibo.cn/status/L5SwIddMi?from=page_1006061746173800_profile&wvr=6&mod=weibotime&type=comment&jumpfrom=weibocom#_rnd1639641337340无论怎么样,我们都欢迎。准备好故事和酒,与 InfoQ 的百万技术人一起,迎接 2022。本文参考链接:官宣!Rust基金会正式成立,五大科技巨头将投入百万美元支持项目开发Rust 审查团队集体辞职,最受欢迎的开源编程语言再陷治理风波ClickHouse 宣布独立成立公司,首轮获 3 亿融资估值高达 380 亿美元!大数据独角兽 Databricks 官宣 16 亿Databricks 与 Snowflake 创始人开撕:“未来十年数据..
| 13,825 | 1,639,658,690,769 |
InfoQ
|
207 |
替代 Kafka?Pinterest 推出高效可扩展云原生系统 MemQ
|
日志平台为 Pinterest 的所有数据摄入(data ingestion)和数据传输(Data transportation)提供了动力。Pinterest 日志平台的核心是一个分布式 PubSub 系统,它可以帮助用户进行数据的传输/缓冲和异步消费。在这篇博客中,我们将会介绍 MemQ(发音为 mem - queue),它是一种用于 Pinterest 云端开发的高效可扩展 PubSub 系统,从 2020 年年中开始就为我们的近实时数据传输用例提供了支持,它是 Kafka 的一个补充,并且在成本效益方面高达 90% 。历史近十年来,Pinterest 一直依赖 Apache Kafka 作为唯一的 PubSub 系统。由于 Pinterest 的发展,数据的数量也在不断增加,因此,在运行一个超大规模的分布式 PubSub 平台上所面临的挑战也与日俱增。Apache Kafka 的规模化经营使我们对构建可扩展的 PubSub 系统有了深刻的认识。在深入研究了 PubSub 的运营和可扩展性之后,我们得到了如下主要的结论:并非所有的数据集都要求亚秒级的延迟,延迟和成本应该成反比(更低的延迟应该花费更多的成本)。为了实现基于资源的独立可扩展性,必须将 PubSub 系统中的存储和服务组件分离。根据读而非写来进行排序,为特定的消费者用例提供所需的灵活性(对于同一数据集,不同的应用程序可能会有不同的需求)。在大多数情况下,严格的分区排序在 Pinterest 是没有必要的,并且常常会带来可扩展性方面的问题。Kafka 中的再平衡成本很高,常常会造成性能的降低,并且会对已饱和的集群用户造成不利的影响。在云环境中进行自定义复制会花费很大。2018 年,我们对一个能够原生利用云计算的全新 PubSub 系统进行了测试。2019 年,我们开始正式探讨各种方案,以应对 Pinterest 的可扩展性,并基于运营成本以及现有技术的再设计成本,对各种 PubSub 技术进行了评估。最后得出的结论是,我们必须要有一个基于 Apache Kafka、Apache Pulsar 和 Facebook Logdevice 的 PubSub 技术,它是为了云计算而创建的。MemQ 是一个新的 PubSub 系统,它加强了 Pinterest 的 Kafka。该系统采用了与 Apache Pulsar 和 Facebook Logdevice 相类似的解耦存储与服务架构;但是,其主要依靠可插入式复制存储层,也就是对象存储/DFS/NFS 来存储数据。最后的结果就是一个 PubSub 系统:处理 GB/s 流量独立地扩展、写入和读取不需要昂贵的再平衡来处理流处理的增长比我们的 Kafka 足迹高出 90% 的成本效益秘密武器MemQ 的秘诀是,它通过微批处理和不可更改的写入来创建一个架构,在这种架构中,存储层所需的每秒输入/输出操作数(IOPS)会大幅降低,从而使得像 Amazon s3 这样的云本地对象存储的使用具有成本效益。该方法类似于网络的分组交换(与电路交换相比,即单一的大型连续存储数据,例如 Kafka 分区)。MemQ 将连续的日志流分解成块(对象),与 Pulsar 中的分类账相似,只是它们是以对象形式写入的,而且是不能改变的。在 MEMQ 中,“数据包”/“对象”的大小被称作批处理(Batch),它在确定端到端(End-to-End,E2E)的延迟方面起着重要的作用。数据包越小,它们的写速率就越高,但是 IOPS 的成本也会增加。这样,MemQ 就可以将端到端的延迟调节到更高的 IOPS。这种架构的一个重要性能优点是,它实现了对底层存储层读写硬件的分离,使得写入和读取能够在跨存储层传播的数据包独立地进行扩展。这也消除了 Kafka 中所面临的限制,即,要想恢复一个副本,就得从头再复制一个分区。在 MemQ 中,底层的复制存储只需要求恢复特定的批处理,如果发生存储失败,则会降低复制的数量。但是,因为 Pinterest 的 MemQ 是在 Amazon S3 上运行的,所以存储的恢复、分片和扩充都是由亚马逊云科技来完成的,没有 Pinterest 的人为干涉。MemQ 的组件客户端MemQ 客户端(Client)使用种子节点发现集群,并与该种子节点相连,从而发现元数据和托管给定主题的主题处理器(TopicProcessors)的代理(Broker),或者,对于消费者,托管通知队列的地址。代理与其他 PubSub 系统类似,MemQ 也有代理的概念。MemQ Broker 是集群的一部分,主要负责处理元数据和写入请求。注意:MemQ 的读请求可以直接由存储层处理,除非使用了读取代理。集群调控器调控器(Governor)是 MemQ 集群的领导者,它负责自动再平衡和主题处理器的分配。集群中的任何代理都可以被选为调控器,它通过 Zookeeper 与代理进行通信,Zookeeper 也是在调控器的选举中使用的。调控器使用一个可插入式的分配算法来作出分配决策。预设的方式是通过对代理中的可用能力进行评估来作出分配决策。调控器还利用这个功能来处理代理失败和恢复主题的容量。主题与主题处理器MemQ 与其他 PubSub 系统类似,使用主题的逻辑概念。代理上的 MemQ 主题是通过一个叫做主题处理器的模块来处理的。一个代理可以承载一个或多个主题处理器,每一个主题处理器实例处理一个主题。主题有写和读的分区。写分区用于创建主题处理器(1:1 的关系),而读分区用于确定需要多大的并行程度来处理消费者的数据。读分区的数量等于通知队列的分区数量。存储MemQ 存储(Storage)由两部分组成:Replicated Storage(Object Store / DFS)Notification Queue(Kafka, Pulsar 等)1. Replicated StorageMemQ 支持可插入的存储处理程序。现在,我们已经完成了 Amazon S3 的存储处理器。Amazon S3 为容错、按需存储提供了一种性价比高的解决方案。MemQ 在 S3 中采用了下面的前缀格式,从而创建了高吞吐量和可扩展的存储层:s3://<bucketname>/<(a) 2 byte hash of first client request id in batch>/<(b) cluster>/topics/<topicname>(a) = 用于在 S3 内部进行分区,以便在需要时处理更高的请求率。(b) = MemQ 集群的名称。可用性与容错性因为 S3 是一个高度可用的 Web 规模对象存储,MemQ 依靠其可用性作为第一道防线。MemQ 为满足 S3 未来的重新分区要求,在第一级前缀添加了两位数的十六进制哈希值,创建了 256 个基本前缀,这一点从理论上讲,可以通过独立的 S3 分区进行处理,只是为了让它能够经得起未来的考验。一致性MemQ 的一致性是由底层存储层的一致性所决定的。在 S3 的情形中,S3 标准的每一次写入(PUT)都保证在被确认之前被复制到至少三个可用性区域(Availability Zones,AZ)。2. Notification QueueMemQ 使用通知系统将数据位置的指针传递给消费者。当前,我们使用了 Kafka 形式的外部通知队列(Notification Queue)。一旦数据被写入存储层,存储处理器就会生成一个通知消息,它会记录写入的属性,包括其位置、大小、主题等。消费者使用这个信息从存储层检索数据(批处理)。MenQ 代理也可以为消费者代理批处理,但需要以牺牲效率为代价。通知队列为消费者提供了集群/负载平衡。MemQ 数据格式MemQ 对消息和批处理使用一种自定义的存储/网络传输格式。MemQ 的最低传输单位被称为 LogMessage。这类似于 Pulsar Message 或 Kafka ProducerRecord。LogMessage 的包装器可以让 MemQ 进行不同级别的批处理。单位的层次结构:批处理(持久化的单位)消息(生产者上传的单元)LogMessage(应用程序与之交互的单元)处理数据MemQ 生产者负责向代理发送数据。它使用异步调度模型,允许非阻塞的发送,而不需要等待确认。这个模型对于在维护存储层确认的同时隐藏底层存储层的上传延迟至关重要。由于无法利用已有的 PubSub 协议,需要通过同步确认来实现自定义的 MemQ 协议和客户端。MemQ 支持三种类型的应答:ack=0(生产者触发和忘记),ack=1(代理接收)和 ack=all(存储接收)。在 ack=all 的情况下,复制因子(RF)由底层存储层决定(例如,在 S3 标准 RF=3[跨越三个 AZ])。如果确认失败,MemQ 生产者可以显式或隐式地触发重试。存储数据MemQ 主题处理器在概念上是一个 RingBuffer。这个虚拟环被细分为批处理,这样可以简化写操作。当信息在通过网络到达时,将会被排进目前可用的批处理中,直至批处理被填满或者根据时间触发。当一个批处理完成后,它就被交给 StorageHandler,以便上传到存储层(如 S3)。如果上传成功,则通过通知队列发送通知,如果生产者请求确认,则使用 AckHandler 将批处理中的各个消息的确认(ack)发送给他们各自的生产者。消费数据MemQ 消费者允许应用程序从 MemQ 读取数据。消费者使用代理元数据 API 来发现指向通知队列的指针。我们为应用程序提供了一个基于轮询的接口,每次轮询请求都会返回一个 LogMessages 的迭代器,以便读取一个批处理中的所有 LogMessages。这些批处理是使用通知队列发现的,并直接从存储层检索。其他特性数据丢失检测:当 Kafka 向 MemQ 迁移工作负载时,必须对数据丢失进行严格验证。所以,MemQ 拥有一个内置的审计系统,可以高效地跟踪每个消息的端到端交付,并且可以以近实时的方式发布指标。批处理和流处理的统一:由于 MemQ 使用一个外部存储系统,所以无需将 MemQ 的数据转换成其他格式,就可以在原始 MemQ 数据中直接进行批处理操作。这样,用户就可以对 MemQ 进行特别检查,无需为查找性能而担忧,只要存储层可以单独扩展读取和写入。MemQ 消费者可以使用存储引擎进行并发检索,从而在特定的流处理中实现更快速地回填。性能延迟MemQ 支持基于大小和时间的刷新到存储层,除了一些优化来抑制抖动外,还能对最大的尾部延迟进行了硬限制。到目前为止,我们能够通过亚马逊云科技 S3 存储实现 30 秒钟的 p99 E2E 延迟,而且我们还在积极地改进 MemQ 的延迟,从而提高了从 Kafka 向 MemQ 迁移的用例数量。成本事实证明,与使用 i3 实例的三个 AZ 上的三个副本的同等 Kafka 部署相比,S3 标准上的 MemQ 最多可以节省 90%(平均约 80%)。这些节约源于以下几个因素,例如:减少 IOPS取消排序限制计算和存储的解耦由于消除了计算硬件,减少了复制成本放宽延时限制可扩展性带有 S3 的 MemQ 按需扩展,这取决于写入和读取的吞吐量要求。MemQ 调控器会进行实时再平衡,保证在能够提供计算的情况下,有充足的写入能力。代理增加了附加的代理并更新了流量需求,从而实现了线性扩展。如果消费者在处理数据时需要额外的并行性那么就手工更新读分区。在 Pinterest 上,我们将 MemQ 直接用于 ec2,直接在 ec2 上运行 MemQ,并根据流量和新用例需求扩展集群。未来的工作我们在下列方面作出了积极的承诺:减少 MemQ 的 E2E 延迟(<5 秒),以支持更多的使用案例实现与流处理和批处理系统的本地集成读取时的关键排序结语MemQ 为 PubSub 提供了一种灵活、低成本、云原生的方式。如今,MemQ 可以在 Pinterest 上收集和传输所有的机器学习训练数据。我们正在积极研究将其扩展到其他数据集,并对延迟进行更好的优化。除了解决 PubSub 问题之外,MemQ 存储还可以提供使用 PubSub 数据进行批处理的能力,而不会对性能造成很大的影响,并且能够实现低延迟的批处理。原文链接:https://medium.com/pinterest-engineering/memq-an-efficient-scalable-cloud-native-pubsub-system-4402695dd4e7
| 5,277 | 1,639,550,338,710 |
InfoQ
|
208 |
亚马逊 re:Invent 2021:塑造以人为本的未来科技
|
11 月 30 日,2021 亚马逊云科技 re:Invent 全球大会正式开启,作为全球云计算产业的盛会,re:Invent 每年坚持发布创新技术和服务、并邀请全球不同行业、规模的客户以及亚马逊云科技合作伙伴分享最新的商业创新实践。今年是 re:Invent 的第 10 年,新产品和新服务依然是讨论的焦点。 新技术之外,亚马逊云科技在人才培养和开发效率提升方面作出的努力也值得探讨。亚马逊正在塑造以人为本的未来科技:打造能为开发者所用的技术,用技术赋能开发;降低技术使用门槛,普惠更多的开发者,让更多的人享受到云计算带来的极致开发体验和效率提升。瞩目的创新技术背后,低调的“全球游戏”在同步进行,而这也恰好呼应了 re:Invent 2021 的大会主题——“引领风向,重塑未来”。更高、更快的技术创新亮点 提到 re:Invent,大家想到的标签可能是:云计算领域的创新技术。除却本身的光环,纵观历届 re:Invent 大会,这些新技术无一不在解决企业内外部开发者开发过程中遇到的问题:用新的产品降低开发者进入人工智能领域的门槛、用新的服务让开发人员提升数据分析的效率……re:Invent 大会发布的产品与服务始终关注开发者的真实感受,帮助更多人从云计算技术中受益、获得更好的开发体验;同时,也给云计算未来的发展指出方向。 今年的大会依旧带来了涵盖计算、物联网、5G、无服务器数据分析、机器学习、数据库服务等方向重磅的创新技术,值得关注的有:基于新一代自研芯片 Amazon Graviton3 的计算实例降低机器学习门槛的 SageMaker Canvas帮助大型机客户向云迁移的 Amazon Mainframe Modernization帮助企业构建移动专网的 Amazon Private 5G构建数字孪生的服务 Amazon IoT TwinMaker简化聊天机器人设计的 Lex Automated Chatbot Builder4 个亚马逊云科技分析服务套件的无服务器和按需选项更高性价比的 Amazon Graviton3 目前,全球头部的云服务器厂商都在布局自研服务器芯片,降低云服务成本吸引更多客户。作为最早基于 ARM 架构自研服务器芯片的厂商之一,亚马逊云科技的自研芯片之路可以追溯到 2014 年,此后,在 2018 年和 2019 年接连推出自研 Graviton、Graviton2 处理器。 Amazon Graviton2 是亚马逊云科技基于 ARM 指令集开发的高水平处理器,今年大会上处理器进一步迭代升级,重磅推出了 Amazon Graviton3,为企业提供了更高的性价比:为实际工作负载提供最佳性能和最低成本。 与 Amazon Graviton2 相比,Amazon Graviton3 可以给科学计算、机器学习和媒体编码工作负载提供高达 2 倍的浮点运算性能,提升加密工作负载速度高达 2 倍,为机器学习工作负载提供高达 3 倍的性能;其处理器的能效也更高,在相同性能下,与同类型 Amazon EC2 实例对比,可节省高达 60%的能源消耗。 会上也推出了 3 款由自研芯片支持的新 Amazon EC2 实例,分别是 Amazon EC2 C7g 实例、Amazon EC2 Trn1 实例以及 Amazon EC2 Im4gn/Is4gen/I4i 实例,帮助客户显著提升在 Amazon EC2 上运行的工作负载的性能、成本和能源效率。其他值得关注的工具&服务 降低机器学习门槛——SageMaker Canvas 机器学习是亚马逊云科技长期关注的技术方向之一。截至目前,数以万计的客户使用 Amazon SageMaker 开发聊天机器人、视觉图像处理工具、自然语言处理等人工智能服务。这次大会上,亚马逊云科技面向企业内部的所有工程师和外部业务用户推出了 Amazon SageMaker Canvas,方便更多没有经验的用户不需要编辑代码,只用鼠标点击拖拽,就可以完成机器学习模型的创建。 加快上云——Mainframe Modernization 云时代下,上云已成为行业共识。为了保证企业快速上云,云迁移技术成为业内关注的重要技术方向之一。这次大会上,亚马逊云科技推出 Amazon Mainframe Modernization,帮助亚马逊云科技客户以更低的成本,更快的速度在亚马逊云上迁移、实现现代化和运行大型机工作负载,将主机迁移时间减少 2/3。同时,Amazon Mainframe Modernization 可以帮助客户评估分析主机应用程序情况,选择合适的路径并制定计划。 构建专用移动网络新方法——Private 5G Amazon Outposts 是亚马逊云科技在两年前推出的、帮助公司在数据中心运行应用程序的工具,提供和亚马逊云科技相同的 API、硬件及工具,由亚马逊云科技管理和支持。5G 时代,亚马逊云科技已经在使用具有低延迟、高带宽优点的 5G 网络连接客户保持在线的所有设备。 为了降低客户在享用 5G 服务便利性的同时,降低部署专用移动网络需要投入大量的时间和成本,这次大会上,亚马逊云科技新推出 Amazon Private 5G 服务,可以在几天内建立和扩展专用移动网络,用户只需要说明想在哪里构建网络并指定容量,亚马逊云科技就会提供必要的软硬件及 SIM 卡,自动配置使客户按需连接任意数量的设备。 数字孪生解决方案——IoT TwinMaker 针对物联网、智能制造领域常用的较为繁琐的建模方式,亚马逊云科技推出了 Amazon IoT TwinMaker 数字孪生解决方案。Amazon IoT TwinMaker 是亚马逊云科技在数字孪生概念下的首款产品。 使用 Amazon IoT TwinMaker 的企业 可以轻松汇集来自多个来源(如设备传感器、摄像机和业务应用程序)的数据,并将这些数据结合起来创建一个知识图谱,对现实世界环境进行建模,从而省去大量的开发工作,也可以通过数字孪生来构建反映现实世界的应用程序,提高运营效率并减少停机时间。 同时,Amazon IoT TwinMaker 还可以适用于 Amazon IoT SiteWise、Amazon Kinesis Video Streams 和 Amazon S3 的内置连接器,进行数据收集。企业也可以导入现有的 3D 模型,创建数字孪生。值得注意的是,数字孪生也是元宇宙的主要观点之一。 简化聊天机器人设计——Lex Automated Chatbot Builder 如今,聊天机器人在商业、教育等领域的应用越来越多,它不仅简化了人与服务之间的交互,增强了客户体验,还能通过降低客户服务成本,帮助公司改善服务流程和运营效率。 在这项重要的功能背后是非常复杂的组织结构,开发人员可能需要花费几百小时搜索所有记录,查找用户查询和解决该问题的信息。而亚马逊云科技新发布的 Amazon Lex Automated Chatbot Builder 通过增加一定程度的自动化,简化了聊天机器人的培训和设计过程,将聊天机器人的设计周期从几周缩短至几小时。 4 项基于云的数据分析服务 企业数据分析和技术的需求也正在不断上升,本次大会,亚马逊云科技推出了帮助客户挖掘数据的服务:Amazon Redshift、Amazon EMR、Amazon MSK 和 Amazon Kinesis,这四项分析服务均基于云,并作为无服务器可以按需提供服务。 由于不同的分析服务需要不同的数据库作支撑,客户需要考虑运行这些服务的基础设施以及管理集群,而通过亚马逊云科技的数据分析服务,客户只需要为使用的资源付费,不需要考虑其他事情。DevOps 团队构建应用的最佳实践 以人为本的未来科技,离不开现有的技术和开发人才,而其中的“未来”则需要团队、乃至行业共同打造。从短期看,技术与人才结合自然而然能带来开发和部署效率的提升、软件开发流程优化、团队协作效率提升、实现更佳的 DevOps 实践,从而打造“未来科技”。此次 re:Invent 大会上,亚马逊云科技分享了从开发到运维的全流程 DevOps 实践,给高效协作 DevOps 提供新的可能。利用 Amazon CDK 高效部署 最近几年,很多团队都在采用基础设施即代码 (IaC)。IaC 模型是在 DevOps 中实现最佳实践的关键属性,它可以在每次应用时都生成相同的环境,使基础设施的预置变得更加轻松。 IaC 带来便利的同时,也带来了新的技术门槛:开发者需要熟悉模板的各个功能模块和编写语言。而亚马逊云科技 CDK 恰好既能兼顾 IaC 带来的便利,也能降低模板的编写难度,亚马逊云科技云计算开发工具(CDK)是一个开源的框架,供开发者使用熟悉的程序语言,来创建和配置云计算资源,现在支持 C#、TypeScript、Java、Python 和 Go 等多种程序语言。 作为一个重要组件,亚马逊云科技 CDK 实现和封装了基础架构模式,开发者可以在整个组织中共享信息,并能创建、共享可重复使用的资产,这是云计算开发中重要的改变。本次大会,亚马逊云科技宣布正式推出 CDK 第二个版本,改进了第一版 CDK 在依赖性管理上的麻烦,而新发布的 Construct Hub 则可以促进云计算开发社区、云计算服务供应商使用和共享所有 CDK 构建,对于开源具有重要的意义。软件开发生命周期观测的最佳实践 DevOps 越来越受到企业的推崇,俨然成为企业数字化转型的“必修课”。在全球企业的 DevOps 实践中,我们可以看到它确实提高了团队的组织能力,能以更快的速度交付应用程序和服务。在 DevOps 实践中,软件开发观测是重要的环节,无论是开发者还是运营人员,都需要了解应用程序和资源的运行情况,方便在进行或者更改代码部署时看到变化。 软件开发生命周期观测,能够帮助开发者有效地了解情况,对任何持续出现或者潜在的问题及时补救。我们所讨论的观测和普通监控最大的区别是,监控只反应系统是否正常地运行,而观测在监控的基础上,会同时反馈系统无法正常运转的原因。 本次大会对四个可以帮助实现观测的工具进行了介绍,分别是 Amazon CloudWatch、Amazon CloudTrail、Amazon X-Ray 和 Amazon DevOps Guru。以前不久刚刚推出的适用于 RDS 的 DevOps Guru 为例,它能帮助开发人员使用 Amazon Aurora 数据库快速、大规模地检测、诊断和解决数据库性能问题。 DevOps Guru for RDS 是利用 ML 来自动识别和分析各种与性能相关的数据库问题,例如主机资源的过度利用、数据库瓶颈或 SQL 查询的不当行为。开发人员可以获取足够的信息来确定数据库性能问题的确切原因,为开发人员和工程师减少了大量发现和修复与性能相关的数据库问题的工作,同时为团队节省了时间。让开发流程获得恢复能力 “从开发流程获得恢复能力”也是本次大会中一个值得关注的话题,它能最大程度避免系统崩溃带来的成本消耗,这其中的最佳实践是:持续构建弹性应用程序,其中包含 Responding(回应)、Monitoring(监控)、Learning(学习)以及 Anticipate(预期)。 Responding:在实际发生故障时修复问题Monitoring:监控运行情况,当发生故障时发出警报Learning:当没有按预期发展时,理解为什么会发生这样的情况,以及如何恢复Anticipate:基于以上的情况,了解会发生什么,并预测潜在问题,提前阻止这些情况发生 在上述过程中,Amazon DevOps Guru 服务可以使开发流程获得恢复能力。Amazon DevOps Guru 服务被启用后,就会开始摄取操作数据、使用 ML 探测器监测异常情况。所以在异常情况出现时,它会查看 Cloud 跟踪日志,向操作员发出问题警报,其中包含问题的详细信息,比如涉及哪些资源、问题出现的时间以及其他可能相关的事件,这样的“洞察力”能帮助团队快速定位、解决问题,最终有助于缩短整个过程持续的时间。 此外,Amazon DevOps Guru 也可以在组中进行关联,将相关应用程序转换为基础架构,帮助识别类似 Web 应用程序延迟峰值、磁盘空间不足、错误的代码部署等问题,减少虚假和冗余的警报。在其帮助下,开发者及团队可以专注于其他需要专注及更重要的事情。走近开发者的社区活动 没有人会用的技术是没有价值的。在技术快速发展的同时,如何让其普惠更多的开发者,让他们获得技术带来的巨大能量,这是一个值得深思的问题。能为开发部署赋能的技术很多,而技术的壁垒、使用的场景限制都是横亘在开发人员和新技术之间的鸿沟。 亚马逊云科技关注到了云计算领域开发者的需求,打造了可以满足开发者学习、交流需求的活动和课程,让云计算创新技术覆盖更多人。本次大会,承载了众多活动和社区建设内容的“社区专题”也在七个专题视频之中——亚马逊正在发起“全球游戏”,做云计算领域的技术人才培养。消灭 100 万个 Bug “对开发者来说,游戏开始了;对 Bug 来说,‘游戏结束’了”这是本次大会对 Amazon BugBust 挑战赛的精彩总结。 近几年,基于云开发、构建和部署新功能的进程正在变得越来越快,然而开发过程中的代码错误却无法避免,随着比以往多千百万行的代码输出,要审查的代码也越来越多,代码审查的数量和复杂度也在增加。 为了确保代码的正确性和编码的最佳实践,代码审查的必要性不言而喻。更有趣、更有效地审查代码的方法在哪? 一些公司、团队会举办 Bug bash(Bug 大扫除),以团队协作的形式查找修复 Bug,一般需要花大量的时间手动检查大型代码库,效率较低,而且可能有 Bug 成为漏网之“鱼”通过检查。 今年 6 月,亚马逊云科技提供了一个清除 Bug 的解决方案——Amazon BugBust挑战赛,这是世界上首个面向 Java 和 Python 开发人员共同修复100万个 Bug 的全球竞赛。开发者可以在亚马逊云科技控制台中快速轻松地设置自己的 Amazon BugBust 项目,其中可以设置挑战、奖励和排行榜,世界各地的开发者都可以加入到该活动中,修复Bug获得比分,成绩会同步到 Amazon BugBust 挑战赛中,还可以在排名上升时获得徽章和奖励。 在 Amazon BugBust 挑战赛背后,有一个帮助开发者查找和消除错误的重要工具——Amazon CodeGuru Reviewer 和 Amazon CodeGuru Profiler,这两个工具通过利用机器学习和自动推理来查找代码中的错误,替代了开发人员手动检查的繁重工作,为“消灭Bugs”提供了简单、高效、有趣的方案。通过 DeepRacer 掌握机器学习 2018 年发布的世界经济论坛报告称,到 2022 年人工智能将新增 5800 万个新岗位;2018 年腾讯研究所公布的数据显示,世界各地的 AI 工程师仅有 30 万。亚马逊云科技看到了世界人工智能领域学习的需求,在同年首次发布了 Amazon DeepRacer,降低人工智能的核心——机器学习(ML)的门槛。Reinforcement Learning(强化学习)是一种高级的 ML 技术,也是 ML 的一个重要分支,它采用了一种与众不同的方法来训练模型。它的超强功能在于,Reinforcement Learning 模型在学习非常复杂的行为时不需要任何标记的训练数据,并且可以在以长期优化为目标的同时做出短期决策。DeepRacer 内置了强化学习(Reinforcement Learning)框架,使开发人员可以在线上模拟器中训练、评估和调整 Reinforcement Learning 模型,然后将自己的模型部署到 Amazon DeepRacer 上,从而获得堪比现实世界的自动驾驶经验,让中学生也能体验机器学习。为了让世界各地的开发者和机器学习爱好者可以更深入地交流机器学习的经验,体验自动驾驶的乐趣,亚马逊云科技还在 2018 年的 re:Invent 全球大会上首次推出 Amazon DeepRacer 联赛(包括线上模拟赛和线下实体赛)。本次大会中 Amazon DeepRacer 专题提到,Amazon DeepRacer 现可借助虚拟 3D 赛车模拟器、广播工具和 1/18 比例自动驾驶竞速赛车,让开发者在娱乐中掌握 ML 的基本原理。最新数据显示,自联赛推出以来全球已有超过 10 万名开发者通过参赛体验到机器学习的乐趣,同时也帮助团队构建包容的 ML 公司文化,促进团队的合作和良性竞争。在 BuildOn 中掌握流畅开发 除了 Amazon BugBust 和 Amazon DeepRacer 这两个充满竞技色彩的专题外,BuildOn 也在社区专题中亮相了,这是面向开发者围绕代码的实际应用开设的课程,其目的是鼓励开发者动手实操,帮助他们学习云计算技术应用,实现更快更好的创新。 本次 re:Invent 大会中,BuildOn 共有 5 节不同主题的分享,涵盖容器、实时分析数据等领域,每个分享中都有两位主题专家分享代码,指导解决开发者们实际遇到的各种问题,也带领开发者了解多个亚马逊云科技服务连接在一起的解决方案,帮助开发者开启云上构建。 为了推动开发者动手实践,平时,亚马逊云科技也会组织技术布道师,为世界各地的开发者分享如何完成云上构建,带领开发者动手实操,在云上构建移动应用、无服务应用程序等,这些课程在官网的开发人员中心(Developer Center)里都可以找到。在大会的 Keynote 演讲中,亚马逊云科技新任首席执行官 Adam Selipsky 承诺,在 2025 年前,要培训 2900 万人掌握云技术,为此,亚马逊云科技提供了在线数字化体验,免费提供 500 多个课程,这些课程还支持多达 16 种语言。写在最后除了上文的内容,本届 re:Invent 还发布了其他的创新产品和服务,现可通过亚马逊云科技官网观看全部回放。纵观整场大会,“以人为本”的隐藏主线贯穿始终。在技术、人才、团队三者连接后,很可能出现一个云计算技术发展的闭环:新技术与人才打造更高效的 DevOps 团队,而团队与人才利用新技术,探索更前沿的技术。这可能是亚马逊云科技新任首席执行官 Adam Selipsky 在演讲中提到的两个核心的概念“首先是变革,云和亚马逊云科技提供的是变革的能力;其次是重塑,云是一个重塑一切的机会,因为云提供了一条通往真正转型的道路。”的另一层含义了。
| 9,930 | 1,639,467,482,611 |
InfoQ
|
209 |
面向未来,我们来聊一聊什么是现代化数据架构
|
在不那么遥远的旧 IT 时代,有这样一个段子——假如把数据库们”聚在一起“开会”。Oracle: 我们需要企业级数据库。MySQL: Oracle 不开源。PostgreSQL: MySQL 的功能不够多。SQLite: 你可以把我嵌入到任何地方。这样,4 种数据库够大家用了。MongoDB: 为什么我们要用 join 和模式 (schema)?Bigtable: MongoDB 的对 web 的扩展性不好。Hbase: Bigtable 不开源。......(摘自:《外刊 IT 评论》) 这段“对话”显然有诙谐的成分,但也映射出一个无法逃脱的现实——一个数据库包打天下的时代过去了。俗话说,“工欲善其事,必先利其器”,那么,我们到底需要怎样的数据架构?又该如何选择数据库?在亚马逊云科技首期 Build On《现代化数据架构思考与实践 -NoSQL 的前世今生解读及架构搭建》中,数据库产品专家吕琳、李君针对现代化数据架构这一话题展开分享并带领大家现场完成了非关系型数据库相关的两个动手实验。单一数据库无法满足需求在数据库技术的发展史上,1970 年是个巨大的转折点,这一年,埃德加·科德发表了《大型共享数据库数据的关系模型》一文。由此,关系型数据库一直占据着数据库生态圈的顶尖地位。科德本人也凭借这项成就获得了图灵奖。值得一体的是,仅关系型数据库这一个门类就前后诞生了四个图灵奖得主。随着现代化应用的发展,开发者对性能、规模和可用性的要求更高。用户量动辄百万以上,数据量从 TB 增长至 PB,性能要求达到毫秒甚至微妙级别的延迟...... 与此同时开发者希望免去繁重、重复的运维和部署工作,将更多的精力投入到开发业务中去。单一数据库的模式已无法满足企业的需求。2004 年,亚马逊电商发生过一次很严重的故障,致使用户连续几个小时无法完成交易。当时,亚马逊电商采用的是 Oracle 关系型数据库,但由于关系型数据库天然地在面对海量数据的高效率读写时,读写性性能较差,因此,尽管拥有上万套 Oracle 数据库,并对数据进行了分库分表处理,在业务量剧增的情况下,系统还是崩溃了。这时的亚马逊已然遇到了关系型数据库的扩展瓶颈。在那次重大的事故后,亚马逊开始重新考量、构建自己的应用,并重新选择数据库。其实,当时作为 Oracle 全球最大的客户之一,亚马逊享受到的 license 折扣是极低的,但是,面向未来的爆炸式发展需求,让他们意识到当前数据架构的不完善。在谨慎调研与设计之后,亚马逊决定不再采用单一数据库模式,而是将其进行拆分,同时采用 Amazon Redshift、Amazon DynamoDB、 Amazon Aurora、 PostgreSQL 等多种类型的数据库。这样的做法避免了仅采用关系型数据库产生的因数据集增大而带来的性能下降问题。在海量数据集下依旧可以保持高并发请求和持续低响应延迟,且几乎没有扩展上限。如今,亚马逊电商系统在类似双 11 活动规模的 Prime Day 上,每秒可能会应对超过 8000 万次的调用,如果仅采用关系型数据库,几乎是不可能实现的。不仅仅是在亚马逊,互联网行业、金融行业的很多巨头公司,都已同时采用多种数据库。如为全球旅行者和房东提供出租 / 租用的服务型网站 Airbnb,在关系型数据库上选择 MySQL 和 RDS,在非关系型数据库上选择 DynamoDB,同时采用 Amazon ElastiCache、Redis 进行前端的数据缓存。金融行业公司 Capital One 大量使用非关系型数据库 DynamoDB,而需要数据分析时则会用到 Amazon Redshift。每一款数据库都有其历史背景,是特定时间、技术条件之下面向指定场景需求的产物,各有所长的同时也各有局限性。因此,不同的业务类型、乃至同一业务链路下的不同场景特性可以按需拆分为不同的数据库需求。并且,随着微服务拆分地越来越细,数据库也天然得有了拆分的保障,越来越多企业更适合、也更愿意根据其需求场景来选择专用数据库。所以,今天我们为大家带来的是现代化数据架构的第一个也是最重要的一个概念——“专门构建,专库专用”如何选择合适的数据库?要说最眼花缭乱的,莫过于数据库服务的“大家族”了。在不同的数据库间如何根据自己的应用场景进行选择,才能让每个场景都获得极致的性能、可用性和扩展性?吕琳在分享中介绍了不同类型专用数据库的应用场景。他首先从开发者们最为熟悉的关系型数据库讲起。比较常用的关系型数据库有 PostgreSQL、MySQL、MariaDB、Oracle Database 、SQL Server 等,亚马逊云科技的 RDS 也同时提供五种常用数据库引擎。为什么还要自创了 Amazon Aurora,吕琳说:“这其实源自客户的需求。”客户反馈,Oracle、SQL Server 功能强大,提供企业级支持,但它们有苛刻的 License 许可机制和严重的绑定倾向,且费用昂贵。反之,MySQL、PostgreSQL 这样的开源数据库,虽然免费,但又少了功能、性能、高可用性及企业级支持。如何才能鱼与熊掌兼得?2014 年,亚马逊云科技推出首款专为云打造的关系型数据库 Amazon Aurora。Amazon Aurora 完全兼容 MySQL 和 PostgreSQL,性能可以达到标准的 MySQL 的五倍,标准的 PostgreSQL 的三倍,且可按照使用量付费。在性能方面 Amazon Aurora 是一个高可用的典型案例。但作为一款关系型数据库,Amazon Aurora 依旧逃脱不了关系型数据库的设计问题,即随着数据量的增长,索引效能一定会有所下降。当面对海量数据,又要保证索引效能,企业通常会采用两种办法。其一,是对关系型数据库进行分库分表。分库分表能够提升性能,增加可用性,然而,这样的方式也会为开发者带来很多麻烦。比如,事务问题怎么解决?跨分辨查询怎么办?如何让冷热数据均匀散落在各个分库分表内?这些都需要开发者花时间去考虑。第二种方法,就不得不谈到非关系型数据库了。非关系型数据库存储格式灵活、速度快、扩展性高、且成本相对较低。在很多特定场景下,表现强劲,比如海量写入,精准读取,高并发更新,对一致性要求不高等场景。亚马逊云科技最典型的非关系型数据库是 DynamoDB,它的扩展几乎没有上限,且能够避免数据集增大导致性能下降,海量数据集下依然可以保持毫秒甚至微秒级的响应时间。不仅如此,DynamoDB 还采用了无服务器架构无需硬件配置、软件补丁或升级就可以自动化扩展或缩减、连续不间断地备份数据。除常见的关系型数据库和非关系型数据库,还存在一些其他类型的数据库,如内存数据库,文档数据库、图数据库、时序数据库等,也都拥有各自适合的应用场景。吕琳一一为大家进行介绍。内存数据库:如 Amazon ElastiCache 或者 Amazon MemoryDB 等。这类数据库可以保证数据不丢失,通常来说,Redis 的复制技术是异步复制,可能会丢失一部分数据,但采用内存数据库 Amazon MemoryDB 则不存在数据丢失的情况。文档数据库:如 MongoDB、Amazon DocumentDB 等。MongoDB 在中国区的接受度很高,很适合直接存储 JSON 数据,因此,游戏、直播等行业会天然地倾向采用它。但 MongoDB 免费版很难做到高可用,而收费版费用又很高,相比来说,Amazon DocumentDB 提供更强大的高可用和可扩展能力。图数据库:如 Amazon Neptune,图数据库属于比较新兴的数据库,主要用以记载不同事物间的相互关系。在社交网络、知识图谱、生命科学等场景比较常用,此外在欺诈检测、疫情防控的背后,图数据库也发挥了重要的作用。时序数据库:如 Amazon Timestream,时序数据库主要用于处理带有时间标签的数据,主要运用于保险、电力、化工等行业,进行各类实时检测、监测与分析。 Amazon Timestream 提供快速、可扩展、完全托管的服务,与关系数据库相比速度快 1,000 倍,成本仅为 1/10。所谓尺有所短,寸有所长。因此,各种各样的数据库,只有在自己适合的场景,才能够发挥最大的价值。3面向现代化应用的高可用、可扩展 NoSQL 数据库虽然数据库的种类繁多,但大体一般可分为两类,一类是传统的 SQL,另一类是比较新兴的 NoSQL。吕琳强调,这两种数据库并非互相替代的关系。如果需要大量 joins 或者灵活的即席查询,那么 SQL 一定是不二的选择。但是,如果需要海量扩展、低可预期的延迟和灵活的 schema,那么 NoSQL 才是更优的选择。在非关系型数据库中,吕琳着重介绍了 DynamoDB 的基础及最佳实践,后续的动手实验也是围绕这款数据库展开。2007 年,亚马逊 Dynamo 论文的发表,为后来一系列 NoSQL 理论与产品的发展提供了启发,铺平了理论的道路,很多 NoSQL 产品都参考了 Dynamo 系统。2012 年,DynamoDB 正式诞生。这是一款完全托管的无服务器类型的 NoSQL 数据库。用以解决数据库管理、性能、可扩展性和可靠性等核心问题。具有很高的可扩展性、可用性和健壮性,适合存储大量数据并且同时要求低延迟的应用服务。DynamoDB 提供全托管服务且操作简单,以至于在开发者中流传着这样一句话“使用 DynamoDB 你什么也不用管,只需要记得付账单就可以了。”很多顶级企业都是 DynamoDB 的用户,国外有 Netflix,国内如华米、随锐。DynamoDB 的核心组件是表、项目和属性。表是项目的合集,项目是属性的合集。DynamoDB 使用主键来表示表中的项目。分区键用来构建一个非排序的散列索引,使得表可以进行分区,从而满足扩展性的需求。在一个分区键决定的散列索引里,数据按照排序键进行排列,每个排序键所对应的数据行数没有上限,除非你有本地二级索引。本地二级索引 (LSI) 可以选择与表不同的排序键,每个表分区对应一个索引分区。每个分区键可以存储最多 10 GB 的数据,包括表分区和索引分区的数据量。除本地二级索引,另外一种索引方式是全局二级索引 (GSI)。全局二级索引可以选择与表不同的分区键以及排序键,且每个索引分区会对应所有的表分区。GSI 和 LSI 该如何选择呢?对于 GSI 来说,索引尺寸没有上限,读写容量和表是独立的,只支持最终的一致性。而对于 LSI 来说,索引保存在表的分区中,每个分区键值的存储上限是 10GB,使用的是表上的 RCU 和 WCU。使用 DynamoDB 除了需要指定主键、分区键和排序键外,用户只需确定访问次数,系统会根据访问次数预置容量。不仅如此,DynamoDB 还拥有独特的 Token Bucket 算法,可以将剩余的 RCU 存储下来,以应对突如其来的流量洪峰。对于 NoSQL 来说,一个比较常见的问题是访问不均衡的问题,而 DynamoDB 特有自适应容量(Adaptive Capacity )功能,增加过热分区的吞吐量,对过热项目进行隔离。此外,DynamoDB 还提供预置容量自动伸缩和按需扩容等功能在保证容量的基础上,最大限度降低企业成本。分享的最后,吕琳介绍了四个有关 DynamoDB 设计最佳实践,分别为:● 慎重选择 Hash Key 以实现无限扩展● 如何存储大项目● 如何处理热点项目● 使用 Time-Series 表格存储时序型数据动手实验环节 “纸上得来终觉浅,绝知此事要躬行”吕琳老师的分享让现场的开发者对现代化数据架构有了初步的认识。随后,开发者们在李君老师的带领下,开始了动手实验环节。本次 Build On 共设置两个动手实验。动⼿实验⼀:使⽤ Amazon DynamoDB 为移动应⽤程序设计数据库动手实验一假设开发者正在构建一个用来上传照片的移动应用程序。用户将通过开发者开发的应用程序上传照片,其好友可以查看他们的照片。这个应用程序是一个社交应用程序,因此用户可能会查找和关注好友。关注好友后,用户将收到好友发布新照片的通知,并能够向好友发送消息。开发者设计的应用程序要能够满足用户使用爱心、笑脸、竖起大拇指、戴墨镜四种表情符号对照片做出表态的需求。通过这个实验,开发者学习了如何对 DynamoDB 表进行建模以处理应用程序的所有访问模式,并了解了如何使用新的事务处理功能,从而快速高效地使用 DynamoDB。动⼿实验⼆:使⽤ Amazon DynamoDB 对游戏玩家数据建模除应用于社交场景外,DynamoDB 也是游戏场景颇受欢迎的数据库服务。动手实验二假设开发者正在构建一个有 50 名玩家同时在线的大逃杀游戏。游戏时间通常为 30 分钟左右,在游戏中,开发者必须更新某特定玩家的记录,以指明该玩家玩游戏的时长、创纪录的杀敌数量或者是否获胜。满足用户想查看他们玩过的游戏、游戏获胜者或者想观看每场游戏动作重播的需求。通过该实验,开发者们进一步了解了一些核心数据建模的策略,以及如何在游戏及其类似场景中使用 DynamoDB 构建现代化数据架构。你是不是也想试试呢?未能亲临现场参与本次活动,并对 DynamoDB 数据库感兴趣的开发者可扫描下方二维码注册账号并领取礼包,实操上述两个动手实验。戳链接即可下载本期 Build On 上手实操手册,快来亲自动手学习\复习课程内容吧~👇🏻Build On 上手实操手册
| 5,816 | 1,639,389,195,539 |
InfoQ
|
210 |
从 Amazon Graviton3 发布,看 2022 云计算的核心方向
|
2021 亚马逊云科技 re:Invent 结束了,在数十项发布里,哪个产品最为重要,对云计算行业影响最大?可能会有不少人把票投给 Amazon Graviton3。这不仅因为“自研芯片”这个概念在当下成为了“硬核实力”的象征、大众喜闻乐见的话题,也不仅因为芯片代表了云服务最基础的能力,更是因为 Amazon Graviton3 的发布,实实在在地影响了整个产业的格局,在多个领域起到了一锤定音的效果。Amazon Graviton3 已知信息汇总新任亚马逊云科技首席执行官 Adam Selipsky 在 re:Invent 上援引分析师的估算:目前云上支出只占整个 IT 支出的 5% 到 15%,未来将有大量的工作负载迁移到云。同时,在此前的各类云计算大会上,来自气象领域、生命科学领域的专家也曾纷纷表示,要进行科学研究,做更精准的建模,需要庞大的算力支撑。因此,在当下阶段,产业对云计算的核心需求仍然是算力。这就意味着,整个行业对云端算力的需求始终在增长,芯片始终是云计算的核心能力以及最大底牌,芯片的性能直接从根本上决定了云行业未来的发展。那么这次亚马逊云科技发布的 Amazon Graviton3,牌面有多大呢?我们先将目前所有已知参数做个汇总:Amazon Graviton3 采用 5nm 工艺,64 核,集成了 550 亿晶体管,主频 2.6 Ghz,支持 bfloat16 (为深度学习而优化的新数字格式),PCIe 5.0。与 Amazon Graviton2 相比,Amazon Graviton3 处理器支持为科学计算、机器学习和媒体编码工作负载提供高达 2 倍的浮点运算性能,为加密工作负载速度提升高达 2 倍,为机器学习工作负载提供高达 3 倍的性能。Amazon Graviton3 处理器的能效也更高,在相同性能下,与同类型基于 x86 的实例对比,可节省高达 60% 的能源消耗。由 Amazon Graviton3 处理器支持的 Amazon C7g 实例与由 Amazon Graviton2 处理器支持的当前一代 C6g 实例相比,可将计算密集型工作负载性能提高多达 25%,网络带宽也高出 20%。C7g 实例支持 Elastic Fabric Adapter (EFA),允许应用程序直接与网络接口卡通信,提供更低且更一致的延迟,提高需要大规模并行处理(如 HPC 和视频编码)的应用程序的性能。Amazon C7g 实例同时是云中第一个采用最新 DDR5 内存的实例,与基于 Amazon Graviton2 的实例相比,它提高了 50% 的内存带宽,达到 300 GB/sec,从而提高了科学计算等内存密集型应用的性能。就整体性能来看,即便其性能参数还没有全部公布,在云计算行业也属于顶流了,将 Amazon Graviton3 看做“底牌”并不过分,它有推动行业前进的实力。基于 Arm 生态,云计算行业的长远利益已经统一那么将 Amazon Graviton3 视作整个云计算行业在 2021 芯片领域的代表是否合适呢?至少在现阶段,可能是十分恰当的,数据是最好的答案。据 Garnter 统计数据显示,2020 年,亚马逊云科技以 40.8% 的市场份额大幅领先、位居全球第一,第二名的市场份额还不到亚马逊云科技的一半。今年 7 月 30 日,亚马逊云科技发布了 Q2 财报,显示其季度收入为 148 亿美元,过去十二个月收入为 527 亿美元,增速 37%,增速增长了 9%。这样的份额和增速,让亚马逊云科技在全球云计算市场形成的势能极大,其自研芯片发布的影响也是相当巨大的。我们可以通过其官方合作案例来具象化这种影响:尽管 Amazon C7g 实例还只有预览版,但 Twitter 平台主管 Nick Tornow 已经表示支持:“我们发现基于 Amazon Graviton3 处理器的 C7g 实例与基于 Amazon Graviton2 处理器的 C6g 实例相比,可将性能提高 20%-80%,同时还将尾部延迟减少多达 35%。我们非常高兴并期待利用基于 Amazon Graviton3 处理器的实例获得更好的性价比。”要知道,2020 Q2,Twitter 的日活可是高达 1.86 亿。亚马逊云科技展示的客户案例还有许多,个个是重量级:一级方程式(F1)赛车首席技术官 Pat Symonds 表示:“基于 Amazon Graviton3 的实例在性价比方面的优越表现,我们期待它成为运行所有 CFD 工作负载的最佳选择。”Epic Games 高级工程总监 Mark Imbriaco 表示:“我们的测试表明,它们(Amazon Graviton3)甚至适用于要求最严苛、延迟敏感度最高的工作负载,同时提供卓越的性价比,提升了《堡垒之夜》和任何基于虚拟引擎创造的游戏体验。”更为重要的是,尽管还不确定 Amazon Graviton3 是基于 Arm Neoverse N2 还是 V1,但性能始终是有保障的,N2、V1 分别代表了最高单芯片性能和最高单线程性能,Arm 对 N 系列的 PPA 特征定义是“性能、功率、面积得到了同等的考量”,对 V 系列的定义是“突破性能极限”,哪种都好,都是 Arm 在摘掉“只能在功耗上做文章”后的翻身仗。而 Arm 能有这场翻身仗,一个离不开苹果的 M1,另一个就主要靠亚马逊云科技的 Amazon Graviton 系列。M1 主要引导了行业对个人 PC 领域状况的关注,而 Arm 在企业服务市场的发力,甚至还在个人 PC 之前,这也是 Amazon Graviton 系列影响力的证明。就在 Amazon Graviton3 的背后,其实也反映着,Arm 在芯片级的技术创新,是云计算能力长期发展的源动力。今年的 2021 亚马逊云科技 re:Invent ,亚马逊云科技发布了 Amazon IoT TwinMaker、Amazon IoT FleetWise、Amazon Private 5G,云边端一体战略、5G 战略都已经落地,而 Arm 端云同构、低功耗、高效能和轻量化的特点,恰好适应云行业整体战略的走向。同时 Arm 架构下的芯片性价比高于 x86,Amazon C7g 实例明年在市场的全面展开,会把这一判断变成实实在在的商业逻辑。除亚马逊云科技外,国外几个主要云厂商的云服务实例现阶段是基于 x86 架构,但早前都有传闻放出,考虑基于 Arm 架构自研芯片。国内云厂商则早已拥抱 Arm,生态建设进展飞快。Arm 生态唯一的隐忧来自于英伟达的 400 亿收购,但来自英国、欧盟、美国等国家和地区监管机构的质疑,让收购处于停滞阶段。至少在未来几年,Arm 生态的繁荣是不可避免的,生态内以亚马逊云科技为代表的云厂商们,也将“底层”无忧。写在最后:功耗逐渐成为重要考量因素芯片性能能否保持高速增长,是否符合摩尔定律,这自然是芯片行业关注的焦点。但芯片功耗之于云计算产业,也是越来越重要,不能够忽视。从短期目标来看,功耗直接影响成本,成本越低利润越高,越适合大型公有云厂商集中采用。同时,不断有调研机构给出数据,未来过半的数据将集中在端侧,物联网设备对功耗的要求也会越来越严格。从长期目标来看,对碳排放的控制已成全球共识,未来对芯片功耗、数据中心能耗的要求只会收紧,不会放宽。可以说,基于 Arm 架构的 Amazon Graviton3 是符合行业的短期利益和长期利益的。2022 年年初,x86 架构下的芯片很可能推陈出新,核心数量也很可能超越 64 ,但在以上种种维度因素的综合考量下,能否对抗 Amazon Graviton3,就是未知数了。
| 3,557 | 1,639,387,853,654 |
InfoQ
|
211 |
什么才是实现元宇宙的关键路径?
|
2021 最火的新概念,莫过于元宇宙。2021 年 10 月 29 日,Facebook 宣布改名 Meta;2021 年 11 月 1 日,“元宇宙第一股” Roblox 经过短暂调整,宣布重新上线。接下来关于元宇宙的线下 / 线上讨论如火如荼,元宇宙概念的热度可见一斑。逐层拆解元宇宙清华大学新闻学院教授、博士生导师沈阳教授在一场活动中分享道,元宇宙,英文是 Metaverse,从字面来理解,由 Meta(超越) 和 Universe(宇宙) 两部分组成。而沈阳教授团队也给元宇宙下了一个相对精确的定义:元宇宙是整合多种新技术而产生的新型虚实相融的互联网应用和社会形态,它基于扩展现实技术提供沉浸式体验,基于数字孪生技术生成现实世界的镜像,基于区块链技术搭建经济体系,将虚拟世界与现实世界在经济系统、社交系统、身份系统上密切融合,并且允许每个用户进行内容生产和世界编辑。Beamable 公司创始人 Jon Radoff 则在产业层面对元宇宙的概念做了拆解:“元宇宙构造的七个层面:体验;发现;创作者经济;空间计算;去中心化;人机互动;基础设施。”体验层面相对最容易理解,目前我们常见到的游戏、社交等领域企业,都是在体验层面开展工作。著名游戏 《Second Life》 尤为经典。在这个游戏里,用户叫做"居民",可以通过可运动的虚拟化身互相交互。这套程序还在一个通常的元宇宙的基础上提供了一个高层次的社交网络服务。居民们可以四处逛逛,会碰到其他的居民,社交,参加个人或集体活动,制造和相互交易虚拟财产和服务。而典型《头号玩家》则是人们对于元宇宙在体验层面的自由畅想。发现层面是用户了解到体验层的重要途径,其中包括各种应用商店,主要参与者是大型互联网公司;创作者经济层 (Creator Economy): 帮助元宇宙创作者的成果货币化,其中包括设计工具 、 货币化技术、动画系统、图形工具等;空间计算层 (Spital Computing): 对创作者经济层的赋能,具体包括 3D 引擎、手势识别、空 间映射和人工智能等,主要参与者是 3D 软硬件厂商;去中心化层 (Decentralization): 这个层面的公司主要是帮助元宇宙生态系统构建分布式架 构,从而形成民主化结构;人机交互层 (Human Interface): 人机交互层主要是大众接触元宇宙的媒介工具,主要体现在 触觉、姿势、声音、神经等层面,其中产品包括 AR/VR、手机、电脑、汽车、智能眼镜等可穿戴设备,主要参与者是 3D 软硬件厂商 ;基础设施层 (Infrastructure):5G、半导体芯片、新型材料、云计算和电信网络等。基础设施层大概率是巨头之间的游戏,大部分是基础硬件公司。可以说,元宇宙是整个人类经济体未来需求的一个集中出口,包含了用户对新体验的渴望,资本对新出口的渴望,技术对新领域的渴望,它是科技发展到一定阶段的必然新构想。即便 2021 没有出现“元宇宙”,可能也会出现“元世界”、“元矩阵”等其他概念。元宇宙的关键支撑技术以上关于元宇宙概念和产业分层方面的定义,是最近被很多人所熟知的概念,但这仍然没有解释元宇宙的实现路径,说到底,我们最想搞清楚的是,究竟该如何实现梦想中的元宇宙。从技术维度来看,元宇宙的各部分关键支撑可以简称为:“HNCBD”,分别是硬件体验设备 (Hardware)、网络与算力 (Networking and Computing)、内容及应用生态 (Content)、区块链和 NFT(Blockchain),数字孪生(Digital Twin)。当然,这些核心技术在不同人眼里可能有细微区别,但总体相差不大。在“HNCBD”中,H 属于硬件,不在软件开发者的常规讨论范围内;C 依赖百花齐放的应用社区;而网络与算力、区块链和 NFT、数字孪生,其实都存在一个统一的承载形式,就是云计算。明眼人早已看出,如果排除因商业竞争而重复造轮子的问题,其实实现元宇宙最好的通路就是云。某种意义上讲,云不光承载的是元宇宙对于算力和基础设施的空前庞大的需求,更是各类在基础设施之上的 PaaS 、SaaS 服务。在元宇宙的发展过程中,如果每一家应用提供商、内容提供商,都要重构基础设施,包括基础的数据湖仓服务、数字孪生服务、机器学习服务,那成本将是不可想象的。而当下阶段的云计算,除了提供基础的算力支撑,最关键的就是在游戏、AI 算法及 VR 三个方向上,提供了足够成熟的技术产品,其中最具代表性的就是亚马逊云科技。回顾《头号玩家》的电影画面,演员们戴上眼镜,即进入了游戏世界,这其实是典型的云游戏场景。目前大型游戏采用服务器 + 客户端的实现模式,对客户端硬件要求比较高,尤其是 3D 图形的渲染,基本完全依赖于终端运算。随着 5G 时代的到来,游戏将会在云端 GPU 上完成大规模渲染,游戏画面压缩后通过 5G 高速网络传送给用户。在客户端,用户的游戏设备不需要任何高端处理器和显卡,只需要基本的视频解压能力。从游戏开发角度来看,游戏平台可以更加快速地部署新游戏功能,减少启动游戏所需的构建和测试工作量,满足玩家需求。2020 年 9 月,亚马逊云科技就推出了自己的云游戏平台 Luna,兼容 PC、Mac、Fire TV、iPad 和 iPhone 和 Android 系统,知名游戏和平台厂商 Epic Games 也在利用 Amazon EC2 等 亚马逊云科技 服务及时扩展容量并支持远程创建者。Amazon G4 实例就是通过 GPU 来驱动云游戏渲染,通过 NVIDIA Video Codec SDK 传输最复杂的云游戏。Amazon G4 实例所搭载的 NVIDIA T4 GPU,也是云上第一款提供了 RT 核心、支持 NVIDIA RTX 实时光线追踪的 GPU 实例。而元宇宙的体验又不仅限于云游戏,云游戏只是场景,VR 才是路径。传统 VR 应用的局限性主要体现在四个方面,其中包括:购置主机和终端硬件成本高、设备使用率低、内容分散、移动性受限。云计算和 VR 的结合,可以将 GPU 渲染功能从本地迁移到云端,从而使得终端的设计变得更加轻便与高性价比,降低了用户购买硬件设备的成本。VR 开发者可以 在云上进行快速的内容迭代发布,用户即点即玩、无需下载,解决内容不集中问题。以 Amazon Sumerian 为例,开发者可以轻松创建 3D 场景并将其嵌入到现有网页中。Amazon Sumerian 编辑器则提供了现成的场景模板和 直观的拖放工具,使内容创建者、设计师和开发人员都可以构建交互式场景。Amazon Sumerian 采用最新的 WebGL 和 WebXR 标准,可直接在 Web 浏览器中创建沉浸式体验,并可通过简单的 URL 在几秒钟内进行访 问,同时能够在适用于 AR/VR 的主要硬件平台上运行。除了云游戏和 VR,元宇宙的实现还有一个关键变量,就是 AI。AI 可以缩短数字创作时间,为元宇宙提供底层支持,主要体现在计算机视觉、智能语音语义、机器学习。三者都需要巨大的算力和存储,云计算为人工智能提供了无限的算力和存储支持。有一家叫做 GE Healthcare 的公司,就是使用 Amazon P4d 实例,将定制化 AI 模型处理时间从几天缩短为几小时,使训练模型的速度提高了两三倍,从而提供各类远程医疗、诊断服务。AI 在虚拟形象上的价值更明显,亚马逊云科技的 AI 服务在此领域有很多的应用实践包括图像 AI 生成(自动上色、场景调整、图像二次元化)、模型自动生成(动画自动生成、场景道具生成)、游戏机器人(游戏 AI NPC、文本交互、语音驱动口型动画、动作补抓、表情迁移)、偶像营销运营(聊天观察、流行搭配、反外挂)等。云计算企业在元宇宙领域的核心工作如果说,以上拆解更多还属于理论分析,那么,如果我们仔细看看头部云计算企业的近期动态,就会发现关于元宇宙的种种技术支撑正在云端成为现实。2021 亚马逊云科技 re:Invent,亚马逊云科技发布了 Amazon IoT TwinMaker 与 Amazon Private 5G。前者让开发人员可以轻松汇集来自多个来源(如设备传感器、摄像机和业务应用程序)的数据,并将这些数据结合起来创建一个知识图谱,对现实世界环境进行建模,是实现工业元宇宙的组成技术之一。后者则可自动设置和部署企业专有 5G 网络,并按需扩展容量以支持更多设备和网络流量,重点服务了以工业 4.0 为主的庞大传感器和端侧设备集群,前文提到的工业元宇宙、车联网自然也在同一序列。更不用说 Amazon SageMaker Canvas,用无代码理念构建机器学习模型,做模型预测,保证在脱离数据工程团队的情况下,依然可以提供服务,进一步降低了未来元宇宙内容生产的门槛,保证了内容的多样性。同样在 2021 亚马云科技 re:Invent 全球大会期间,元宇宙公司 Meta 宣布深化与亚马逊云科技的合作,将亚马逊云科技作为其战略云服务提供商。据介绍,Meta 使用亚马逊云科技可靠的基础设施和全面的功能,补充其现有的本地基础设施,并将使用更多亚马逊云科技的计算、存储、数据库和安全服务,获得云端更好的隐私保护、可靠性和扩展性,包括将在亚马逊云科技上运行第三方合作应用,并使用云服务支持其收购的已经在使用亚马逊云科技的企业。Meta 还将使用亚马逊云科技的计算服务来加速 Meta AI 部门人工智能项目的研发工作。另外,亚马逊云科技和 Meta 双方还将合作帮助客户提高在亚马逊云科技上运行深度学习计算框架 PyTorch 的性能,并助力开发人员加速构建、训练、部署和运行人工智能和机器学习模型的机制。亚马逊全球副总裁、亚马逊云科技大中华区执行董事张文翊认为,这是云计算可以大量赋能的一个领域。她表示:“我们认为元宇宙一定是云计算可以大量赋能的一个领域。元宇宙本身需要的就是计算、存储、机器学习等,这些都离不开云计算。”未来仍在描绘中未来元宇宙的技术栈是否会扩展,元宇宙的呈现形式是否会出现大幅变化?答案几乎是肯定的,就像在 4G 手机普及以前,我们完全无法想象 4G 生态下主要的应用类型。从建设到成熟,仅在算力层面,元宇宙也至少还有十余年时间的路程要走。但万变不离其宗,关注云计算领域关于元宇宙支撑技术的更新迭代,可能是我们抛开泡沫,观察元宇宙生态进展的重要方法。
| 7,374 | 1,639,386,498,913 |
InfoQ
|
212 |
洞察数据库变革趋势,亚马逊云科技正在凭借这项技术改变着游戏规则
|
如果要对遗留的数据库进行升级,没有比上云更好的解决方案了。合适的云平台可以提供可用性强、伸缩性好、安全性高的商业数据库,而不需要高昂的价格。但这其中也存在着一定的风险——糟糕的迁移可能会使关键型工作负载和敏感客户数据处于危险之中,没有犯错的余地。 幸运的是,亚马逊云科技提供了大量的工具来帮助组织迁移和更新云上的数据库。数据库技术和生态正在经历一场变革 互联网、移动互联网应用开发浪潮的崛起,产生了大量的NoSQL数据,面对电商、视频、社交、出行类场景时,无论是从客户并发角度,还是从要处理数据级别角度,对数据库的要求之高,这并不是一个传统的关系型数据库就能处理的,这也驱动了云原生关系型数据库的出现。 在这样的背景下,越来越多的用户希望把应用架构在开源数据库引擎上,无论是MySQL还是PostgreSQL,而不愿意再把自己的应用架构在一个有严苛license的、会被锁定的数据库引擎上。此外,现代化应用也在不断被提起,拥抱现代化应用的客户都希望自己的企业更加敏捷,希望让开发更专注于应用和数据,向着全托管式数据库迁移。 软件架构的迭代和转型也驱动着数据库选型的变化以及数据库技术和架构的迭代。过去大家做软件程序开发,从早年的PC、互联网、移动互联网,到现在的万物互联,软件架构基本上都是从Server到SOA再到微服务这样一个软件架构的迭代和转型,当然它也在驱动着数据库选型的变化。 无疑,数据库的技术和生态势必要经历一场深刻的变革。面对这种趋势,亚马逊云科技早已做好了应对之策。 亚马逊云科技大中华区产品部总经理顾凡表示,亚马逊云科技在做云上数据库产品时有五大理念:第一是专库专用,极致性能;第二是无服务器,敏捷创新;第三是全球架构,一键部署;第四是平滑迁移,加速上云;第五是AI赋能,深度集成。专库专用,极致性能在数据爆炸式增长,微服务架构与DevOps愈发流行的今天,一个数据库打天下的时代早就过去了。市场上真正需要的是为开发者在不同的应用场景下针对不同的数据类型和不同的数据访问特点,提供专门构建的工具。亚马逊云科技目前提供十多种专门构建的数据库服务,支持关系、键值、文档、内存、图、时间序列、宽列和分类账八大数据类型。 目前,亚马逊云科技专门构建数据库的产品家族主要包括:托管的关系型数据库Amazon RDS(它开启了托管数据库服务的新模式,从最初只支持MySQL,到目前支持多种常用的数据库引擎,包括MySQL、PostgreSQL、Oracle、SQL Server、MariaDB);开源的数据库Amazon Aurora;非关系型数据库Amazon DynamoDB以及图数据库Amazon Neptune等。无服务器,敏捷创新无服务器、敏捷创新。其实无服务器被提及了很久,但是我们很多人不理解为什么需要无服务器。绝大多数企业在做数据库规划时,都是按照峰值留有余地的方式计算资源,这势必会带来成本的浪费,而无服务器最大的优势就是可以让数据库的管理和运维解放。 今天,我们已经可以做到手动或者自由地去调整数据库计算资源,但是这背后如果要真的实现在生产上面根据业务需求去扩展数据库规模,背后还需要非常多的技术上的努力,才能够真正将它实现。 如果从运维的层面来解读,无服务器模式背后所代表的和云计算的概念是非常相近的。也就是说,将云厂商这么多年的对于大规模数据库运维、伸缩扩展的经验,和团队整个的技术能力最大化开放给客户,使客户受益。希望通过亚马逊云科技自己的业务去利用到Amazon DynamoDB这样一种Serverless,让客户真正受益。 Amazon DynamoDB一直使用无服务器的模式对外提供服务;Amazon Aurora Serverless V2可以在几分之一秒内将数据库工作负载从数百个事务扩展到数十万个事务,与按照峰值负载配置容量的成本相比,最多可节省 90% 的数据库成本。全球架构,一键部署 在全球化的今天,无论是手机、视频娱乐还是现在非常流行的智能汽车,我们的客户群体往往分布到全球,疫情后的恢复工作对于我们现代化的、全球化的分布式应用架构来说也提出了新的挑战。因此,支持全球业务的这些应用,包括数据库,需要保证全球业务的连续性,为全球客户提供一致的、低延迟的用户体验。 亚马逊云科技提供了具备全球数据库能力的数据库服务,包括Amazon Aurora Global Database、Amazon DynamoDB Global Tables、Amazon ElastiCache for Redis Global Datastore、Amazon DocumentDB Global Clusters。都能够利用亚马逊云科技的骨干网络提供比互联网更稳定的网络支撑,以一键部署的方式,帮助客户实现几千公里跨区域数据库灾备,故障恢复大概能在一分钟之内完成,同时跨区域的数据复制延迟通常小于一秒。平滑迁移,加速上云 目前,全球已经有超过45万的数据库通过亚马逊云科技的数据库迁移服务实现了迁移到亚马逊云科技云平台。从工具角度上,亚马逊科技希望客户能够通过Amazon DMS、Amazon Database Migration Service,进行自助式的云迁移。对于迁移过程中可能会需要的人才以及相应的规划,包括迁移之后的优化、相应的流程,亚马逊云科技会通过专业的服务团队和合作伙伴网络成员,为客户提供专家方面的支持。 服务包括Amazon Schema Conversion Tool可转换数据库架构,Amazon Database Migration Service可迁移数据,新发布的Babelfish for Amazon Aurora PostgreSQL则可帮助客户迁移SQL Server应用程序。Babelfish for PostgreSQL源代码现已在Github开源。客户还可以通过亚马逊云科技Database Freedom项目,了解如何从传统商业数据迁移至云数据库。AI赋能,深度集成构建现代化应用尤其是用数据驱动去做创新时,已经无数次的证明,使用机器学习的方式要比传统方式更好。但将数据库与机器学习相结合也会面临一些挑战。亚马逊云科技的解决方案是——Amazon Neptune。 Neptune是专门构建的针对于图的数据结构,能够存储物品、人物、各种事物之间的关系的数据库,在Amazon Neptune里面也有中国区域可用的Neptune ML的功能,允许数据工程师不需要掌握机器学习的技能,直接从图数据库里导出数据、转换格式、训练模型并发布。Amazon Neptune是数据库与AI的深度集成,数据库开发者无需具备机器学习专业知识,只需使用熟悉的数据库语言,即可进行机器学习操作。Amazon Aurora的三大优势 多年来,亚马逊云科技不断加速数据库相关服务落地,并针对不同应用场景需求推出了多种数据库服务产品,为客户提供兼具高性能、高可用性、可扩展及成本效益的专用数据库服务,支撑客户现代化应用的快速部署及创新。 既然亚马逊已经有了很多像Amazon RDS这样的服务产品了,为什么还要推出Amazon Aurora? 对于这个问题,顾凡表示: 客户的声音非常简单,要的就是MySQL、PostgreSQL这样的开源数据库引擎,但是我们去看开源版本的MySQL和PostgreSQL是达不到企业级商业数据库所达到的性能,也达不到企业级商业数据库的可用性。所以客户要的是鱼和熊掌兼得,两者都要,既要开源的数据库引擎,又要跟商业数据库一样的可用性。而Amazon Aurora的目的就是既要像使用MySQL、PostgreSQL这样的开放数据库引擎一样节省成本,同时也要能够提供商业级数据库那样的性能、持久性和可用性。 Amazon Aurora可以提供5倍于标准MySQL的性能,以及3倍于PostgreSQL的吞吐量。同时提供高可用,可以扩展到15个只读副本,同时成本只有商业数据库的1/10。 据顾凡介绍,Amazon Aurora的架构有三大优势: 第一、Amazon Aurora天生就是计算和存储分离的,它的底层数据库存储其实就是一个分布式的存储服务,我们可以认为系统有一个巨大的共享存储池在下面。 第二、Amazon Aurora的设计哲学总结起来就是Log is Database,所以数据库的计算实例和底层的存储之间得写log,这样的目的是减少计算实例和存储之间的网络带宽需求,极大提升数据库的性能。 第三、Amazon Aurora会把数据库一部分的核心功能,像故障恢复、备份还原到分布式的存储层去解决,这些任务可以在后台执行,不会影响前台用户的任务。 成本的节省在亚马逊自身得以体现,作为Oracle全球排名前几的大客户,亚马逊电商应该能够从甲骨文拿到非常好的折扣,但就算在折扣的基础上,实际上从Oracle数据库切换到亚马逊云科技的云数据库后,亚马逊电商也节省了60%的成本,同时面向消费者端的应用程序的延迟降低了40%,数据库管理支出减少了70%。
| 3,717 | 1,639,126,328,257 |
InfoQ
|
213 |
Linux 年度报告发布:2021 预计亏损300w,重点关注开源硬件
|
12月6日,Linux 社区的 2021 年度报告发布,报告中盘点了过去一年 Linux 基金会的社区发展情况、KubeCon + CloudNativeCon 举办的基本情况,社区主要推进的工作,包括云计算基础设施、金融科技开源基金会等;同样也指出了接下来将要面临的挑战,包括软件供应链安全、创建人工智能与数据基金会、创建开放硬件等。 作为开源社区建设的必选项,Linux 每年都会发布,而 2021 恰好是 Linux 诞生 30 周年(1991年8月)。据 Linux 基金会公开的数据显示,截止到今天,85%的智能手机运行在以 Linux 为基础的安卓系统上;Top 500 超级计算机全部运行在 Linux 系统上;96% 的 Top 1 million 服务器运行在 Linux 系统上;90% 的云基础设施构建在 Linux 系统上。 本文将快速盘点报告中值得注意的关键内容。Linux 基金会 2021 社区发展情况 2021 基金会共有 2300 名成员,其中 48% 位于美洲、21%位于亚太、31% 位于 EMEAR(欧洲、中东、非洲和俄罗斯)。在过去 5 年中,基金会新增 1000 多名会员,增长率 280%,会员续费率 80%。 过去 20 年间,Linux 社区已经从单纯的 Linux 内核扩展为覆盖云、容器、网络、AI 等领域开发者的超大开源社区。其中 22.7% 的内容为 云 & 容器 & 虚拟化 领域相关;网络领域内容占比 15%,位列第二;Web & APP 开发内容占比 13.6%,位列第三。占比最小的领域是“视觉特效”,仅为 0.8%。 Linux 基金会社区本身关注的方向有四大类,分别是开源硬件、开放标准、开放数据、开放硬件,占比分别为 75%、20%、3%、2%。 Linux 基金会主要有四个收入来源:会员资格和捐赠、项目支持、培训和认证以及活动注册和赞助。2021 年,预计收入为 1.77 亿美元。但同时,预计支出为 1.8 亿美元,预计亏损 300 万美元。其公布的具体收支情况如下,可以看见其会费和捐赠占总收入的 55.5%,而最大支出项目支持,占比 56.3%: CNCF 与 KubeCon & CloudNativeCon 2021,CNCF通过托管16个毕业项目、26个孵化项目和78个沙箱项目,由代表 186 个国家的 13.7 万名贡献者推动,兑现了让云原生无处不在的承诺。其中沙箱项目的年增长率为 20%。 2021 年,CNCF 技术监督委员会更加关注应用程序交付,以及创建 Kubernetes 应用程序的便利性,并支持日益成熟的存储项目。 KubeCon & CloudNativeCon 的欧洲区也创下了注册和出席人数记录 —— 共有 26,648 名开发者注册(比2020年增长了42.5%),出席率 63%,69% 是首次参加 KubeCon + CloudNativeCon,95% 的受访者将活动评为“好”、“非常好”或“优秀”,总体平均评分为 4.1 / 5。已完成和正在进行的研究报告 Linux 基金会为了保持对行业、产业的洞察,每年也会组织一些研究工作。据年度报告展示,已完成的研究包括: 第四次年度开源项目管理(OSPO)调查,与 TODO Group 和 New Stack 合作制作,调查了开源项目的流行率、结果、优势和障碍。 2021年数据和存储趋势调查,与 SODA 基金会合作,确定了云原生时代数据和存储的当前挑战、差距、趋势,领域涵盖云原生、边缘计算、人工智能和5G。 2021年金融服务开源状况报告,与FINOS、ScottLogic、Wipro 和 GitHub合作制作,探讨了金融服务领域的开源状况。该报告确定了该行业当前开源软件和标准的消费和贡献水平,以及开源领域的治理、文化问题。 第九届年度开源就业报告,与 edX 合作制作,解读开源人才状况。 其中的核心调研包括: 《软件材料清单(SBOM)准备调查》,与开源安全基金会、开放链和 SPDX 联合制作,是LF(Linux Foundation)系列项目中的第一个。研究方向是如何更好地保护软件供应链,方法是对IT 专业人员进行全球调查。前提是,这些参与调查的 IT 人员必须了解其公司在采购、合规性或安全措施等领域的核心软件方法。美国最近发布了网络安全行政命令,成为推动这项调查开展的重要因素。 《2021 多样性、公平和开源投入研究》,与亚马逊云科技、CHAOSS、康卡斯特、富士通、GitHub、GitLab、日立、华为、英立、Intel、NEC、松下、红帽、Renesa 合作制作,目的是呈现开源社区的人口统计数据和动态,并确定开源社区发展差距,促进包容性文化的发展。旨在推动关于未来规划和干预措施的数据驱动决策,以最终使开源社区的技术人受益。接下来的重点工作方向 ELISA(Enabling Linux in Safety Applications) 该项目旨在创建一组共享的工具和流程,以帮助公司构建和认证基于 linux 的 saf (交流串联电弧故障)故障。Linux 是自动驾驶汽车、医疗设备、火箭等设施、工具的核心组建,ELISA 可以使各公司更容易构建、测试和分析这些安全关键系统。ELISA 的创始会员包括 Arm, BMW Car IT GmbH, KUKA, Linutronix 和 Toyota,新成员包括英特尔/移动眼、铃木等,风河,以及雷根斯堡应用科学技术大学。 该项目刚刚完成了第五次研讨会,可能是因为疫情,最后两个研讨会必须虚拟举行。研讨会将确定如何弥补现有功能安全标准和 Linux 内核开发速度之间的差距。 与 OpenJS 基金会解决 JavaScript 的稳定性和增长问题 OpenJS 是两年前由Node.js和JS基金会合并而创建的一个全球社区,主办了38个JavaScript项目,包括Node.js。全球疫情大流行使OpenJS基金会更接近其托管的JavaScript项目的最终用户和贡献者。世界上超过97%的网站都在使用JavaScript 是网络商务、经济增长和创新的基础。 Linux 基金会希望在标准制定社区中变得更活跃,建立传统标准项目的治理和流程结构,在LFX中正在开发的项目上线和报告工具,允许项目以较低的开销快速引入新的贡献者。 其他重点工作方向还包括:与 LF AI & 大数据 基金会一起建立社区,与 Open19 一起建立开放硬件生态系统,通过 RISC-V、OpenPOWER和芯片联盟创建开放处理器体系结构,面向开放大型机项目寻找下一代cobol程序员。 详细内容参见报告:https://www.linuxfoundation.org/tools/linux-foundation-annual-report-2021/
| 2,273 | 1,639,035,355,585 |
InfoQ
|
214 |
2021 re:Invent ,我们到底该关注哪些发布?
|
2021 亚马逊云科技 re:Invent 刚刚落下帷幕,许多开发者都在讨论今年亚马逊云科技 re:Invent 的重磅发布。这并不奇怪,每年亚马逊云科技 re:Invent 都会有数十项新产品、新功能发布,其中一部分,可能代表了日后云计算及整个 IT 界基础设施的发展方向,比如曾经的 Amazon RedShift、Amazon Lambda,前者引导了业内云原生数仓的发展,后者则把无服务器带进了业内开发者的视线。但今年的亚马逊云科技 re:Invent 有些不一样,除了在产品性能上的常规迭代,更重要的是体现了云计算的服务在概念上的延伸。最为典型的,便是 Amazon IoT TwinMaker 与 Amazon IoT FleetWise。元宇宙与物联网:世界真的在云化据官方介绍,Amazon IoT TwinMaker 是一款可以让开发人员更加轻松、快捷地创建现实世界的数字孪生,如楼宇、工厂、工业设备和生产线。用户可以通过 Amazon IoT TwinMaker,使用数字孪生来构建反映现实世界的应用程序,提高运营效率并减少停机时间。数字孪生是物理系统的虚拟映射,可根据其所代表的现实世界对象的结构、状态和行为定期更新。Amazon IoT TwinMaker 让开发人员可以轻松汇集来自多个来源(如设备传感器、摄像机和业务应用程序)的数据,并将这些数据结合起来创建一个知识图谱,对现实世界环境进行建模。数字孪生技术最早是用于航空航天飞行器的健康维护与保障,属于冷门技术。但随着“元宇宙”概念的兴起,数字孪生技术越来越为人所熟知,因为数字孪生的本质特征是在信息世界对物理世界进行等价映射,因此成为元宇宙概念的重要支撑技术之一,尤其是工业元宇宙,应用更是广泛。亚马逊云科技 re:Invent 这次发布 Amazon IoT TwinMaker 可以说,既与元宇宙相关,也与工业互联网有关。从前,云计算的服务范围,聚焦在互联网产业,面向所谓的传统产业,主要提供转型服务。但现在,云计算的服务外延正在飞速扩展,通过元宇宙这座桥,已将范畴扩大至整个物理世界的虚拟化映射。与此紧密相关的是 Amazon IoT FleetWise。Amazon IoT FleetWise 使汽车制造商可以轻松地收集和管理汽车中任何格式的数据(无论品牌、车型或配置),并将数据格式标准化,方便在云上轻松进行数据分析。当数据进入云端后,汽车制造商就可以将数据应用于车辆的远程诊断程序,分析车队的健康状况,帮助汽车制造商预防潜在的召回或安全问题,或通过数据分析和机器学习来改进自动驾驶和高级辅助驾驶等技术。如果说 Amazon IoT TwinMaker 提供的是从现实世界到虚拟世界的映射服务,那么 Amazon IoT FleetWise 就是聚焦车联网领域,解决的是车联网长期以来的发展问题。车联网概念最早出现于 20 世纪 60 年代,但 60 年来,一直有点“瘸腿发展”的意思——大部分人对车联网的理解是,在车内提供网络服务,而不是将车辆数据上传分析。直到 2012 年特斯拉 Model S 出世,才把车联网作为必选功能,纳入汽车生产制造的流水线里。现在 Amazon IoT FleetWise 发布,把车联网相关服务全面引上云端。Amazon IoT FleetWise 的一个重要特征是,可以在云中构建车辆的虚拟表示,并应用通用数据格式来构建和标记车辆属性、传感器和信号。Amazon IoT FleetWise 使用车辆信号规范 (VSS) 对车辆建模进行标准化,以便“燃料压力”等信号始终表示为燃料压力,并以每平方英寸磅力 (PSI) 和千帕 (kPa) 为单位进行测量。车辆建模后,上传标准 CAN 数据库 (DBC) 或 AUTOSAR XML (ARXML) 文件,以便 Amazon IoT FleetWise 可以读取通过车辆控制器局域网总线 (CAN 总线) 发送的独特的专有数据信号。看懂了吧,其实 Amazon IoT TwinMaker 和 Amazon IoT FleetWise 的底层理念如出一辙,都是在云端构建虚拟映射,不过一个是针对工业领域,一个是针对汽车行业。可以说,这个世界正在虚拟化,同时也正在云化。Amazon SageMaker Canvas:无代码创建 ML 模型如果说 Amazon IoT TwinMaker 和 Amazon IoT FleetWise 体现了云服务在横向上的概念延伸,那么 Amazon SageMaker Canvas 则是在纵向上的概念延伸。大家都知道 Amazon SageMaker ,作为一个已发布四年的全托管机器学习服务。Amazon SageMaker 为开发者提供了一套完备的“中央厨房”,使用 Amazon SageMaker 开发者只需准备好“食材”(数据)就可以直接开始做菜(训练模型),大大提升了开发人员和数据科学家构建、训练和部署机器学习模型的效率,开启了全新的智能时代。但 AI 领域长期受到人才短缺问题的限制,而 AI 的应用领域正在增多,机器学习服务的门槛需要进一步降低。亚马逊云科技此次发布 Amazon SageMaker Canvas 的目的即在于此 —— 用无代码理念构建机器学习模型,做模型预测,保证在脱离数据工程团队的情况下,依然可以提供服务。它利用与 Amazon SageMaker 相同的技术自动清理和组合您的数据,在幕后创建数百个模型,选择性能最佳的模型,并生成新的单个或批量预测。支持二元分类、多类分类、数值回归、时间序列预测等多种问题类型。此前业内还有许多关于低代码、无代码的争议,但现在看来,这不是概念之争,而是产业内有确实的需要。Amazon SageMaker Canvas 的发布即是验证了这一情况。站在整个 AI 的宏观层面而言,无论是基于 AI 提供的预测服务还是分析服务,也脱离了单纯对更高级别人工智能的追求,而兼顾 AI 能力对产业的赋能。这是云计算对服务理念的进一步扩大和贯彻。Amazon Private 5G:用专有 5G 链接 IoT 设备而在这种情况下, Amazon Private 5G 的发布,自然也被许多人所关注,因为它是支撑服务外扩的重要和必要尝试。可以说,Amazon Private 5G 是本次 re:Invent 最重要的发布之一。在移动端,我们早就用上了 5G 通信服务,但企业需要的是专有 5G 服务网络。Amazon Private 5G 可自动设置和部署网络,并按需扩展容量以支持更多设备和网络流量。亚马逊云科技 EC2 副总裁 David Brown 说:“借助亚马逊云科技私有 5G,我们将混合基础设施扩展到客户的 5G 网络,以简化、快速且廉价地建立私有 5G 网络。客户可以从小规模开始,按需扩展,按需付费,并从亚马逊云科技控制台监控和管理他们的网络。”而 Amazon Private 5G 也重点服务了以工业 4.0 为主的庞大传感器和端侧设备集群,前文提到的工业元宇宙、车联网自然也在同一序列。全球最大的非上市公司——美国科氏公司工业集团(Koch)已经和亚马逊云科技就 Amazon Private 5G 达成了合作,而科氏企业集团的核心是石油与化工,也是亚马逊云科技比较有代表性的服务案例。Amazon Graviton3:底层算力又升级了当然,不管是 Amazon IoT TwinMaker 等 IoT 服务,还是 Amazon Private 5G,依靠的还是底层实例中的芯片性能。在今年的云栖大会上,阿里巴巴旗下半导体公司平头哥发布自研云芯片倚天 710 并宣布其性能超过 Amazon Graviton2 20%。从2019年 Amazon Graviton,2020年 Amazon Graviton2 到今天的 Amazon Graviton3,亚马逊云科技从芯片开始不断改进计算服务。与 Amazon Graviton2 相比,Amazon Graviton3 集成了550亿个晶体管,单核性能提升超过25%,浮点和加密性能将提高两倍。在机器学习方面,Amazon Graviton3 包括对 bfloat 16数据的支持,将能够提供高达3倍的性能。在性能飞跃的同时,Amazon Graviton3 能耗对比上一代产品下降了60%。新一代Amazon EC2 C7g 实例由 Amazon Graviton3 处理器支持,也是全球首个支持DDR5内容的云上计算实例。与由Amazon Graviton2 处理器支持的当前一代 Amazon C6g 实例相比,性能提高 25%。当然,Amazon Graviton3 属于通用芯片,专用芯片也更新了。亚马逊云科技公布,由亚马逊第二款机器学习芯片 Amazon Trainium 支持的新 Amazon Trn1 实例,将为在云中为自然语言处理 (NLP)、计算机视觉、搜索、推荐、排名等用例训练深度学习模型提供最佳的性价比,与 P4d 实例相比,通过 Amazon Trn1 实例训练深度学习模型的成本降低达到 40%。Amazon Nitro System 芯片也发布了新品。Amazon Nitro 可以说是个超级黑科技,准确来讲它是一个套架构,可以将服务器提供给用户的资源最大化,减少虚拟化损耗。所谓“虚拟化损耗”,就是以往为了维护服务其正常运行,在网络、存储、管理等系统功能方面做出的必然开销,这种开销要占到服务器总体性能的三成。Nitro 架构就是通过定制硬件,关注这三成的性能问题。而这次发布的 Amazon Nitro System 芯片,主要是支持 Amazon EC2 Instance 底层管理平台,可以替 CPU 分担工作负载。通用芯片、推理专用芯片、 Amazon EC2 支持芯片,这次发布的是整整齐齐。Amazon Nitro SSDs 的 Im4gn/Is4gen/ I4i 实例提供 30 TB 的 NVMe 存储,与上一代 I3 实例相比,I/O 延迟降低了 60%,延迟可变性降低了 75%。Data Serverless :无服务器应用迅速推广当然,除了在网和端层面的服务能力扩展,此次在 Serverless 层面的更新也值得注意。业内都知道 Amazon Lambda 开启了 Serverless 的时代,但真正获得业内的广泛赞同和跟随,还是在 2019 年。这次 亚马逊云科技 re:Invent ,亚马逊云科技一口气发布了四个核心产品的 Serverless 版本:Amazon Redshift Serverless、Amazon EMR Serverless、Amazon MSK Serverless 和Amazon Kinesis data streams on-demand。Amazon Redshift 我们已经提过,是最早的云原生数仓;Amazon EMR 则是亚马逊云科技提供的 Hadoop 托管服务;Amazon MSK 是 Kafka 托管服务;而 Amazon Kinesis data streams on-demand 则是流式数据处理平台。而这些服务的 Serverless 版本则是让使用者单击几下即可运行使用这些框架构建的应用程序,而无需配置、优化或保护集群。云端大数据架构,因为亚马逊云科技这些 Serverless 版本服务的更新,其门槛正在飞速降低。以往像智能湖仓这种架构的搭建,让架构师、工程师很头疼,而现如今,工程师的工作正在变成单纯的调参 —— Serverless 对产业生态的改变几乎是永久性的。写在最后从 2021 亚马逊云科技 re:Invent 及今年各云计算大会的发布情况看,云计算领域的产品更迭,一是注重底层基础算力的升级,这属于硬核实力的比拼;二则是注重服务外沿的扩展,如何理解云、网、端三个角色,并提供尽量通用的公有云服务,成为关键。元宇宙则是当下新兴起的概念,为整体的技术发展方向提供了新的想法和方向,值得我们特别思考。
| 3,282 | 1,639,034,570,022 |
InfoQ
|
215 |
借助Amazon S3实现异步操作状态轮询的Serverless解决方法
|
异步API会有很多的优势,比如解耦、可扩展和弹性等。但是,正如俗话所言,“世上没有免费的午餐”,我们需要考虑在客户端和服务器端所增加的复杂性。要获取异步操作的状态往往需要客户端定期轮询结果。这种操作会导致客户端和服务器端的资源浪费。本文提供了一种将轮询部分重定向到Amazon Simple Storage Service(S3)的方案。S3是一个由公有云提供商亚马逊云科技(Amazon Web Services)管理的高可用、可扩展和安全的对象存储服务。我们将会展现一个使用AWS Lambda函数的serverless实现,但是如果你想使用S3的话,并不是强制要使用AWS Lambda函数。举例来说,你还可以使用Docker容器。Serverless异步API在亚马逊云科技平台上,异步API的典型的serverless实现会涉及到Amazon API Gateway、一些lambda函数、一个SQS队列以及我们本例中所用到的NoSQL键-值数据库:DynamoDB。在下图中,我们可以看到整体的架构:为了简单起见,我们的API只有一个资源,通过POST到“/order”可以创建一个新的订单,通过GET到“/order/{id}”可以检索订单。我们假设创建订单会消耗一定的时间,所以请求是异步的。客户端调用该端点并得到一个订单的id。借助这个id,它们必须要轮询GET端点来检查该订单何时创建完成。当然,如果客户端有一个可以被调用的回调端点或者它们能够在订单创建完成之后,接收到通知的话,那就没有必要使用轮询了。尽管每隔一秒钟或差不多的时间去调用一个端点是很容易的,但这是一个无效的过程,会浪费客户端和服务器端的资源。除此之外,有些客户端无法实现webhook端点,无法消费通知,或者没有足够的时间来实现这些机制。消除服务器端资源浪费的一种方式就是将轮询委托给亚马逊云科技提供的托管服务。我们可以使用Amazon Simple Storage Service(S3)来实现这一点。使用Amazon S3实现轮询Amazon S3是亚马逊云科技云供应商最早提供的服务之一。它是一个对象存储服务,提供了高可扩展性、高可用性和高性能。它的结构在某种程度上模拟了一个文件系统,其中会使用桶来盛放对象,所谓的对象也就是文件以及描述该文件的元数据。我们可以使用S3将异步操作的状态存储为一个JSON文件,API的客户端会调用该服务,而不是轮询我们的API。通过这种方式,客户端检查状态更新的所有流量会被重定向到S3 API上,而不是我们自己的API上。为了避免向我们的API客户端传播证书或其他的认证机制,我们将会使用S3的预签名URL(presigned URL)特性。默认情况下,所有的桶和文件都是私有的。但是,在限定的时间内,我们可以使用预签名URL共享一些文件(不需要暴露安全凭证和权限)。收到POST请求的lambda函数会生成包含操作状态的预签名URL,并将其返回给客户端。这个S3的文件名也会作为一个属性添加到要发送至SQS的消息中,这样的话,负责进行处理的部分在需要更新状态的时候就可以引用它的值。AWS SDK提供了生成这些预签名URL的功能。在下面Python代码的样例中,我们会得到一个访问对象的GET URL,对象的key是OBJECT_KEY且位于BUCKET_NAME S3桶中,该URL会在十分钟内过期:import boto3
url = boto3.client('s3').generate_presigned_url(
ClientMethod='get_object',
Params={'Bucket': 'BUCKET_NAME', 'Key': 'OBJECT_KEY'},
ExpiresIn=600)
使用其他编程语言的样例,请参考文档。注意,这个功能也可以在Docker容器和自托管的应用中使用。如果你无法使用某种AWS SDK(Java、.NET、Ruby、PHP、Node.js、Python或Go)的话,还可以采用AWS S3 REST API或AWS Command Line Interface。并不是必须要使用serverless lambda函数。在返回预签名URL以便于进行轮询的lambda函数中,我们还可以在响应中包含一个预估的时间,即客户端在什么时候可以开始询问操作的状态。这个时间预估可以基于SQS队列中消息的大致数量、in-flight状态的消息的大致数量(业已发送到客户端但尚未删除,或尚未达到消息的可见性过期时间),以及处理一个请求的平均时间。下面我们可以看到一个Python的例子,说明如何从SQS队列中获得这些数字:import boto3
response = boto3.client(‘sqs’).get_queue_attributes(
QueueUrl='QUEUE_URL',
AttributeNames=['ApproximateNumberOfMessages'|'ApproximateNumberOfMessagesNotVisible'])
当使用S3来存储异步操作的状态时,较新的状态会被更频繁地查询,而旧的状态在一段时间后可能就完全不会再被读取了。因此,根据使用情况,你可以利用S3提供的不同存储类别。在写这篇文章的时候,AWS提供的不同类别和成本如下所示(仅限于Ireland区域):资料来源对象存储的管理是通过S3生命周期规则实现的。例如,我们可以声明一个规则,让文件在S3 Standard中存在十天,然后转移到S3 Standard-IA,30天后将其删除或者转移至S3 Glacier Deep Archive中。生命周期可以通过Amazon S3控制台、REST API、AWS SDK和AWS CLI进行配置。关于这方面的更多信息,请参阅文档。安全方面的考虑因素虽然在默认情况下,S3中所有的文件和桶都是私有的,但是创建预签名URL会允许在限定的时间范围内访问这些文件。获取了预签名URL的所有人都能读取状态文件。因此,与API的通信应该只允许通过HTTPS来实现,状态文件中不要存储任何的敏感数据,并且这些文件的时间限制要设置地越短越好,当然,不能短于实际操作所要占用的时间。另外一个额外的安全防护可以在S3侧执行,也就是只允许特定IP范围进行访问。这可以通过在桶上添加策略来实现,在文档页面我们可以看到相关的例子。如果预签名URL的机制对你的使用场景来说不够安全的话,那么在这种情况下,你可以使用AWS Security Token Service(AWS STS)创建临时的安全凭证,并将其提供给你的客户端,这种临时安全凭证可以控制对S3操作状态文件的访问。对于联合身份验证(identity federation),AWS STS支持企业级联合身份验证(自定义身份代理或SAML 2.0)和Web联合身份验证(使用Google、Facebook、Amazon或任意兼容OpenID Connect的身份识别供应商)。关于这方面的更多信息,请查阅他们的文档。收益分析将轮询功能委托给S3能够让主服务只处理实际的业务逻辑请求,而不用持续地检查更新。这样的话,我们的serverless样例就会产生更少的函数调用,而且对DynamoDB的读取容量单元消耗也会更少。尽管AWS Lambda函数的扩展速度非常快,并且可以处理大量的并发请求,但是你依然需要考虑并发的限制。根据区域的不同,初始的流量暴增限制是500到3000,这一限制适用于账户中的所有函数。我们让轮询不去消耗并发量,这样就会为其他的函数留下更多的容量。关于lambda函数限制的完整列表,请查阅AWS的文档。其他浪费的资源是DynamoDB的读取请求单元。每个读取单元代表了一次强一致性的读取请求,或者两个最终一致的读取请求,因为每个条目最多只能有4KB。另外,如果你的表配置成了provisioned模式的话,这意味着你会声明读取容量单元的数量,这样的话,有些请求可能会被限流。DynamoDB还有一种On-Demand模式,在这种模式下,容量会随着流量进行调整。令人遗憾的是,轮询只会产生带来副作用的业务流量。成本的收益会在请求达到100万的时候开始显现。对于几十万级别的请求来讲,差异并不大。我们下面会看到一个成本计算的样例。我们以10万个请求为例,并假设每个请求平均会有10个轮询请求,因此共有100万个轮询请求。如下的计算是使用AWS Pricing Calculator针对Ireland AWS区域进行的计算。API Gateway REST API的成本计算很简单:1,000,000个请求 x 0.0000035000美元 = 3.50美元对于lambda函数,我们假设平均执行时间是500毫秒,并分配256MB的内存:1,000,000请求 x 500毫秒 x 0.001(毫秒到秒的转换系数)= 500,000.00的计算总量(秒)0.25 GB x 500,000.00秒 = 125,000.00的计算总量(GB-s)125,000.00 GB-s x 0.0000166667美元 = 2.08美元(每月计算费用)1,000,000请求 x 0.0000002美元 = 0.20美元(每月计算费用)lambda的总成本:2.08美元 + 0.20美元 = 2.28美元对于DynamoDB,我们估算的平均条目大小是10KB,我们将会使用最终一致的读取。平均条目大小为10 KB / 4 KB = 每个条目需要2.50个读取请求四舍五入(2.500000000) = 每个条目需要3个读取请求1,000,000个读取 x 1个最终一致的分区 x 0.5个最终一致的读数请求单元 x 每个条目所需的读取请求单元数为3 = 1,500,000.00为实现最终一致性读取所需的读取请求单元从Dynamo进行读取的总成本:总的读取请求单元1,500,000.00 x 0.000000283美元=0.42美元的读取请求成本轮询请求的总成本将会是:3.50(API Gateway) + 2.28(Lambda) + 0.42(从DynamoDB的读取) = 6.2美元这个成本略微有些高估了,因为lambda函数的响应时间可能会少于500毫秒,为它们提供128MB的内存可能就足够了。对于S3,我们预估使用每月1GB(100,000 x 10 KB)的Standard存储:1 GB x 0.0230000000美元 = 0.02美元100,000个对S3存储的PUT请求 x 每个请求0.000005美元 = 0.50美元每月1,000,000个GET请求 x 每个请求0.0000004美元 = 0.40美元0.023美元 + 0.40美元 + 0.50美元 = 0.92美元(总的S3 Standard存储,数据请求和S3查找的成本)S3数据传输,outbound的互联网流量,1 GB的tiered价格:1 GB x 每GB的0美元 = 0.00美元0 GB x 每GB的0.09美元 = 0.00美元S3总成本:0.92美元 + 0.00美元 = 0.92美元请注意,为了尽可能让对比更接近实际情况,这些计算只包含了实际请求相关的成本。因此,所有其他的额外成本没有包含进去,比如DynamoDB的存储成本。成本差异不是很大。但是,我们将它列在了这里,这样你可以大致了解如何进行计算。缺点将轮询转移到S3有这么多的好处,但它也给整个解决方案增加了额外的复杂性。我们需要涉及另一个服务,即S3,并为每个操作创建一个预签名的URL。如果状态文件包含任何敏感信息的话,这个解决方案可能会增加更高的风险,因为任何得到预签名URL的人都可以访问这些信息。如果有来自许多客户端的大量调用,并且他们会在很短的间隔内进行轮询时,本文所提到的大部分的收益将会兑现。在只有少量调用的情况下,主API也可以处理轮询流量,而不需要使用S3。总结这篇文章展示了如何使用AWS S3来处理来自异步API的轮询流量。如果你无法实现通知策略,并且客户端需要轮询来获取操作结果的话,那么S3可以是一个很好的候选方案,它能够将轮询的调用从主API中迁移出来。我们需要为每个操作生成一个S3预签名的URL,并将其返回给客户端,以便于客户端调用它,这样的话,计算资源就能处理应用程序的主业务逻辑,而不必通过API调用检查操作的状态。文章中的例子展现了一个Serverless的API。但是,这种机制也可以用于其他类型的应用中,比如托管在Docker容器、虚拟机中的应用,甚至自托管的应用。对于短时间内大量调用的场景,其好处会显现出来。如果只是几个客户端不时地进行调用,那么在解决方案中再增加一个系统可能并不是高效的办法。作者简介:Cristian Gherghinescu自2006年以来一直在软件开发领域工作。他目前在挪威的Visma公司担任软件架构师。Cristian从C#和Java EE开始其职业生涯,现在专注于将当前的解决方案迁移到亚马逊云科技平台上。最近,他开始热衷于Serverless的解决方案。原文链接:Serverless Solution to Offload Polling for Asynchronous Operation Status Using Amazon S3
| 3,670 | 1,638,948,920,169 |
InfoQ
|
216 |
微软在Edge不断作死:疑似阻止用户下载谷歌;Linux 之父怒喷桌面版 Linux;滴滴出行美股退市靴子落地...传阿里员工福利再升级,或全面试行灵活办公...
|
本期架构视点:又被罚150万,豆瓣暂停小组回复功能;暴风冯鑫被罚终身禁市;传阿里员工福利再升级,或全面试行灵活办公及新增育儿假;微软在Edge不断作死:疑似阻止用户下载Chrome浏览器;数字支付巨头 Square 宣布更名为 Block,将专注区块链发展。 万万没想到 滴滴出行美股退市靴子落地 12月3日上午,滴滴出行官方微博发布公告:经认真研究,公司即日起启动在纽交所退市的工作,并启动在香港上市的准备工作。目前尚未公布退市回购价格。 今年6月30日,滴滴正式在纽交所上市,发行价14美元,以16.65美元高开,市值近800亿美元。今年7月,网信办网络安全审查办公室对滴滴出行启动网络安全调查。8月份,滴滴出行又被交通部门约谈,要求整改问题,若整改不到位将被暂停网约车服务,并再次下架App处理。 如今,滴滴最新股价7.8美元,相比最高点(17.87美元)已经跌去56%。 又被罚150万,豆瓣暂停小组回复功能 豆瓣官方 12 月 2 日午间发布公告称,根据有关部门的整改要求,豆瓣从2021年12月2日0时-2021年12月17日0时期间,暂停“小组”回复功能的使用,并暂停小组“精选”频道的内容更新。豆瓣将严格按照管理要求,切实履行网站主体责任,依法依规加强网上信息管理,积极维护良好的网络秩序。 据悉,2021年1月至11月,国家互联网信息办公室指导北京市互联网信息办公室,对豆瓣网实施20次处置处罚,多次予以顶格50万元罚款,共累计罚款900万元。 暴风冯鑫被罚终身禁市 12月3日 消息,据证监会于今年9月发布的市场禁入决定书显示,时任暴风集团董事长兼总经理冯鑫被采取终身市场禁入措施。 具体违规事项包括了:未按规定披露商誉减值测试假设,未计提商誉减值准备,虚增利润及资产、未披露《回购协议》及进展情况等。 证监会表示,暴风集团信息披露违法行为所涉金额特别巨大,冯鑫作为直接负责的主管人员,违法行为情节严重。当事人如果对本市场禁入决定不服,可在收到本市场禁入决定书之日起60日内向中国证券监督管理委员会申请行政复议,也可在收到本市场禁入决定书之日起6个月内直接向有管辖权的人民法院提起行政诉讼。 传阿里员工福利再升级,或全面试行灵活办公及新增育儿假 12月3日消息, 阿里巴巴有望成为国内首个全面试行灵活办公的互联网企业。 近日,有认证为阿里员工的ID在相关职场社区发言称:“员工福利将迎新升级,除响应国家号召推出延长产假及新增育儿假外,阿里还考虑进一步提升办公灵活性,如允许员工可在家或就近办公,但灵活办公天数目前尚未确定。 该发言帖得到另一认证为阿里员工的用户跟帖呼应。此外,有阿里相关人士表示:“感谢关注,若有进一步信息将及时同步。” 苹果公布 2021 年 App Store 最佳应用、最佳游戏,TikTok 登上榜首 苹果公布2021年美国下载最多的免费及付费App和游戏。下载最多的免费iPhone App是TikTok、然后是YouTube、Instagram、Snapchat、Facebook。下载最多的付费App有Procreate Pocket、HotSchedules、Wonder Weeks和TouchRetouch。 一些付费iPad App相当受欢迎,比如Netflix、迪士尼+、Zoom、GoodNotes 5、Notability、Duet Display和Procreate。 再看游戏,最流行的有Among Us!、Roblox、Project Makeover、Minecraft和Heads Up。今年苹果还公布了最受欢迎的Apple Arcade游戏,有Oregon Trail、NBA 2K21、Sneaky Sasquatch。 微软在Edge不断作死:疑似阻止用户下载Chrome浏览器 据 Windows Latest 报道,微软为了让人们在 Windows 11 上使用基于 Chromium 的 Edge 浏览器,最新的无奈之举会惹恼一些用户。 当 Windows 11 用户在 Edge 浏览器上尝试安装 Chrome 的时候,微软就会弹出一条警告www.neowin.net,试图阻止用户下载:“微软 Edge 运行在与 Chrome 相同的技术上,并额外提供来自微软的信任”。在消息中还包括一个名为“现在安全使用浏览器”的按钮,它将用户重定向到一个网页,强调 Edge 的性能、安全和其他优于其他浏览器的优点。甚至有时候微软还会嘲讽说,“这个浏览器还在 2008 年!你知道什么是新浏览器吗?微软的 Edge。” IT科技新闻 Linus 吐槽桌面版 Linux 发行版:乱改核心,造成应用程序不兼容 11 月 30 日消息,Linux 之父 Linus Torvalds 近日在 DebConf 14 会议上谈到了关于桌面版 Linux 的问题,他作为一个“喷子”的激情又按耐不住了。 在演讲中,Linus 直指各大桌面 Linux 发行版是造成 Linux 系统分裂的一个关键原因,不同发行版的 Linux 随意修改 glibc 库,改变底层 API,这导致了不同 Linux 系统各自为战,开发者为某个 Linux 发行版开发的应用无法通用于其他系统。Linus Torvalds 表示,他一直要求各个 Linux 发行版尽量不要改动核心,不要破坏用户空间,但是几乎没有人听从他的要求。因此也造成了不同的 Linux 发行版要使用不同的包,比如 rpm、deb 等。 数字支付巨头 Square 宣布更名为 Block,将专注区块链发展 据海外的媒体报道,数字支付公司Square公司日前正式宣布将公司的名称更名为,希望更深入地拥抱去中心化和区块链技术,帮助增加进入经济的途径,还称将与去中心化比特币(BTC)交易项目以及音乐和视频流媒体平台Tidal合作。 据了解,该公司 的CEO在今年的11月份就已经辞去推特(TWTR)的 CEO 职务,Square这个名字已经成为该公司卖家业务的代名词,但是在纽约证券交易所的股票代码“SQ”不会改变。 另外,Square表示法定名称的更改将于12月10日左右生效,还补充道组织结构不会发生变化,就像Facebook将重心从社交媒体转移到Meta一样,公司旗下不同的业务部门将继续保持各自的品牌。 JetBrains 官宣:“下一代 IDE”轻量编辑器 Fleet正式发布 11 月 29 日,JetBrains 首席布道师 Hadi Hariri 在官方博客发文,正式宣布 Fleet 编辑器的到来。 Fleet是一个功能齐全的编辑器启动,具有语法高亮显示、简单的代码补全等功能。Fleet是适用于多语言的,Fleet又是一个分布式架构。Fleet的构建联接了协作的思想,其中所有智能技术都使用IntelliJ代码处理引擎作为后端。 更新详情查看链接:https://blog.jetbrains.com/zh-hans/blog/2021/11/29/fleet/ 亚马云科技 re:Invent 大会:未来云产业前景巨大 11 月 29 日, 2021 亚马逊云科技 re:Invent 全球大会盛大开幕,在 re:Invent 十周年之际,亚马逊科技发布了涵盖计算、物联网、5G、无服务器数据分析、大机迁移、机器学习等方向的多项新服务和功能,包括发布基于新一代自研芯片 Amazon Graviton3 的计算实例、帮助大机客户向云迁移的 Amazon Mainframe Modernization、帮助企业构建移动专网的 Amazon Private 5G、四个亚马逊云科技分析服务套件的无服务器和按需选项以及为垂直行业构建的云服务和解决方案,如构建数字孪生的服务 Amazon IoT TwinMaker 和帮助汽车厂商构建车联网平台的 Amazon IoT FleetWise。 新任亚马逊云科技 CEO Adam 表示,云计算还处在非常早的时期。他援引分析师的估计,目前云上支出只占整个IT支出的 5% 到 15%。未来将有大量的工作负载迁移到云,大量的创新即将在云上开展,云产业前景巨大。 Julia 1.7 发布,成为首个支持苹果芯片的版本 11 月 30 日,Julia 官方博客宣布经过 4 个测试版和 3 个候选版本,Julia 1.7 版正式发布。新版本带来了很多值得开发者期待的功能更新,如带来了新的 RNG、完善了线程功能、更新了包管理器,以及还新增了语法,使得开发者能够为多维数组编写文字。 与此同时,Julia v1.7 也是第一个在 Apple Silicon 上运行的版本,例如 M1 系列的 ARM CPU。 更多更新详情见:https://julialang.org/blog/2021/11/julia-1.7-highlights/ 微软全新 Office UI 面向全体用户进行推送 本周,微软宣布,Office 全新 UI 已向所有用户推出,全新的 UI 设计,支持自适应亮/暗主题等。 新UI主要是为了适配Windows 11,主要变化在于Ribbon菜单采用圆角边框,支持自定义选项,还有对Word、Excel、PowerPoint、Outlook等套件按钮的调整、刷新等,包括更简约以及适配明暗主题色等。 同时,如果没有自定义快速工具栏的话,那么默认会隐藏,不适应的用户可通过如下方式开启。比较人性化的是,打开Office套件如Word、Excel等后,可在右上角看到类似扩音器的图标,点击后可在新旧两套UI界面之间切换。
| 5,550 | 1,638,755,994,890 |
InfoQ
|
217 |
亚马逊re:Invent10周年官宣重大发布,推出自研芯片Graviton3、5G、IOT、数字孪生等多项服务
|
11月29日,一年一度的亚马逊云科技re:Invent全球大会开幕,今年也是re:Invent十周年。 re:Invent 2021大会首日,亚马逊云科技发布了涵盖计算、物联网、5G、无服务器数据分析、大机迁移、机器学习等方向的多项新服务和功能: 包括发布基于新一代自研芯片Amazon Graviton3的计算实例、帮助大机客户向云迁移的Amazon Mainframe Modernization、帮助企业构建移动专网的Amazon Private 5G、四个亚马逊云科技分析服务套件的无服务器和按需选项以及为垂直行业构建的云服务和解决方案,如构建数字孪生的服务Amazon IoT TwinMaker和帮助汽车厂商构建车联网平台的Amazon IoT FleetWise等。 新任亚马逊云科技首席执行官Adam Selipsky首次亮相re:Invent全球大会。 演讲中, Adam Selipsky首先回顾了亚马逊云科技发展过程中的重要里程碑。 2006年,Amazon Simple Storage Service (Amazon S3) 简单存储问世。时至今日,Amazon S3已成为业界公认的最重要的数据存储标准之一,存储超过100万亿个对象文件。 Amazon S3推出几个月后,Amazon Elastic Cloud Compute (Amazon EC2)弹性计算问世,随即推出第一款数据库服务,从此云具备了有能力承载应用程序的所有基础元素。 如今,亚马逊云科技拥有475+不同实例类型,通用型、计算优化型、内存优化型、存储优化型、硬件加速型......几乎适用所有工作负载。每天有超过6000万个新Amazon EC2实例启动。 亚马逊云科技现提供超过200项全功能的服务,涵盖计算、存储、数据库、数据分析、机器学习与人工智能.... Adam表示,过去十五年,云计算从被质疑到成为新一代 IT 标准,并发展成影响整个 ICT 产业的创新和革命。 不过在Adam看来,云计算还处在非常早的时期。他援引分析师的估计,目前云上支出只占整个IT支出的5%到15%。未来将有大量的工作负载迁移到云,大量的创新即将在云上开展,云产业前景巨大。 在亚马逊云科技看来,尽管云计算已经极大地提高了IT的效率、敏捷性、弹性,但依然可以探索新的方式,让云变得更加灵活、成本更优、延迟更低。 发布三款由自研芯片支持的新Amazon EC2实例 Adam Selipsky 表示,“尽管我们已经如此努力地创新,我们依然意识到,如果希望针对所有可能的工作负载彻底变革计算的性价比,我们需要彻底重新思考实例。为了实现这个目的,我们需要深入底层技术,一直到芯片。因此,我们开始自己设计基于Arm的芯片。” 在re:Invent大会现场,亚马逊云科技宣布推出三款由自研芯片支持的新Amazon Elastic Compute Cloud (Amazon EC2)实例,帮助客户提升在Amazon EC2上运行的工作负载的性能、成本和能源效率。 新C7g 实例由Amazon Graviton3 处理器支持,与由 Amazon Graviton2 处理器支持的当前一代 C6g 实例相比,可将计算密集型工作负载性能提高多达25%。 Amazon Graviton3处理器与Graviton2相比,为科学计算、机器学习和媒体编码工作负载提供高达2倍的浮点运算性能,为加密工作负载速度提升高达2倍,为机器学习工作负载提供高达3倍的性能。 Amazon Graviton3处理器的能效也更高,在相同性能下,与同类型EC2实例对比,可节省高达60%的能源消耗。C7g实例是云中第一个采用最新DDR5内存的实例,与基于Amazon Graviton2的实例相比,它提高了50%的内存带宽,从而提高了科学计算等内存密集型应用的性能。 与基于Amazon Graviton2的实例相比,C7g实例的网络带宽也高出20%。C7g 实例支持 Elastic Fabric Adapter (EFA),允许应用程序直接与网络接口卡通信,提供更低且更一致的延迟,提高需要大规模并行处理(如 HPC 和视频编码)的应用程序的性能。 C7g实例现已提供预览版。欲了解更多C7g实例的信息,请访问:aws.amazon.com/ec2/instance-types/c7g。 由Amazon Trainium芯片支持的新Trn1实例为在Amazon EC2中训练绝大多数机器学习模型提供最佳性价比,及最快的训练速度。 越来越多客户正在构建、训练和部署机器学习模型。为了确保提高准确性,这些机器学习模型必须构建在越来越多的训练数据上,导致其训练成本越来越高。这可能会限制客户能够部署的机器学习模型数量。 亚马逊云科技为机器学习提供了更多计算服务选择,包括采用NVIDIA A100 Tensor Core GPU的EC2 P4d实例和采用Habana Labs Gaudi 加速器的 EC2 DL1 实例。 但即使拥有当今最快的加速实例,训练持续变大的机器学习模型仍然是非常昂贵和耗时的。 Trn1实例为在Amazon EC2中进行深度学习模型训练提供最佳性价比以及最快的训练速度,与P4d实例相比,通过Trn1实例训练深度学习模型的成本降低多达40%。 Trn1实例提供800Gbps EFA网络带宽(比最新基于GPU的EC2实例高两倍),并与Amazon FSx for Lustre高性能存储集成,让客户可以启动具有EC2 UltraClusters功能的Trn1实例。 通过EC2 UltraClusters,开发人员可以将机器学习训练扩展到一万多个与 PB 级网络互连的 Trainium 加速器,让客户按需访问超算级性能,即便是最大型和最复杂的模型,训练时间也可以从几个月缩短到几天。 Trn1实例现已提供预览版。欲了解更多Trn1实例的信息,请访问aws.amazon.com/ec2/instance-types/trn1。 基于自研Amazon Nitro SSDs(固态驱动器)的新存储优化型Im4gn/Is4gen/ I4i实例为在Amazon EC2上运行的I/O密集型工作负载提供最佳存储性能。 Im4gn/Is4gen/I4i实例旨在通过架构最大限度提高I/O密集型工作负载的存储性能。通过自研的 Amazon Nitro SSDs ,Im4gn/Is4gen/I4i实例提供高达 30 TB 的 NVMe 存储,与上一代I3实例相比,I/O 延迟降低了 60%,延迟可变性降低了 75%,从而最大限度地提高了应用程序性能。 Amazon Nitro SSDs通过优化存储堆栈、虚拟化管理程序和硬件与Amazon Nitro 系统紧密集成。与使用商用SSD相比,亚马逊云科技同时管理Amazon Nitro SSDs的硬件和固件,使SSD更新交付速度更快,让客户可以从改进的功能中获益。 Im4gn 实例(现已可用)采用 Amazon Graviton2 处理器,与 I3 实例相比,性价比提高多达 40%,每 TB存储成本降低多达 44%。Is4gen 实例(现已可用)也采用 Amazon Graviton2 处理器,与 I3en 实例相比,每 TB 存储成本降低多达 15%,计算性能提高多达 48%。开始使用Im4gn/Is4gn实例,请访问aws.amazon.com/ec2/instance-types/i4g。I4i实例(即将可用)采用英特尔第三代可扩展处理器(Ice Lake),与当前一代 I3 实例相比,计算性能提高多达 55%。欲了解更多Im4gn/Is4gen/ I4i实例的信息,请访问aws.amazon.com/ec2/instance-types/i4i。 发布云上全面数据解决方案 数据是企业洞察的驱动器。亚马逊云科技在云上推出了全面的数据解决方案,从数据库、到数据分析,到人工智能,希望帮企业获得数据洞察,更好地推动业务发展。 Adam在主题演讲中宣布,亚马逊云科技分析服务套件新推出三种无服务器选项和一个按需选项: Amazon Redshift Serverless可在几秒钟内自动设置和扩展资源,让客户在PB级数据规模运行高性能工作负载,而无需管理数据仓库集群; Amazon Managed Streaming for Apache Kafka (Amazon MSK) Serverless可快速扩展资源,极大地简化实时数据摄取和流式传输; Amazon EMR Serverless让客户无需部署、管理和扩展底层基础设施,即可使用开源大数据框架(如 Apache Spark、Hive 和 Presto)运行分析应用程序。 Amazon Kinesis On-demand是亚马逊云科技为Amazon Kinesis Data Streams(一种用于捕获、处理和存储流媒体数据的无服务器服务)推出的新功能(新的容量模式),利用它可以提供每分钟GB级别的读写吞吐量,而无需进行容量规划。 机器学习是数据洞察必不可少的。亚马逊云科技拥有广泛和完整的机器学习功能特性组合,从机器学习框架和基础设施、机器学习服务到开箱即用的人工智能服务。亚马逊云科技的机器学习服务Amazon SageMaker,目前有数万客户正在使用,训练具有数十亿个参数的模型,每月进行数千亿次预测。自2017年问世以来,Amazon SageMaker已经陆续添加了150多项功能和特性。 此外,Adam还宣布了一项重要的Amazon SageMaker新功能——Amazon SageMaker Canvas,它让业务人员和数据分析人员能够使用可视化的点选界面,生成高准确度的机器学习预测,不需要写程序代码。 亚马逊云科技还为其数据湖服务Amazon Lake Formation增加了两个功能,Row and cell-level security for Lake Formation为湖中数据提供精确到数据行和单元格的细颗粒度访问控制;Transactions for governed tables in Lake Formation确保湖中数据的一致性,这两项功能让数据湖的搭建、治理和管理更加容易。 推出两项IoT新服务,赋能行业 大会现场,亚马逊云科技还推出了两项IoT新服务—— Amazon IoT TwinMake/FleetWise,赋能更广泛的行业。 中桥调研咨询(Sino-bridges)首席分析师王丛认为:“Amazon IoT TwinMaker打通物理和虚拟世界,让物理世界监控管理更加实时,高效,智能。另外,Amazon IoT FleetWise让这种数实融合的综合管理能力转化为车队物联网监控、分析、管理创新服务。”Amazon IoT TwinMaker 可更轻松、快捷创建现实世界的数字孪生 Amazon IoT TwinMaker让开发人员更加轻松、快捷地创建现实世界的数字孪生,如楼宇、工厂、工业设备和生产线。 数字孪生是物理系统的虚拟映射,可根据其所代表的现实世界对象的结构、状态和行为定期更新。Amazon IoT TwinMaker让开发人员可以轻松汇集来自多个来源(如设备传感器、摄像机和业务应用程序)的数据,并将这些数据结合起来创建一个知识图谱,对现实世界环境进行建模。 客户可以通过Amazon IoT TwinMaker,使用数字孪生来构建反映现实世界的应用程序,提高运营效率并减少停机时间。使用Amazon IoT TwinMaker无需预付费用,客户只需为使用的服务付费。使用Amazon IoT TwinMaker,请访问:aws.com/iot-twinmaker。 制造企业从设备传感器、摄像机和业务应用程序(例如企业资源规划系统或项目管理系统)等来源收集和处理有关其设备和设施的大量数据。许多客户希望结合这些数据源来创建其物理系统的虚拟映射(称为数字孪生),帮助他们模拟和优化运营绩效。 但是,即便对技术最先进的企业来说,构建和管理数字孪生也很困难。为了构建数字孪生,客户必须手动连接来自不同来源的不同类型的数据(例如来自设备的时间序列传感器数据、来自摄像机的视频传送、来自业务应用程序的维护记录等)。然后,客户必须创建一个知识图谱,提供对所有连接数据的通用访问,并将数据源之间的关系映射到物理环境。 为了实现数字孪生,客户必须构建其物理系统(例如楼宇、工厂、设备、生产线等)的 3D 虚拟模型,并将现实世界的数据叠加到 3D 视图上。一旦他们获得具有实时数据的现实世界的虚拟映射,客户就可以为工厂操作员和维护工程师构建应用程序,并利用机器学习和数据分析来洞察其物理系统的实时操作性能。由于上述所需工作的复杂性,绝大多数企业无法使用数字孪生来改善其运营。 Amazon IoT TwinMaker让创建现实世界的数字孪生变得更加轻松、快捷。使用Amazon IoT TwinMaker,开发人员可以将Amazon IoT TwinMaker连接到设备传感器、视频源和业务应用程序等数据源,快速开始构建设备、装置和流程的数字孪生。为方便从各种数据源收集数据,Amazon IoT TwinMaker包含适用于Amazon IoT SiteWise、Amazon Kinesis Video Streams和Amazon S3的内置连接器(客户也可以为Amazon Timestream或Snowflake等数据源添加自己的连接器)。 Amazon IoT TwinMaker会自动创建一个知识图谱,整合并理解所连接数据源的关系,因此它可以使用被映射系统的实时信息更新数字孪生。客户可以将现有的3D模型(例如CAD和BIM文件、点云扫描等)直接导入Amazon IoT TwinMaker,轻松创建物理系统(例如楼宇、工厂、设备、生产线等)的3D视图,并将知识图谱中的数据叠加到3D视图上,创建数字孪生。 数字孪生创建完毕后,开发人员就可以使用适用于Amazon Managed Grafana的Amazon IoT TwinMaker插件创建基于Web的应用程序,在工厂操作员和维护工程师用于监控和检查设施和工业系统的设备上,即可显示该应用程序的数字孪生。通过Amazon IoT TwinMaker,更多客户可以使用数字孪生模型构建模拟现实世界的应用程序,提高运营效率并减少停机时间。 据悉,Amazon IoT TwinMaker现已在美国东部(弗吉尼亚北部)、美国西部(俄勒冈)、亚太地区(新加坡)和欧洲(爱尔兰)区域提供预览,其他区域也将很快推出。 在线下媒体会上,对于目前火热的元宇宙概念,亚马逊全球副总裁、亚马逊云科技大中华区执行董事张文翊对InfoQ等媒体表示,元宇宙是云计算可以大量赋能的一个领域。她表示:“我们认为元宇宙一定是云计算可以大量赋能的一个领域。元宇宙本身需要的就是计算、存储、机器学习等,这些都离不开云计算。比如Epic Games是个开发元宇宙游戏Fortnite(堡垒之夜)的公司,全球拥有3.5亿用户,它的工作负载几乎全部都跑在亚马逊云科技上。” 亚马逊云科技大中华区产品部总经理顾凡如此看待火热的元宇宙概念:“元宇宙里面融合了大家所熟知的大量技术,而这些技术的背后就是云计算。无论是在数字世界里面建模,还是与之互动,都离不开机器学习在背后支撑。与此同时,元宇宙的世界必然会产生超级大的数据量,这些数据都离不开底层平台,而云一定是最佳的平台。”Amazon IoT FleetWise帮助汽车制造商收集、管理车辆数据 亚马逊云科技还宣布推出了Amazon IoT FleetWise,让汽车制造商更轻松、经济地收集、管理车辆数据,同时几乎实时上传到云端。 通过Amazon IoT FleetWise,汽车制造商可以轻松地收集和管理汽车中任何格式的数据(无论品牌、车型或配置),并将数据格式标准化,方便在云上轻松进行数据分析。 Amazon IoT FleetWise的智能过滤功能,帮助汽车制造商近乎实时地将数据高效上传到云端,为减少网络流量的使用,该功能也允许开发人员选择需要上传的数据,还可以根据天气条件、位置或汽车类型等参数来制定上传数据的时间规则。 当数据进入云端后,汽车制造商就可以将数据应用于车辆的远程诊断程序,分析车队的健康状况,帮助汽车制造商预防潜在的召回或安全问题,或通过数据分析和机器学习来改进自动驾驶和高级辅助驾驶等技术。 使用Amazon IoT FleetWise无需预付费用,客户只需为使用的基础服务付费。欲了解Amazon IoT FleetWise,请访问aws.amazon.com/iot/fleetwise。 具有标准车辆数据收集功能的Amazon IoT FleetWise现已在美国东部(弗吉尼亚北部)和欧洲(法兰克福)区域提供预览,其他区域也将很快推出。Amazon IoT FleetWise先进的摄像头传感器数据收集功能预计将于2022年上半年推出。 新产品和新服务何时落地中国? 提及此次发布的产品和服务何时落地中国,产品和服务面向国内市场和美国市场有何不同时,亚马逊云科技大中华区产品部总经理顾凡对InfoQ等媒体表示:“我们有的时候不能直接简单去看这个产品到底中外有什么差异,而是要看我们是否已经把中国客户的需求结合到产品设计里面。比如今天提到的Graviton2、Graviton3,我们一定会加速把Graviton3带到中国。再比如,全球SageMaker同步首发的六个区域,中国就占了两个,就是因为中国客户的机器学习场景非常多。”
| 1,769 | 1,638,698,863,646 |
InfoQ
|
218 |
一个 Babelfish ,看懂云数据库的发展方向
|
作为基础软件皇冠上的明珠,数据库技术一直以来都是开发者关注的焦点。这关注度是如此之高,几乎自然打通了学界和产业界的隔阂,以至于关于数据库技术的每一篇重要论文面世,都可能导致一批价值数十亿美金的公司出现。而在最近几年,纵观整个数据库产业,云数据库逐渐成为焦点中的焦点。据 Gartner.Inc 称,到 2022 年,所有数据库中有 75% 将部署或迁移到云平台,只有 5% 曾考虑返回到本地。而 IDC 认为,到 2025 年,全球超过 50% 的数据库将部署在公有云上;在中国市场,这个数据更为夸张,达到了 70% 以上。那么问题来了,如果云数据库,或者叫云原生数据库,是确凿无疑的下一个风口。那么其当下主要的技术和发展方向是什么?我们该如何看待云原生数据库的发展趋势?亚马逊云科技在 2020 年发布的 Babelfish 或许能够带给我们一些启发。Babelfish,一个被人低估的重磅发布Babelfish 在 2020 年的 re:Invent 上发布,由亚马逊云科技 CEO Andy Jassy 宣布。简单来说,Babelfish 是云数据库 Amazon Aurora PostgreSQL 的一个插件,它让 Aurora 能够兼容 Microsoft SQL Server 编写的应用程序。Babelfish 刚刚发布,Youtube 上就有许多工程师制作视频表达了不理解。因为自打云数据库出现,相关迁移服务就在产业内随处可见,几乎每一家公有云企业,都能提供相关迁移服务,只不过大部分是针对 Oracle 的。有一家叫做 Enterprise DB 的美国,专门提供从 Oracle 到 PostgreSQL 的迁移服务。相关代理层、SQL 语言转换工具更是层出不穷。事实上,亚马逊云科技自己就有相关的迁移服务,比如 Amazon Schema Convertion Tool 做架构迁移,Amazon Database Migration Service 做存储迁移。那么,Babelfish 存在的意义是什么呢?多加一层代理增加后端处理成本吗?实际上,只迁移架构和存储是不完整的,构建在数据库之上的应用还没有完成迁移。以 Babelfish 服务的场景来说,基于 Microsoft SQL Server 构建的应用使用 T-SQL 与数据库交互,这与 PostgreSQL 完全是两码事。如果你想将应用也同步迁移,除非把这部分重写一遍。这也让数据库迁移成为了业内非常少见的动作,不是大家不想(毕竟谁也没法保证最初的架构选型永远正确),但成本实在是太高。这种迁移成本,我们可以通过一套比较通用的迁移方案来感受下:比起这种沉重的迁移,如果数据库天生兼容,是不是方便太多了?这也是 Babelfish 存在最主要的意义。而许多人,会低估 Babelfish ,可能也是因为只看见了其商业层面的意义,而没有注意到其技术层面的难度。Oracle 和 PostgreSQL,许多特性相同,转换尚且困难;切换到 T-SQL 和 PostgreSQL 就更加复杂了。数据库的同步转换要注意许多异常复杂的细节问题,包括查询语言的转换,存储过程的转换,静态游标的转换,触发器的转换,等等。亚马逊云科技 的 Sébastien Stormacq 曾在发布的博客中指出,在 T-SQL 中,MONEY 类型具有四位小数精度, PostgreSQL 则只有两位小数精度,这种细微的差异可能会导致四舍五入错误,并对下游流程(例如财务报告)产生重大影响。他说:“在这种情况下,Babelfish 会确保保留了 SQL Server 数据类型的语义和 T-SQL 功能:我们创建了一个 MONEY 数据类型,使其行为与 SQL Server 应用程序预期的一样。”Babelfish 的方案是用 hooks(钩子)方法在 PostgreSQL 内置引擎中实现,将自己暴露为不同的数据库(否则就只能修改 PostgreSQL 许多核心区域的代码),其架构图如下:精妙之处在于,通过数据库内核部分执行器层面的扩展开发,Babelfish 实现了 T-SQL 与 pgSQL 之间的互相调用。也就是说,新写 PostgreSQL 代码可以调用之前应用写的 SQL Server 代码。对于写过存储过程的朋友们来说,这个功能已经和 Babelfish 的名字一样,带上“科幻”色彩了。即便已经使用了最硬核的实现方式, Babelfish 也没有完全实现兼容,ADD SIGNATURE 等一些功能、语法还没有实现。亚马逊官方工程师说:“SQL Server 已经发展了 30 多年,我们不希望立即支持所有功能。相反,我们专注于最常见的 T-SQL 命令并返回正确的响应或错误消息。”这也恰恰说明了类似迁移加速器的开发难度,也证实了为什么开源路线才是最适合 Babelfish 发展的,因为开源可以让足够多的开发者参与到产品迭代中来。同理,一个如此高难度的开发项目,也不太可能是无足轻重的。相反,它可能是亚马逊云科技 2020 年最重要的发布之一。数据库碎片化时代,真的来了?亚马逊在云计算领域的发布,曾多次引导了整个产业的发展方向。比如,2012 年发布的 Amazon Redshift 引导了云原生数仓的发展方向,2014 年发布的 Amazon Lambda 引导了 Serverless 的发展方向(Gartner 到 2019 年才确认 Serverless 为未来趋势),Amazon Aurora 本身也是云原生数据库的先驱产品。如果说,Babelfish 也代表了一种方向,那么或许是,数据库碎片化的时代,真的来了。数据库这个产品本身因为开发难度太高,长期以来都被少数几家公司把控着,其中的佼佼者 Oracle 更是以极快的速度提升着商业数据库的开发门槛。但数据库“单极”化发展后导致的价格高、绑定风险高等问题,也让众多企业逐渐难以忍受。当下,各种类型的数据库层出不穷,关系型、键值、时序、图形……让人难以抉择。另外一个重要的现象是,大部分云原生数据库都是基于 PostgreSQL 研发而来,但后续的许多研发力量却没有投入到高性能、高可拓展性等传统技术概念本身。数据库兼容,这一开发难度高,与性能无关的特性,却成为了亚马逊云科技的研发重点。某种意义上也说明,遍地开花的各类型数据库还将长期存在于产业内。人们习惯认为,产业的长期发展趋势是从单一走向多元,最终经过市场筛选,回归单一。但这次,“单极”时代可能真的一去不复返了。此外,在 2020 Gartner 的魔力象限报告里,云数据库领域有数家占领导位置的企业,亚马逊、微软、Google 位居前三位。而就在 2019 年,前三名还是微软、Oracle、亚马逊。老大老三打着打着,老二没了……如今,有 Babelfish 加持的 Amazon Aurora ,兼容了 Microsoft SQL Server ,恐怕受伤的还是 Oracle。云数据库之间的墙壁在倒塌,而传统商业型数据库的竞争难度在进一步加大。而乘上碎片化时代东风,发布了 Babelfish 的 Amazon ,也顺理成章的成为了云数据库市场新的领头羊。写在最后数据库行业远未走到终局,也不会有所谓的终局。但云原生数据库可以获得的优势并不仅限于数据库本身,比如 Amazon Aurora Serverless 提供的弹性伸缩服务,Amazon Aurora Global Database 提升了数据全球同步能力与业务连续性,Amazon DevOps Guru 将机器学习引入了应用管理。这是“合力”,将数据库在云上的体验拉伸到了全新的维度。在云数据库领域,这种“合力”将主导接下来的市场格局。11 月 30 日,2021 re:Invent 又将到来,Adam Selipsky 将首次以亚马逊云科技新任 CEO 的身份亮相。相信云数据库市场的趋势动向,也将随之更加清晰。
| 2,597 | 1,638,352,973,574 |
InfoQ
|
219 |
如何构建智能湖仓架构?亚马逊工程师的代码实践
|
数据仓库的数据体系严格、治理容易,业务规模越大,ROI 越高;数据湖的数据种类丰富,治理困难,业务规模越大,ROI 越低,但胜在灵活。现在,鱼和熊掌我都想要,应该怎么办?湖仓一体架构就在这种情况下,快速在产业内普及。要构建湖仓一体架构并不容易,需要解决非常多的数据问题。比如,计算层、存储层、异构集群层都要打通,对元数据要进行统一的管理和治理。对于很多业内技术团队而言,已经是个比较大的挑战。可即便如此,在亚马逊云科技技术专家潘超看来,也未必最能贴合企业级大数据处理的最新理念。在 11 月 18 日晚上 20:00 的直播中,潘超详细分享了亚马逊云科技眼中的智能湖仓架构,以及以流式数据接入为主的最佳实践。现代化数据平台架构的关键指标传统湖仓一体架构的不足之处是,着重解决点的问题,也就是“湖”和“仓”的打通,而忽视了面的问题:数据在整个数据平台的自由流转。潘超认为,现代数据平台架构应该具有几个关键特征:以任何规模来存储数据;在整套架构涉及的所有产品体系中,获得最佳性价比;实现无缝的数据访问,实现数据的自由流动;实现数据的统一治理;用 AI/ML 解决业务难题;在构建企业级现代数据平台架构时,这五个关键特征,实质上覆盖了三方视角 ——对于架构师而言,第一点和第二点值得引起注意。前者是迁移上云的一大核心诉求,后者是架构评审一定会过问的核心事项;对于开发者而言,第三点和第四点尤为重要,对元数据的管理最重要实现的是数据在整个系统内的自由流动和访问,而不仅仅是打通数据湖和数据仓库;对于产品经理而言,第五点点明了当下大数据平台的价值导向,即数据的收集和治理,应以解决业务问题为目标。为了方便理解,也方便通过 Demo 演示,潘超将这套架构体系,同等替换为了亚马逊云科技现有产品体系,包括:Amazon Athena、Amazon Aurora 、Amazon MSK、Amazon EMR 等,而流式数据入湖,重点涉及 Amazon MSK、Amazon EMR,以及另一个核心服务:Apache Hudi。Amazon MSK 的扩展能力与最佳实践Amazon MSK 是亚马逊托管的高可用、强安全的 Kafka 服务,是数据分析领域,负责消息传递的基础,也因此在流式数据入湖部分举足轻重。之所以以 Amazon MSK 举例,而不是修改 Kafka 代码直接构建这套系统,是为了最大程度将开发者的注意力聚焦于流式应用本身,而不是管理和维护基础设施。况且,一旦你决定从头构建 PaaS 层基础设施,涉及到的工作就不仅仅是拉起一套 Kafka 集群了。一张图可以很形象地反映这个问题:这张图从左至右,依次为不使用任何云服务的工作列表,使用 EC2 的工作列表,以及使用 MSK 的工作列表,工作量和 ROI 高下立现。而对于 MSK 来说,扩展能力是其重要特性。MSK 可以自动扩容,也可以手动 API 扩容。但如果对自己的“动手能力”没有充足的信心,建议选择自动扩容。Amazon MSK 的自动扩容可以根据存储利用率来设定阈值,建议设定 50%-60%。自动扩容每次扩展 Max(10GB,10%* 集群存储空间),同时自动扩展每次有6 个小时的冷却时间。一次如果一次需要扩容更大的容量,可以使用手动扩容。这种扩容既包括横向扩容 —— 通过 API 或者控制台向集群添加新的 Brokers,期间不会影响集群的可用性,也包括纵向扩容 —— 调整集群 Broker 节点的 EC2 实例类型。但无论是自动还是手动,是横向还是纵向,前提都是你已经做好了磁盘监控,可以使用 CloudWatch 云监控集成的监控服务,也可以在 MSK 里勾选其他的监控服务 (Prometheus),最终监控结果都能可视化显示。需要注意的是,MSK 集群增加 Broker,每个旧 Topic 的分区如果想重分配,需要手动执行。重分配的时候,会带来额外的带宽,有可能会影响业务,所以可以通过一些参数控制 Broker 间流量带宽,防止过程当中对业务造成太大的影响。当然像 Cruise 一样的开源工具,也可以多多用起来。Cruise 是做大规模集群的管理的 MSK 工具,它可以帮你做 Broker 间负载的 Re-balance 。关于 MSK 集群的高可用,有三点需要注意:对于两 AZ 部署的集群,副本因子至少保证为 3。如果只有 1,那么当集群滚动升级的时候,就不能对外提供服务了;最小的 ISR(in-sync replicas)最多设置为 RF - 1,不然也会影响集群的滚动升级;当客户端连接 Broker 节点时,虽然配置一个 Broker 节点的连接地址就可以,但还是建议配置多个。MSK 故障节点自动替换以及在滚动升级的过程中,如果客户端只配备了一个 Broker 节点,可能会链接超时。如果配置了多个,还可以重试连接。在 CPU 层面,CloudWatch 里有两个关于 MSK 的指标值得注意,一个是 CpuSystem,另一个是 CpuUser,推荐保持在 60% 以下,这样在 MSK 升级维护时,都有足够的 CPU 资源可用。如果 CPU 利用率过高,触发报警,则可以通过以下几种方式来扩展 MSK 集群:垂直扩展,通过滚动升级进行替换。每个 Broker 的替换大概需要 10-15 分钟的时间。当然,是否替换集群内所有机器,要根据实际情况做选择,以免造成资源浪费;横向拓展,Topic 增加分区数;添加 Broker 到集群,之前创建的 Topic 进行 reassign Partitions,重分配会消耗集群资源,当然这是可控的。最后,关于 ACK 参数的设置也值得注意,ACK = 2 意味着在生产者发送消息后,等到所有副本都接收到消息,才返回成功。这虽然保证了消息的可靠性,但吞吐率最低。比如日志类数据,参考业务具体情况,就可以酌情设置 ACK = 1,容忍数据丢失的可能,但大幅提高了吞吐率。Amazon EMR 存算分离及资源动态扩缩Amazon EMR 是托管的 Hadoop 生态,常用的 Hadoop 组件在 EMR 上都会有,但是 EMR 核心特征有两点,一是存算分离,二是资源动态扩缩。在大数据领域,存算分离概念的热度,不下于流批一体、湖仓一体。以亚马逊云科技产品栈为例,实现存算分离后,数据是在 S3 上存储,EMR 只是一个计算集群,是一个无状态的数据。而数据与元数据都在外部,集群简化为无状态的计算资源,用的时候打开,不用的时候关闭就可以。举个例子,凌晨 1 点到 5 点,大批 ETL 作业,开启集群。其他时间则完全不用开启集群。用时开启,不用关闭,对于上云企业而言,交服务费就像交电费,格外节省。而资源的动态扩缩主要是指根据不同的工作负载,动态扩充节点,按使用量计费。但如果数据是在 HDFS 上做存算分离与动态扩缩,就不太容易操作了,扩缩容如果附带 DataNote 数据,就会引发数据的 Re-balance,非常影响效率。如果单独扩展 NodeManager,在云下的场景,资源不再是弹性的,集群也一般是预制好的,与云上有本质区别。EMR 有三类节点,第一类是 Master 主节点,部署着 Resource Manager 等服务;Core 核心节点,有 DataNote,NodeManager, 依然可以选用 HDFS;第三类是任务节点,运行着 EMR 的 NodeManager 服务,是一个计算节点。所以,EMR 的扩缩,在于核心节点与任务节点的扩缩,可以根据 YARN 上 Application 的个数、CPU 的利用率等指标配置扩缩策略。也可以使用 EMR 提供 Managed Scaling 策略其内置了智能算法来实现自动扩缩,也是推荐的方式,对开发者而言是无感的。EMR Flink Hudi 构建数据湖及 CDC 同步方案那么应该如何利用 MSK 和 EMR 做数据湖的入湖呢?其详细架构图如下,分作六步详解:图中标号 1:日志数据和业务数据发送⾄MSK(Kafka),通过 Flink(TableAPI) 建立Kafka 表,消费 Kafka 数据,Hive Metastore 存储 Schema;图中标号 2:RDS(MySQL) 中的数据通过 Flink CDC(flink-cdc-connector) 直接消费 Binlog 数据,⽆需搭建其他消费 Binlog 的服务 (⽐如 Canal,Debezium)。注意使⽤flink-cdc-connector 的 2.x 版本,⽀持parallel reading, lock-free and checkpoint feature;图中标号 3:使用Flink Hudi Connector, 将数据写⼊Hudi(S3) 表, 对于⽆需 Update 的数据使⽤Insert 模式写⼊,对于需要 Update 的 数据 (业务数据和 CDC 数据) 使用Upsert 模式写⼊;图中标号 4:使用Presto 作为查询引擎,对外提供查询服务。此条数据链路的延迟取决于入Hudi 的延迟及 Presto 查询的延迟,总体在分钟级别;图中标号 5:对于需要秒级别延迟的指标,直接在 Flink 引擎中做计算,计算结果输出到 RDS 或者 KV 数据库,对外提供 API 查询服务;图中标号 6:使用QuickSight 做数据可视化,支持多种数据源接入。当然,在具体的实践过程中,仍需要开发者对数据湖方案有足够的了解,才能切合场景选择合适的调参配置。Q/A 问答1. 如何从 Apache Kafka 迁移至 Amazon MSK?MSK 托管的是 Apache Kafka,其 API 是完全兼容的,业务应用代码不需要调整,更换为 MSK 的链接地址即可。如果已有的 Kafka 集群数据要迁移到 MSK,可以使用 MirrorMaker2 做数据同步,然后切换应用链接地址即可。参考文档:https://docs.aws.amazon.com/msk/latest/developerguide/migration.htmlhttps://d1.awsstatic.com/whitepapers/amazon-msk-migration-guide.pdf?did=wp_card&trk=wp_card2. MSK 支持 schema registry 吗?MSK 支持 Schema Registry, 不仅支持使用 AWS Glue 作为 Schema Registry, 还支持第三方的比如 confluent-schema-registry3.MySQL cdc 到 hudi 的延迟如何?总体来讲是分钟级别延迟。和数据量,选择的 Hudi 表类型,计算资源都有关系。4. Amazon EMR 比标准 Apache Spark 快多少?Amazon EMR 比标准 Apache Spark 快 3 倍以上。Amazon EMR 在 Spark3.0 上比开源 Spark 快 1.7 倍,在 TPC-DS 3TB 数据的测试。参见:https://aws.amazon.com/cn/blogs/big-data/run-apache-spark-3-0-workloads-1-7-times-faster-with-amazon-emr-runtime-for-apache-spark/Amazon EMR 在 Spark 2.x 上比开源 Spark 快 2~3 倍以上Amazon Presto 比开源的 PrestoDB 快 2.6 倍。参见:https://aws.amazon.com/cn/blogs/big-data/amazon-emr-introduces-emr-runtime-for-prestodb-which-provides-a-2-6-times-speedup/5. 智能湖仓和湖仓一体的区别是什么?这在本次分享中的现代化数据平台建设和 Amazon 的智能湖仓架构图中都有所体现,Amazon 的智能湖仓架构灵活扩展,安全可靠 ; 专门构建,极致性能 ; 数据融合,统一治理 ; 敏捷分析,深度智能 ; 拥抱开源,开发共赢。湖仓一体只是开始,智能湖仓才是终极。re:Invent 正在拉斯维加斯同步举办,今年是 re:Invent 的第十年,今天 Keynote 上 Adam 为我们提出的从未设想过的“数据之旅”,从数据湖扩展与安全出发,发布了 Row and cell-level security for Lake Formation,实现了海量数据的精细化管理。同时,顺应云计算时代无服务器化的技术发展趋势,同时发布了四款当前云上专门数据分析工具的无服务器版本。成为了行业内全栈式无服务器数据分析的先行者。大数据分析的易用性再次提升,体验在云上操作数据举重若轻的感觉。相关发布内容可以注册观看大会直播。5 附录:操作代码实施1. 创建 EMR 集群log_uri="s3://*****/emr/log/"
key_name="****"
jdbc="jdbc:mysql:\/\/*****.ap-southeast-1.rds.amazonaws.com:3306\/hive_metadata_01?
createDatabaseIfNotExist=true"
cluster_name="tech-talk-001"
aws emr create-cluster \
--termination-protected \
--region ap-southeast-1 \
--applications Name=Hadoop Name=Hive Name=Flink Name=Tez Name=Spark
Name=JupyterEnterpriseGateway Name=Presto Name=HCatalog \
--scale-down-behavior TERMINATE_AT_TASK_COMPLETION \
--release-label emr-6.4.0 \
--ebs-root-volume-size 50 \
--service-role EMR_DefaultRole \
--enable-debugging \
--instance-groups InstanceGroupType=MASTER,InstanceCount=1,InstanceType=m5.xlarge
InstanceGroupType=CORE,InstanceCount=2,InstanceType=m5.xlarge \
--managed-scaling-policy
ComputeLimits='{MinimumCapacityUnits=2,MaximumCapacityUnits=5,MaximumOnDemandCapacityUnits=2,Ma
ximumCoreCapacityUnits=2,UnitType=Instances}' \
--name "${cluster_name}" \
--log-uri "${log_uri}" \
--ec2-attributes '{"KeyName":"'${key_name}'","SubnetId":"subnet-
0f79e4471cfa74ced","InstanceProfile":"EMR_EC2_DefaultRole"}' \
--configurations '[{"Classification": "hive-site","Properties":
{"javax.jdo.option.ConnectionURL": "'${jdbc}'","javax.jdo.option.ConnectionDriverName":
"org.mariadb.jdbc.Driver","javax.jdo.option.ConnectionUserName":
"admin","javax.jdo.option.ConnectionPassword": "xxxxxx"}}]'
2. 创建 MSK 集群# MSK集群创建可以通过CLI, 也可以通过Console创建
# 下载kafka,创建topic写⼊数据
wget https://dlcdn.apache.org/kafka/2.6.2/kafka_2.12-2.6.2.tgz
# msk zk地址,broker 地址
zk_servers=*****.c3.kafka.ap-southeast-1.amazonaws.com:2181
bootstrap_server=******.5ybaio.c3.kafka.ap-southeast-1.amazonaws.com:9092
topic=tech-talk-001
# 创建tech-talk-001 topic
./bin/kafka-topics.sh --create --zookeeper ${zk_servers} --replication-factor 2 --partitions 4
--topic ${topic}
# 写⼊消息
./bin/kafka-console-producer.sh --bootstrap-server ${bootstrap_server} --topic ${topic}
{"id":"1","name":"customer"}
{"id":"2","name":"aws"}
# 消费消息
./bin/kafka-console-consumer.sh --bootstrap-server ${bootstrap_server} --topic ${topic}
3.EMR 启动 Flink# 启动flink on yarn session cluster
# 下载kafka connector
sudo wget -P /usr/lib/flink/lib/ https://repo1.maven.org/maven2/org/apache/flink/flink-sql?
connector-kafka_2.12/1.13.1/flink-sql-connector-kafka_2.12-1.13.1.jar && sudo chown flink:flink
/usr/lib/flink/lib/flink-sql-connector-kafka_2.12-1.13.1.jar
# hudi-flink-bundle 0.10.0
sudo wget -P /usr/lib/flink/lib/ https://dxs9dnjebzm6y.cloudfront.net/tmp/hudi-flink?
bundle_2.12-0.10.0-SNAPSHOT.jar && sudo chown flink:flink /usr/lib/flink/lib/hudi-flink?
bundle_2.12-0.10.0-SNAPSHOT.jar
# 下载 cdc connector
sudo wget -P /usr/lib/flink/lib/ https://repo1.maven.org/maven2/com/ververica/flink-sql?
connector-mysql-cdc/2.0.0/flink-sql-connector-mysql-cdc-2.0.0.jar && sudo chown flink:flink
/usr/lib/flink/lib/flink-sql-connector-mysql-cdc-2.0.0.jar
# flink session
flink-yarn-session -jm 1024 -tm 4096 -s 2 \
-D state.checkpoints.dir=s3://*****/flink/checkpoints \
-D state.backend=rocksdb \
-D state.checkpoint-storage=filesystem \
-D execution.checkpointing.interval=60000 \
-D state.checkpoints.num-retained=5 \
-D execution.checkpointing.mode=EXACTLY_ONCE \
-D execution.checkpointing.externalized-checkpoint-retention=RETAIN_ON_CANCELLATION \
-D state.backend.incremental=true \
-D execution.checkpointing.max-concurrent-checkpoints=1 \
-D rest.flamegraph.enabled=true \
-d
4.Flink SQL 客户端# 这是使⽤flink sql client写SQL提交作业
# 启动client
/usr/lib/flink/bin/sql-client.sh -s application_*****
# result-mode
set sql-client.execution.result-mode=tableau;
# set default parallesim
set 'parallelism.default' = '1';
5. 消费 Kafka 写⼊Hudi# 创建kafka表
CREATE TABLE kafka_tb_001 (
id string,
name string,
`ts` TIMESTAMP(3) METADATA FROM 'timestamp'
) WITH (
'connector' = 'kafka',
'topic' = 'tech-talk-001',
'properties.bootstrap.servers' = '****:9092',
'properties.group.id' = 'test-group-001',
'scan.startup.mode' = 'latest-offset',
'format' = 'json',
'json.ignore-parse-errors' = 'true',
'json.fail-on-missing-field' = 'false',
'sink.parallelism' = '2'
);
# 创建flink hudi表
CREATE TABLE flink_hudi_tb_106(
uuid string,
name string,
ts TIMESTAMP(3),
logday VARCHAR(255),
hh VARCHAR(255)
)PARTITIONED BY (`logday`,`hh`)
WITH (
'connector' = 'hudi',
'path' = 's3://*****/teck-talk/flink_hudi_tb_106/',
'table.type' = 'COPY_ON_WRITE',
'write.precombine.field' = 'ts',
'write.operation' = 'upsert',
'hoodie.datasource.write.recordkey.field' = 'uuid',
'hive_sync.enable' = 'true',
'hive_sync.metastore.uris' = 'thrift://******:9083',
'hive_sync.table' = 'flink_hudi_tb_106',
'hive_sync.mode' = 'HMS',
'hive_sync.username' = 'hadoop',
'hive_sync.partition_fields' = 'logday,hh',
'hive_sync.partition_extractor_class' = 'org.apache.hudi.hive.MultiPartKeysValueExtractor'
);
# 插⼊数据
insert into flink_hudi_tb_106 select id as uuid,name,ts,DATE_FORMAT(CURRENT_TIMESTAMP, 'yyyy?
MM-dd') as logday, DATE_FORMAT(CURRENT_TIMESTAMP, 'hh') as hh from kafka_tb_001;
# 除了在创建表是指定同步数据的⽅式,也可以通过cli同步hudi表元数据到hive,但要注意分区格式
./run_sync_tool.sh --jdbc-url jdbc:hive2:\/\/*****:10000 --user hadop --pass hadoop --
partitioned-by logday --base-path s3://****/ --database default --table *****
# presto 查询数据
presto-cli --server *****:8889 --catalog hive --schema default
6.mysql cdc 同步到 hudi# 创建mysql CDC表
CREATE TABLE mysql_cdc_002 (
id INT NOT NULL,
name STRING,
create_time TIMESTAMP(3),
modify_time TIMESTAMP(3),
PRIMARY KEY(id) NOT ENFORCED
) WITH (
'connector' = 'mysql-cdc',
'hostname' = '*******',
'port' = '3306',
'username' = 'admin',
'password' = '*****',
'database-name' = 'cdc_test_db',
'table-name' = 'test_tb_01',
'scan.startup.mode' = 'initial'
);
# 创建hudi表
CREATE TABLE hudi_cdc_002 (
id INT ,
name STRING,
create_time TIMESTAMP(3),
modify_time TIMESTAMP(3)
) WITH (
'connector' = 'hudi',
'path' = 's3://******/hudi_cdc_002/',
'table.type' = 'COPY_ON_WRITE',
'write.precombine.field' = 'modify_time',
'hoodie.datasource.write.recordkey.field' = 'id',
'write.operation' = 'upsert',
'write.tasks' = '2',
'hive_sync.enable' = 'true',
'hive_sync.metastore.uris' = 'thrift://*******:9083',
'hive_sync.table' = 'hudi_cdc_002',
'hive_sync.db' = 'default',
'hive_sync.mode' = 'HMS',
'hive_sync.username' = 'hadoop'
);
# 写⼊数据
insert into hudi_cdc_002 select * from mysql_cdc_002;
7. sysbench# sysbench 写⼊mysql数据
# 下载sysbench
curl -s https://packagecloud.io/install/repositories/akopytov/sysbench/script.rpm.sh | sudo
bash
sudo yum -y install sysbench
# 注意当前使用的“lua”并未提供构建,请根据自身情况定义,上述⽤到表结构如下
CREATE TABLE if not exists `test_tb_01` (
`id` int NOT NULL AUTO_INCREMENT,
`name` varchar(155) DEFAULT NULL,
`create_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP,
`modify_time` timestamp NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE
CURRENT_TIMESTAMP,
PRIMARY KEY (`id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;
# 创建表
sysbench creates.lua --mysql-user=admin --mysql-password=admin123456 --mysql?
host=****.rds.amazonaws.com --mysql-db=cdc_test_db --report-interval=1 --events=1 run
# 插⼊数据
sysbench insert.lua --mysql-user=admin --mysql-password=admin123456 --mysql?
host=****.rds.amazonaws.com --mysql-db=cdc_test_db --report-interval=1 --events=500 --
time=0 --threads=1 --skip_trx=true run
# 更新数据
sysbench update.lua --mysql-user=admin --mysql-password=admin123456 --mysql?
host=****.rds.amazonaws.com --mysql-db=cdc_test_db --report-interval=1 --events=1000 --
time=0 --threads=10 --skip_trx=true --update_id_min=3 --update_id_max=500 run
# 删除表
sysbench drop.lua --mysql-user=admin --mysql-password=admin123456 --mysql?
host=****.rds.amazonaws.com --mysql-db=cdc_test_db --report-interval=1 --events=1 run
| 1,667 | 1,638,350,297,144 |
InfoQ
|
220 |
激荡十年,从未来窗口 re:Invent 看云计算发展变迁
|
从最初被质疑仅仅是个广告概念,到如今形成巨大的产业生态,云计算已经高速发展十余年。这十余年间,IT 世界天翻地覆,无数新理念、新技术不断涌现,其变革速度让开发者应接不暇,没有谁敢确信,自己正走在时代的最前沿。或许也正是因此,re:Invent 作为云计算领域的全球最大规模的会议,每年都能吸引上万名开发者去往拉斯维加斯。今年是 re:Invent 第十年,在过去的十年中,re:Invent 曾无数次预见未来,其部分产品发布堪比权威机构的调研定调,使得这场盛会几乎成为全世界开发者看向未来的窗口。那么,在过去十年间,云上世界究竟发生了什么,未来又将呈现何种趋势?本文将带读者回溯 re:Invent 十年,与云计算的发展史相结合,看看云上技术的变迁历程。计算服务时代:云端迁移热潮(2006) 云计算的诞生,并非一蹴而就。曾经,大多数企业都苦恼于采购硬件和租用 IDC 机房来构建 IT 基础设施,亚马逊也是其中之一。关于亚马逊为何开始提供云服务,业界还流传着一个这样的小故事。据说当时,亚马逊内部有很多项目团队,任何项目团队测试新产品需要服务器资源。在服务器资源供不应求的情况下,团队负责人只能去找 CEO 贝索斯哭诉。贝索斯听闻后,当即向技术团队大发雷霆:“是你们扼杀了亚马逊人的创造力。”那段时间,贝索斯在一本书中偶然看到“基元”的概念,于是尝试将“基元”的概念应用到开发中——将计算和存储分离为最小、最简单的元件,供开发者使用、创造。通过这个方式,亚马逊内部的创造力得到极大的释放。贝索斯思考,能不能把这些基元也对外提供给开发者呢?2006 年,亚马逊推出 Amazon Web Services,以 Web 服务的形式向企业提供 IT 基础设施服务。通过将虚拟机和存储服务提供给开发者,用户不需要构建自己的服务器,就可以获取计算和存储能力,并且可以像水电一样随取随用。2006 年 3 月 14 日 Amazon Web Services 发布 Simple Storage Service(简称 S3),至此,计算时代的新纪元拉开帷幕。这个纪元叫做“计算服务时代”,人们形象地以“云”来命名这种崭新的计算资源服务模式。紧接着,微软在 PCD 2008 上发布 Windows Azure 技术社区预览版,谷歌也在 2008 年推出了 Google App Engine 的预览版。那段时间,计算和存储分离的理念初步确立,各大云厂商致力于为企业提供一些基础设施服务,各种类型的虚拟机、存储服务层出不穷,一度在行业内形成云端迁移热潮。但迁移式的计算服务,仍然只是云计算的雏形。谁都没有料到,整个 IT 世界的基础设施都将彻底改变。同时,此时的业内依然存在大量“信息墙”,开发者和最前沿的云理念、云技术被分隔开,阻碍了前沿技术的创新和推广。云原生时代:从 On Cloud 走向 In Cloud(2010)计算服务时代方便了企业主,同时也让企业主们发觉,这还不够。企业上云,不仅仅要从基础设施和平台层面实现,还需要应用本身包括架构设计、开发方式、部署维护等就是基于云的特点而开发。在“云”这种宏大的设想下,仅仅实现服务器的搬迁未免太简陋。于云服务商而言,单纯的虚拟化也再无法满足高速增长的客户数量。因此,云原生作为一种更适合云计算架构特点的应用开发技术和运维管理方式出现了。云原生的概念最早是 在 Paul Fremantle 2010 年的一篇博客中被提及,主要将其描述为一种和云一样的系统行为的应用编写,比如分布式、松散的、自服务的、持续部署与测试的。如果说,计算服务时代是“On Cloud”,那么云原生就是“In Cloud”。但此时的云原生,只是个“畅想”,从诞生之处,云原生之于开发者,就是绝对抽象的。不过,谁都没成想,2012 年,一场硬核盛会 re:Invent 登上了历史的舞台。有史以来第一次,开发者与前沿云技术之间的“信息墙”,被成片推倒。全球超过 6000 名开发者来到美国拉斯维加斯,在为期三天的议程里,在超过 100 项日程里,交流各类云技术的最新进展,从白天直到深夜。正是在这场大会上,亚马逊云科技推出了业界首款云原生数据仓库 Amazon Redshift,标志着云原生开始从概念落地为产品,从理念上升为可落地的技术栈。这场 re:Invent 不但让拉斯维加斯从此成为开发者的乐园,也似乎摧毁了整个云原生产业的闸门,随后的发展几乎是井喷式的。2013 年,Netflix 云架构师,Adrian Cockcroft 介绍了 Netflix 在亚马逊云科技上基于 Cloud Native 的成功应用;2013-2014,Docker 发布,Kubernetes 开源;2015 年,云原生计算基金会(CNCF)成立,云原生概念和实施方法逐渐进入主流视野。同年来自 Pivotal 的 Matt Stine,他在他的电子书《迁移到云原生应用架构》中把 Cloud Native 描述为一组最佳实践,具体包含如下内容:十二因子,微服务,敏捷基础设施,基于 API 的协作,反脆弱性。此后,Pivotal 公司又对云原生的特征进行了几次修订,最终将云原生的特点概括为当下被普遍认同的:DevOps+ 持续交付 + 微服务 + 容器。在 Docker 兴起后,各大公有云都不约而同的对外提供容器相关的标准 PaaS 服务。对容器进行管理和编排成了亟待解决的问题,经过一场没有硝烟的编排框架大战,Kubernetes 以成为容器编排领域的事实标准而宣告胜利。但这一切,都起始于 2012 re:Invent ,全世界的开发者从此记住了这个大会 —— 它像个先知,遇见了云原生的成功,并将其迅速落地验证。数据爆发时代:从容器云走向数据云(2014)随着云原生的理念和产品逐渐齐备,行业最新迎来的挑战不是上云转型问题,而是数据爆炸问题。伴随着移动互联网和万物互联时代的到来,数据的规模开始呈指数级增长。2010 年,全人类生产活动一年产生的数据总量刚刚突破 ZB 级,而到 2020 年这个数字已经达到 64 ZB。如日本日立集团(Hitachi) 2013 年 6 月初就成立了日立创新分析全球中心, 其广泛收集汽车行驶记录、零售业购买动向、患者医疗数据、矿山维护数据和资源价格动向等庞大数据信息开展大数据分析业务。传统的计算和存储方式无法满足现阶段数据规模的需求。数据产品生态也在以惊人的速度进行创新,从传统的关系型数据库拓展到各类非关系型数据库和大数据相关的云服务。2014 年 re:Invent 上,亚马逊云科技推出首款专门为云打造的数据库 Amazon Aurora。Aurora 完全兼容最流行的 MySQL 和 PostgreSQL 关系型数据库,同时实现了计算、存储的高度分离和近乎无限扩展。它既具备高端商用数据库的速度和可用性,又兼具开源数据库的简单性和成本效益,其成本仅有商业级数据库的十分之一。自 2014 年发布至今,Amazon Aurora 始终保持着亚马逊云科技有史以来增长最为迅速的服务。又是在 re:Invent ,全世界的开发者见证了大数据技术和云计算结合的威力。亚马逊云科技陆续发布并对外提供了十五种种专门构建的数据库服务,支持关系、键值、文档、内存、图、时间序列、宽列和分类账八大数据类型。Amazon Aurora 的发布揭开了云数据库时代的大幕。此后几年,亚马逊在数据库产品方面不断革新,开创了无服务器云原生数据库的先河,2018 年发布的 Amazon Aurora Serverless v1 版也在 2020 年 re:Invent 上发布了 v2 版,Aurora Serverless v2 可以在一秒内将数据库工作负载从数百个事务扩展到数十万个事务。,先后发布的 Amazon Aurora Global Database(全局数据库),Amazon DynamoDB Global Table(全局表)等一系列发展标志着全球同步能力也是重要的云原生数据库技术趋势。AI 时代:从“云”+AI 到创新试炼场(2016)算力的增长是人工智能的能力支撑;海量数据的爆发让人工智能算法有了用武之地。在数据、算法、算力三要素的共同作用下,人工智能应用已经达到了从硬件到底层框架到训练部署等完整的工程化体系。2016 年,AlphaGO 击败人类围棋棋手李世石后,人工智能技术迎来高速发展期。到了 2017 年,机器学习工程化时代彻底到来,机器学习已从外围应用逐渐变成各行各业、企业和组织的核心能力。2017 年的 re:Invent 上,亚马逊云科技发布面向所有开发人员和数据科学家的全托管的机器学习服务——Amazon SageMaker。SageMaker 为开发者提供了一套完备的“中央厨房”,使用 SageMaker 开发者只需准备好“食材”(数据)就可以直接开始做菜(训练模型),大大提升了开发人员和数据科学家构建、训练和部署机器学习模型的效率,开启了全新的智能时代。2019 年 re:Invent,亚马逊云科技进一步发布了 Amazon SageMaker Studio , Amazon SageMaker Studio 成为首个全集成的 ML 开发环境。人工智能和 AI 的结合是必然趋势。云产品本身的 SaaS 属性天然的适合将新技术由概念推向具体的应用场景。不仅仅是人工智能,近两年兴起的区块链、IoT、量子计算背后,都是以云计算作为载体。云计算正逐渐成为创新技术重要的试练场。每一个节点,都是起点从计算服务时代到云原生时代,从数据爆发时代到 AI 时代。每个时代都始于某个关键性的节点,而后不断向前发展,成为新时代的基础。re:Invent 也是屡屡出现在这样的关键节点上,成为将技术理念转化为工业级云产品的“排头兵”。计算存储服务领域,继 S3 发布后,亚马逊云科技 2017 年推出 Amazon Nitro 架构,Nitro 系统帮助用户摆脱虚拟化束缚,云服务器性能“零”损耗;2019 年推出第二代自研 Arm 架构处理器 Graviton2,开创企业级应用大规模使用 Arm 架构服务的时代,性价比提升 40%。伴随着云原生时代的到来,2014 年 re:Invent 上,发布首个公共云供应商提供的无服务器计算产品 Amazon Lambda,将无服务器时代推上浪潮,事实证明,这款产品的发布又一次成功预见了未来。2019 年,Serverless 被 Gartner 称为最有潜力的云计算技术发展方向。云数据库方面,Amazon Aurora 揭开云时代大幕后,在 2020 re:Invent 上发布的 Aurora Serverless V2,实现了云原生关系型数据库能像微服务一样的自动弹性伸缩,为当下与未来那些要求极高的应用与工作负载提供灵活支撑。未来云计算将如何发展?又有哪些新技术将会与云计算进行结合推动时代的巨轮向前?前路未知,但 re:Invent 不失为一座照亮未来的灯塔。通过这座灯塔,开发者可以对未来的趋势有一个基本的认知和把控,企业也有机会在发展的道路上实现弯道超车。引领云计算发展十年之久的盛会,将继续在美国内达华州拉斯维加斯开启下一个十年的新篇章。届时亚马逊云科技将在北京时间 11 月 30 日起同步对本次大会进行线上直播。此次大会,Adam Selipsky 将首次以亚马逊云科技新任 CEO 的身份亮相 re:Invent。大会设置产品、行业、组织、社区和角色五大专题。22 位来自亚马逊云科技各个领域的领袖将齐聚亮相,带来包括技术、培训认证、机器学习、商业等多个领域的分享。目前,有哪些新产品和技术会在此次大会上首次发布还不得而知,只能心怀期待,静候北京时间 11 月 30 日「引领风向,重塑未来」亚马逊云科技 re:Invent 的盛大开启。点击链接,免费注册报名:https://www.awsevents.cn/reinvent/index.html?s=7084&smid=700
| 1,680 | 1,637,824,494,977 |
InfoQ
|
221 |
从实践出发,解锁 Serverless 的不同面
|
2012 年,Serverless 这一概念首次被提出,直到亚马逊商用 Lambda 函数,才被大家熟知。Serverless 和很多词比如微服务一样,是没有精确定义的,也没有事实的标准。虽然现在大家都在提 Serverless First,但在技术选型和落地实践等方面还有不少顾虑。 11 月 1 日,InfoQ 大咖说 邀请到了阿里云资深技术专家不瞋来做 Serverless 的技术分享。不瞋从 Serverless 诞生聊到未来,并结合自身多年实践经验为大家详细讲解了 Serverless,并进一步给出了关于技术选型、落地困扰、开发者角色转变等多方面的思考和建议。 不瞋是阿里云 Serverless 产品体系的负责人,也是国内 Serverless 的早期实践者。以下内容节选自当天的分享,InfoQ 做了不改变原意的编辑:Serverless 技术十年发展大揭秘 InfoQ:首先请不瞋跟大家做一下自我介绍,包括职业经历,目前在做的事情等等。 不瞋:大家好,我是不瞋,不瞋是我的花名,我的真名叫杨皓然。我是 2010 年加入阿里云,当时主要做飞天平台的研发工作。从 2016 年开始,我转向 Serverless 的研发工作,现在主要负责 Serverless 相关的产品包括函数计算 FC、Serverless 应用引擎 SAE、Serverless 工作流等产品的研发工作。 InfoQ:Serverless 这个概念被提出来已经近十年了,到现在很多人都在提 Serverless 甚至是 Serverless First。但 Serverless 和很多词比如微服务一样,是没有精确定义的,也没有事实的标准。我们想从业内专业的角度听听您是怎么看 Serverless 这个技术? 不瞋:Serverless 的术语是比较新鲜的,但 Serverless 的产品形态其实早已有之。比如阿里云的第一个云服务对象存储 OSS,亚马逊云科技第一个云服务 S3。它们其实是 Serverless 形态的存储服务,用户只需要用简单的 API 就可以实现海量数据的可靠存储。用户不需要关心数据如何被分片存储到不同的服务器上以实现负载均衡,也不需要考虑如何做到在服务器宕机或者交换机故障保证数据的高可靠性和高可用性。 这些都是因为屏蔽掉 Server 的复杂度,让用户有一个非常简洁的 Serverless 产品形态。所以 Serverless 的形态是很古老的,从第一个云服务就有了。 更早一点,2010 年我刚加入阿里云做飞天系统。阿里云的飞天操作系统最初是管理数千台的机器来执行大数据处理。用户的编程界面是 MapReduce 任务,SQL 语句等等来处理海量数据。这也是 Serverless 的形态。 但 Serverless 这个概念,是在 2015 年 亚马逊云科技正式商用 Lambda 后变得流行了。背后原因其实是云的产品体系一直在 Serverless 化。无论是阿里云,Azure 还是亚马逊云科技,绝大多数新产品都是全托管的 Serverless 的形态。今天大家,特别是公有云的用户,是不是越来越习惯用全托管的服务?比如越来越多的用户,不会自己再用机器去搭个对象存储,或者消息队列吧?对很多用户来说,最重要的是解决业务问题,如果全托管的服务能带来更好的性能,更好的稳定性,更少的运维代价,为什么不用呢? 按照这些的逻辑,越来越多的云产品都是全托管、Serverless 的形态。当云的产品体系 Serverless 化达到一个临界值,通过函数计算这样的 Serverless 计算服务结合其他 Serverless 形态的云服务,能够完整实现整个应用时,Serverless 就变成了一个确定的技术趋势,被大家熟知,并越来越流行。 InfoQ:那么 Serverless 这十年的一个演进的过程是怎么样的? 不瞋:我自己的体感是在 2017-2018年,Serverless 热度达到了顶峰,但和很多新兴技术一样,Serverless 也经历了开发者幻象破灭的低谷。最主要的挑战是这样一个新的计算形态,对开发者的心智挑战太大,在工具链、编程模型、应用架构上,都需要开发者转换思路。但这些问题正在不断被解决。 从 Serverless 这十年的发展来看,无论是学术界还是工业界,都认为这是一项颠覆式的技术,在提升研发效率,资源效率上有巨大的潜力。所以亚马逊云科技 Lambda 推出后,Serverless 变成了很火热的概念,而且亚马逊云科技也确实在 All in Serverless。 另外,我认为现在 Serverless 处于稳步上升期,我们能看到业界最主要的云服务商在不断的推出不同形态的 Serverless 计算服务,比如 Google Cloud Run,亚马逊云科技 App Runner,阿里云的 Serverless 应用引擎 SAE。即使阿里云的函数计算这类最传统的 Serverless 计算服务,也变得越来越通用,对应用的侵入性越来越少。 我们能看到无论阿里集团还是阿里云上,开发者也对 Serverless 的认识越来越客观、务实,在越来越多的场景中使用 Serverless 的解决方案,工具链和相关生态,也越来越成熟。 所以我认为 Serverless 现在是处于从幻想破灭的低谷走出来,变成一个逐步成熟的过程。 InfoQ:我们经常看到 Serverless 和微服务被一起提及,有人说 Serverless 是来取代微服务的,也有人说这两者是天作之合,从您的角度看,这两者的关系是怎么样的? 不瞋:我觉得 Serverless 和微服务不是一个层面的概念。微服务是一种架构理念,而 Serverless 可以看作是承载应用运行的基础设施。用户以微服务构建应用,可以运行在 Serverless 平台上,也可以运行在 VM 或者容器平台上。 除了计算,用户也可以为他的微服务应用选择 Serverless 或者非 Serverless 的产品。比如可以自己搭建数据库,也可以选择全托管,Serverless 产品的数据库。同理,用户可以在 Serverless 平台上运行微服务架构应用,也可以运行单体架构应用。所以这是两个正交的概念。 但确实,我认为 Serverless 和微服务架构配合是更好的。因为微服务架构背后蕴含的松耦合,更细粒度的开发和运维发布边界,更敏捷的应用发布频度等理念,和 Serverless 弹性、轻量、端对端集成的特点非常合拍。 比如应用采用微服务架构后,在开发调试,流量控制,负载均衡和容错处理,可观测性等方面都会面临挑战。这里面有很多部分都被 Serverless 平台内置的能力简化了,比如 Serverless 平台内置了流控、多维度自动伸缩,负载均衡和容错,能够很好的支撑 Stateless 应用的弹性高可用。 当然,Serverless 架构也在问题诊断和可观测性上和用户原有体验不一致,这是所有厂商要重点解决的。我相信在未来,大部分微服务应用都将以 Serverless 的方式运行。 InfoQ:那么什么样的企业,什么样的业务适合 Serverless,什么样的适合微服务,这两者又该如何取舍? 不瞋:我们做任何一个技术选型都要对这个技术有一个客观的认识,任何技术都有优劣,有适合和不适合。比如微服务,虽然有很多优点,但要想落地好,也需要在应用运行基础设施、工具链、可观测上有完善的配套支撑。比如把应用拆成很多细粒度的微服务、都使用独立的数据库、数据的同步、全局状态/事务管理、大量微服务之间的依赖管理和可视化等等,都需要有相对应的软件和服务,才能充分发挥微服务的优势。 所以无论是 Serverless 还是微服务,技术选型时主要还是从场景和团队两个维度出发。 从场景来看,今天 Serverless 在 API serving、微服务、Web 单体应用、基于事件驱动的数据处理、离线批处理任务等场景已经很成熟,在研发效率和成本上都有优势。 从团队的角度看,我认为任何团队或者个人,都需要搞清楚最重要的事情是什么,把精力聚焦在最重要的事情上。如果没有非常强的基础设施团队来构建自己的应用运行平台,以满足业务需求为导向,那么选择 Serverless 是比较合适的。 落地案例解释 Serverless 是困扰还是机遇 InfoQ:刚才开始您也提到了 Serverless 的一些挑战,对开发者心智的挑战,在实际应用的时候有没有技术障碍和落地困扰。 不瞋:我们其实经历了一个从 Serverless 非常受关注到落地困难,再到看到 Serverless 被广泛使用的过程,这个过程中也确实遇到了不少挑战。 我个人觉得 Serverless 落地困扰最大的挑战还是在于给开发者安全感。因为 Serverless 是把更多的技术层面的东西交给了云厂商去做,对开发者来说是怎么给他们安全感是非常关键的,也是他们做技术选型时最担忧的点。 这种安全感的担忧主要来自于两方面。 Serverless 让应用更深度的依赖了云服务商的能力,如何避免 vendor lock-in,就是供应商锁定?我从一个云迁移到另一个云会有什么障碍? 云厂商接管了应用的运行平台,怎么能给我控制力?比如我怎么能看到足够丰富的指标来优化应用或者掌控应用运行的情况?云平台出问题了怎么办?出现问题时,我有什么手段能快速查明问题,恢复服务? InfoQ:阿里作为在这个领域深耕多年的引领者,是如何解决这两个问题的,是否有已经落地的案例来给大家讲解一下? 不瞋:对于问题 1 供应商锁定。阿里云是以公有云、阿里集团、开源三位一体的方式打造 Serverless 产品,坚定的拥抱开源开放。阿里云函数计算的 Runtime 运行时采用无侵入的标准的 http-server 协议,用户使用 Golang 或者 PHP 写的 Web server 放上来就可以跟 Serverless 平台去交互。 另外函数计算的可观测能力基于开源开放的 OpenTelemetry、OpenTracing 等标准。我们推出的 Serverless Devs 工具链也是开源开放的,提供了多个云厂商的 Serverless 应用部署的能力。承载阿里云事件生态的 EventBridge 也是采用 CNCF CloudEvents 开放标准。这些都是希望开发者能够通过开源开放的方式来使用产品。未来,我们会积极推进 Serverless 领域的标准。 对于问题 2,最主要的是要做好产品设计的平衡,既能给开发者控制力,又能减小开发者的复杂度。阿里云函数计算把给开发者安全感看作最重要的事情。我们在可观测性上是业界首个,也是目前唯一一个透出了实例级别的指标,让用户能更容易调优 Serverless 应用。我们透出了非常细粒度的资源计量数据,让用户能更容易判断费用是否符合预期。 在未来,我们会将系统事件和状态以合适的方式透出给开发者,让他们能更容易预期系统的行为。我们也会在问题诊断等方面开放更多的能力,去贴合开发者已有的开发习惯,让他们能更平滑的使用 Serverless。 InfoQ:不瞋还有其他的案例分享吗? 不瞋:我可以给大家分享几个在我们平台上的几个经典案例,一个就是网易云音乐。云音乐的产品背后,实际有非常多的算法服务支撑,比如多种码率的音频转码、听歌识曲中应用的音频指纹生成和识别、副歌检测、小语种音译歌词等等。这些任务的资源需求和执行时间变化很大,使用 C++,Python 等多种语言实现,对算力的弹性要求非常大。 原先网易是在自己的数据中心搭建这样一个算法服务平台,落地了 60+ 音视频算法,对接 100+ 的业务场景。但随着业务增长,基础设施管理的负担越来越大。虽然通过了很多方式去简化了内部业务场景、算法等的对接,但越来越多夹杂存量、增量处理的算法;不同流量的业务场景规模,以及不同业务场景可能会复用同一类算法的,导致在业务上的时间越来越少。 比如上线一种新算法,首先要对超过 6000 万首存量歌曲进行处理,这要求平台在短时间内弹出大量算力,可靠的执行任务,同时提供完善的应用、实例等多维度的监控信息。这些需求是非常匹配函数计算的。网易在函数计算上高峰期一天处理超过 2000 万个任务,算法应用到业务 10倍速的提升,稀疏调用的算法成本大幅缩减。 网易这个案例最有意思的点,在于他们在应用层融合了自有机房和公有云上的服务。以往大家谈到 Serverless,觉得它很难在混合云的场景下应用。网易的案例证明了专有云和公有云融合不是只有资源纳管这一种方式,在应用层考虑融合方案,有时候效果会更好。 另一个比较有意思的案例是南瓜视频使用 SAE 实现传统微服务应用的零迁移改造,只用了一周就完整迁移到 SAE 平台。 南瓜原有的微服务平台面临几个挑战:1)运维成本高,要管理基础设施,要规划网络,要升级系统等等,大量的时间花在这些低价值的工作上,而不是专注于业务的发展;2)机器难以规划容量。热点电影经常造成访问热点,临时扩容操作复杂,慢。南瓜经历了业务的爆发式增长,因为一部热映电影,1 小时新增 80 万注册用户,比正常流量高了80倍。系统很快就崩了。 这次经历促使南瓜进行了技术升级。用户也对比了 K8s 和 SAE,最后认为要玩转 K8s ,需要组建好专业团队,代价不小。SAE 的产品形态非常有亲和力,南瓜只花了很短的时间就迁移到 SAE,现在所有的应用都运行在 SAE 上。 最后一个案例是内部的高德,用函数计算实现 API 服务,在十一等出行繁忙的时候,它在函数计算上的峰值 tps 接近 50万,日平均 tps 也有35万。我们相信这是业界流量最高,最繁忙的一个 Serverless 应用。 InfoQ:在应用 Serverless 这个技术体系的这个过程中,有没有您觉得比较难解决的问题,或者是当下不好解决,需要留到未来的。 不瞋:在技术层面,Serverless 没有特别难解的问题,都是可以攻克的。最难的还是心智教育,标准化和生态建设。技术的演进不是一蹴而就的,就像 PC 时代高级语言、软件工程的发展也是经过很长时间的累积。我绝对相信云是下一个十年最有影响力的平台。未来的开发者,第一天开始编程就是在云上,接触的是云原生的编程理念,他们是云的原住民。 InfoQ:关于开发者心智挑战或者角色转变上,您有没有比较好的建议?(担心技术转型的问题) 不瞋:关于角色转变,我觉得大家不必纠结因为使用了某项技术,就削弱了我的技术竞争力。最主要还是看要解决的问题是什么,我在其中的核心竞争力到底在哪?如果平台替换的是无差别的工作,例如繁琐的机器运维或者容错,那这对开发者是好事,能够帮助他们做更有技术含量的事情。 以阿里云为例,以前阿里云每个产品都有专门的运维团队,后面就没有了。因为很多繁琐的工作可以通过技术的手段自动化,运维团队可以转型为更有价值的工作。比如解决方案架构师,自动化工具等工程技术开发。技术总是向前演进的,无论是团队还是个人,都需要思考自己的核心价值在哪,然后围绕核心价值去沉淀积累。 另外就是要对技术保持开放式的态度,更有好奇心。像容器、Serverless 等新兴技术都做一些了解,先上手实验,有一些体感,对比他们各自的优劣,然后去理解这些技术趋势背后的演进逻辑,我认为这是一个比较好的习惯。像我刚工作,周围都是 C++,大家提起 Java,都觉得太慢。但是现在我们不这么看,Java 在企业级应用开发已经完全证明了自己的能力,影响力和生态都非常大。所以我们不要单一维度去评判一个技术的好坏,选择合适的技术解决场景问题是最重要的。 InfoQ:在多年的 Serverless 实践过程中有没有什么里程碑的事件,比如刚才提到的 SAE。 不瞋:SAE 肯定算一个,我觉得这里面有几个里程碑事件,有国外的,也有我们自己做得比较好的。比如亚马逊云科技推出 Lambda,把 Serverless 带到了大家面前,这绝对是一个里程碑。比如函数计算推出预留实例解决冷启动问题,支持容器镜像,拥抱开源生态;阿里云推出 Serverless 应用引擎解决存量应用 Serverless 化的问题,都代表我们在 Serverless 领域的创新。Serverless 会是云的未来吗? InfoQ:大家对 Serverless 未来发展方向有很多预测,也有一些对未来的猜想您是怎么看的? 不瞋:我们先抛开 Serverless,未来的趋势,云的发展一定是往更高的抽象层面发展,让用户研发效率更高更敏捷,资源使用更高效。因此云的产品体系一定是 Serverless 化,也就是越来越多的云服务是全托管、Serverless 的形态。如果我们把云看作一台计算机,那么 IaaS 层是硬件,以 K8s 为代表的容器编排系统是操作系统,而 Serverless 计算则是应用的运行时。所以 Serverless 是云的未来,这实际上不算是对未来的预测,而是正在发生的事实。 未来,Serverless 的产品形态会变得多样,早几年大家都把亚马逊云科技 Lambda 这样形态的产品等同于 Serverless 计算,这几年我们看到 Google Cloud Run,亚马逊云科技 App Runner 等针对 Web 应用场景的 Serverless 服务,阿里云函数计算也在不断演进,比如支持容器镜像,更少的运行限制等等。而且针对传统微服务等存量市场,我们还推出了 Serverless 应用引擎这样形态的服务,让用户能够非常方便的把存量应用迁移上来,享受 Serverless 的红利。 InfoQ:还有其他方向上的趋势吗? 不瞋:其实 Serverless 底层技术发展上也有一些值得关注的趋势。包括在资源调度上更加智能,因为 Serverless 的计算模式给平台提供了更多的负载信息,使得平台有机会通过数据驱动的方式在资源调度,流量路由等方面做得更加精准。另外,Serverless 有望支持更多类型的硬件,包括 ARM 类型的 CPU,GPU 或者 FPGA 等异构硬件,给用户提供更有性价比的计算类型。 InfoQ:所以 Serverless 不只是云的未来,那么您认为 Serverless 的终点会是什么? 不瞋:说到终点的判断,我想云就像一台计算机,在过去的十年,云主要是通过 Cloud Hosting 的模式,在兼容原有编程模式的同时,为开发者提供了海量的算力。但这种模式有点像使用汇编语言编程,开发者需要处理相当多的细节。微软预测未来 5 年将新增 5 亿个应用,超过过去40年的总和,这是传统的开发模式难以支撑的。 所以我们看到现代应用、低代码等理念开始流行。下一个十年,云的编程模型将迎来巨大的创新。这个演进逻辑并不罕见,过去 PC、移动互联网,都从一开始的硬件创新,发展到形成自己的原生编程模型,形成完整的、繁荣的产业生态,云也正在经历这样的过程。最终,云会有属于自己的、原生的、高效的编程模型和应用研发模式。而 Serverless 在云的生态中,扮演应用运行时的角色,是承载应用运行的基础设施。Q&A 环节:InfoQ:评论区有提问,小规模的服务是否适合 Serverless? 不瞋:我觉得小规模服务是更没有负担的,完全可以探索尝试 Serverless,熟悉 Serverless 架构和产品。无论是函数计算 FC 还是 Serverless 应用引擎 SAE ,在兼容性、从传统应用平滑迁移以及工具成熟度上都有明显的提升。 InfoQ:还有观众提问,为什么 Serverless 只有云厂商可以做? 不瞋:这是一个非常好的问题。首先是为什么 2015 年 Serverless 才火起来,原因就是背后必须要有全托管的 Serverless 化的产品做支撑。举个例子,比如你要做一个应用,这个应用不会只依赖一个计算,如果在 VM 上做一些非常轻量的应用,比如搭建一个网站,不需要考虑高可用的情况,就在一台机器上把数据库、Web Server 等全放进去就可以。但 Serverless 不同,你不可能把一个应用需要的存储、数据库这些计算全部放在一个地方。这个模式是依赖很多其他服务做支撑和联动的,比如事件驱动,比如函数计算,都需要很多事件源接进来,把这个事件触发集成做的很细腻。 Serverless 计算是需要跟云的其他产品联动的,然后才能对用户产生更大的价值,这就是为什么云厂商做更适合一些。 InfoQ:最后一个问题,有观众提问 Serverless 的数据安全如何保障? 不瞋:这也是一个非常好的问题,我觉得数据安全跟上面提到的安全感其实是有非常大的关系的,我们可以从几个层面去看 Serverless 的数据安全。 首先就是用户对于 Serverless 的一个普遍担忧是 Serverless 是一个多租场景,你怎么保证我的数据安全性,这里其实可以定义一个非常清晰安全的模型。就是系统跟用户的边界在哪,哪些部分是系统负责,哪些是用户负责。 以阿里云为例,无论函数计算 FC 还是 Serverless 应用引擎 SAE 在安全方面的保障做的是比较充分的。从底层使用安全容器的技术做强隔离,一直到上面应用层,有身份认证、应用级别的访问控制,甚至可以设置只允许来自于某个 VPC 的请求来访问函数,类似于这些能力。所以安全上面隔离的能力是比较立体的。 另外从本身的模式来看,很多用户自身在使用传统方式运行应用的安全隐患是更大的。比如说出现了内核漏洞或者容器漏洞,是否能及时升级?但是现在平台可以保证这个安全性,可以及时升级,对用户来说也是无感的。还有一些用户在使用传统比较粗糙的平台时,直接把 AK 写到了代码里,这都是不提倡的模式。 新的 Serverless 应用模式,用户配置了对应资源的角色权限,平台可以自动扮演角色生成临时 token。你不需要管过程,只需要拿着 token 访问就可以,整个过程都是更规范更安全的。 另外现在对多租的担忧是可以通过内部合规的系统操作记录下来给用户查询,比如内部人员是否有人查看你的代码,或者我们在系统层面做了什么操作。现在用户的代码,镜像都是加密存储的。 所以不管是从平台层面还是用户层面使用新的模式在安全性方面是越来越提高的。
| 3,551 | 1,636,422,830,155 |
InfoQ
|
222 |
亚马逊可持续软件工程实践
|
在技术领域里,2021年是特殊的一年。这一年是Amazon Web Services 成立的第 15 周年,这一切始于亚马逊的对象存储解决方案S3。在过去的这15年里,我们可以看到云计算改变了整个世界。并且有越来越多的客户将业务迁移到公有云,开启了企业数字化之旅。 未来十年,云计算发展将是一个持续扩张和不断迭代的过程。与此同时,“可持续发展”已成为全球、全国以及各个企业必须考虑的主题之一。作为全球领先的科技企业亚马逊也在技术的可持续发展性上不断探索,从基础设施到软件设计,有一整套自下而上的具有前瞻性的解决方案实现它。 作为亚马逊云科技可持续发展架构副总裁,Adrian Cockcroft在9月11日的亚马逊云科技中国峰会 Dev Day上发表了主题演讲,讲解了亚马逊的可持续发展战略,更重要的是,他从开发者的角度阐述了亚马逊云科技如何进行可持续软件工程实践,我们可以从中得到非常多的启发。 我们为什么要关注“可持续发展” 可持续网络宣言:如果互联网是一个国家,那么它制造出来的二氧化碳排放量,排在全球第七位。 联合国于2015年制定了一个全球框架《巴黎协定》,随后各缔约国纷纷制定了“碳中和”路径和目标,对地球环境的健康发展做出承诺。今年两会,中国也将“碳中和”和“碳达峰”写入政府工作报告,目标在2030年前实现“碳达峰”,2060年前实现“碳中和”。毋庸置疑,可持续发展已经成为不言而喻的社会共识。但在社会共识之下,还需要个人、企业、政府等各类社会主体的参与——其中体量庞大的科技企业是至关重要的参与者。 目前全球互联网用户超过 46 亿,随着互联网普及率的上升,互联网很快将产生近 10 亿吨二氧化碳,用电量相当于全球的 10%。其中为数据中心供电所需的能源量大约每四年翻一番,就碳排放而言,ICT 行业自 2007年以来一直贡献了2-6%,几乎与航空业持平。 好消息是,虽然 ICT 和云采用呈指数级增长,但能源使用和碳排放却能相对保持不变,因为主流云提供商的超大规模数据中心正显著地提高效率。埃森哲的分析表明,倘若采用绿色方法迁移至公有云,全球二氧化碳排放量每年可减少5,900万吨,这相当于动动手指就能减少2,200万辆汽车的碳排放量! 从目前全球情况来看,亚马逊、谷歌、微软这三家世界级科技巨头引领了“绿色云”改造。亚马逊表示将提前十年达成《巴黎协定》,并在 2025 年实现 100% 可再生能源。并且还成立了 20 亿美元的气候承诺基金,投资那些能帮助亚马逊达成目标的公司。谷歌大胆承诺,到2030年实现数据中心全天候无碳运行,而不是依靠每年的直接能源匹配。微软(Microsoft)自2012年起实现碳中和,并承诺通过电力购买协议,到2025年实现数据中心完全使用可再生能源。 而在中国,互联网科技企业也都在不断加大力量投入到碳中和改造中。今年8月国际环保组织绿色和平(Greenpeace)发布了中国科技巨头《绿色云端2021》排行榜,从能源信息披露、节能减碳表现、可再生能源方面合梳理了中国互联网科技企业的气候行动,相比去年,中国互联网科技企业整体平均得分上升11%。 在9月11日的Dev Day上,Adrian Cockcroft表示亚马逊云科技取得的成绩非常显著:亚马逊云科技的基础设施能源效率比普通美国企业数据中心高出3.6倍。同时,亚马逊在执行相同任务时,可以减少88%的碳足迹。 这是多种因素促成的结果,Adrian Cockcroft讲述了亚马逊探索出来的构建绿色云服务的几条有效路径。 第一是水资源的保护,亚马逊云科技使用蒸发冷却,循环用水,并尽可能在现场处理水。第二是采购可再生能源,亚马逊云科技现在是美国和欧洲最大的可再生能源买家。第三是移除了传统的不间断电源(UPS),转而采用了集成在每个机架的小型电池组合自定义电源。以往,每次在电压和直流电/交流电转换当中都会有一些功率损失,通过移除传统的UPS,优化机架电源,减少最终转换等措施让能量损失降低约35%。第四是探索创新的服务器设计。中央处理器是现代计算机最耗电的部分,亚马逊云科技自研、基于ARM架构的Amazon Graviton2处理器每瓦特性能比其他业界标准流程高2 ~ 3.5 倍。第五是在新数据中心建设中增加使用低碳混凝土,它能够减少新建筑碳排放量的25%。 可持续软件工程实践 很多人可能认为迁移到云就足够了,以至于忽视了优化内部效率。实际上,迁移到云上的每个工作负载都会消耗能源,有一些任务还尤其耗电,比如有计算密集的AI或ML业务。一项对自然语言处理模型的研究说明了问题的严重性,研究表明训练一个 NLP 模型产生的碳排放量相当于从纽约到北京的航班往返 125 趟。 另一项研究量化了观看YouTube视频所产生的碳足迹,它等同于一个小城市的二氧化碳排放量。这项研究同时指出,如果让25%的音乐视频改进为后台播放,那么一年可以节省 323,000 吨二氧化碳当量,这等同于每年 50,000 辆汽车的排放量。研究团队的成员之一Chris Preist教授强调:“一个人对环境的影响很小,但把全球服务加起来时,它们可能会产生明显的影响”。 对于我们技术人来说也是一样,当手下的那一份“绿色”代码部署到成千上万、甚至过亿设备上时,所产生的节能效应将是巨大的,所以大家有责任确保我们的技术能更加“可持续发展”。 那么作为开发者,我们到底能做些什么呢? 可持续软件工程是一个新兴的领域,但亚马逊云科技的探索能给我们一些启示,Adrian Cockcroft在演讲中,从代码效率、平台部署、软件应用设计等方面讲述了该如何实施可持续工程,InfoQ摘取了其中一些开发者相关的部分以飨读者。 发挥开源的作用 如果我们考虑在云上进行优化,开源是一个很好的方式。现在很多我们正在使用的算法其实不是很高效,但幸运的是,还存在每个开发人员都可以使用的、更为高效的开源替代方案。 JSON 文档在互联网上无处不在,服务器花费大量时间来解析这些文档。开发者们希望在进行完全验证(包括字符编码)的同时尽可能使用常用的 SIMD 指令来加速 JSON 的解析。 GitHub 上有一个开源 JSON 解析器 simdjson,通过与其他常用解析器的对比实验,结果显示,simdjson 的解析速度达到 2.2GB/s。与其它解析器相比,simdjson只使用四分之一或更少的指令,并且可用于许多不同的平台和语言。 这个解析器是2019年开源的,但亚马逊已经使用simdjson处理了大量的 JSON,Adrian Cockcroft总结说效果是惊人的。 另一个例子是关于压缩的。很多时候,我们需要压缩日志文件,以压缩的格式存储千兆字节或万兆字节的数据。gzip 和类似算法作为广泛使用的格式流行了很长一段时间,但现在有了一个新的、由脸书开发的叫做 Z-Standard的算法。这种算法不仅可以使用更少的 CPU 来进行压缩,而且能获得更高的压缩率,压缩后的文件最终只有 gzip 文件大小的 60%。对于单独一个小文件来说,压缩到这个程度可能可有可无,但是当你要处理千或万兆字节的数据时,这就有了很大的不同,你可以通过遍历和重新压缩来释放大量的数据空间。 这就是开发者可以做的一些简单的事情:寻找其他更有效的算法,来替代程序中的低效算法。 在峰值和碳足迹之间多加权衡 工作负载运行时通常会出现尖峰,所以需要我们提供高于期望峰值的容量,但是碳足迹不依赖于系统的平均使用量,甚至不依赖于系统的峰值使用量,碳足迹取决于系统预留的容量。而我们常常需要为一些这样的“尖峰”时刻准备大量的资源。 因此,减少碳足迹的方法之一是确保负荷峰值分散开来,避免产生这样的尖峰。即使平均利用率是相同的,所完成的工作量也相同,但通过减少峰值,就能减少预留容量。 另外就是配置定时任务的运行。如每天午夜运行的Crontab任务,很多人通过它来设置批处理作业,或进行数据仓库的日常汇总。当每个客户同时运行同步工作负载时,这些同步作业会增加峰值工作负载。这实际上提高了对亚马逊云科技的需求,因为我们必须提供更大的容量来处理这些并发任务造成的高峰。 但如果能避开整点、适当的安排偏移或抖动,就能避免并发产生的高峰。而且还不需要额外付出,因为你的工作量并没有变化。因为在高峰时点的可用资源更为紧张,如果能避开高峰,在资源不那么紧张的时候,可能你的任务也因此会运行得更快一点。 总的来说,减少碳足迹的方法之一是在服务水平协议和可持续性承诺之间进行权衡,比如说可以稍微降低期望值。我们知道二八定律,如果需要提升20%的性能,那么这20%的性能提升涉及的努力通常会占据整体工作量的80%。有相当多的算法或业务都存在这样的权衡比较。例如当服务水平协议中规定响应时间为500毫秒,只要仍然符合服务水平协议的要求,就没必要用100毫秒的响应时间来超额完成工作。 还有高可用性配置,如果你有一个等待故障转移的热备系统,你就可以在服务级别协议内采用冷备或是温备系统进行故障转移,从冷备启动所需的时间实际上可能不会比温备或热备所需的时间长很多。高可用性总是要付出额外的成本和额外的碳代价,所以,我们可以利用这些权衡来减少碳足迹。 利用无服务器架构 无服务器是另一个减少碳足迹的极好的方式。 无服务器计算指应用在远程托管的执行环境中按需运行。过去几年中,构建有弹性的无服务器系统一直是系统管理员和 SaaS 公司的主要关注点。该架构提供的关键优势在于:无服务器模型无需用户自身去维护操作系统,只需生成通用的代码,上传到无服务器框架,看着它运行就好了。 因此,用户可以选取托管服务,使用Amazon Lambda执行计算资源的所有管理工作,可以关联平台配置伸缩这样的工作。比如即时调度这样的程序,当不使用时可以关闭计算机休眠所有测试环境,仅在需要的时候进行唤醒。这是一种极其强大的可以减少能源消耗和运行系统的成本的方式,能实现的事情之一就是释放闲置的硬件,让别人可以同时利用,可以降低亚马逊云科技运行所需的总体容量,也不会影响到用户的实际工作。 因此,构建更可持续的体系结构的一个强有力的方法是转向无服务器,将工作负载转移到云服务,然后选择最小化能源使用的服务和实例类型。 写在最后 实施可持续软件工程,我们可以自上而下进行,首先从管理的角度测量整个企业的碳足迹,将工作负载从数据中心转移到云区域,改变使用模式以避免产生肮脏能源开发,然后选择最小化能源使用的服务和实例类型。再深入到更多细节,优化工作负载以提高利用率,我们可以分散定时任务,降低负载峰值,达到调整CPU使用效率的目的。 重要的是,优化并不是只考虑某一个地方就可以,需要我们在架构和系统层面去思考,Adrian Cockcroft还讲道,亚马逊云科技正在培训可持续发展解决方案架构师,以帮助大家进行可持续性架构评估。在可持续发展的共同责任模型的基础上开展工作,最大限度地减少能源消耗,最大限度地提高每项资源消耗的工作量,转向更省电的共享服务,并通过分享知识来持续改进。 在演讲的最后,Adrian Cockcroft发出了一个“行动的号召”:每位开发者都可以从现在开始去理解“可持续性”相关的术语和原则,在工作中寻找优化负载的机会,开源自己的经验和方案,通过“分享”促进大家一起达成“可持续发展”的目标。 活动推荐: 在今年 10 月 22 日举办的 QCon 全球软件开发大会上海站,我们设置了亚马逊云科技专场,以可持续发展技术为核心,四位顶尖专家将分别从 “构建未来的大数据平台”、“利用无服务器架构”、“发挥开源的作用”、“云端机器学习助推”四个方面展开分享,带大家探索软件开发的下一站旅程。 活动议程:9:30-10:15 面向未来的湖仓架构, 大数据平台的技术现状与趋势10:30-11:15 借助 Serverless 和性能工程的可持续软件开发实践11:15-11:45 开源云原生解决方案助力业务的发展11:45-12:15 以云端的机器学习推动可持续发展的实现 会议日程已上线,查看详情:http://gk.link/a/10AW0
| 2,468 | 1,634,609,466,677 |
InfoQ
|
223 |
亚马逊云科技推出基于 Arm 架构的 Lambda 函数
|
使用 Graviton2 做支持的无服务器函数 Lambda 能够以更低的成本提供更好的性能。 29 日,亚马逊云科技推出了由 Graviton2 提供支持的 Lambda 函数选项,旨在以更低的成本提供更好的性能。目前该功能已在亚太、欧洲、美国等部分地区上线。 Graviton2 作为亚马逊云科技自研的第二代 Arm 架构处理器,基于 64 位 Arm Neoverse N1 微架构设计,在负载、高性能计算、存储等工作场景应用广泛。自 2020 年 5 月发布以来,凭借更低的延迟和更好的性能,Graviton2 处理器逐渐成为为无服务器应用提供支持的理想选择。 此前,Graviton2 主要应用于 Honeycomb、Intuit、SmugMug 等客户工作场景,主要处理工作负载,提供更好的性价比。现在,用户可以在 Lambda 函数上获得同样的优势。 Lambda 作为计算服务,无需预置或管理服务器即可运行代码,它会执行计算资源的所有管理工作,其中包括服务器和操作系统维护、容量配置和自动扩展、代码监控和日志记录等等。 得益于 Graviton2 处理器内置性能和安全性的支持,用户现在可以使用高达 10GB 内存 6 vCPU 的 Lambda 函数,这使得 Lambda 函数运行效率更高,在网络和移动后端、数据和媒体处理等无服务器场景中获得更好的性能;使用多线程和多处理的工作负载,或执行许多 I/O 操作可以体验到更低的执行时间,支付的费用也就相应降低。整体下来,亚马逊云科技给出的数据是由 Graviton2 驱动的 Lambda 功能可以在提高 19% 的性能的同时降低 20% 的成本。现在可以为 Lambda 创建两个版本,一个基于 Arm,一个基于 x86,用于测量两个架构之间的差异。 如果遇到函数不使用特定架构的二进制文件,比如对于 Node.js 10、Python 等解释型语言的许多函数来说,可以在 Arm 和 x86 两种架构之间进行切换。 参考链接: https://aws.amazon.com/cn/about-aws/whats-new/2021/09/better-price-performance-aws-lambda-functions-aws-graviton2-processor/ https://docs.aws.amazon.com/zh_cn/lambda/latest/dg/welcome.html
| 4,869 | 1,632,976,253,063 |
InfoQ
|
224 |
都在聊混沌工程,它的落地实践你了解多少?
|
因果关系是生活的某种基本原则。 体现在开发者的世界大抵就是:如果你不提早发现和解决问题,最后问题就会在周末/半夜来解决你。 无数个被叫醒的深夜、被工作“召回”的周末、以及因系统故障而付出的惨痛代价已让越来越来开发者和管理者意识到实施混沌工程的重要性。 说到混沌工程,并非这两年的新概念。早在十多年前Netflix 在亚马逊云科技上发布的一款名叫 chaos monkey(混沌猴子) 的服务,混沌工程便已经诞生了。那么,为什么直到近几年,混沌工程才开始受到广泛关注呢?在《亚马逊云科技在混沌工程的探索与实践》Tech Talk中,资深开发者布道师黄帅就这个问题进行论述,并详细介绍了实践混沌工程的难点和思路,以及如何利用合适的开发工具对混沌工程进行落地。 是时候聊聊混沌工程了 为什么是现在,而不是十年前?黄帅从我们当前面临的痛点开始聊起,并将企业和开发者当前面临的痛点归结为以下五点。 痛点1: 系统规模增长带来的复杂性 随着系统规模的增长,其复杂性类似于心脏拓扑结构。每个节点都是一个服务,错综相连,整个软件的生命周期极度依赖治理手段和能力。企业对于系统进行观测及持续维护的难度也大大增加了。 痛点2: 快与稳的煎熬 DevOps 、微服务、敏捷开发的广泛使用,使软件的迭代和新功能的发布越来越快速。如何快步前进过程中,保持稳健,成了企业面临的新难题。 痛点3: 小步快跑的疑问 每次变更很小,提高发布频次,一定能够降低风险的结论值得商榷。软件版本的快速迭代通常发生在软件质量还没有收敛到比较好状态的前期,而且存在不同服务迭代节奏的差异。在这种情况下,心脏拓扑结构中哪怕很微小的增量变动都可能产生级联故障,从而对整个系统造成重大影响。 痛点4: 稳定性测试的新难度 心脏拓扑结构的复杂依赖性,给集成测试、回归测试和浸泡测试都带来新的挑战。此外,整个新版本的发布过程也是保证系统稳定性的重要环节,因此流水线上的每一个环节都需要进行验证,给稳定性测试带来新的难度。 痛点5: 排障追踪的困境 当系统的复杂性达到一定程度,版本更迭的速度又非常快的状态下,很多时候我们碰到生产问题,要找出背后的根因非常困难。这中间可能是因为,健康仪表盘吐出了不准确的服务状态,水平扩展明明要借助冗余性获得更好的可用性却因毒化效应完全失效,告警系统因自身的稳定性故障产生大量的误报等等。 以上五大痛点的本质都可以用故障宿命论来解释:人类设计的系统变得愈发复杂,逐渐超出了人类的认知范围。近年来,随着分布式系统、敏捷开发、云原生微服务架构等云上现代化技术的广泛应用,开发的效率和便捷性大幅提升,但是这些创新的背后隐藏的问题是传统稳定性治理手段的落后。 软件可以用新技术实现弯道超车,系统复杂性引起的故障该如何解决?复杂性科学研究者、Cynefin认知框架的提出者戴夫·斯诺登认为——理解复杂系统的唯一方法,就是与之互动。快速迭代中,谁都无法做到所有变化背后的考量全部记录下来,系统是我们设计和构建的,但系统行为我们却无法准确预测,所以我们必须要在实际的运行环境中,通过实验探索的方式(行为预期、事件注入、系统观测和更新假设),扩展我们对系统行为的认识,这便是最好的“互动”。 亚马逊可用性保障团队灾难大师杰西·罗宾斯,因其消防员的经验于2004年发明了GameDay,邀请志愿者借助“实验”与待测系统进行“互动”,探索未知的系统风险,同时也训练了工程师团队的应急响应能力。随着业界更多团队开展GameDay,亟待一种新的实践模式实现GameDay高效实验、自动化和流程标准化。Netflix发明的混沌猴子工具,以及后续提出的混沌工程正是源于这个思路。 混沌工程承认人们对于系统的行为认知是有局限的,通过受控的故障注入实验,观测、记录、分析系统,找到背后的原因,改进架构或相关的代码和设计,从而真正提升整个系统架构的韧性,避免级联故障发生。 混沌工程具体能产生怎样的价值?是否能量化呢?黄帅在分享中列举了Netflix 报告中的一个例子:“过去一年中,混沌工程提前发现了2次大故障和8次小故障,避免了整个组织大约70万美金的损失。混沌工程团队,总共3个成员,薪水支出15万美金/人。开展混沌工程实验,本身需要1万美金的成本。投资回报率是多少?高达52.17%。” 落地混沌工程的难点和思路 混沌工程带来的价值,无疑是令人心动的。近年来,许多公司都尝试采用某种形式的混沌工程来提高现代架构的可靠性。然而,混沌工程的探索实践之路却并非一帆风顺。分享中提到,企业实践混沌工程主要面临三个方面的挑战。 首先,面临稳态分析和服务透视方面的挑战。在故障注入后,需要判定系统的稳态是否被改变。如何定义稳态?又该采用何种手段判定呢? 混沌工程的核心特征是对照观测实验。精细化流量控制后,分别设置实验组和对照组。在实验组中注入故障,通过可观测的手段比较差异,通过链路追踪的方式去判断其强弱依赖的状况。人工手动分析,稳态对照分析的效率和准确性需要依赖于自动检验算法,简单地可以采用双样本的T检验,复杂地就需要借助异常检测等手段。在链路追踪的过程中,需要分析它的强弱依赖,从而计算出爆炸半径。其中,很重要的可观测手段是服务透视。在亚马逊云科技上既支持已有的可观测工具,同时也支持开源架构,整套工具开发者可直接进行使用。此外,可观测性在促进我们对于系统行为认知的同时,混沌工程本身也是系统可观测性的强有力的验证手段。通过平时的实验可以去验证当有故障产生的时候,哪些告警才是真正对排障追踪真正有效,哪些告警并不能带来价值。 第二,面临爆炸半径安全管控方面的难题。混沌工程采用的方式是用很小比例可能受到影响的用户进行实验,借以提升整个系统的可靠性。这个过程需要进行安全管控,一方面,要有随时停止的能力,俗称一键关停。另一方面要合理管控实验流量的大小,流量太小,可能会产生样本误差,流量太大会影响用户。对于偏差,我们可以借助实验手段中存在已久的统计学方法,如多重检验、费舍尔方法等等。 安全管控可以采用灰度对照实验,一键关停的方式,对流量进行精细控制。通过亚马逊云科技的服务可以很细粒度的去隔离相应爆破的对象,以及进行强弱依赖识别。因为只有知道相关服务之间的依赖关系强弱才能知道爆破半径有多大。 第三,是效率方面的难题。假设有10个组件,采用排列组合的方式去实验会产生360多万个场景。这么多场景不可能通过有限的人力、时间和资源完成测试。 我们需要以史为镜,通过历史的故障进行一些类比引申和重现。首先,故障注入点不在于多,而是要使故障注入点的组合场景更接近现实的状况。其次,要去实现混沌工程标准化、模板化和互操作性,不同团队之间可以互相分享,共享一些模板,这些模板可以高效地使用起来。另外,可以使用FMECA 服务失效模式的分析手段,从故障发生的可能性、严重性和可观测性三个角度,确定故障组合的优先级。通过这个优先级就可以很轻松地判定出哪些故障是核心故障,哪些故障是最重要的,然后把时间精力投入到重要的故障里面就可以了。在故障组合的探索方面,可以用到STPA 分析模型。该模型认为系统的可靠性依赖数据面、控制面、人工面三个部分,三个部分交互的点,也就是最容易产生故障的点。 总结来说,企业落地混沌工程的难点和思路基本围绕稳态、安全、效率三个方面。那么,在落地过程中是否可以借助一些工具和服务呢? 用好一切可用的服务 今年3月,亚马逊云科技发布了一款Amazon FIS服务,帮助大家更简单、高效地去实践混沌工程。该服务基于亚马逊云科技内部工具Amazon Gremlin技术和能力的输出。 早在2004年,亚马逊就创立了基于工程师团队的交互式和开放式的学习与训练的“GameDay”。在2004年到2021年整整17年间亚马逊云科技一直实践GameDay的玩法。2010年亚马逊云科技推出自研混沌工程产品Amazon Gremlin,结合GameDay成为可用性保障实践内容。 在Amazon Gremlin内部实践并为其公司带来价值后,亚马逊云科技考虑将拥有的能力赋能给自身的客户和用户,推出了Amazon FIS服务。 Amazon FIS的最大的优势体现在它的易用性。使用Amazon FIS不用集成和安装其他工具就可以控制管理台。同时Amazon FIS提供一些预设实验的模板,用这些模板可直接做故障注入,如果产生新的想法,也可以根据自己的需要进行定制和修改。 其次,Amazon FIS非常贴近真实的场景。很多故障场景并不代表真实世界的事件,在实际场景中很多问题是多个故障的组合引发的,Amazon FIS支持串行、并行等多种实验灵活编排,最大程度还原真实场景。 第三,也是非常重要的安全保障方面,Amazon FIS提供了自动停止的能力。一旦混沌工程实验影响到实际用户或产生负面影响,它可以自动停止。用户也可以自行设置相应的告警,一旦触发相应的停止条件,实验将立即停止。在故障注入的过程中,可观测性非常重要,Amazon FIS可集成 Amazon CloudWatch 的可观测能力,方便用户观察故障注入时的系统变化。此外,Amazon FIS内置安全回滚策略,并且能够通过细粒度 IAM 实现精细权限控制,避免混沌工程这个平台成为新的攻击点。 在Tech Talk的最后,黄帅演示了四个借助Amazon FIS服务轻松打造云上混沌的实验。具体操作步骤可点击视频了解。
| 2,086 | 1,632,880,723,209 |
InfoQ
|
225 |
亚马逊云科技持续发力现代化应用领域 在中国区域新推多项容器与Serverless服务及功能
|
2021年9月23日,亚马逊云科技宣布,通过与光环新网和西云数据的紧密合作,近期在中国区域推出多项现代化应用相关服务及功能,包括满足客户本地数据中心容器运算需求的容器服务Amazon Elastic Container Service Anywhere (Amazon ECS Anywhere),让已部署容器的客户更轻松的构建Amazon Lambda应用程序的Lambda容器镜像功能,通过Amazon EMR on EKS让Amazon Elastic MapReduce (Amazon EMR) 客户选用Amazon EKS作为大数据服务的容器化计算交付引擎等。此外,Amazon Elastic Kubernetes Service Anywhere (Amazon EKS Anywhere)目前全球已发布,中国客户可以下载使用。Amazon EKS Anywhere和Amazon ECS Anywhere为客户无论是在云端还是本地数据中心运行和管理容器提供了一致的管理体验。至此,亚马逊云科技进一步丰富了其涵盖容器、Serverless以及开发工具等现代化应用程序相关的服务与功能,并不断加速这些服务在中国区域的落地,2021年至今,已通过与西云数据和光环新网的合作,在中国区域发布近50个相关的新服务与功能。 亚马逊云科技大中华区产品部总经理顾凡表示,“如何快速构建现代化应用程序已成为企业提高敏捷性、实现更快创新、发挥数据价值的关键。但是,企业不仅需要解决现代化应用带来的诸多技术挑战,例如如何在短时间内扩展至百万级用户、实现毫秒级快速响应、处理PB级数据等,更需要根据自身应用状况考虑选择哪种路径实现现代化应用。为满足客户的不同需求,亚马逊云科技不仅提供了丰富的现代化应用相关服务与功能,涵盖容器、Serverless以及诸多不同开发工具组合,同时还汲取亚马逊全球自身现代化应用转型的成功实践以及服务全球数十万客户经验,希望通过帮助企业处理无差异化的繁重工作,让企业聚焦于业务本身,加快实现应用现代化。”亚马逊云科技15年间持续引领现代化应用 亚马逊云科技从15年前创立至今,一直引领现代化应用的发展与演进。Amazon Simple Queue Service (Amazon SQS)是一项适用于微服务、分布式系统和Serverless应用程序消息队列服务,已有15年历史,至今仍被众多客户所采用且依旧在不断更新其能力,并在今年亚马逊Prime Day期间创下高峰时每秒处理 4,770 万条消息的流量新纪录。2012年推出的键/值和文档数据库Amazon DynamoDB,目前每天可处理超过10 万亿个请求,并可支持每秒超过 2,000万个请求的峰值。2014年推出的Serverless计算服务Amazon Lambda,开创了业界Serverless的先河。2017年推出适用于容器的Serverless计算服务Amazon Fargate被称为“改变游戏规则”的计算服务;2018年推出专为云打造的高性能关系数据库服务Amazon Aurora,2020年推出的更新版可以在几分之一秒将数据库工作负载从数百个事务扩展到数万个,同时成本最多可节省90%。 80%的云上托管的容器都在亚马逊云科技上运行 容器是最流行的代码打包选项,目前正成为很多企业迁移上云的首选。Nucleus Research此前的报告显示:80%的云上托管的容器都在亚马逊云科技上运行。亚马逊云科技提供了广泛的容器服务,全面覆盖容器的开发构建、运行管理及安全治理等各个环节。其中仅容器编排服务,亚马逊云科技就提供三种完全托管的容器服务Amazon ECS、Amazon EKS和Amazon Fargate,客户可根据不同的技术偏好和业务需求灵活选择。Amazon ECS是亚马逊云科技自研的容器产品,与亚马逊云科技的其它服务深度集成。Amazon EKS让客户在亚马逊云科技上可使用 Kubernetes 轻松部署、管理和扩展容器化应用程序。Amazon Fargate让客户无需预置和管理服务器,专注于构建应用程序。新推出的Amazon ECS Anywhere和Amazon EKS Anywhere方便客户可灵活选择部署位置。通过亚马逊云科技,客户可以在任何应用环节、任何需要的地方运行容器服务。亚马逊云科技Serverless不止于Lambda计算,而是一套全面的Serverless架构帮助客户快速构建现代化应用 Amazon Lambda的推出开创了Serverless计算的先河,让使用者只需要关注业务逻辑,无需预置或管理基础设施,即可运行编写代码,且只需按照用量付费。在亚马逊云科技,Serverless不止是一种计算服务,更是一种端到端的架构,除Lambda外,亚马逊云科技提供了全栈式的Serverless服务,广泛覆盖计算、存储、网络、容器、数据库、应用集成多个方面,帮助客户快速构建现代化应用。作为“Serverless架构”的深度实践者,2020年亚马逊近一半的新应用都部署到了Lambda上。 亚马逊云科技丰富的开发工具和模型选择,确保现代化应用程序快速开发与产品迭代 在现代化应用程序开发层面,亚马逊云科技提供了丰富的开发人员工具,既有端到端的从创意到交付再到持续维护的开发工具选择,也有完整的持续集成和持续交付(CI/CD )的流水线产品,还提供了集成度较高的插件支持开发人员利用流行的开发语言如Java、Python、Javascript、C++等,灵活轻松的进行开发和迭代。此外,亚马逊云科技发布的Amazon Proton,作为业界首个现代化应用的全托管共享服务平台,让开发人员能够以一致的方式部署无服务器和容器应用,实现现代化应用程序的规模化部署。 目前,全球数十万客户选择亚马逊云科技交付和运行现代化应用。在中国,湖南广播电视台、丰田互联、金蝶、FreeWheel、风林火山、Momenta等各行业客户正在采用亚马逊云科技容器、Serverless等服务构建现代化应用程序。其中,金蝶发票云是金蝶的子公司,负责提供发票全生命周期管理,以SaaS服务的模式将服务集成到金蝶ERP。作为金蝶旗下成立不到两年的初创组织,随着业务的快速扩展,其面临的开发与运维压力不断增加。金蝶发票云为了把更多的精力集中在业务领域,2021年初携手亚马逊云科技的技术团队开始了现代化应用开发之旅。利用Amazon ECS和Amazon Fargate将应用的核心系统进行容器化改造,过去20天才能完成的新租户部署降低到0.5天,资源弹性扩展的反应速度从小时级降低到分钟级,极大提升了金蝶用户的满意度。通过使用Amazon Lambda,每月400万张发票处理的计算资源成本从以前的每月2万元以上降低到每月只需300元。后端影像数据库系统使用Amazon Aurora Serverless,将数据的使用成本降低了80%。 FreeWheel 是一家专门提供电视及互联网视频广告投放、预测和增值服务等关键解决方案的技术公司,服务于全美90%的顶流媒体,每年支持近500亿美元的优质广告展示。FreeWheel在业务快速发展过程中面临诸多技术挑战,比如如何实现持续的应用创新与快速迭代,如何构建海量的数据存储与处理系统,如何让应用满足严格的安全与合规要求等。亚马逊云科技的现代化应用开发方法帮助FreeWheel解决相应的技术问题并赋能业务创新。利用Amazon EKS、Amazon Lambda、Amazon Aurora、Amazon DynamoDB、Amazon S3等Serverless服务,FreeWheel成功地支持了包括奥运会、超级碗等10多个全球收视率最高的顶级赛事活动,系统可以从容应对赛事活动中流量激增的极端业务场景。同时,借助于Amazon RDS和Amazon EBS的安全特性,FreeWheel可以轻松满足数据存储、加密等审计方面的需求;在广告预测业务方面,依托于Amazon SageMaker的分布式训练集群,模型的迭代周期大幅缩短,效果提升近1倍,同时,Spot Instance的使用也让团队节省了超过50%的资源使用成本,并提升了团队的运维效率。关于亚马逊云科技 亚马逊云科技(Amazon Web Services)是全球云计算的开创者和引领者,15年来一直以技术创新、服务丰富、应用广泛而享誉业界。亚马逊云科技一直不断扩展其服务组合以支持几乎云上任意工作负载,目前提供超过200项全功能的服务,涵盖计算、存储、网络、数据库、数据分析、机器人、机器学习与人工智能、物联网、移动、安全、混合云、虚拟现实与增强现实、媒体,以及应用开发、部署与管理等方面;基础设施遍及25个地理区域的81个可用区(AZ),并已公布计划在澳大利亚、印度、印度尼西亚、以色列、西班牙、瑞士和阿联酋新建7个区域、21个可用区。全球数百万客户,包括初创公司、中小企业、大型企业和政府机构都信赖亚马逊云科技,通过亚马逊云科技的服务强化其基础设施,提高敏捷性,降低成本,加快创新,提升竞争力,实现业务成长和成功。欲了解亚马逊云科技的更多信息,请访问:http://aws.amazon.com。
| 1,029 | 1,632,390,200,794 |
InfoQ
|
226 |
Amazon Elasticsearch Service正式更名,云厂商和开源社区间必有一战?
|
云计算的普及几乎颠覆了各个行业和职能角色,商业开源市场自然也不例外。云服务所强调的效率、灵活性与可用性,同开源软件开发及商业化领域的既定秩序爆发出一场激烈的冲突。最典型的就是,近日亚马逊云科技与Elastic之间酝酿已久、并在今年全面爆发的冲突对抗。 全面爆发的对抗 “Elasticsearch 事件”时间线梳理: 2010 年,Shay Banon 在标准 Apache 2 开源许可下将Elasticsearch 开源。2012 年,Banon 成立Elastic,提供围绕 Elasticsearch 订阅、托管和培训等服务。这家公司非常成功,吸引了超过 1.62 亿美元的融资,并在 2018 年上市,估值在 15 亿至 30 亿美元之间。Elastic 雇佣了一些 Lucene 提交者,这些人并为 Lucene 和 Elasticsearch 的开发作出了重大贡献。随后,Elastic在他们自己的“可用源”许可下发布了一些增强功能,即Elastic License。Elastic规定对 Elasticsearch 的任何贡献(在任何一个许可下)均由其管理。Elastic 因将一些新功能置于此许可证下而受到了批评,因为这些新功能始于开放、社区讨论和想法。很明显,该许可证不是已批准的开源许可证。这种模式是“开放代码”——但Elastic 对于“开放”的特定价值,即对产品的路线图和方向进行了集中控制。亚马逊和一些较小的公司开始以软件即服务模式 (SaaS) 提供托管 Elasticsearch,直接与 Elastic 的产品竞争。Elastic 开始将他们的代码部分混合为 Apache 2 和 Elastic License,使这些企业难以仅使用开源部分,而亚马逊通过有效的分叉 Elasticsearch提供了一个完全 Apache 2 许可的版本,他们将其命名为Elasticsearch OpenDistro。此外,Elastic 还起诉了 Floragunn GmbH,后者提供了构成 OpenDistro 一部分的安全插件,并单独起诉 AWS 商标侵权。2021年1月,Elastic 称将在双重许可模式下发布 Elasticsearch 的所有未来版本,使用他们的 Elastic 许可和由 MongoDB 创建的SSPL许可,专门用于防止亚马逊等第三方提供其软件的托管版本。2021年4月,亚马逊云科技将分叉项目Elasticsearch OpenDistro重新命名为OpenSearch,并计划将Amazon Elasticsearch Service更名为Amazon OpenSearch Service。7月,亚马逊云科技发布了OpenSearch 1.0版本。2021年9月,Amazon Elasticsearch Service 再更名为 Amazon OpenSearch Service,并支持 OpenSearch 1.0。 变更许可证时,Elastic与亚马逊科技的冲突几近高潮。 Elastic公司创始人兼CEO Shay Banon表示,变更许可证是为了保证企业无法在未与Elastic合作的情况下将Elasticsearch与Kibana产品作为商业服务来牟利。Banon还在博文中写道,“设想一下,当亚马逊在2015年推出基于Elasticsearch的服务并将其定名为Amazon Elasticsearch Service时,我们有多么惊讶。” 作为回应,亚马逊云科技的高管们表示,“亚马逊云科技将加紧建立并维护开源Elasticsearch与Kibana的ALv2许可分支。”其Elasticsearch服务的所有新版本都将基于此分支,而且这场变化不会“减慢服务的发展速度”。 OpenSearch 与 Elasticsearch 在GitHub代码贡献对比 双方在你来我往,各说各的道理,持续爆发的争执也让用户们对于OSS许可的限制感到困惑。扑面而来的压力,也让Elastic越来越担心项目的后续资金供应跟不上发展需求。 作为一家上市企业,Elastic的Elasticsearch软件一直在为沃尔玛、奥迪等企业客户提供网站搜索支持。亚马逊却将Elastic的开源Elasticsearch重新打包并出售给客户。Elastic认为,亚马逊在本质上是夺取了由整个社区共同创造的自由代码,并通过巧取豪夺的方式保证只有自己能够从中获取价值。 开源的商业模式需要改变了? 自由软件运动以来,开源许可也随之发生了重大变化。 如今市面上有数十种开源许可证,但使用者最多的是以Apache 2.0和MIT为代表的少数许可证。Apache 2.0和MIT被称为宽松许可证,因为它们允许商业供应商重新分发开源软件(OSS)及其专有的附加内容,唯一的要求是必须在分发过程中保留原始OSS的源代码及版权信息。 宽松许可证大受欢迎,因为像Banon这样的OSS开发者可以将原始代码与专有附加组件共同打包到商业产品当中,以此实现货币化转换。这样,开放许可也不会影响到专有代码,而GNU等通用公共许可证就作出了这方面限制。 Cloudera、Elastic、MongoDB以及Talend等公司都依赖这样的商业模式,即先让用户喜欢上软件的免费开源版本,再在之后的生产应用当中付费来获取额外的企业功能与技术支持。 MongoDB在其2017年的S-1募股文件中就有过类似的表述,其中提到MongoDB数据库的免费版本并不包含商业版本的所有功能,主要是为了“鼓励开发者使用、熟悉并接纳我们的平台”。 这种商业开源软件(COSS)模式在企业私有基础设施安装与运行的时代表现不错。然而,云服务的横空出世颠覆了一切:云服务开始在生产级服务上直接提供OSS功能与API的租赁式访问,这在根本上对COSS模式构成了威胁。 应用服务商通过互联网出售对COSS产品的访问权,这种访问是由专有增强功能再打包核心OSS代码创建而成,基本设计只需要考虑如何在多租户云基础设施及其他专有云服务中稳定运行,全程不涉及任何实际分发。 像亚马逊云科技这样的企业并不是在销售Elasticsearch软件,而是在销售基础设施、运营支持Elasticsearch各种功能。这种情况下,他们甚至将使用REST API或SQL语法的分布式搜索作为按需服务进行销售。 云服务商的服务产品并不会直接威胁到COSS商业模式,毕竟厂商可以通过单独的许可对其中的专有功能予以限制。让COSS陷入困境的主要有以下两个原因: 企业开发者使用等效的云服务替代内部运营的软件安装方案,消除了由COSS厂商向企业出售附加组件安全性、可靠性及集成功能的空间。Elastic等企业可能利用开源运动中的善意,创建伪OSS许可证来保护其专有代码,同时继续保留OSS产品的外衣。 云时代下,商业开源模式应该如何发展? 面对这个问题,Elastic当前“我全都要”的态度只会让情况进一步恶化。他们既想当OSS道德楷模,又想把握住商业软件供应商的丰厚利润。糟糕的是,他们为了限制软件商业用途而使用的全新服务器端公共许可证(SSPL)已经被开源软件倡议(OSI)公开嘲讽。 OSI指出,Elastic的SSPl许可证存在几个问题,特别是对于OSS的拥护者们而言,他们长期支持开源项目的善意未来很可能被锁定在专有限制性许可证之下。OSI认为,Elastic的变化并不代表着OSS许可模式的失败。相反,它反映出“Elastic在现有商业模式与开源许可证设计目标上存在着内生冲突。” 企业应该如何参与开源事实上,亚马逊云科技的OpenSearch分叉反而成了Elasticsearch乱局的最佳解决方案。当然,必须要有足够多的独立开发者(即与亚马逊云科技无关的开发者)参与进去,该项目才能取得真正的成功。 在Linux基金会及跨行业开源安全基金会的支持下,《哈佛商业评论》对企业使用开源项目进行了调查。调查指出,企业进入开源生态时,需要认真思考事关开源生态未来的以下几个问题: 企业的参与是否会对开源生态的未来健康和福祉产生负面影响?如果开源项目较少受到社区意识的驱动,而更多被追求利润的机构所摆布,开发者是否会决定停止参与?企业是否会单纯关注有利可图的开源项目,忽略掉全社会所依赖的其他关键基础设施?这类软件的安全维护难度大吗?如果更多开源落入少数企业手中,是不是代表着参与bug及潜在漏洞检查的人手会越来越少? 如今的开源生态成熟且庞大,单靠志同道合人们的努力不可能保持高效运转。企业和政府这样的大型机构应该明白,当自己直接或间接赞助开源项目时会对整个生态系统产生怎样的影响,同时遵循一些必要的原则。 首先,企业和政府应该在不扼杀社区精神这一基本贡献动机的前提下,推动开源继续稳步发展。换句话说,企业应该设定明确的开源策略(最好鼓励员工尽可能为开源做贡献)。调查发现,不少员工对其所在企业的开源策略并不了解,导致他们一直犹豫要不要公开使用并参与到开源项目中。此外,企业和政府也可以主动支持开源项目,保证那些与自身运作息息相关的重要项目能够稳定发展下去。 第二,使用开源项目的企业(其实这几乎涵盖了所有企业)应该提高自身对所使用开源项目的认知水平。近期,美国出台的总统行政令要求将政府购买的所有产品汇总成一份软件材料清单(SBOM),确保政府了解使用了哪些开源软件和专有软件,进而做出潜在漏洞预判。 这一点非常重要,也值得其他企业效仿。这样能够帮助企业更好地理解自己对于开源社区的依赖性,并以更高的透明度了解到自己是否会受到新披露安全漏洞的影响。当前很多企业都在使用过时的开源版本,如果未能及时更新,则意味着软件中可能包含已知的bug及安全漏洞。同时,商业软件中使用范围最广的各大开源软件包都被存放在个人开发者(而非整体社区)的账户之下,这不仅会引发安全性问题,更存在着可靠性隐患。 第三,随着企业深入参与开源项目,各方都应该关注当前软件的稳定性,企业应该鼓励员工为那些对公司有用的项目出力,同时参与到常规的安全维护工作中。另外,企业应该意识到这些项目背后的志愿者社区至关重要,理应受到保护。通过这种方式,他们不仅能够被准许自己新添加的功能,同时也能保证整个开源生态的未来健康与福祉。 尽管越来越多的贡献者能够拿到企业赞助,但他们的主要驱动力并不是金钱。换言之,企业采取的传统激励杠杆也许起不了作用,必须更多关注贡献者们的内驱因素,例如对学习的热情、对开源社区的归属感及对程序员这一专业身份的认同等。 结束语亚马逊云科技与Elastic之间围绕Elasticsearch商业用途的斗争,凸显出开源软件供应商在云时代下已经必须要作出改变了。但开源生态系统中涉及的利益相关方数量众多,任何单一的参与者都很难解决所有问题。因此,未来需要企业、政府机构及个人贡献者等多方的共同努力,来保障开源生态系统的发展与活力。 相关链接: https://hbr.org/2021/09/the-digital-economy-runs-on-open-source-heres-how-to-protect-it https://searchcloudcomputing.techtarget.com/opinion/Elastic-vs-AWS-highlights-open-source-monetization-dilemma
| 2,547 | 1,631,228,400,665 |
InfoQ
|
227 |
高手云集,脑波碰撞,亚马逊云科技黑客松带你走进一场奇妙的AI之旅
|
AlphaGo打败世界围棋冠军时,AI和生活还有些遥远,而如今,我们已能清晰的感受到人工智能正逐渐渗透到人们生活的方方面面。疫情中,智能评估新冠病毒感染的肺炎AI影像已投入使用;自然灾害来临前,AI用于辅助极端天气预警;刚刚结束的东京奥运会,首次大规模使用人脸识别技术,并通过AI评分系统保证评分公正性...... 从概念到实践,从一行行代码到大规模的应用落地。每一次技术上的突破,都源自开发者头脑中迸发出的微小火花。这些微小火花在亚马逊云科技【先行者·人工智能技术应用大赛】的舞台上得到闪耀绽放。 最终,来自深道科技的“Deepideal队”凭借【手机上的健身动作教练】作品斩获冠军;来自广东移动的“需有差程队”和来自武汉理工大学资环学院的“gis322队”分别斩获大赛的二等奖和三等奖。 独创黑客松玩法,你说酷不酷! 亚马逊云科技颠覆以往黑客松大赛的形式,创新性的将算法比拼与方案落地结合起来,带给选手和观赛者独一无二的体验。本次【先行者·人工智能技术应用大赛】最大的亮点在于创新。 初赛阶段分为【新手上路】【进阶达人】【迷你路演】三个环节,12支队伍从自然语言处理和计算机视觉两大方向任选其一,依托亚马逊云科技提供的丰富服务,完成代码比拼题目,并在【迷你路演】环节利用选定的算法模块,针对特定商业场景阐述构想。 经过初赛阶段的激烈比拼,5支队伍晋级决赛。决赛难度升级!想突围而出,既要能拼手速,懂服务,又要能写代码,玩儿落地。【趣味抢答】线上线下协同,选手场内抢答当仁不让,观众评论区互动热火朝天。【决战之巅】要求选手从智慧奥运、气候变化、智慧城市、数字乡村 四个场景中,任选其一,以人工智能技术为依托进行开发、落地,不仅需要阐述方法,选手还需要现场完成交互性展示。 “需有差程队”蔡汝健表示:这是我们参加过最特别的比赛。以往比赛边界都很清晰要么写代码比算法,要么写PPT讲方案,两者结合的比赛,还是第一次参与,比赛过程很惊心动魄。 在参赛选手中,有经验丰富的老码农,也有四舍五入零零后、初生牛犊不怕虎的在校生。有领导带着实习生组团参赛,也有身处不同城市的好友组队同屏参赛。 为技术而聚,携收获而去。五强队伍之一的“寒山寺队”来自苏州某外企运维团队。队员彭涛说:“想通过比赛对NLP领域有更深的了解,同时也想了解下亚马逊云科技在NLP领域的突出服务,公司的很多服务都部署在亚马逊云上。”在比赛中拔得头筹的“Deepideal队”认为:比赛过程也是学习的过程。出于对滑雪喜爱选定主题,一步一完成搭建,没想到程序真的能在手机上跑起来,未来,考虑将这个方案进行完善及商业落地。 AI技术难吗?正如评委敏捷老师所说:随着近年来的发展,很多数据、模型系统都已封装好,亚马逊云科技也提供很多服务,帮助大家快速完成开发。那是容易吗?也不是,即便有再多工具,也需要有过硬的数学基础,算法知识和超凡的创意。这正是大赛有趣的地方!盘点:这些获奖项目凭什么脱颖而出? 凭什么是这3支队伍从12支队伍中杀出重围呢?获奖的项目有哪些独到之处,别急,小编带你逐一解析。冠军:手机上的健身动作教练 斩获本次大赛冠军的团队“Deepideal队”选择了【智慧奥运】的应用场景,开发出一款超轻量级姿态检测网络程序。该方案利用关键点识别定位精准的特点,帮助运动员及健身爱好者纠正动作,并进行锻炼计数,达到与真人教练指导健身相似的体验。 目前,市面上的手机健身软件大多无法做到动作的实时纠正。其技术痛点主要在于,一方面算法运行速度慢无法做到实时检测,训练困难,另一方面推广能耗和成本太高,难以在C端市场推广。 经过调研和实验,“Deepideal队”使用在TensorFlow.js上推出的MoveNet姿态识别模型,并用Coco和Active两个数据集训练模型。最终实现几乎在所有平台上都能够达到实时检测的要求。 在部署阶段,“Deepideal队”采用了Amazon SageMaker服务。队员贺鑫表示:MoveNet基于TensorFlow训练,通过Amazon SageMaker服务可以很方便的进行数据训练,不用考虑硬件环境维护。此外,亚马逊云科技也提供了完善的线上部署工具来支持基于node.js程序的部署,包括Elastic Beanstalk和常用的EC2虚拟机。 比赛现场,“Deepideal队”针对深蹲动作识别及规范进行交互演示。在就该项目拓展到其他运动姿势可能性上的一番探讨过后,其商业价值得到评委老师一致肯定,从而将冠军收入囊中~亚军:AI赋能乡村振兴,智慧乡村解决方案 来自广东移动的“需有差程队”聚焦城市与乡村建设,从广东移动自有能力出发,打造“一横”(核心能力平台)、“多纵”(垂直智慧场景应用)的智慧城市产品体系。 基于亚马逊云科技产品矩阵,他们将整个乡村系统架构划分为三个技术应用层级,并计划接入亚马逊云科技的20项服务能力。接入层主要负责智慧城市运营平台出入流量的安全管控;平台层承载整个智慧城市运营平台的产品栈,拉取视频流,抽帧并对接能力层做AI识别,并对识别结果做记录和触达类推送;能力层使用Sagemaker做自研视觉类模型训练,结合Elastic做推理优化,并使用Polly服务补齐语言能力短板。在横向维度需要差程的方案中包含物联网、视频云、城市AI、大数据、业务汇聚五大核心能力平台。在纵向维度,该方案可用于实现重点人群监管、违章停车监管及落水检测等功能。作为相对完善的方案,其多项功能已在城市多个场景中应用,需要差程队在现场通过视频向评委及观众展示了其方案的落地效果。季军:口罩佩戴识别系统 先有COVID-19,后有德尔塔毒株,当下疫情肆虐,而东京奥运会等大规模赛事活动又无可避免的导致人员聚集,这样的大背景下,最重要的毫无疑问是保护好自己。来自武汉理工大学的“gis322队”选择【智慧城市】方向。以近8000张图片作为模型训练的数据,同时采集生活照作为模型部署测试的数据。 在模型选择阶段,“gis322队”尝试多种模型,综合精度、效率,最终图像推理采用ppyolov2模型,视频推理采用ppyolo_tiny模型。在部署阶段,由于现有云端部署存在一定限制,他们基于ONNX进行部署,赵慧琳表示,后续希望可以使用亚马逊服务器进行服务部署。 该系统发布在Web端,可实现图像及视频等多种形式素材的口罩佩戴识别。“gis322队”现场导入图片及视频,进行口罩识别交互演示,效果理想,在保证检测精度的同时也满足了响应速度的需求。 氛围组担当王敏捷老师作为评委,对该项目产生了浓厚的好奇心,导入多人场景及搞怪“口罩”照片进行验证,掀起了决赛场的一波气氛高潮。 尽管结果证明该系统的灵活性还有待加强,但王敏捷老师及其他评委老师依旧给予了该系统很高的评价。 随着冠亚季军的产生,万元奖金花落谁家的谜底最终揭晓,亚马逊云科技【先行者·人工智能技术应用大赛】也圆满落下帷幕。 是不是还有点意犹未尽,9月精彩活动远不止这些。「构建新格局,重塑云时代」亚马逊云科技中国峰会将于9月9日-14日线上进行。这是一场长达6天的技术马拉松,届时将有5大主流领域演讲,8大硬核技术论坛和9大行业分论坛,9月11日是DEV DAY开发者大会,多位大咖将在这场大会分享云上开源的具体实践,赋能开发者;9月14日是人工智能和机器学习大会;期待您的报名参加,与专家零距离交流技术心得,与技术大咖实现观点碰撞,感兴趣的小伙伴可扫描海报上的二维码报名~👇🏻
| 2,036 | 1,631,096,391,323 |
InfoQ
|
228 |
盘点 Serverless 架构的六个特质
|
本文介绍了 Serverless(无服务器)架构的六个特质(Traits):入门门槛低(Low barrier-to-entry)、无主机(Hostless)、无状态(Stateless)、弹性(Elasticity)、分布式(Distributed)和事件驱动(Event-driven)。其目的是倡导大家尽可能广泛地采用 Serverless 架构。Serverless 架构带来了一个有趣的范式转变,这使得软件开发的许多方面都变得更好了。但它也带来了技术人员必须要适应的新挑战。对于如何应对每种特质所带来的挑战,我也给出一些简短的建议,希望这些挑战不会阻止大家采用 Serverless 架构。每当新技术出现时,技术专家的首要任务就是要理解采用新技术的意义。Serverless(无服务器)架构就是一个很好的例子。 不幸的是,目前关于 Serverless 架构的文献大多都只关注于它的优点。许多文章(以及使用示例)都是由云供应商推出的,因此,会毫不意外地谈论其积极方面。本文的意图是让大家更好地理解 Serverless 架构的特质。 我特意选了特质(Trait)这个词,而不是特性(Characteristic),因为这些是 Serverless 架构的元素,我们无法更改它们。Characteristic 特性是可塑的,而 Trait 特质是固有的。Trait 特质也是中性的,因此它既不是积极的也不是消极的。在某些情况下,我所描述的某些类型的 Trait 特质可能具有积极的含义,但我会保持中立的态度,以便你了解自己将要面对的是什么。 Trait 特质也是内在的,因此你必须要接受它们,而不是与之抗争,因为这样尝试的话可能会付出相当大的代价。另一方面, Characteristic 特性需要花费精力去塑造它们,然而你还是可能会把它们搞错。 我还应该向大家介绍 Mike Roberts 的这篇文章,他也探讨了Serverless服务的 Traits 特质。尽管我们在这里使用了相同的术语,但值得注意的是,本文所研究的是架构的Traits特质,而不是你所使用的服务的 Traits 特质。 本文的目的不是帮助你深入理解所有的主题,而是为你提供一个大致的概述。以下是本文中定义的 Serverless 架构的 Traits 特质: 入门门槛低(Low barrier-to-entry)无主机(Hostless)无状态(Stateless)弹性(Elasticity)分布式(Distributed)事件驱动(Event-driven)入门门槛低 让你的代码开始在 Serverless 架构中运行相对来说是简单的。你可以参照任何教程来开始,并让代码在生产级生态系统中运行。在许多方面,Serverless 架构的学习曲线并没有典型的DevOps 技能那么令人生畏——当你使用 Serverless 架构时,DevOps 的许多元素就都是不必要的了。例如,你不必学习服务器管理技能,如配置管理或补丁。这就是为什么入门门槛低是 Serverless 架构的 Traits 特质之一。 这意味着,最初开发人员的学习曲线比许多其他架构风格的曲线都要低。但这并不意味着学习曲线会一直保持在较低的水平,事实上,随着开发人员继续他们的旅程,整体学习曲线将会变得更陡峭。 由于这种架构特质,我看到许多新的开发人员很快就加入到了项目中,并且他们能够有效地为项目做出贡献。开发人员能够快速上手,这可能是 Serverless 项目能更快上手的原因之一。 正如我们所指出的那样,事情确实会变得更加复杂。例如,基础设施即代码(Infrastructure as a code,Iac)、日志管理、监控,有时还包括网络,这些仍然都是必不可少的。你必须要了解如何在 Serverless 的世界中实现它们。如果你来自不同的开发背景,那么你需要了解一些 Serverless 架构的Traits特质(本文将介绍这些 Traits 特质)。 尽管最初的入门门槛很低,但开发人员不应该认为他们可以忽略重要的架构原则。 我注意到,一些开发人员倾向于认为 Serverless 架构意味着他们不必考虑代码设计。理由是他们只是在处理函数,所以代码设计是无关紧要的。事实上,像 SOLID 这样的设计原则仍然适用——你不能将代码的可维护性外包给你的 Serverless 平台。尽管你可以将代码打包并上传到云上运行,但我强烈建议你不要这样做,因为持续交付实践在 Serverless 架构中仍然是相关的。无主机Serverless架构的一个明显特质是,你无需直接处理服务器。在这个时代,你可以在各种各样的主机上安装并运行服务——无论是物理机、虚拟机、容器等等——用一个词来描述这一点是很有用的。为了避免使用已经使用过的术语“无服务器”(“serverless”),我将在这里使用“主机”(“host”,术语“主机”在《构建微服务》一书中使用过)这个词,因此该Trait特质名为“无主机”(Hostless)。 无主机的一个优势是,你在服务器维护方面的操作开销将会大大减少。你无需再为升级服务器而忧心,安全补丁将自动为你执行。无主机还意味着在应用程序中你需要监控的度量指标也会不同。这是因为你使用的大多数底层服务不会再发布 CPU、内存、磁盘大小等传统度量指标了。这意味着你不再需要理解架构的低级操作细节。 但不同的监控指标意味着,你必须重新学习如何调整你的架构。AWS DynamoDB 提供了可以供你进行监控和调控的读写能力,这是一个你必须要了解的概念,而且这种学习是不能迁移到其他 Serverless 平台的。你使用的每项服务都有其局限性。AWS Lambda 具有并发执行的限制,你所拥有的 CPU 核数不存在限制。更奇怪的是,更改 Lambda 的内存分配大小将会更改获得的 CPU 核数。如果你为了性能测试和生产环境共享一个 AWS 帐户,那么如果性能测试意外地消耗了你的全部并发执行限制,可能会导致生产的宕机。AWS 很好地记录了每项服务的限制,因此请务必检查它们,以便做出正确的架构决策。 一个常见的误解是,Serverless 应用程序更安全,因为安全补丁会自动应用于你的底层服务器。这个假设很危险。 由于 Serverless 架构具有不同的攻击向量,传统的安全防护已不再适用。应用程序的安全实践仍然适用,并且在代码中存储秘密仍然是一个很大的禁忌。AWS 在其责任共担模式中概述了这一点,例如,如果数据包含敏感信息,你仍然需要保护数据。我强烈建议你阅读10 大 OWASP Serverless 项目以获得更多有关该主题的见解。 虽然你的运维操作开销大大减少了,但值得注意的是,在极少数情况下,你仍然需要管理底层服务器更改后的影响。你的应用程序可能依赖于原生库,并且你需要确保在升级基础操作系统时它们仍可以工作。例如,在 AWS Lambda 中,操作系统最近已升级到了 AMI 2018.03。无状态 函数即服务,即 FaaS,是很短暂的,因此你不能在内存中存储任何内容,因为运行代码的计算容器将由平台自动创建和销毁。因此,无状态(Stateless)是 Serverless 架构中的一个 Trait 特质。 无状态是水平扩展应用程序的一个很好的特质。无状态的概念是鼓励你在应用程序中不要存储状态。通过不在应用程序中存储状态,你将能够启动更多的实例,而无需担心应用程序的状态,从而实现水平扩展。我在这里发现了一个有趣的点,实际上无状态是被迫的,因此错误的空间大大减少了。是的,这里有一些注意事项:例如,计算容器可能会被重复使用,你可以存储状态,但是如果你采用这种方法,请务必谨慎处理。 就应用程序开发而言,你将无法使用需要状态的技术,因为状态管理的负担是强加给调用方的。例如,不能使用HTTP会话,因为你没有具有持久化文件存储的传统Web服务器。如果你想使用 WebSockets 等需要状态的技术,那么你需要等待,等到相应的后端即服务(BaaS)支持这些技术为止,或者应用你自己的解决方案。弹性 由于你的架构是无主机的,那么你的架构也将具有弹性的特质。 你使用的大多数 Serverless 服务都被设计为具有高弹性,你可以从零扩展到允许的最大值,然后再回到零,大部分是自动管理的。 弹性是 Serverless 架构的一个 Trait 特质。 对于可扩展性来说,弹性的好处是巨大的。这意味着你不必手动管理资源扩展。资源分配的许多挑战都消失了。在某些情况下,具有弹性可能只意味着你只需为所使用的内容付费,因此,如果你的使用模式较低,则可以降低运行成本。 你可能需要将 Serverless 架构与不支持这种弹性的遗留系统集成。当这种情况发生时,你可能会破坏下游系统,因为它们可能无法像 Serverless 架构那样扩展。如果你的下游系统是关键系统,那么考虑如何缓解此问题是至关重要的——可能是通过限制 AWS Lambda 的并发性或利用队列与下游系统对话。 虽然在这种高弹性的情况下,“拒绝服务”攻击(denial of service,DOS)将会变得更加困难,反而更容易受到“拒绝钱包”(denial of wallet)攻击。在这种情况下,攻击者试图通过强制增加资源分配来迫使你超出云帐户的限制,从而破坏应用程序。为了防止这种攻击,你可能会发现在你的应用程序中使用 DDoS 保护(如AWS Shield)是很有帮助的。在 AWS 中,设置 AWS 预算也很有用,这样当你的云账单暴涨时,你就会收到通知。如果高弹性不是你所期望的,那么在应用程序上设置约束是很有用的,比如通过限制 AWS Lambda 并发性。分布式 由于无状态计算是一种特质,所有的持久性需求都将存储在后端即服务(BaaS)中,通常是 BaaS 的组合中。一旦你更多地使用 FaaS,你还会发现你的部署单元(即函数)比你已习惯了的可能还要小。因此,在默认情况下,Serverless 架构是分布式的,并且有许多组件必须要通过网络来进行集成。你的架构还将包括将服务连接在一起,比如身份验证、数据库、分布式队列等。 分布式系统有很多好处,比如我们前面讨论过的弹性。在默认情况下,分布式还能为你的架构带来了单区域的高可用性。在 Serverless 环境中,当云供应商所在区域的某个可用性区域出现故障时,你的架构将能够利用其他仍在运行的可用性区域——从开发人员的角度来看,所有这些都是不透明的。 在选择架构时总要权衡利弊。在这个特质中,你牺牲了一致性来换取可用性。通常在云上,每个 Serverless 服务也都有自己的一致性模型。例如,在 AWS S3 中,通过在 S3 桶中对新对象的 PUT 操作可以获得“写后读”(read-after-write)的一致性。对于对象更新,S3 是最终一致的。对于你来说,决定使用哪种 BaaS 是很常见的,因此要注意它们的一致性模型的行为。 另一个挑战是你需要熟悉分布式消息的传递方法。例如,你需要熟悉并了解精确一次投递(exactly-once delivery)这一难题,因为分布式队列的常见消息投递方式是至少一次投递(at-least-once-delivery)。由于这种投递方式,AWS Lambda 可以被多次调用,因此你必须确保你的实现是幂等的(了解FaaS的重试行为也很重要,其中 AWS Lambda 可能会在失败时多次执行)。你需要了解的其他挑战还包括分布式事务的行为。然而,随着微服务的普及,构建分布式系统的学习资源一直在演进。事件驱动 Serverless 平台提供的许多 BaaS 自然会支持事件。对于第三方服务来说,这是一个很好的策略,它们可以为其用户提供可扩展性,因为你无法控制他们服务的代码。由于你将在 Serverless 架构中使用大量的 BaaS,因此你的架构是具有事件驱动这一 Trait 特质的。 我还认识到,即使你的架构是具有事件驱动这一 Trait 特质的,但这并不意味着你需要完全采用事件驱动的架构。然而,我观察到,当将事件驱动架构自然地提供给团队时,团队更倾向于接受它。这个特质和弹性特质类似,不需要时,你仍然可以关闭它。 事件驱动能带来很多好处。架构组件之间的耦合程度很低。在 Serverless 架构中,你可以很容易地引入一个新函数来监听 blob 存储中的更改: 注意,当添加函数 B 时,函数 A 并没有改变(参见上图)。这增加了函数的内聚性。函数具有高内聚是有很多好处的,其中一个好处是当单个操作失败时,你可以轻松地重试该操作。当函数 B 失败重试时,意味着你不需要运行高昂的函数 A。 特别是在云计算中,云供应商将确保你的 FaaS 与他们的 BaaS 能够轻松集成。FaaS 可以被设计成由事件通知触发。 事件驱动架构的缺点是,开始时你可能会失去系统作为一个整体的整体视图。这会使得对系统进行故障排除变得更具挑战性。分布式跟踪是你应该研究的一个领域,尽管它在 Serverless 架构中仍然是一个成熟的领域。AWS X-Ray 是一种可以在 AWS 中开箱即用的服务。X-Ray 确实有其自身的局限性,如果你已经超越了它,你应该关注这个领域,因为有第三方的产品正在涌现。这就是为什么记录关联 ID(Correlation IDs)的实践是必不可少的,特别是在事务中使用多个 BaaS 的情况下。所以一定要确保实现关联 ID。结论本文介绍了 Serverless 架构的六个Traits特质:入门门槛低、无主机、无状态、弹性、分布式和事件驱动。我的目的是倡导大家尽可能广泛地采用 Serverless 架构。Serverless 架构带来了一个有趣的范式转变,这使得软件开发的许多方面都变得更好了。但它也带来了技术人员必须要适应的新挑战。对于如何应对每种 Trait 特质所带来的挑战,我也给出一些简短的建议,希望这些挑战不会阻止你采用 Serverless 架构。 原文链接:https://www.thoughtworks.com/insights/blog/traits-serverless-architecture
| 5,265 | 1,630,900,723,070 |
InfoQ
|
229 |
全球芯片短缺,台积电全线涨价;微软挖角亚马逊高管;IEEE 公布 2021 年度编程语言排行榜
|
本周架构视点:小米:收购深动科技;台积电:全球缺芯,全线提价;微软:挖角亚马逊高管;谷歌或向苹果支付 150 亿美元保留默认搜索引擎;IEEE 公布 2021 编程语言排名,Python 连庄;App Store 将迎重大更新;Cloudflare 扛下超大规模 DDoS 攻击。 万万没想到小米集团 7737 万美元收购自动驾驶技术公司 Deepmotion(深动科技) 本周三,小米集团正式宣布,公司与 Deepmotion Tech Limited(深动科技)相关订约方订立股份购买协议。整体收购总价约为 7737 万美元。 DeepMotion 属于高精地图与定位技术公司,采用视觉为主的多传感器融合策略,其以高精地图为核心,对感知、定位与构图模块在算法层面进行整合,由于其没有拿到地图相应测绘资质,未来将转向提供全栈的自动驾驶解决方案,包括前视/环视/周视感知系统、自主代客泊车AVP方案等技术。据称,DeepMotion 可能会有一个 20 余人的团队融入小米,这将帮助小米初步加大自动驾驶领域的技术积累,补齐各领域负责人,奠定小米造车的基础。苹果针对 iPhone 12、12 Pro 无声因问题推出服务计划 本周五苹果公司在其官网推出了新的服务计划,以解决少量机型在拨打或接听电话时出现无声音的问题。受影响的用户可以带着设备到苹果直营店或授权商处接受免费服务。苹果公司表示,部分 iPhone 12 和 12 Pro 听筒模块上的某个组件可能会发送故障,极少数的设备会出现声音问题。本次服务计划涵盖 2020 年 10 月至 2021 年 4 月期间生产的有限数量的设备,主要针对 iPhone 12 和 iPhone 12 Pro,iPhone 12 mini 和 iPhone 12 Pro Max 不受影响,不在这项计划的保障范围。全球缺芯关键时刻,台积电全线提价最高 20% 据报道,台积电上周内部决议,计划将最先进制程芯片的价格上调约 10%,而汽车制造商等客户使用的成熟制程芯片价格将上调约 20%。面对上游原材料的涨价及下游旺盛的需求,各大芯片代工厂随之不断调涨报价,联电、力积电、台积电、中芯国际等均受影响。且随着产能争抢激烈,价格更呈现逐季调涨趋势。早在本周三,多家芯片设计厂商就已收到了台积电涨价通知:5nm 和 7nm 等先进制程涨幅约 7% 至 9%,成熟制程价格涨价约 20%。 台积电正在努力提高产能,增加产量,并解决长期需求方面的结构性增长。台积电预计在未来三年内将投资约 1000 亿美元以提高产能。同时台积电也表示,短缺问题可能会持续到2022 年,2023 年有望得到解决。微软聘请亚马逊云业务高管贝尔担任公司副总裁 据报道,北京时间 8 月 26 日上午,微软聘请亚马逊云计算主管查理·贝尔(Charlie Bell)担任公司副总裁。此前贝尔一度被视为 AWS 新主管的候选人,他是亚马逊顶级高管团队 S-team 的一员,在亚马逊主要负责定价、软件开发服务运营和财务业绩等。目前暂不清楚贝尔具体会在微软做什么。不过这一挖角行动可以看出微软在 Azure 云业务上的决心。谷歌今年或向苹果支付 150 亿美元保留默认搜索,同比涨 50% 谷歌公司每年都向苹果公司支付一大笔费用用以维持它在 iPhone 、iPad 以及 Mac 上的默认搜索引擎地位。据投行伯恩斯坦(Bernstein)分析师发布的最新报告称,谷歌今年向苹果支付的费用可能高达 150 亿美元,较去年的 100 亿美元增长 50%。同时预计明年将进一步增加到 180 亿美元至 200 亿美元。App Store 将迎来重大更新Apple 于 8 月 27 日宣布了一系列关于 App Store 的重大更新。首先,Apple 将允许开发者向用户介绍在 iOS App 之外的购买选项,且 App Store 以外的任何购买均不需要向 Apple 支付佣金。其次,App Store 中订阅、App 内购买以及付费 App 的价格点数从不到 100 个将会拓展到 500 个,给予开发者充分的定价自由。此外,App Store 重大更新还包括了 App Store 搜索改善、继续保留 App 申请复议的选项、公开 App 审核机制的详细数据和设立基金会以帮助美国小型开发者等多项内容。最后,Apple 还启动新闻伙伴计划,以拓展 Apple 对新闻事业的支持。IT 科技新闻IEEE 公布 2021 年编程语言排名,Python 一骑绝尘,C# 排名飞升 本周三,https://spectrum.ieee.org/top-programming-languages-2021 发布了 2021 年度编程语言排行榜。IEEE 按照 8 个信息源 11 种指标收集数据,包括 GitHub、Google、Hacker News、IEEE、Reddit、Stack Overflow、Twitter、CareerBuilder,涵盖了主流社交、技术、开源代码和求职网站。深度剖析 55 种编程语言的流行度,希望以此呈现开发者工具最真实的现状。Python 在总榜单以及其他几个分榜单(如综合热度、增长速度、工作需求等)中都牢牢占据第一名的位置。最近几年 Python 的发展可谓势如破竹。另外值得关注的是微软 C#,从 2020 年的 23 名跃升至了今年的第 6 名,开发者对分布式系统的兴趣持续增加,C# 正是为实现这一功能而设计的,这大概也是 C# 提升的原因之一。Cloudflare 发文称扛下了超大规模 DDoS 攻击,峰值每秒达 1720 万次 Cloudflare 近日称在上月 Cloudflare 发现了针对金融行业客户的大规模 DDoS 攻击,攻击者利用了由 20000 多台受感染的设备组成的僵尸网络,以通过向目标网络发送巨量 HTTP 请求的方式,来耗尽其服务器资源。Cloudflare 指出,在本次攻击的高峰,创下了每秒 1720 万次的请求(rps)记录,规模达到了以往针对公共领域发起的容量 DDoS 攻击的三倍。攻击持续了数小时,Cloudflare 帮助客户扛下了超过 3.3 亿的垃圾 HTTP 请求。此前,AWS 曾在 2020 年 2 月记录了有史以来最大的带宽 DDoS 攻击,峰值达到了每秒 2.3 Tbps。Facebook 智能眼镜项目细节曝光,运行定制版安卓系统 本周,Facebook 向美国联邦通信委员会(FCC)提交了其智能眼镜项目 Project Aria 的使用手册,该手册显示了 Ariane 的 iOS 版本,目前还没有关于 Facebook 是否也在使用安卓配套应用测试这款眼镜的消息。单个设备组件的照片显示,Facebook 使用了与 VR 头盔 Oculus Quest 2 相同的摄像头传感器。视频是以 VRS 文件格式录制的,其中包含同时捕捉所有四个摄像头流的图像。天津国资委要求国企上国资云,停止使用阿里云、腾讯云等平台 为将国企数据纳入统一管理,天津市要求国企不再使用第三方云服务,迁移至统一平台。天津计划在 2022 年 9 月底前,全部完成国企向国资云的迁移工作。 “上国资云”指与天津国资云科技有限公司合作,向其采购云计算、云安全、云桌面及电子发票系统等服务。天津国资云公司是天津国资委全资控股公司,成立于 2021 年 3 月。 中国已经在关键行业推进信息系统的国产化,但此前并未要求将信息系统部署至统一的云平台。根据文件,迁移至统一云平台是为了将国企数据资产纳入统一管理,加强安保。值得注意的是,已建成的国资云仍从第三方云采购服务。根据四川国资云官网,它由四川省国资委授权四川能投集团下属公司建设,向采用阿里云采购技术方案,运营由四川能投和四川电信联合完成。Linux 大版本更新,将提升未来企业应用程序的安全性 Linux 刚过完 30 周岁生日,下一个大版本 5.14 稳定版也即将发布,据官方公告称,Linux 5.14 将带来多项新功能。Red Hat(红帽)Linux 工程副总裁 Mike McGrath 指出,其中包括一项被称为核心调度的新特性,旨在缓解包括 2018 年开始曝光的幽灵(Spectre)和熔毁(Meltdown)等在内的处理器级别的硬件漏洞。此外在企业 Linux 开发商 SUSE 首席技术官 Gerald Pfeifer 看来,得益于开源领域前所未有的创新潜力、再加上开放性与独立性,Linux 已经奠定了面向未来 30 年的重要基础。IBM 发布 7 纳米 Telum 处理器,并称其可以实时检测欺诈在本周的 Hot Chips 33 芯片大会上,IBM 公布了其新一代处理器 Telum。Telum 是 IBM 首款具有芯片上 AI 加速功能的处理器,用于 IBM 下一代 Z 系列大型机和 LinuxONE 服务器。IBM 称,其人工智能硬件研究中心花了 3 年的时间研发打造出 Telum 处理器,新处理器通过芯片内深度学习推理(Inference),帮助即时解决金融客户解决欺诈等问题,从而不需要将数据转移至芯片外。用于大型机上时,可以协助银行解决诈骗、高频交易等金融难,预计 2022 年上半年采用该芯片的大型机系统将会推出。
| 5,558 | 1,630,288,345,020 |
InfoQ
|
230 |
基于亚马逊云服务建数据仓库的数据流设计与架构
|
本文最初发表于 Medium 博客,经原作者 Abhijit Patil 授权,InfoQ 中文站翻译并分享。在本文中,我们将介绍使用原生 AWS 服务构建 ETL 流程的众多设计之一,以及如何集成这些设计来构建端到端数据管道。AWS 数据流(ETL)在上图中,它代表了数据管道的四个主要方面,即数据摄取(Data Ingestion,E)、数据转换(Data Transformation,T)、数据加载(Data Load,L)和服务(Service,S)。数据摄取(E)在将数据从企业内部摄取到 AWS S3 中,还有很多其他模式。在这个流程中,我们代表了使用 HTTP 接口摄取数据的模式之一。其他模式可以使用 AWS 数据迁移服务,详情可参阅:https://aws.amazon.com/cloud-data-migration/。a. 文件上传器 APIHTTPs API 使用托管在 EC2 上的 Spring boot 应用程序来上传/下载数据。这支持数据的多部分上传。你可以使用 Spring boot 框架来编写文件上传器 API,并将其托管在自动伸缩的 EC2 上。要创建 Java 服务器端的文件上传器程序,请参考这个简单指南:https://spring.io/guides/gs/uploading-files/。要让这个应用程序更具弹性,你可以将 ELB 和 Amazon EC2 Auto Scaling 添加到应用程序前面。b. 数据移动到 S3一旦收到数据文件,应用程序将暂时把数据保存在 EBS 卷中,然后使用 AWS SDK,可以把它移动到 S3 存储桶(Staging)。当数据移动到 S3 时,将会引发 S3 事件。通过该事件,可以触发 Lambda 函数,然后通过调用 Step 函数来触发 ETL 工作流。注:S3 staging 存储桶将主要保存从源接收的原始数据。数据转换(T)强烈建议将可能是各种格式(如 JASON、XML、CSV 或任何其他格式)的原始数据转换成统一的数据格式,如数据湖(Data Lake)中的 parquet 格式。这样就能使数据湖的数据的标准化。将按照下列高级步骤进行数据转换:在 Step 函数工作流中,所有 ETL 转换阶段将被定义,一旦数据通过 Lambda 函数登陆到 staging S3 存储桶,该工作流就会被触发。工作流的第一阶段将是日期控制检查或业务日期检查,这将使用 Lambda 来完成,它在内部访问 DynamoDB,该数据库将存储日期控制和假日日历表。在上图中用箭头 4、5 和 5a 表示。在执行任何数据操作之前,Step 函数(状态机)的第一步是检查文件的完整性,例如校验和检查、行计数检查等,然后调用 Glue Crawler(爬网程序)来更新 Glue Catalog 中的模式,以获得新的数据。Step 函数的第二步将调用 Glue 作业,该作业将从 S3 存储桶的 staging 层读取数据,并将其转换为 parquet 格式,然后将最终的 parquet 文件写入 S3 持久层(数据湖)存储桶中。注:一旦所有处理完成,可以调用相同的 Lambda 函数来更新 DynamoDB 中工作流的状态。数据加载(L)数据加载是将数据从持久层(数据湖)S3 存储桶加载到 Redshift 中。Redshift 将作为数据仓库或数据集市使用,用于定义域数据模型。将按照下列高级步骤进行数据加载:在成功完成 Step 函数的第二步后,将触发 Step 函数的第三步。Step 函数的第三步将触发另一个 Glue 作业(Glue Python shell 作业),它将执行 SQL(来自 Artefact 的 S3 存储桶),将数据从 S3 存储桶复制到 Redshift 表中。一旦数据加载完成,Lambda 将更新 DynamoDB 中工作流的状态。注:在 SQL 函数中,你可以使用所有的业务逻辑。对于其他需要复杂转换的用例中,你可以调用 Glue Job 并调用 Java/Scala 代码。错误处理与服务集成在这种方法中,我们创建了一个通用的 Lambda 函数,如果 Step 函数中的任何步骤失败,就会调用这个函数。然后这个 Lambda 函数更新 Dynamo DB 审计表的状态。该 Lambda 函数参考了 S3 代码 Artefact 存储桶中的代码。在 DynamoDB 审计表中的每一次插入都会生成一个触发器,该触发器将调用通用错误处理 Lambda,而该触发器又可以调用内部的 API,以提出服务工单(service ticket)或发送关于任何失败/警告的电子邮件。设计中使用的工具/服务我们主要使用以下 AWS 原生服务来实现数据管道:AWS Lambda:这主要用于整合不同的服务。我们不建议在 Lambda 函数中加载大量的业务逻辑。在这个设计中,Lambda 被用于:捕获 S3 文件生成事件。触发相应的 ETL 工作流程(Step 函数)。捕获 DynamoDB 表中的审计信息。如果需要,触发其他依赖性的 AWS 服务,如 Glue Crawler,Athena 查询,API 网关等。AWS Step 函数:这是一个简洁的图形化表示,用来定义作业的子任务的相互依赖关系。帮助定义/执行工作流中特定数据文件的不同任务。不同的任务可以是胶水作业(glue job)或 Lambda 函数。AWS Glue Job:这主要用于计算/转换作业。从 S3 staging 层存储桶中读取数据。将数据文件转换为 parquet 格式。触发 Redshift 的 SQL 查询,将 S3 存储桶加载数据或从 S3 存储桶卸载数据。AWS DynamoDB:在这个设计中,我们用来保存与 ETL 作业相关的元数据,并维护作业执行的审计。这有助于维护 ETL 管道元数据。ETL 管道元数据可以是:每个数据文件的日期控制信息;每个数据文件的假日日历信息(工作流/Gluejob);胶水作业依赖性的元数据;每个数据文件/工作流/胶水作业的审计信息。AWS Redshift:用于定义域数据模型,在该模型中可以建立 Star 或 snowflake 模式来表示事实和维度。这将主要用于创建数据仓库/数据集市。https://aws.amazon.com/cloudwatch/:用于监控作业的执行情况并发出警报。捕捉跨不同工作流和 AWS 服务的日志信息。在出现错误/警告等情况下生成 CloudWatch 事件/警报。Amazon API Gateway:调用企业内部的 API 来发送任何操作事件/信息,如故障、警告、操作统计等。Amazon EC2/EBS:托管文件上传器应用程序和服务,将数据传输到 S3。EBS 将作为文件上传器应用程序的存储平台,并临时存储数据文件。总结这是在 AWS 上实现数据管道的一种方法,通过设计和使用无服务器或托管服务的 AWS 原生服务,可以实现弹性。作者介绍:Abhijit Patil,云数据工程和架构总监,擅长构建企业规模的产品和服务,在各种技术和金融领域拥有 20 多年的丰富经验。Hukumchand Shah: 工程副总裁,专业从事云数据工程,大数据、微服务、领导力和健康爱好者。原文链接:https://medium.com/ibrains-cloud-data-engineering/aws-data-pipeline-design-and-architecture-fbfe4b3f5849
| 2,736 | 1,629,951,259,266 |
InfoQ
|
231 |
上云成本爆炸:Kubernetes每月支出可超100万美元,云计算收费该革新了?
|
15 年前,亚马逊推出了其弹性计算云 (EC2)的公开测试版,开创了云计算的新时代。当时用户每小时只需要支付10美分。到了2017年,亚马逊开始按秒付费。时至今日,企业在云上的花费已经逐渐超出预算控制。 一方面,云厂商的营收显著提高。7月底,Amazon发布今年第二季的财报,Amazon Web Services(AWS)营收148亿美元,同比增长37%,占到总营收的13.08%。8月3日,阿里巴巴公布2022财年第一季度财报,阿里云季度营收160.51亿元,连续三个季度实现盈利。 另一方面,上云的企业却面临云计算技术成本投入超支的情况。根据CNCF与 FinOps 基金会联合发布的报告显示,10% 的受访者每月在Kubernetes 部署上的支出超过 100 万美元,67% 的开发者在过去 12 个月中支出增加了 20% 甚至更多。随着支出的提升,企业难以对未来成本进行准确预测。 随着业务增加、数字化转型等需求,企业上云已经成为一种趋势。但如硅谷顶尖风投a16z 投资人 Martin Casado 与同事Sarah Wang 在文章中曾指出的,当云计算成本在某种程度上“占上风”时,数千亿美元市值的云计算市场就会被抑制,并陷入一种悖论: 如果不开始使用云计算,那你就是疯了;如果坚持使用云计算,你也是疯了。企业在云上到底花了多少钱? 毕马威专门负责为客户提供云成本管理建议的咨询总监Adrian Bradley表示,云计算的使用成本比上云企业预期的要高。在使用云计算时,企业的实际支出往往比使用本地基础设施时还要高,但额外的支出似乎并没有带来更高的价值回报。 根据云服务机构 HashiCorp近期发布的一份报告,不同规模、不同行业及不同地区的企业,对云成本的敏感性存在很大差异。 企业规模越大,云预算也越高。约62%的小型企业预算低于10万美元,而大型企业云预算不足10万美元的比例仅为7%。另外,34%的大型企业每年设定了至少1000万美元的云预算,能达到这等预算规模的小型企业只有1%。 但有趣的是,组织的云预算数额越大,发生超支的可能性就越高。在预算在200万~1000万美元的企业中,近半数(46%)出现了超支;但预算低于10万美元的企业中,只有四分之一(27%)发生超支。三分之二的已超支受访者预计,新一年内云预算将继续超支。 云预算规模在不同行业差异也很大。软件与服务企业的云预算控制更为严格,33%的企业每年云支出不足10万美元,其中包括很多创业公司。而资本充足的大型电信企业是云消费方中的大头,有27%的企业每年投入超过1000万美元。 但去年,近 40% 的公司在云计算技术上超支,有过半数的人将成本视为阻碍企业上云的核心因素。 从地区来看,南美洲企业特别关注成本,59%的受访者认为云太贵。从企业规模看,小型企业中有58%的人关注云成本,但只有45%的大型企业重视云支出。从行业角度看,42%的金融服务企业将成本视为阻碍上云的因素,47%的公共部门认为上云成本过高,60%的娱乐/媒体企业认为云成本阻碍了上云。 对于超支的原因,29%受访者给出的理由是内部事项优先级的转换。超过四分之一的企业超支的原因是缺乏行之有效的资源利用率管理(14%)与缺乏标准化工具(13%)。有21%的受访者将超支与新冠疫情临时上云联系起来。 很明显,成本已经成为不少企业上云面临的重要问题,而且由于云支出的跟踪与控制比较复杂,很多企业浪费了20%甚至更高的云支出。 目前,已经有公司通过将云负载返回到本地来节省成本,其中典型的就是 Dropbox。通过将大部分工作负载从公有云迁移到了由租用及直接运营的托管服务器上,他们在两年内节省了近 7500 万美元。从 2015 年到 2017 年,Dropbox 公司的毛利率由 33% 增长至 67%。云成本为什么容易失控那么,为什么云成本如此容易失控?Bradley表示,最大的问题在于,组织在云迁移的过程中,并没有将能够充分发挥云计算优势的数字转型基础打牢。 云迁移中的“直接上传”比例过高。“做出这样的选择,并不是因为企业懒惰懈怠,而是他们当前能力有限。但不加调整的上传意味着工作负载仍然保留着大量本地运行的特性,即使是在云端也会成为新的技术债务。”Bradley坦言。之所以成本更高,是因为大部分应用程序最终被运行在虚拟机上,并没有利用到现收现付的云服务特性。“他们并没能享受到云服务所固有的规模经济优势。” 另一大因素在于,云本身是高度动态的。“使用新的计算及存储服务往往成本更低,但如果只是直接迁移至云端而不做后续调整,那么价值回报必然受到影响。总之,每年关注并选择新版本的用户,才能获得更具性价比的服务体验。”Bradley解释道。 虽然内置成本优化机制能够节约资金,但成本咨询公司Apptio首席产品与技术官Scott Chancellor表示,企业往往容易高估自己对资源的需求量。这里的问题是,所有大型云服务厂商都愿意用可观的折扣来争取客户,但企业只有充分利用这些资源才能切实节约宝贵资金。不能有效运用资源本身就是一种巨大的浪费。 另一个问题是,负责成本优化的员工往往不是负责构建技术方案的员工。Apptio工程副总裁Abuna Demoz指出,工程师们希望自己的应用程序能够正常运作,但他们很难预估具体容量、计算量、存储空间需求,所以工程师们一般会选择先过度配置,之后再根据实际情况剔除部分资源。但大多数情况下,一个项目结束后新的项目又来了,所以闲置的资源也就永远被闲置在那里。 同样地,Bradley也表示,匆忙上云确实会带来技术人员做出的配置决策与实际业务需求脱节的风险。 目前市面上可供选择的云服务数量过多,也是个现实问题。但曾在亚马逊云科技从事成本管理工具开发的Chancellor强调,大型云服务商并不会故意混淆是非或者向客户推销不必要的超额配置。“我们一直认为对客户最具长远收益的方案,也是对云服务商自己最有利的方案。”新冠疫情的突然爆发,迫使大多数企业匆忙上调了云支出数额 Duckbill Group的首席云经济学家兼亚马逊云科技成本管理专家Corey Quinn认为,并不存在某家云服务商比另一家价值更高的情况。“三大云巨头的费率结构基本相似。某些可能提供的折扣更大,但不会有本质区别。” 不花心思,就省不了钱 Duckbill Group的首席云经济学家兼亚马逊云科技成本管理专家Corey Quinn表示,企业总是觉得自己的云开销太高,但有时候事实并非如此。“在云时代之前,企业花掉的钱也差不多是这个数字,但面对的是十几家不同的供应商。但现在所有开销都集中在一家供应商身上,所以这个总体运营支出的数额就会超出人们的心理预期。” 那企业要如何省钱呢?Quinn表示,虽然复杂,但首先得明确一点:不花心思,就省不了钱。用户得为自己忘记关掉的实例付费,再认真思考预留实例、节约计划等方案适合部署在自己的哪些业务场景。Quinn强调,企业也应当从成本的角度审视现有应用架构。 另外,市面上大多数产品采用独立的定价费率。Quinn认为,企业最好的办法就是边运行,边查看实际成本。但随着业务的发展,企业内不同部门会做出各种不同的尝试,成本归因变得越来越难。Quinn的建议是,不要抱着随处运行的心态做开发,针对性优化的意义更大。 当然,像亚马逊云科技、Azure与Google Cloud Platform这样的云厂商也会给出自己的内置成本建议。对此,Quinn表示,“它们提供的大部分建议都没有原则性错误,但也不会给出谈判层面的指导意见。他们不会建议客户使用Fastly或者Akamai这样的CDN,毕竟云服务商还打算自己推出同类产品呢。” 参考链接: https://www.theregister.com/2020/09/03/cloud_control_costs/ https://www.hashicorp.com/blog/cloud-budgets-busted-almost-40-overspent-last-year
| 4,322 | 1,629,880,264,827 |
InfoQ
|
232 |
亚马逊云科技推出兼容Redis的内存数据库:读延迟达微秒级,每天可处理超13万亿次请求
|
继推出Amazon ElastiCache for Redis全托管存储器快取服务之后,近期,AWS宣布正式推出高持久性、兼容Redis的内存数据库Amazon MemoryDB for Redis。据AWS表示,MemoryDB能够帮助开发者经济、高效地构建读取性能达微秒级别、写入性能维持在个位数毫秒,而且持久性与可用性都极高的应用程序。 据AWS介绍,Amazon MemoryDB for Redis具有以下几个特点: 超快的性能。MemoryDB将整个数据集存储在内存中,以此提供微秒的读延迟、个位数毫秒写延迟和高吞吐量。它每天可以处理超过13万亿次的请求,并支持每秒1.6亿次请求的峰值。 Multi-AZ耐久性。MemoryDB使用了分布式事务日志的方式来保证数据的持久性、一致性和可恢复性。MemoryDB跨多个AZ存储数据,因此可以实现数据库的快速恢复和重启。对于需要低延迟和高吞吐量的工作负载,开发者可以将MemoryDB用作单一的主数据库服务,不必为了提高可靠性而将其当作管理高速缓存和额外关系或非关系数据库。 可扩展性。MemoryDB 支持通过分片进行写入扩展,通过添加副本进行读取扩展等操作。在调整大小操作期间,集群将持续在线并支持读取和写入操作。开发者最多可扩展包含 500 个节点的 MemoryDB 集群,来满足不断变化的应用程序需求。 完全托管。只需使用AWS 管理控制台启动一个新的 MemoryDB 集群或者使用 AWS CLI /SDK,便可以开启MemoryDB。开发者可以使用 AWS 管理控制台查看关于集群的超 35 个关键操作指标,如计算、内存、存储、吞吐量、活动连接等。MemoryDB 也回通过不断更新自动使开发者的集群保持最新。安全。MemoryDB 在Amazon VPC 中运行 ,允许开发者在自己的虚拟网络中隔离数据库,并使用行业标准的加密 IPsec VPN 连接到本地 IT 基础设施。另外,开发者也可以通过AWS Key Management Service (KMS)对静态数据进行加密。 另外,MemoryDB 使用Redis 访问控制列表 (ACL)来控制集群的身份验证和授权。ACL 使开发者可以为同一集群中的不同用户定义不同的权限。 AWS解释了MemoryDB和ElastiCache之间的区别。MemoryDB能够成为应用程序的主数据库,提供数据持久性,而且微秒读取和毫秒写入的速度,使用MemoryDB不需要在数据库之前添加快取就可实现互动式应用程式和微服务架构所需要的低延迟。而ElastiCache对读取和写入都提供微秒延迟,适用于快取工作负载,加快现有数据库的存取速度。当然,在用户可以接受数据丢失的情况,也可以将ElastiCache用作主数据库储存。 Amazon MemoryDB for Redis目前已在美东、欧洲和南美洲上线,亚洲则主要是在孟买地区上线,用户可以从ElastiCache搬迁到MemoryDB,或使用储存在Amazon S3上的Redis备份档案创建集群。值得注意的是,目前MemoryDB仅支持R6g、Graviton2。不过,AWS 计费顾问 Corey Quinn 在 Twitter 上表示,数据写入费用为“每 GB 收费 20 美分”,如果用在他创建的实验项目中,每月将花费 2,000 美元。“Amazon MemoryDB for Redis 可能是有史以来AWS推出的最糟糕的服务。” MemoryDB使用文档: https://docs.aws.amazon.com/memorydb/latest/devguide/getting-started.html
| 3,378 | 1,629,777,000,232 |
InfoQ
|
233 |
DevOps和云|InfoQ趋势报告(2021年7月)
|
本文要点混合云选项已经超越了传统的定义,云服务的功能已能够在云外运行。Azure Arc和谷歌Anthos等服务为开发者和运营商提供了更加无缝的“混合”体验。在新兴的“无复制的数据共享”方法中,不需要移动或复制数据就可以从不同的服务访问数据。我们相信,最近宣布的“增量共享”(Delta Sharing)开放标准将有助于无复制数据共享的进一步推广。持续集成和持续交付(CI/CD)工具和实践之间仍存在着一定程度的混淆,这方面的进展还很有限。GitOps和网站可靠性工程(SRE)实践被越来越多地采用。可观察性实践和工具不断成熟。可观察性的三大支柱中,日志记录和度量域相对来说已经被很好地采用了,但是跟踪的采用情况仍然较差。在这个领域,有许多进步令人倍受鼓舞,特别是伴随OpenTelemetry的广泛采用而来的那些进步。我们正在利用FinOps(用于成本分析的实时信息流)跟踪创新发展,目标是财务团队与微软和AWS等公共云供应商同处一线。越来越流行的实践(如由OPA提倡的“策略即代码”)以及远程访问管理工具(如HashiCorp的Boundary)正在推动身份即代码和隐私即代码。《团队拓扑》这本书已经成为组织中部署团队以实现有效软件交付的实际参考。事件发生后的“无责的事后分析”也越来越受到关注,变得更类似于“健康的回顾”,整个组织都可以从中学习。本文总结了InfoQ目前对“云计算和DevOps”领域的看法,重点关注基础设施和运维模式、技术框架中模式的实现,以及软件架构师或工程师必须掌握的技能。正如Geoffrey Moore在《跨越鸿沟》一书中所定义的那样,InfoQ和QCon系列会议都关注技术传播的“创新者、早期采用者和早期大众阶段”的主题。我们试图做的是,找出符合摩尔所说的早期市场的想法,在这个市场中,“用户群由技术爱好者和有远见的人组成,他们希望能先行一步,在机遇或迫在眉睫的问题前占得先机。”我们还在寻找那些可能“跨越鸿沟”、得到更广泛采用的想法。在这种情况下,也许值得指出的是,一项技术在采用曲线上的确切位置是可以变化的。例如,微服务在旧金山湾区的公司中得到了广泛采用,但在其他地方可能不太会得到广泛采用,也可能不太合适采用。在这一期的云计算和DevOps趋势报告中,我们认为,混合云方法已经发展成为更加“云原生”的方式。在2019年底三位著名的公有云供应商都带来了新的混合云产品市场,在过去的两年里他们一直对它们大力投资,谷歌的Anthos、微软的Azure Arc 和Stack offerings、AWS的Outposts,以及最近的Amazon ECS Anywhere。比如,对于企业来说,它不仅要将工作负载带到云上,还要在内部运行,或两者同时运行,甚至在多个云上运行。因此,使用Arc或Anthos这样的服务集中管理工作负载的基础设施就很具价值了。此外,这些产品允许企业扩展其平台。在“边缘云”和“边缘计算”领域,技术演变越来越多,因此我们认为这个课题应该转移到图表中的早期采用者阶段。具体的供应商工具,如Cloudflare Workers、Fastly的Compute@Edge和Amazon CloudFront的Lambda@Edge在这里有相当大的吸引力。本报告的参与者还发现了一个名为“无复制的数据共享”的新兴趋势。你可以在Snowflake等数据管理服务中看到,这些服务支持用户在其源共享数据,却不复制或移动数据。另一个例子是Azure Synapse服务,它支持通过Azure Synapse Link从Azure Cosmos DB共享无复制数据。最近宣布的增量共享开放标准也推动了无复制数据共享趋势的上升。在DevOps和网站可靠性工程中,可观察性仍然是一个热门课题。虽然大多数组织已经开始实现某种形式的可观察性软件栈,但正如Holly Cummins所指出的,这个术语已经承载了过多的内容,因此应该将其分解为不同的组件了。集中日志聚合之类的想法目前在大多数组织中都很常见,然而,日志仅是构成可观察性的三大支柱之一。日益流行的OpenTelemetry项目提供了一个一致的框架,不仅可以捕获日志,还可以捕获痕迹和指标。采用单一框架就能带来一致性,这有助于跨混合和异构环境捕获数据,也有助于工具监控。使用服务水平目标(sls)工具来传达监视和可观察性的预期结果也越来越流行,就像今年早些时候首次映入眼帘的SLOConf。在过去的一年里,随着MLOps和DataOps的发展,“DevOps for Data”得到了越来越多的应用。MLOps专注于使用DevOps风格的实践 (如CI和CD) 来实施机器学习模型的持续培训。开源工具和商业服务可以在这一领域提供帮助,例如用于在Kubernetes上部署ML模型的KubeFlow,用于自动监控ML模型的Amazon SageMaker Model Monitor。DataOps希望通过应用DevOps团队使用的类似概念来减少自己的周期时间,从而缩短数据分析的周期时间。在DevOps的人员和组织领域,我们已经看到了出自Matthew Skelton和Manuel Pais的《团队拓扑》一书,它已经成为组织部署团队以实现有效软件交付的实际参考。《团队拓扑》描述了四种基本的团队类型和三种团队交互模式,并深入研究了团队的职责边界以及团队与其他团队沟通或交互的方式。事件发生后的“无责的事后分析”也越来越受到关注,变得更类似于“健康回顾”,整个组织都可以从中学习。弹性工程计算领域和“从事件中学习”社区的主要领导人在推动这一讨论方面发挥了重要作用。以下是2019年上半年的主题图。2021年的版本位于本文的前文部分。下面是几个InfoQ云计算DevOps主题编辑和InfoQ贡献者之间相关的内部聊天记录,仅做了些少量编辑整理,你可以从相关语境中了解图中的推荐定位。Lena Hall :微软的大型系统总监,最近发表了《我们能相信云不会失败吗?》以及《Azure Synapse的进化:Apache Spark 3.0,GPU加速,Delta Lake, Dataverse支持》等文章。走向早期大众GitOps(特别是正在获得关注的GitHub Actions)转向早期采用者DataOps正在获得广泛的关注(特别是数据治理、数据沿程、数据质量、数据目录工具)早期创新者的新课题革新者:Policy as Code--策略即代码(检验/管理组件源附近位置的访问策略)创新者:云原生混合方法(例如,Azure Arc,谷歌Anthos)创新者:跨云统一基础设施自动化/运维(如Crossplane、开放策略代理)创新者:数据网格(去中心化数据所有权、联邦数据治理、产品思维、自助数据基础设施)创新者/早期采用者:无复制的数据共享(Snowflake,谷歌BigQuery, Azure Synapse, Presto/Starburst等)DevSecOps(但它可能没那么新,因为在上一个报告中就已经左移了)此外,Hall还讨论了混合云模型的发展。云原生混合方法(例如,Azure Arc,谷歌Anthos)。在传统的理解中,混合云意味着对公司的部分工作负载使用本地基础设施,并对相关的其他部分使用公有云。例如,混合云策略意味着在云中运行一些应用程序(例如,无服务器处理),在本地基础设施上运行一些应用程序(例如,商业ERP系统)。混合数据方法看起来就像在云中存储数据备份一样简单,或者使用更高级的云网关和精准调优的数据同步、缓存或移动模式。在最近的几个月和几年里,混合选项已经超越了传统的定义,云服务功能已能够在云之外运行,从而提供更加无缝和流畅的体验。我们可以将新的云本地混合选项视为云服务到本地或多云环境的扩展。Azure Arc和谷歌Anthos就是很好的案例。Azure Arc是其中的一个理想案例。它支持在混合和多云环境中运行用于PostgreSQL Hyperscale的Azure SQL托管实例和Azure数据库。它还通过Azure App Service、Functions、Logic Apps等提供本地应用和云应用的一致管理。另一个绝佳案例是谷歌Anthos支持BigQuery Omni,能够在多个云上部署和管理查询引擎。需要注意的是,这些新的原生云混合方法,如Azure Arc和谷歌Anthos,不同于更标准的混合云方法,如Azure Stack或Amazon Outposts。为了更清楚地表述它,Azure Arc和Azure Stack都提供了混合解决方案(并且可以一起使用)。Azure Stack是一种在本地运行Azure环境的硬件方法。另一方面,Azure Arc是一种软件方法,将本地和多云资源(由虚拟或物理服务器和Kubernetes集群组成)视为由Azure资源管理器本地管理和访问的资源。同样,我们可以如此区分谷歌Anthos/Azure Arc和AWS Outposts。尽管AWS Outposts将AWS云平台扩展到本地,但它有特定的硬件需求,并且只与AWS设计和支持的硬件设备兼容。Hall还就“无复制的数据共享”这一新兴趋势分享了一个有趣的见解。无复制的数据共享(Snowflake、Google BigQuery、Azure Synapse、Presto/Starburst,等等)当需要在不同的服务或不同的环境之间访问或共享相同的数据时,有很多处理方法。当涉及数据共享时,可能会有各种各样的场景。一种情况是将相同的数据(或相同数据的一部分)存储在同一云中的多个服务中。通常,这些服务的计算和存储并不是独立的。要处理来自另一个服务的数据,我们必须复制或移动它。在新兴的无复制的数据共享方法中,由于计算和存储分离,不需要移动或复制数据就可以从不同的服务予以访问。因此,它带来更好的可伸缩性、成本效益,支持数据的直接访问。例如,这可以通过Azure Cosmos DB的Azure Synapse Link、BigQuery外部数据源或Snowflake数据共享等特性来实现。最近宣布的增量共享是一个开放的标准,有助于无复制的数据共享的发展趋势。据其网站介绍,“增量共享是业界首个用于安全数据共享的开放协议,它使得与其他组织共享数据变得非常简单,不管他们使用的是哪种计算平台。”Holly Cummins,IBM公司战略创新的领导者,曾在IBM Garage做过几年的顾问,分享并贡献了“云本地是关于文化,而不是容器”的见解和文章,并与InfoQ分享。科技领域有些东西变化太快了,而有些东西却几乎没有变化。关于2019年DevOps和云InfoQ趋势报告的大部分介绍都像是现在刚写出来的。CI/CD工具和CI/CD实践之间仍存在混淆,我认为在消除这些混淆方面并没有任何进展,在CI/CD实践方面也没有任何进展。讨论中似乎遗漏了一件事,那就是可观察性。就像“AIOps”一样,它内容厚重且冗长,但感觉有点像2018年的“云原生”。只要你的产品涉及这个领域,不管具体在什么地方,就必须加上“可观察性”这个词。于是其他人会指出它不是真正的可观察性,因为可观察性代表着不同的东西,然后大家开始争论不休。:)在图表中将可观察性分解为“集中日志聚合”之类的内容似乎很是明智,因为这样可以避免争论,但它又值得在讨论中提及。要包括的另一个子类别我认为是OpenTelemetry,在创新者部分。我觉得服务网格已经从谈话中消失了。FinOps应该放在创新者部分,与之相关的一个主题是云成本优化。RedMonk团队的James Governor发起了过一次讨论,主题令人兴奋:“将成本优化移至左边:Spotify后台成本分析”,他在讨论中区分了FinOps(成本分析的实时信息流,针对财务团队)和“云成本优化左移” (针对工程团队)。可持续发展的核算是另一个创新范畴。再说一次,这还为时过早——我想不到在这一领域有多少足够成熟的产品——但讨论正在进行,我认为它即将到来。我认为针对数据和ML的DevOps已经是早期采用者阶段。DevOps for Data有两个子类:MLOps和DataOps。我想说的是,网站可靠性工程(SRE)现在是早期大众。我看到很多银行都在采用它。我看到很多关于GitOps的讨论,但我不确定这是否能转化为生产中的实现,或者至少不足以将其推向早期大众。同样,我觉得ChatOps的发展势头已经放缓,并没有进入早期大众阶段。Renato Losio,云架构师、远程工作爱好者和演讲者。针对数据的DataOps / DevOps :从创新者到早期采用者边缘计算/ 边缘ML :现在几乎所有国家都有了5G,至少是早期采用者。Fastly可能比预期得到了更广泛的使用,不仅仅是用在针对边缘计算的CDN 。云提供商的Local Zones也呈现出一个新趋势,目前暂不确定将其作为一个单独的主题是否更好。网站可靠性工程:从早期采用者到早期大众。Cloud FaaS :从早期采用者到早期大众。不可变的基础设施:可能是晚期大众?无服务器数据库(包括RDBMS和非RDBMS):早期采用者。我看到了一个信息安全的相关资料,但我建议将它归入Cloud-First Security/ DevSecOps(早期采集者)。分类帐数据库:早期采用者?云基础设施和本地服务(Microsoft Azure Stack, AWS Outposts): 早期采用者。Jared Ruckle, InfoQ云计算编辑、HashiCorp产品营销员。创新者一列的变化边缘计算转到早期采用者。对特定的供应商工具(Cloudflare Workers)和云供应商以及企业(尤其是零售商)有相当大的吸引力。早期采用者一列的变化网站可靠性工程:早期大众。安全或信息安全左移:早期大众。ChatOps:早期大众随着大量关键应用转向云原生应用,网站可靠性工程实践变得越来越流行;这些应用程序的重要性迫使运维发生改变。似乎总是有重大的安全事件导致人们更积极地使用安全方法。 Spectre/Meltdown, SolarWinds,勒索软件……据我观察,“左移”正在成为主流。Slack/MS团队和疫情加速了工程团队之间的ChatOps 。早期大众一列的变化SDN:晚期大众。集中式日志聚合:晚期大众。自助服务平台:晚期大众。Tenerity的博主、读者和迭代经理Aditya Kulkarni。移至早期大众变革型领导。网站可靠性工程。ChatOps。GitOps。移至早期采用者软件定义的交付。早期创新者的新课题CI/CD的应用/软件性能工程。云可观测性。FinOps(云费用优化)。Steef-Jan Wiggers,HSO和微软Azure MVP技术集成架构师。移至早期大众云:由于开发人员的采用和供应商的投入,FaaS和BaaS和后端即服务(无服务器)在项目中变得越来越普遍。更多的语言得到支持,相同的帐户带来了可观察性的扩展,例如最近的GA AWS Lambda扩展(包括提供扩展合作伙伴的大型生态系统)。GitOps——GitHubactions在云平台上得到了越来越多的关注和采用。早期创新者的新课题原生云混合方法(如Azure Arc、谷歌Anthos):微软、谷歌和AWS为企业带来了支持混合场景的新服务。微软提供了Azure Arc,并引入了各种支持Arc的其他服务,这些是我们在InfoQ上经常提到的主题。同样,谷歌提供了用于混合云计算的Anthos,InfoQ也对此进行了介绍。而AWS有Outposts,并在最近将Amazon ECS Anywhere推向大众。Daniel Byrant, Ambassador Labs开发者关系总监、InfoQ 新闻编辑。创新者Lena Hall 关于跨云统一基础设施自动化的建议为+1。在和我交流的人中,有越来越多的人正在研究Crossplane。AI/MLOps移至早期采用者。价值驱动架构/运维:正如Holly提到的,这可以重新命名为“FinOps”。声明式架构验证:我认为这可以转化为“政策即代码”,并保留在创新者位置。边缘计算移到早期采用者——它已经获得了关注。早期采用者这部分还是相当准确的!GitOps/DiffOps:重命名为GitOps并移到早期大众。添加:团队拓扑。早期大众容器业务流程:移动到晚期大众。删除:容器的极简操作系统——现在这被认为是非常利基的。【企业】DevOps工具链:移至晚期大众。CI最佳实:转到晚期大众。添加:可观察性。晚期大众也许可以添加“监控和日志记录”,就像其他地方一样,对吧?:)DevOps发言人、作家和战略顾问Helen Beal。1)CI的最佳实践进入了晚期大众?无责的事后分析=健康回顾?特性标志,蓝/绿部署也应该提到金丝雀测试/发布/部署或捆到一起?混乱工程进入早期大众?2021年,是的。DiffOps消失?网站可靠性工程到早期大众?2021年,是的ChatOps到晚期大众,2021年,是的持续测试到早期或晚期大众?2021年至晚期大众DevOps for Data = Data Ops 到早期采用者?2)价值流管理:早期采用者(可能会取代DevOps仪表板?),2021年肯定会这么想。传统可靠性工程到创新者?DDD和/或HDD到创新者?2021补充:我会考虑引入蔚蓝组织,或者用分布式权力/团队自治取代变革型领导。团队拓扑结构在哪里?面向早期采用者的AIOps可观察性。Rupert Field,Duffle-bag咨询交付主管和InfoQ DevOps专栏编辑。基础设施即代码:早期大众。许多人还没有实现这个巨大的迁移任务:现实情况是,在全新的项目中,这是很有可能的,但技术债务将遗留系统拒之门外。网站可靠性工程:貌似合理的早期大众。我确信它的确该在早期大众上了,但我怀疑执行上是否到了这个水平。不可变的基础设施:可能是早期大众,而不是晚期大众。明智的划分,不过……这真的取决于我们是在讨论整个业务还是只是一个新项目。特性标志&蓝/绿部署:早期大众(无变化)混沌工程:早期采用者ChatOps:可能是早期大众持续测试:早期大众流水线即代码:早期大众(没有IaC不能使用GitHub actions )VSM:综合工具的早期采用者;可能适用于更特别的解决方案的早期大众在Forrester的最新调查中,超过40%的回应者声称他们正在使用VSM工具,但只有8%左右使用集成平台,显然,调查倾向那些已经有志于此或参与的人。Shaaron A Alvares,InfoQ的DevOps、文化与方法栏目编辑,敏捷教练。“安全或信息安全左移”是否包含“持续验证”?新增创新者: 社会技术体系结构。 DevOps价值流管理平台。开发人员速度(或者它可以包含在DevEx?)添加到创新者或早期采用者:低代码无代码(LCNC)。混合云。移动: AIOps和MLOps转到早期采用者。Matt Campbell, DevOps 首席编辑,D2L的工程总监。可观察性实践和工具不断成熟。我认为我们应该考虑将可观察性主题分解为一些较新的子主题,如OpenTelemetry和服务级别目标(SLO)。正如其他人所指出的,可观察性的三个支柱中的日志部分是一个相对较好的部分。在这一点上,指标监控采用水平相同,我认为处于早期大众。可观察性的跟踪支柱仍然是较少被采用的部分,但是最近有了新的进步,特别是随着OpenTelemetry的更广泛采用。SLO作为一种交流结果和目标的工具,在最近的SLOConf引领下开始复苏。我希望更多可观察性平台开始添加SLO创建和跟踪工具。我想放到之后趋势报道的创新者/早期采用者中。随着越来越多备受瞩目的攻击成为新闻,安全问题继续成为热门课题。基础设施即代码在早期采用者或其后,自动化IaC漏洞扫描工具和技术没有得到很好利用(可能是早期采用者)。较新的方法,如策略即代码(由Open Policy Agent (OPA)推广)和远程访问管理工具(如HashiCorp的Boundary),正在推动身份即代码、隐私即代码,因此这些方法可能属于创新领域。这些趋势是“安全左移”方法或更新的DevSecOps想法的延续。随着对早期安全实践的持续推动,我认为我们将在来年看到更多的工具和流程得以引入。作者简介Lena Hall - 微软大数据工程总监。她在微软负责大数据服务的产品改进工作,领导一个团队,负责技术战略。Lena 是推进、促进和推动云服务进一步加速的工程倡议和战略的推动者。Lena拥有超过10年的解决方案架构和软件工程经验,专注于分布式云编程、实时系统设计、高扩展性和高性能系统、大数据分析、数据科学、函数式编程和机器学习。此前,她是微软研究院的高级软件工程师。Holly Cummins -SPEED @IBM 创新领袖,公司战略,在IBM Garage做了几年的顾问。作为Garage的一部分,她为各行各业的客户提供技术支持的创新,从银行到餐饮、零售到非政府组织。Holly是Oracle Java冠军,IBM Q大使,JavaOne摇滚明星。她是曼宁的《企业级OSGi in Action》一书的合著者。Renato Losio:云架构师、远程工作爱好者、演讲者和InfoQ云计算编辑。Renato在意大利、英国、葡萄牙和德国拥有多年的软件工程师、技术领先和云服务专家经验。他住在柏林,作为Funambol的首席云架构师远程工作。基于位置的服务和关系数据库是他的主要工作兴趣。他是AWS数据英雄。Jared Ruckle:InfoQ的云计算编辑;HashiCorp产品营销。Jared 在产品营销和产品管理方面有超过20年的经验。他曾就职于多家IaaS、PaaS和SaaS公司,包括VMware、Pivotal和CenturyLink。目前,Jared 是HashiCorp的产品营销总监。Aditya Kulkarni:Tenerity的博主,读者,迭代经理,InfoQ的DevOps编辑。Aditya从开发人员角色开始,已经发展到管理领域。Aditya与组织在敏捷之旅中合作,一直保持着技术方面的联系。Steef-Jan Wiggers:HSO技术集成架构师,微软Azure MVP和InfoQ云计算首席编辑。他目前的技术专长是集成平台实现、Azure DevOps和Azure平台解决方案架构。Steef-Jan是荷兰Azure用户组(Dutch Azure User Group)的董事会成员,经常在会议和用户组上发言,为InfoQ和无服务器笔记(Serverless Notes)撰稿。此外,微软还将他评为过去11年的微软Azure MVP。Daniel Byrant: Ambassador Labs开发者关系总监、InfoQ 新闻经理、QCon PC。他目前的技术专长是“DevOps”工具、云/容器平台和微服务实现。Daniel是伦敦Java社区(LJC)的领导者,为几个开源项目做出过贡献,为InfoQ、O'Reilly和DZone等知名技术网站撰稿,并定期在QCon、JavaOne和Devoxx等国际会议上发表演讲。Helen Beal: DevOps发言人,作家,战略顾问,InfoQ DevOps编辑。她的关注点是通过行为、互动和技术改进,帮助组织优化从想法到价值实现的流程。Rupert Field :Duffle-bag咨询交付主管和InfoQ DevOps编辑。他喜欢学习技术,帮助人们利用技术解决问题。他的经验包括定义、设计和交付技术团队战略。这包括提供指导、培训、运营模式设计和业务转型。Shaaron A Alvares:InfoQ的DevOps、文化与方法编辑,敏捷教练。她是敏捷认证领导者、敏捷国际联盟的敏捷认证教练和敏捷认证从业者,在技术和组织转型方面拥有全球工作经验。她在欧洲多个全球财富500强公司(如BNP-Paribas、NYSE-Euronext、ALCOA Inc.)引入了精益敏捷产品和软件开发实践,并在Amazon.com、Expedia、Microsoft、T-Mobile领导了大量精益敏捷和DevOps实践的采用和转型。Shaaron在法国国家科学研究中心(CNRS)发表了哲学硕士和博士论文。Matt Campbell:首席编辑,D2L(一家教育技术公司)DevOps 、工程总监,负责他们的基础设施和云平台团队。他关注的领域是DevOps和网站可靠性工程,并做企业规模的实现。他还在康内斯托加学院(Conestoga College)教授编程课程。译者简介:冬雨,小小技术宅一枚,从事研发过程改进及质量改进方面的工作,关注编程、软件工程、敏捷、DevOps、云计算等领域,非常乐意将国外新鲜的IT资讯和深度技术文章翻译分享给大家,已翻译出版《深入敏捷测试》、《持续交付实战》。原文链接:DevOps and Cloud InfoQ Trends Report - July 2021
| 4,441 | 1,629,365,816,354 |
InfoQ
|
234 |
亚马逊取消游戏开发“严苛”条款,原因竟是?
|
近日,亚马逊游戏工作室(Amazon Games Studios)取消了一项针对员工个人游戏开发的“严苛”政策。一段时间以来,亚马逊游戏工作室要求员工在从事个人项目时使用亚马逊产品,并在亚马逊店面上分发他们的游戏,同时该政策还授予亚马逊对员工在工作之外创作的任何游戏项目的所有权。亚马逊游戏工作室并没有在公开场合发布公告,而是老板 Mkie Frazzini 在一封公司内部电子邮件中表示,他们将来不再希望自动拥有员工游戏的权利,此外,不应再有关于必须如何开发项目的任何规范。同时说到“这些政策最初是在十多年前制定的,当时我们的信息和经验比今天少得多,因此,这些政策的制定范围很广,此后一直没有调整。”应聘工程师的举动成为引线这项政策最初由准备在亚马逊游戏工作室工作的软件工程师 James Liu 披露在 Twitter 上(目前相关推文已删除)。推文发出后,亚马逊收到了大量对该规则强烈反对的声音。图自 James Liu Twitter(原推已删除)条款的前面几条都是正常没问题的。但从第 5 和第 6 条开始变得有点奇怪,亚马逊游戏工作室规定,如果你在自己的空余时间开发和发布游戏,你需要使用亚马逊服务或产品。在亚马逊工作期间开发独立游戏意味着你必须授予公司“免版税、全球、完全免费、永久、可转让的许可”。最后看下第八点,任何在亚马逊制作“个人游戏”的人都只允许与接受协议的亚马逊员工或未成年家人一起工作。这意味着你不能跟你其他公司的朋友也不能跟你的成年家人一起制作有趣的独立游戏。对此,James Liu 还提到:"如果我在日常工作中从事机器学习,那么我在工作之外所做的任何与 ML 相关的工作要求专利权应该是没有问题的,但是要求我在业余时间制作的视频游戏的版权所有权就很荒谬了。"James Liu 曾尝试与亚马逊法律部门进行沟通希望得到豁免权但失败了,所以亚马逊的很多员工一直是在这些限制性规则下开发游戏。也正是这项严格的政策,使他直接拒绝了这份工作。“(这项政策)是阻止我接受这个职位的唯一条件。”在亚马逊取消该项政策后,James Liu 也随即发表了意见,“该公司多年来一直没有听取自己员工的意见,在外人发推文之后突然终止了有关该主题的所有指导方针。”他对此感到非常惊讶。“严苛”政策取消后的声音当然,亚马逊并不是唯一制定类似政策的公司。谷歌也被指控拥有员工的个人外部项目。在上个月,在谷歌开源网站的页面上有一个链接,概述了其发明分配审查委员会(IARC)。“作为雇佣协议的一部分,Google 很可能拥有你在公司期间创建的知识产权(IP)。由于 Google 的商业利益广泛多样,因此这可能适用于你所拥有的任何个人项目”。“我们理解并同情在 Google 之外探索和交付技术项目的愿望,并概述了员工应如何提交项目供 IARC 审查以让 Google 放弃所有权”。该页面现已被删除,谷歌暂时也没有对删除 IARC 页面和后续是否有新政策作出回应。7 月,联邦贸易委员会接到了一项行政命令,要求“遏制不公平地使用非竞争条款和其他可能不公平地限制工人流动性的条款或协议”。这可能会缓和一些限制性更强的合同要求。
| 1,398 | 1,629,265,225,185 |
InfoQ
|
235 |
编程语言巅峰之战,谁才是真正的王者?
|
编程语言排名一直以来都是备受争议的话题,当我们彼此之间讨论的时间不同,角度不同,结果往往就会不同。因此,我们看到很多机构或者组织每年都会发布很多编程语言排行榜,这些排行榜的算法、角度都不尽相同。 TOIBE编程语言排行榜就是编程语言流行趋势的一个重要指标,它基于互联网有经验的开发者、课程、第三方厂商数量等数据,每个月更新排名情况。 今年是TOIBE编程语言排行榜发布的20周年, TOIBE榜单第一次发布时,排名前三的编程分别是Java、C和C++,而在今年7月的最新榜单中,排名前三的编程语言分别是C、Java和Python。 TIOBE编程语言排行榜虽然是比较权威和流行的榜单,但是它的排名结果主要体现了国外开发者的喜好。而目前国内整体 IT 技术发展与国外有很大不同,因此,我们需要一个真实客观反映各种编程语言在国内排名的榜单。 因此,InfoQ 特别推出【InfoQ 编程语言排行榜】,征集国内开发者、程序员对编程语言的喜爱情况。在榜单问题设置方面,我们邀请国内的技术专家与编辑同学共同拟定了八个有代表性的问题,同时精心挑选了当前最流行、最受欢迎的编程语言,诚邀您来投上宝贵一票。人气飙升的编程语言——Julia 近年来,Julia 编程语言掀起了一股新的热潮。 今年7月9日,由 Julia 高性能编程语言初创团队建立的 Julia Computing 公司,宣布完成由 Dorilton Ventures 领投的 2400 万美元 A 轮融资(折合人民币约 1.6 亿)。 目前Julia编程语言在全球用户中拥有 2900 多万次下载量,具有 3.4 万颗星,已经有数千位开源开发者为 Julia 及其 6000 多个注册软件包贡献力量。全球超过 1500 所高校已经在使用 Julia 并教授相关知识,包括麻省理工、斯坦福大学、加州大学伯克利分校等世界一流学府。目前全球已经有超过 1 万家公司使用 Julia 语言,其中包括阿斯利康、贝莱德、谷歌、英特尔、微软、Moderna、辉瑞、NASA、联邦航空管理局以及纽约联邦储备银行等重量级用户。 自 2012 年正式亮相以来,Julia 社区规模呈指数级增长。Julia 帮助科学家及工程师们解决各类大规模数据科学问题,消除了只能使用高级语言(例如 Python、Matlab 或 R 语言)进行测试与建模环节、并使用其他高性能低级语言(例如 C 或 C++)进行生产与扩展的割裂问题。 Julia 语言的缔造者们,希望它能同时满足计算机科学领域的专家,以及在实际应用方面使用过 R、Matlab、SAS 和 Python 等语言工具的开发者。因此在技术实现上包含了两个核心方面: 一是研究动态语言的哪些特征使其难以有效地进行编译,这些特征可能包括任意的非局部效应。开发者进行的一些操作可能产生了持久的正面影响,但是没有实现有效的表达。如果你对此加以限制,并且对语言的设计方式有更加巧妙的构思,就可以获得类似动态和高效的语言,但同时也可能导致传统动态语言出现性能问题。 二是“动态多分派(dynamic multiple dispatch)”,它是 Julia 语言的核心范式,允许针对特定类型的参数进行动态最优算法选择。很多年前人们就开始研究动态多分派,但是从来没有一个系统能够从头到尾真正对其进行优化。所以在 Julia 出现之前,这种编程范例的优点从未在系统中真正实现过。 与其它编程语言相比,Julia 性能优异 在经历了默默无闻的十余年耕耘积累之后,开源 Julia 终于走上了大型企业代码现代化舞台的中心。最平民化的编程语言——JavaScript根据 State of the Developer Ecosystem 2021 调研结果显示,过去五年,JavaScript是最平民化的编程语言,几乎人人都可以随手写几个JavaScript语句。通过对32000名开发者的调研,该报告还披露了当前有69%的人正在使用JavaScript,39%的人将JavaScript作为自己主要的编程语言。 那么全球到底有多少JavaScript开发者呢?SlashData预计全球开发者大约为2430万,而JavaScript在全球约有1240万开发者,当然其中包括TypeScript 和 CoffeeScript 开发者,因为它们都是基于相同的 ECMAScript 标准。 开发者众多也在一定程度上决定了JavaScript会被世界上绝大多数的网站所使用,同时主流浏览器Chrome、IE、Firefox、Safari、Opera等也都支持JavaScript。 为什么JavaScript会成为最平民化、流行的编程语言呢?有开发者表示,一方面是因为硬件性能的不断提升,JavaScript 引擎性能得到显著缓解,让开发者有了很大的腾挪空间;另一方面则是因为JavaScript 学起来容易,写起来简单,不涉及太多底层细节。 目前不仅是前端开发者在使用JavaScript,后端开发者也开始使用JavaScript。更重要的是,当软件开发行业的规模扩张,企业会更专注于业务,不再更多地关注底层基础设施,因此需要越来越简单易用的工具,JavaScript 自然成为最合适的选择。编程语言的后起之秀——Go语言 Go语言是Google为解决内部问题而研发的语言,当时Google面临的问题是C++代码量庞大、编译速度慢,程序维护难度大,更新成本高等等。因此,Go语言的设计目标就是消除各种缓慢和笨重、改进低效和扩展性。 Go语言也被人称为互联网时代的C语言。在Go语言设计者看来,最值得学习的编程语言是C语言,而C语言能盛行多年的原因是足够简单,在这一点上,Go语言也足够简单。 自Go语言发布之后,很多公司尤其是云计算公司都开始使用Go语言来重构基础架构,甚至很多项目都直接采用Go语言来开发。 使用Go语言的公司包括Facebook、Google、Apple、亚马逊云科技、腾讯、百度、京东、小米、360、美团、滴滴等,而使用Go语言开发的项目更是不胜枚举,例如我们所熟知的Kubernetes、Docker、etcd等。 在InfoQ此前发布的编程语言排行榜调查中,Go语言以19.3%的得票率成为了开发者最想学习的编程语言。那么,在这次调查中,Go语言是否真的会成为后起之秀,让我们拭目以待。写在最后 我们为什么要关注编程语言的排行情况呢?其实并不是为了区分出编程语言的优劣好坏,不同的编程语言在不同场景下都有各自的优势。之所以关注排名,是因为排名其实在一定程度上反映出了该语言在市场上的表现,对于开发者的职业发展会有所帮助。 目前很多榜单反映的是全球开发者的编程语言应用情况,很多结论与国内开发环境、发展情况都有差距。因此,我们希望汇聚在InfoQ平台上的百万开发者能够通过我们设置的榜单,评选出真正符合国内开发现状的编程语言榜单。 投票链接:https://www.infoq.cn/talk/VPZYhxw3YpYANxYLx0QR
| 5,026 | 1,627,620,272,266 |
InfoQ
|
236 |
特斯拉投资比特币15亿美元纸面收益清零;“双减”政策落地,学科类培训机构不得上市;自动抢微信红包外挂开发者被判赔475万 | AI周报
|
特斯拉投资比特币15亿美元纸面收益清零;云从科技IPO过会,AI第一股终于要来了;地球首富贝索斯成功上天,马斯克“酸了”;快手宿华“呛声”TiKToK :四年前被张一鸣截胡,今天要打回来;曾一夜爆红的Clubhouse放弃邀请制,所有人都能加入;传两大核心高管离职,京东回应:谣言;马斯克 :我的大部分痛苦来自于特斯拉;荣耀涅槃归来?荣耀中国市场份额已回升至10%以上资讯云从科技IPO过会,AI第一股终于要来了AI第一股终于要来了。7月20日,据上交所官网,云从科技集团股份有限公司首发获通过。目前,云从科技是“AI四小龙”里,首家过会的企业。云从科技计划此次募资金额为37.50亿元,募集资金将全部围绕该公司人工智能技术研发展开,以持续提升人工智能方面的技术实力及产品能力,包括人机协同操作系统升级项目、轻舟系统生态建设项目、人工智能解决方案综合服务生态项目及补充流动资金。官方资料显示,云从科技成立于2015年,该公司孵化自中国科学院重庆研究所。天眼查显示,云从科技成立至今已完成11轮融资。目前该公司估值已达到250亿元。招股书显示,2018年-2020年,云从科技的营收分别为4.84亿元、8.07亿元、7.55亿元;同期净亏损分别为2亿元、17.63亿元、7.2亿元。自动抢微信红包外挂开发者被判赔偿腾讯475万“微信自动抢红包”软件曾是很多人抢红包的助手,但其实,这种操作是违法的。近日,北京知识产权法院审结了一起与“自动抢红包”有关的不正当竞争纠纷案。该款软件的开发及运营者掌上远景公司被判赔腾讯科技公司、腾讯计算机公司475万元。微信自动抢红包软件可以使用户在微信软件后台运行的情况下,自动抢到微信红包,并且设置有“开启防封号保护”应对微信软件的治理措施。据北京知识产权法院披露,涉案行为自2016年1月持续至本案审理之时,持续时间长,下载量、用户规模较大。涉案软件“微信自动抢红包”在OPPO软件商店、PP助手、“豌豆荚”、华为应用市场、百度手机助手、酷派应用商店等安卓应用分发平台的下载量总计超过6747.6万次。OpenAI 宣布解散机器人研究团队7月19日,据外媒VentureBeat报道,当地时间6月3号,OpenAI联合创始人Wojciech Zaremba透露,OpenAI已经解散了其机器人团队,将注意力转移到其他更容易获取数据的领域。在一份声明中,OpenAI的一位发言人表示,“在公司通过魔方项目和其他项目推进强化学习技术水平一段时间之后,去年10月份我们决定不再继续更多的机器人研究,转而将团队的重点移到其他项目上。因为人工智能及其能力的快速发展,我们发现了其他方法,例如基于人类反馈的强化学习,将加快我们强化学习的研究进展。”地球首富贝索斯成功上天,马斯克“酸了”美国时间 7 月 20 日上午 8 点 12 分,亚马逊创始人贝索斯所搭载的“新谢泼德号”在得克萨斯州西部沙漠中的一个发射场起飞。8 点 22 分,太空舱在降落伞的牵引下安全着陆。这次太空之旅大约持续了近 11 分钟。与贝索斯一起登上太空的还有三个人:贝索斯的兄弟马克·贝索斯,一位 18 岁的高中毕业生奥利弗 · 戴门,82 岁的女性飞行员 Wally Funk。贝索斯旗下公司“蓝色起源”将贝索斯等四位乘客送到了距离地球表面 100 公里 (62 英里) 以上的高空。据悉,这段 11 分钟的太空旅行耗资巨大,预计每分钟的费用高达 254 万美元,也就是说,11 分钟的费用高达 2794 万美元(约 1.81 亿人民币)但对于贝索斯这次太空飞行,马斯克却很不以为然。7 月 17 日,埃隆·马斯克发了一个表情包,取笑杰夫·贝索斯即将飞向太空边缘。马斯克在推特上发布了一个关于贝索斯飞行的表情包,并评论道“哈(呵)哈(呵)”。马斯克借这个表情包调侃贝索斯,只是接触到了太空的边缘,而不是进入到了轨道。曾一夜爆红的Clubhouse放弃邀请制,所有人都能加入音频社交平台Clubhouse将不再只通过邀请制才能使用了。Clubhouse之前一直推行邀请制,要么由现有用户邀请加入,要么申请加入修补名单。Clubhouse声称一直在考虑开放App,邀请只是为了调节用户数。近日,Clubhouse的联合创始人Paul Davison与Rohan Seth宣布,该款应用将不再只限邀请才能加入,任何人都可以加入平台。快手宿华“呛声”TiKToK :四年前被张一鸣截胡,今天要打回来据36氪报道,7月22日,快手CEO宿华罕见接受了海外媒体彭博的专访,并第一次对2017年自己与张一鸣竞购海外短视频平台Musical.ly(TikTok的前身)作出了评价。“我们当时没有多少钱,”宿华对彭博回忆起快手与TikTok失之交臂的交易时说,“这是具有重大影响的一个事件,但不是决定一切的事件。”2017 年,Musical.ly的创始人朱骏和阳陆育打算出售Musical.ly。据宿华称,是他最先接触到Musical.ly的两位创始人,且“交谈最深入”,“即将完成他职业生涯中最大的一笔交易”。互联网分析人士潘乱曾提到,在字节跳动和快手竞购Musical.ly的档口,Musical.ly的天使投资人、猎豹创始人傅盛开始利用他的一票否决权搞捆绑销售,想要收购Musical.ly就必须同时买下猎豹旗下另外两款海外产品。最终张一鸣接受了这个条件,以近10亿美元的价格收购了Musical.ly,因为今日头条成熟的商业化让他拥有充足的资金;而还在养育社区生态的快手则止步于此。收购Musical.ly的成败决定了字节和快手两家公司此后三年在海外的拓展速度。今年之前,快手曾经有两轮出海的尝试,但因为各种原因,总无法在花钱增长之后取得持续的留存和增长。而现在,快手似乎打算“一雪前耻”。今年快手开始在海外发力。其主要在巴西、印尼投放,从两国扩展到整个拉丁美洲和东南亚。在异国市场,快手和TikTOK展开了“新一轮战役”。两家都在以补贴的方式获取大量用户。不久前据晚点报道,2021 年,快手为海外扩张准备了 10 亿美元预算。据快手2021Q1财报,快手海外市场的第一季度月活跃用户均值超过1亿,今年4月这个数字进一步增长至1.5亿以上。英特尔财报出炉:第二季度营收185亿上周四,英特尔发布了2021年第二季度财报,营收和每股收益均超出华尔街预期。财报显示,英特尔二季度非GAAP营收为185亿美元,同比上涨2%,高于预期的的178亿美元;二季度非GAAP净利润为52亿美元,同比上涨6%;二季度非GAAP每股收益为1.28美元,同比上涨12%。具体业务方面,英特尔客户计算部门增长强劲,二季度营收为101亿美元,同比增长6%;数据中心部门表现不佳,二季度营收为65亿美元,同比下滑9%。Q2财报的另一大亮点是自动驾驶子公司,二季度营收达到了3.27亿美元,同比大增124%。因芯片短缺,今年企业汽车或损失千亿美元据日本共同社报道,由于在社会数字化进程中,与消费电子等其他行业的争夺战加剧,汽车行业正在面临半导体供应短缺的长期化。据美国咨询公司艾睿铂透露,全球汽车行业2021年因半导体短缺将失去390万辆的产量,预计导致1100亿美元的损失。荣耀涅槃归来?荣耀中国市场份额已回升至10%以上据《每日经济新闻》报道,荣耀在国内市场已经开始恢复元气,且新荣耀与过去追求的“性价比”打法截然不同。IDC中国研究经理王希表示,“从IDC内部数据来看,今年6月,荣耀在中国市场的份额已回升至10%以上。” 此前国内“华米OV”四巨头对立的智能手机市场格局,或将在未来产生剧烈的动荡。亚马逊云:2020年化收入已跻身全球企业级IT公司前五7月21日,在“2021亚马逊云科技中国峰会”上海站上,亚马逊云科技(AWS)正式发布“全球优势,植根本地”中国战略。通过亚马逊云科技和亚马逊全球的“5+1+1”优势,打造中国业务的“三驾马车”,助力企业上云重塑和云上创新。亚马逊全球副总裁、亚马逊云科技大中华区执行董事张文翊公布了一组业绩数据:根据2021年Q1收入计算,亚马逊云科技年化收入达到540亿美元,同比增长32%,跻身全球企业级IT公司前五。传两大核心高管离职,京东回应:谣言7月21日,据界面报道称,京东内部目前正开展新一轮的“去金融化”业务调整,京东科技(原京东数科)两名核心高管均于近日离职,分别为原京东数科副总裁谢锦生、程建波。这二人均是原京东金融的元老成员。而至此,京东金融的元老已悉数离开。当前谢锦生已经结束离职流程,但新的去处未知。程建波将出任朴道征信,任职资格仍有待监管批准。针对上述传闻,京东回应新浪科技称,新闻失实,目前正在沟通处理中。比特币很“危险”?特斯拉投资比特币的15亿美元纸面收益已“清零”据美国《财富》杂志估计,随着比特币价格跌破3万美元,特斯拉投资比特币一度收获的近15亿美元纸面收益已经化为乌有。今年2月,特斯拉宣布投资15亿美元购买比特币,《财富》杂志估计,该公司在今年年初到2月初之间购买了46000枚比特币。截至一季度末,特斯拉持有41400枚比特币,持有成本为13.3亿美元。4月,特斯拉披露在一季度出售了所持10%的比特币,带来了2.72亿美元的收入,实现了1.01亿美元的税前利润。4月14日,比特币达到历史高点64800美元时,特斯拉所持的比特币价值26.8亿美元,拥有13.5亿美元的账面收益。当时特斯拉实现和账面收益总计为14.51亿美元。6月22日,比特币一度跌至28900美元,使特斯拉的投资账面亏损达1.33亿美元。7月20日,随着比特币价格一路跌至29600美元,特斯拉的投资账面亏损达1.05亿美元。实现和账面收益略低于投资成本。IBM第二季度营收187.5亿美元,云计算业务功不可没7月20日,IBM公布了截至2021年6月30日的2021年第二季度财报。财报显示,该公司第二季度的营收为187.5亿美元,同比增长3%,超出分析师预期,主要因为客户支出复苏推动其云计算和咨询业务强劲增长,云计算业务Q2季度营收为70亿美元,同比增长13%。2021年第二季度,IBM获得净利润13.3亿美元,同比下降近3%;每股收益为 1.47美元,低于上面同期的1.52美元。开源工具DeepMind的AlphaFold 2开源了,GitHub 4600颗star!深度学习神经网络 AlphaFold 2 ,可以预测蛋白质的形状,成功破解了困扰生物学界50年的蛋白质折叠难题。近日,DeepMind 在Nature发表的新论文阐述了 AlphaFold2 的细节,并在 GitHub 公开了源代码,目前已有 4600 左右颗 star。DeepMind 还简化了 AlphaFold 2。AlphaFold 首席研究员 JohnJumper 说,之前该网络需要几天的计算时间来为 CASP 的某些条目生成结构,但开源版本的速度大约快了 16 倍。它可以在几分钟到几小时内生成结构,具体取决于蛋白质的大小。这与 RoseTTaFold 的速度相当。尽管 AlphaFold 2 的源代码是免费提供的 — 包括对商业实体也是如此 。但对于没有技术专业知识的研究人员来说,它可能还不是特别有用。DeepMind 的人工智能科学领域负责人 Pushmeet Kohli 表示,DeepMind 已经在和部分研究人员和组织,包括总部位于瑞士日内瓦的非营利性“被忽视疾病药物计划”展开合作,对特定目标进行预测。但这家公司也希望扩大这项技术的应用范围。“在这个领域,我们还有很多事情要做。”IT 业界热评新闻“双减政策”落地了?在线教育受重挫靴子终于落地。7月24日,新华社发布《关于进一步减轻义务教育阶段学生作业负担和校外培训负担的意见》(下称《双减》)。《双减》对机构资格审批、上市融资、超前超纲教学、教育收费、未成年人学校保护、暑期托管、课后服务等方面做出了严格规定,明确了对校外培训的监管方向。《双减》第十三条规定,坚持从严审批机构。各地不再审批新的面向义务教育阶段学生的学科类校外培训机构,现有学科类培训机构统一登记为非营利性机构。**学科类培训机构一律不得上市融资,严禁资本化运作;**上市公司不得通过股票市场融资投资学科类培训机构,不得通过发行股份或支付现金等方式购买学科类培训机构资产;外资不得通过兼并收购、受托经营、加盟连锁、利用可变利益实体等方式控股或参股学科类培训机构。已违规的,要进行清理整治。《双减》的工作目标是,学校教育教学质量和服务水平进一步提升,作业布置更加科学合理,学校课后服务基本满足学生需要,学生学习更好回归校园,校外培训机构培训行为全面规范。学生过重作业负担和校外培训负担、家庭教育支出和家长相应精力负担1年内有效减轻、3年内成效显著,人民群众教育满意度明显提升。7月23日,网上就传闻“双减政策”即将落地。受此影响,7月23日,新东方港股暴跌冲上热搜。新东方暴跌50%,较开盘价腰斩,现报25.25港元,日内总市值蒸发超400亿港元。其他港股教育公司股价也集体下跌,思考乐教育跌近28%,卓越教育集团一度跌超16%。不久前,在线教育刚刚经历了一波裁员,多家机构业务收缩。第二波裁员正在路上。伴随着一系列政策密集发布,在线教育行业正在经历着一场史上最严厉的监管风暴。InfoQ此前发布的《在线教育严监管背后:中产逃离公立校,警惕教育“拉丁美洲化”》一文认为,针对 K12 课外辅导,这次国家监管,源头来自于公立校和课外辅导机构之间的关系和分工问题。网友热评: 在线教育“沦陷”了....马斯克 :我的大部分痛苦来自于特斯拉7月21日,在一场关于比特币的会议上,马斯克突然伤感了起来,跑题谈到了特斯拉。他说,“我想说我有过一阵子,活得很艰难,而我个人和职业生涯中三分之二的痛苦都与特斯拉有关”。他称,经营特斯拉,他遇到了很多障碍,比如大流行导致的供应链问题、Model Y 车顶脱落、以及最新款特斯拉Model S Plaid的自燃事故,还曾一度不回家住在公司。马斯克说,自从2003年这家电动汽车公司成立以来,他就把自己的“毕生精力”都倾注在这家公司身上。马斯克说:“在特斯拉,我们真的渴望成为好人。”网友趣评: 我来当好人,我愿意替你承担这份痛苦iPhone被曝存在漏洞,苹果回应:暂时无法修复7月20日,外媒Amnesty International发布报告称,苹果iPhone存在漏洞,可以通过黑客软件窃取手机敏感数据。报告显示,iPhone如果感染NSO Group的Pegasus恶意软件,会遭到入侵。有些政府部门会使用NSO Group软件,黑客可以使用苹果不知道的方法窃取数据,即便iPhone软件保持在最新状态,也无法阻止使用机密间谍软件的攻击者。一般情况下,如果信息中出现未知链接或者钓鱼链接,不点进去就没事,但这对NSO Group并不适用。对此,苹果公司回应,上述攻击非常复杂,通常需要数百万美元开发,被用来针对特定的人,这种攻击对绝大多数用户来说很难构成威胁。即便如此,苹果依然会不遗余力地保护所有用户,不断为他们的设备和数据,增添新的保护。网友趣评: 普通人不配“中毒”?
| 4,723 | 1,627,263,540,788 |
InfoQ
|
237 |
Kubernetes 7周年:它为什么如此受欢迎?
|
今年 6 月 7 日,Kubernetes 迎来 7 周年。七年前,当谷歌宣布 Kubernetes 项目时,谁也不曾想到它会取得如此大的成功。作为后起之秀,Kubernetes 打败了 Docker,成为容器编排领域的事实标准,改变了整个容器市场的格局。当今,Kubernetes 已经成为广受认可的基础设施领域工业标准,变成云计算平台上的主角。在 Kubernetes 七周年之际,InfoQ 采访了项目创始人 Craig McLuckie 和 Joe Beda,与他们聊了聊 Kubernetes 的过去、现在和未来。Kubernetes 创始人、VMware 应用现代化业务部门研发副总裁 Craig McLuckie 说:“我们看到,Kubernetes 在过去七年历程中精彩纷呈。它从最初我们两个人非常大胆的想法,到今天已经发展成有很多发行版的技术。这确实是一段不可思议的历程。”源于 Project 7对 Kubernetes 来说,七周年很独特,Craig McLuckie 称“特别强调一下 Kubernetes 的七岁生日是一个非常特殊的生日”,因为 Kubernetes 最初在谷歌内部起步时,该项目名称就叫 Project 7(七号项目)。Kubernetes 创始人、VMware 首席工程师 Joe Beda据 Kubernetes 创始人、VMware 首席工程师 Joe Beda 解释,这个名字的灵感来自于科幻电影《Star Trek》(中文“星际迷航”)。但是,在后来发展过程中,由于“谷歌律师提出了不同意见”,所以谷歌无法对外继续使用 Project 7 这个名称。因此,该项目被改名叫 Kubernetes。据两位创始人介绍,Kubernetes 这个名字源于希腊语,意为“舵手”或“飞行员”。他们表示,“说实话,我们之所以选择这个词,很大一部分原因是很难找到另一个可以让谷歌法律团队批准的名字”。同时,Kubernetes 有时缩写为K8s,这是因为K和 s 之间有八个字符的关系。据悉,Kubernetes 建立在谷歌大规模运行生产工作负载十几年的经验基础上。它源自 Borg,在谷歌用 Go 语言对它重写后,最终取名 Kubernetes。2014 年,谷歌正式开源 Kubernetes 项目。为什么选择开源 Kubernetes 项目?他们称,“我们希望把 Borg 的经验分享给谷歌之外的人,因此把它变成一个开源项目是最好的选择。我们想要的是一种共享方式,与社区分享我们在如何开发分布式应用程序方面的专业知识。除了公司在其数据中心运行的物理机外,还可以更有效地跨云服务运行代码。”之后,CNCF(云原生计算基金会)成立,微软、亚马逊云科技和甲骨文以及 Red Hat、英特尔、IBM 等纷纷加入,Kubernetes 走上快车道。企业青睐,挑战也随之而来根据 VMware《2021 年 Kubernetes 状态报告》显示,持续转向生产成为 Kubernetes 乘风破浪的一个重要标志,从 2020 年报告的 59%增长到今年的 65%。并且拥有超过 500 名开发人员的公司更倾向于在生产环境中运行所有或大部分容器化工作负载(78%)。在两位创始人看来,一旦投入运营,企业组织可能会享受到诸多益处,包括提高资源利用率、简化应用程序升级和维护等,“这两个关键 KPI 对业务成果都有着重大影响”。他们说:“不仅如此,Kubernetes 确实是一个庞大生态系统的重要支柱,赋能许多公司,许多项目围绕其成立并展开。”Kubernetes 的采用率持续上升,这意味着它已经稳步进入企业生产环境,并逐步成为 IT 主流。与此同时,企业还要面对 Kubernetes 带来的挑战。Kubernetes 创始人、VMware 应用现代化业务部门研发副总裁 Craig McLuckieCraig McLuckie 指出,Kubernetes 的成功是伴随着越来越多人的使用而不断向前发展。它之所以成功的一个重要方面是因为围绕 Kubernetes 出现了大量创新,这些创新在帮助用户解决实实在在的问题。不过,众多的创新也为企业带来它们必须要梳理清楚的复杂性和挑战。据他介绍,企业部署 Kubernetes 的复杂性主要体现在两个方面:一是如何以一种可扩展的方式迅速地运行操作 Kubernetes;二是如何让广大的开发人员能轻而易举地用上 Kubernetes。挑战中也蕴藏着机会。Craig McLuckie 和 Joe Beda 在 2016 年 11 月联合创立 Heptio 公司,其中,Craig McLuckie 担任 CEO,Joe Beda 担任 CTO,公司致力于提供专业服务来帮助企业建立和维护由 Kubernetes 提供支持的大型容器环境。2 年后,VMware 收购该公司,Craig McLuckie 和 Joe Beda 也进入 VMware 工作。Craig McLuckie 在采访中向 InfoQ 解释,整个 Kubernetes 的使用呈现指数级增长,“我们与之打交道的每一个企业都在以某种方式部署 Kubernetes,但很多企业的使用方式与我们最初的想象不一样”,这些企业以一种更加精细粒度的方式部署 Kubernetes,比如构建了很多规模较小的 Kubernetes 集群。这样一种部署模式带来的最大挑战之一是企业有了自建的 Kubernetes 集群后,其自身内部能力却未及时跟上,无法对这些集群进行接近实时的升级,即它们的集群无法最快地通过 Kubernetes 上游项目中的各种创新来进行更新和升级。这一方面给它们带来了安全上的隐患,另一方面,也让它们部署的 Kubernetes 系统无法获取整个开源社区生机勃勃的创新来源。在 Craig McLuckie 看来,Kubernetes 和其它基础设施技术的一个缺点是,它往往是应用程序开发的重点,而非推动者。Kubernetes 应该成为开发人员畅游的海洋,但实际状况却是它仍未达到期望中易于运行的程度。VMware 的《2021 年 Kubernetes 状态报告》回应了这一观点,超过一半(55%)的受访者表示,在做出选择时,缺乏内部经验和专业知识是最大的挑战。与此同时,Kubernetes 安全性是大多数组织(实际高达 97%)面临的一个显著问题,并且需要采用 DevSecOps 实践来确保在端到端容器生命周期中增强安全性。Kubernetes 成功的核心某种程度上,Kubernetes 的快速发展和壮大与背后的社区息息相关。据两位创始人介绍,在 Kubernetes 项目早期,社区有很多来自不同方向的、伟大的创新想法。“我们无法将它们全部融入到项目中并持续提高可靠性,也不希望项目本身阻碍人们使用 Kubernetes”。因此,他们专注于构建可扩展性的机会,这意味着人们可以构建和扩展 Kubernetes,无需与 Kubernetes 项目本身进行协调。这在很大程度上推动了更广泛生态系统的发展。实际上,他们一开始就把 Kubernetes 做成一个以社区为中心的项目。在 Kubernetes 发展过程中,既有谷歌的项目,也有来自 VMware、IBM 和 Red Hat 等很多参与者的想法。Craig McLuckie 和 Joe Beda 强调,“Kubernetes 今天的成功是后期由整个社区开发者携手努力做到的。社区不仅带来了广泛且深刻的经验和视角,而且帮助释放开源社区的创新”。“独行快,众行远”,这或许才是 Kubernetes 成功的关键。此外,良好的扩展性、Kubernetes 新版本引入的新功能让集群运营者在运行各种不同工作负载时有更大的灵活性:这些因素使得 Kubernetes 越来越受欢迎。对于 Kubernetes 的成功,Craig McLuckie 这样概括:一是因为 Kubernetes 诞生在一个云服务供应商的内部,所以一开始就知道它将来会有怎样的发展潜力,应该向什么方向发展。打个比方,就像玩拼图的游戏,我们不光有做这个拼图需要的所有的块,而且我们还有它最后的那张图纸。二是 Kubernetes 一开始就是一个以社区为中心的项目,除了谷歌,它还吸纳了 VMware、IBM、Red Hat 等很多参与者的想法,所以 Kubernetes 在发展过程中具备非常广泛、深刻多样的各种经验和视角。因此,它如今具备非常深刻且强大的力量和价值。针对 Kubernetes 目前的成绩,两位创始人表示,“Kubernetes 已经走过七年,但我们认为它作为一个社区,仍处于起步阶段”。他们说:“我们还有大量且非常精彩的工作要去做。不仅仅让 Kubernetes 从操作运维角度来说更加简单易用,而且还要通过 Kubernetes 把基于 Kubernetes 的整个开源社区的创新充分释放出来。”谈到 Kubernetes 的未来,他们“想让 Kubernetes 变得’无聊乏味‘,让它足够可靠,嵌入生态系统中。这样,它就真的像我们以抽象概念所描述的基础设施一样,自然地成为工作的组成部分,如同消失一般融入在框架中,人们无需额外考虑它的存在”。其次,让 Kubernetes 变得更具内在弹性、可扩展性和开发人员可访问性。他们指出,Kubernetes 旅程的下一阶段是为团队提供更丰富的自助服务体验,即如何使 Kubernetes 成为开始构建自助服务供应和自助服务消费体验的容器,以补充公有云。他们表示,“展望未来,我们还认为更激动人心的事取决于围绕 Kubernetes 形成的更大的生态系统。借助 VMware Tanzu,我们帮助用户利用 Kubernetes 更快速地取得成功,同时为他们敞开大门,利用更广泛的生态系统进一步赋能”。注:VMware 在 2019 年发布 Tanzu,它是用于实现应用程序和基础架构现代化升级的产品和服务组合,目标是持续不断地为生产提供更好的软件。它为开发人员提供一种自由,能将应用交付至任意云端,采用 Kubernetes 不再有障碍,并帮助 IT 管理员转换技能,为新一轮的现代化应用提供支持。开源与工作倦怠在 Craig McLuckie 和 Joe Beda 看来,新冠疫情推动了开发人员、企业与开源技术的互动加速。同时,开源被视为创新和创意孵化的重要来源,并且一直是很多企业组织的主要焦点。Joe Beda 说:“就个人而言,我最近在开源上花的时间并不多。我大部分时间在学习并了解 Kubernetes 生态系统中正在发生的事情(通过我的 Youtube 频道直播——tgik.io 上的 TGIK),并支持Tanzu的其他团队与开源社区合作,提供建议。”在开源行业,项目维护正变得日益艰难。在他们看来,工作倦怠(burn out)是开源世界中一个非常现实的问题,”且时刻出现在我们面前“。他们说:“我们采取的方法是确保有明确的项目目标,并充分明晰其如何为我们更大的业务目标发挥锦上添花的作用。这使我们能确保为这些项目提供适当的资金,并为该项目与社区设定正确的期望。致力于我们的参与可持续性,有望创造合适的环境来防止维护者精疲力尽。”最后,在谈到开发者平衡工作和生活上时,Joe Beda 表示,真正的 10 倍效率开发者是那些让周围的人变得更好的人。软件开发(无论是否开源)从根本上说是一项团队活动。他说:“我认为,在你的开发职业生涯中成长的真正途径是找到与你的同事更巧妙合作的方法,做一些没人能做到的惊人的事情。如果你能将境况调整至合适的状态,它将是可持续的,并创造惊人的结果。”
| 5,137 | 1,626,680,617,747 |
InfoQ
|
238 |
亚马逊云科技推出“智能湖仓”架构,在中国区域半年新增近40项相关服务及特性
|
亚马逊云科技“智能湖仓”架构,为解决客户现实挑战而生,为处理复杂场景而设计。2021年6月24日,亚马逊云科技针对数据及数据分析等服务持续发力,推出引领大数据未来的“智能湖仓”架构,成为云计算领域红极一时的创新应用。时至2021年初,“智能湖仓”发展不断成熟,亚马逊云科技由光环新网和西云数据运营的中国区域继续在这一领域推陈出新,共上线了近40项相关服务和特性,成为众多企业用户做数据处理时的优选方案。取得今天这一成就离不开时间的沉淀。在亚马逊云科技“智能湖仓”的发展史上,其架构总共经历了 7 次演进:1. 支撑交易型业务系统的需求催生了关系型数据库MB-GB级2. 数据库擅长事务性,不擅长分析型的工作,于是数据仓库专门做业务分析, TB级3. 解决互联网半结构化/非结构化数据爆炸,数据技术转向分布式计算方向Hadoop,PB级4. 打破数据孤岛,以低成本/高扩展/高可用的存储先存再淘金,催生了数据湖,EB级,我们是第一个变概念为商用的5. 随着分析洞察力的民主化, 催生了专门构建的分析引擎6. 有了湖,仓, 复杂的查询打通湖和仓的催生出来了2017 spectrum7. Re:Invent 2020,Lake House architecture, 不仅湖仓,在数据湖和各种专门构建的数据服务之间移动数据,催生了Glue Elastic view, Redshift ML如今,亚马逊云科技“智能湖仓”架构将亚马逊云科技全面而深入的数据服务无缝集成,打通了数据湖和数据仓库之间数据移动和访问,并且进一步实现了数据在数据湖、数据仓库,以及在数据查询、数据分析、机器学习等各类专门构建的服务之间按需移动,从而形成统一且连续的整体,满足客户各种实际业务场景下的不同需求。亚马逊云科技“智能湖仓”架构具有灵活扩展、专门构建、数据融合、深度智能和开源开放五大特点,涵盖数据源、数据摄取层、存储层、目录层、数据处理层和消费层六层架构,可帮助客户轻松应对海量业务数据,充分挖掘数据价值。亚马逊云科技大中华区云服务产品部总经理顾凡表示,“大数据对于现代商业的影响不言而喻。用户期盼从数据中获得洞察,但同时也面临数据存储、处理和分析等方面的诸多挑战,例如数据指数级增长、数据来源不一、数据类型多元化等等。面对细分的应用场景,目前市面上单一、通用的数据解决方案在性能上会有所妥协,很难满足客户的真实需求,用户亟需融合了易用、易扩展、高性能、专门构建、安全及智能等特性于一体的新一代数据管理架构。亚马逊云科技‘智能湖仓’架构在打通数据湖和数据仓库的基础上,进一步将各种数据服务无缝集成,确保数据在不同服务之间顺畅流动,致力于帮助客户尽可能最大程度地提高其数据价值,加速创新,并成为数据驱动型组织”。亚马逊云科技荣膺中国数据管理解决方案领导者亚马逊云科技的数据及数据分析服务不断获得行业和第三方机构认可。此前,全球知名的企业增长咨询公司沙利文中国联合头豹研究院发布了《2020年中国数据管理解决方案市场报告》,其中亚马逊云科技凭借创新的技术、灵活的数据管理、云上安全、全球商业实践,被评为中国数据管理解决方案领导者。该报告针对成长指数(功能成长)、创新指数(能力创新)、基本指数(基本数据分析能力)三大维度,对竞争主体旗下数据管理解决方案竞争力进行了评估。亚马逊云科技不仅综合实力排名第一,且三项指数均名列第一。亚马逊云科技“智能湖仓”架构实现“数据入云,融合智能”亚马逊云科技“智能湖仓”架构以Amazon Simple Storage Service(Amazon S3)为基础构建数据湖,作为中央存储库,围绕数据湖集成专门的“数据服务环”,包括数据仓库、机器学习、大数据处理、日志分析等数据服务,然后再利用Amazon Lake Formation、Amazon Glue、Amazon Athena、Amazon Redshift Spectrum等工具,实现数据湖的构建、数据的移动和管理等。亚马逊云科技“智能湖仓”架构具有以下五个特点。灵活扩展,安全可靠。亚马逊云科技“智能湖仓”架构用Amazon S3作为数据湖的存储基础,客户可根据不断变化的需求,灵活扩展或缩减存储资源。Amazon S3可达到 99.999999999%(11 个 9)的数据持久性,且具有强大的安全性、合规性和审计功能。专门构建,极致性能。为了满足客户不同的数据分析需求,亚马逊云科技提供全面而深入的、专门构建的数据分析服务,包括交互式查询服务Amazon Athena、云上大数据平台Amazon EMR、日志分析服务Amazon Elasticsearch Service、Amazon Kinesis、云数据仓库Amazon Redshift等。这些专门构建的数据分析服务为客户提供了极致性能,客户在使用过程中不必在性能、规模或成本之间做出任何妥协。其中Amazon Redshift的性价比是其他企业云数据仓库的三倍,AQUA(分布式硬件加速缓存)使 Redshift 查询的运行速度比其他其他云数据仓库最高快 10 倍;Amazon EMR运行大数据处理及分析服务的成本不到传统本地解决方案的一半,但其速度比标准 Apache Spark 快 3 倍以上。数据融合,统一治理。亚马逊云科技“智能湖仓”架构不止是打通了数据湖、数据仓库,还进一步将数据湖、数据仓库以及所有其它数据服务组成统一且连续的整体。在实际应用场景中,数据需要在这些服务与数据存储方案之间,以及服务与服务之间按需来回移动,跨服务访问。亚马逊云科技“智能湖仓”架构降低了数据融合与数据共享时统一安全管控和数据治理的难度。其中,Amazon Glue提供数据无缝流动能力,Amazon Lake Formation提供了快速构建湖仓、简化安全与管控的全面数据管理能力。敏捷分析,深度智能。亚马逊云科技将数据、数据分析服务与机器学习服务无缝集成,为客户提供更智能的服务。例如Amazon Aurora ML、Amazon Redshift ML、Neptune ML等,数据库开发者只需使用熟悉的 SQL 语句,就能进行机器学习操作;Amazon Glue、Amazon Athena ML、Amazon QuickSight Q等,可以帮助用户使用熟悉的技术,甚至自然语言来使用机器学习,帮助企业利用数据做出更好的决策。用户还可以通过机器学习服务Amazon SageMaker、个性化推荐服务Amazon Personalize等挖掘数据智能。拥抱开源,开放共赢。亚马逊云科技“智能湖仓”架构中的关键组件如Amazon EMR、Amazon Elasticserach Service、Amazon MSK的核心都基于开源代码,接口与开源完全兼容,无需改变任何代码就可以实现迁移,也兼容主流的管理工具。OpenSearch 基于开放的Apache2.0 授权,其代码完全开放,用户可以免费下载使用并获得企业级的功能。这些服务允许用户在转型过程中,以非常低的改造成本向云端迁移。亚马逊云科技赋能全球数以十万计的客户重塑大数据目前,全球数以十万计的客户选择亚马逊云科技进行数据管理及分析。在中国,TCL、丰田互联、欣和、德比软件、安克创新、启元世界等各行业客户,正在采用亚马逊云科技数据相关服务,开展数据治理及数据价值挖掘。其中, TCL基于亚马逊云科技“智能湖仓”架构搭建的解决方案,将传统的数据库、数据仓库与数据湖打通,消除了数据孤岛,让全品类IoT设备的数据和业务系统实现了互联互通,海外业务与国内业务实现了数据统一。TCL使用了亚马逊云科技广泛的云服务,包括:使用Amazon S3构建数据湖,通过大数据分析服务Amazon EMR、Amazon Redshift和机器学习服务获得数据洞察等。通过使用亚马逊云科技专门构建的数据分析服务,之前需要一周才能完成的复杂数据报表,现在仅需要1-2小时;每天运行300个以上的作业产生 200多个BI报表,为运营和数字化营销提供有力支撑。启元世界(北京)信息技术服务有限公司是一家领先的人工智能平台公司,公司拥有深度学习、强化学习等自主研发的核心技术和产品,以SaaS的形式,为国内多家知名的游戏公司提供虚拟玩家陪玩、游戏商品推荐、关卡数值设计、游戏内容生成等服务。启元世界使用了亚马逊云科技全栈的数据分析服务进行高效开发部署,保障业务快速稳定发展。启元世界CTO龙海涛表示,“作为一家领先的AI公司,我们希望把更多精力聚焦在算法迭代与产品打磨,我们需要成熟、稳定、免运维的大数据托管服务。亚马逊云科技智能湖仓通过数据的融合,专门构建的分析工具,可靠高效地支撑了我们敏捷的业务迭代,其中Amazon Kinesis实现了分钟级部署,并承载百万QPS(每秒查询率)流数据;Amazon EMR、Amazon Managed Workflows for Apache Airflow使批处理运行的时间减少了80%,运营总成本下降了50%;Amazon Glue 、Amazon Athena、Amazon QuickSight等服务实现了即席查询秒级响应。”亚马逊云科技构建了强大的合作伙伴网络,通过合作伙伴网络成员构建行业数据管理解决方案。上海驰骛(ChiefClouds) 信息科技有限公司,是国内领先的消费者数据营销平台供应商,为企业搭建消费者数据平台(CDP),以此为基础构建覆盖数字媒体和阵地运营、CRM、智慧导购等场景的全渠道和全链路消费者运营体系。驰骛科技创始人兼CEO 程华奕表示,“作为企业级数据管理平台的实践者,我们非常认可亚马逊云科技的智能湖仓架构。以Amazon S3为核心的数据基础平台,让我们在服务客户时,在数据安全性、可靠性、性能和扩展性等方面都没有后顾之忧。亚马逊强大的数据分析管理工具组合,让我们能够对各种数据处理和分析游刃有余,快捷、高效地利用机器学习挖掘数据智能,服务于客户的业务创新”。亚马逊云科技半年内在中国区域新增的近40项数据及数据分析相关的服务及特性,进一步强化了亚马逊云科技数据以及数据分析相关服务组合。其中,Amazon Glue 2.0 版本将作业启动时间缩短了10 倍,并且可提供1分钟最短计费持续时间,Amazon Athena 2.0 包括多项性能改进和新功能,Amazon Lake Formation在宁夏区域推出(去年底在北京区域推出),Amazon Redshift、Amazon EMR、Amazon Elasticsearch Service、Amazon SageMaker等均发布了诸多新特性。欲了解更多亚马逊云科技最新技术发布和实践创新,敬请关注将在上海、北京、深圳三地举办的2021亚马逊云科技中国峰会,届时将携手众多业内领先的技术践行者们一起分享“云时代的构建故事与重塑经验”。
| 885 | 1,624,954,917,975 |
InfoQ
|
239 |
亚马逊、GitHub、Reddit 等全球性网站无法登陆,带火了一家云计算公司
|
此次事件是由于美国云计算服务商 Fastly 当天发生了技术故障,从而导致大规模网站无法解析。北京时间 6 月 8 日晚,据外媒报道,包括亚马逊、Reddit、Twitch、GitHub、eBay、Etsy、Pinterest 和 Stack Overflow 在内的多家全球性网站出现故障。其中影响最严重的是美国和欧洲的新闻媒体网站,例如《纽约时报》《卫报》《金融时报》《美国有线电视新闻网》《世界报》《纽约杂志》《纽约客》等。 图片来源:rt.com社交媒体方面,除了 Twitter 的表情包无法使用外,社交媒体网站相关功能并未受到影响。但由于受影响的网站平日承载的流量巨大,全球各地的人们开始在社交媒体上热议此事,都想知道究竟发生了什么。事发原因找到了,系云服务商 Fastly 出故障从社交媒体的反应来看,包括美国、英国、澳大利亚等来自世界各地的人们都报告了网站服务中断的消息,表明这是一个全球性的事件。据彭博社消息,此次事件是由于美国云计算服务商 Fastly 当天发生了技术故障,从而引发的大规模网站无法解析问题。Fastly 是美国一家基础设施软件和服务提供商,其主要业务是为企业提供内容分发服务,帮助终端用户并更加快速地获取、访问内容。当天 9 时 58 分开始,Fastly 网站即进入问题诊断状态,其后多次更新时间状态。到 12 时 41 分,最新消息显示其已解决此问题,随着全球服务的回归,客户会遇到一段时间的负载增加,也就意味着网页(初次)加载缓慢。可以看到,从网站进入问题诊断状态到最终宣布问题解决,Fastly 花了接近 3 小时。 图片来源:nbd.com当前,受影响的英美媒体网站以及 Amazon、Reddit 等网站已经陆续恢复正常服务,Twitter 表情包也已经能够正常使用。而对于此事件,暂未有媒体报道黑客攻击的相关消息。云厂商宕机常有,4 个 9 的安全性是否靠谱?云厂商宕机故障,这些年一直不是什么新闻。2019 年,3 月 2 日,阿里云疑似出现大规模故障情况,华北众多互联网公司发现服务器异常。当天晚些时候,阿里云回应称:华北 2 地域可用区 C 部分 ECS 实例状态异常,导致该区域众多网站和 APP 都无法正常使用。2018 年 6 月 27 日,阿里云也曾出现重大技术故障,当天 16:50 分开始陆续恢复,官方给出的故障时间为 30 分钟左右,恢复时间大概花费一小时。经过技术复盘,阿里给出的故障原因为工程师团队上线自动化运维新功能时,执行了一项变更验证操作,该操作在测试环境中未发生问题,上线后触发未知 bug。2017 年 2 月 28 日,云计算巨头 AWS S3 故障,事件的起因是 AWS S3(云存储)团队在进行调试时输入了一条错误指令,本应该将少部分的 S3 计费流程服务器移除,可是最终意外移除了大量服务器。被错误移除的服务其中运行着两套 S3 的子系统,从而导致 S3 不能正常工作,S3 API 处于不可用状态。2017 年 3 月 22 日,微软云服务又一次出现宕机。Outlook、 Hotmail、 OneDrive、 Skype 和 Xbox Live 都出现了网络故障,全球用户都无法登录。根据笔者统计,仅去年一年,全球主流云计算厂商就曾发生数十起宕机事故,众多安全事故频发,云厂商承诺的 99.99% 的安全可靠性是如何定义的?熟悉云计算的读者都知道,业界常用 3 个 9、4 个 9,来计算每年的服务故障时间。头部互联网公司对他们的关键服务,通常提出的承诺是 4 个 9,也就是每年最多故障 53 分钟。不久前,笔者曾就云服务的可靠性一事询问相关技术专家的看法,他表示,云计算厂商得出 99.99% 可靠性这一数字是经过验证的,通过客户部署反馈,确实故障率在 0.01% 以下。并且,一旦出现故障,云厂商也都有非常完善的容灾方案,目前主流云厂商已经在提供一定程度上的异构灾备能力,用户也可以自己搭建跨 DC 方案,技术上能够满足异构容灾需求。如果客户追求极致容灾能力,有可能建设混合云或者采购多家云厂商,这就会带来很大的成本压力,但这种选择应该比较少,就好比对安全可靠性要求极高的金融数据库领域,也很少有客户同时选择两种数据库方案。由此可以看出,对于安全性的衡量,不论是 3 个 9 还是 4 个 9 的安全性承诺,其实都需要云服务商的客户有一定的宕机容忍度。而且在具体出问题时,修复时间的长短还得就事论事。也就是说,云服务商承诺的安全性只是一个经过测试认证的达标值,并不是每次服务的水平下限。但其实,相比上云,如今众多企业自己拥有服务器的成本会更高,并且安全性不如云服务商提供的服务来的优质。因此,对很多企业来说,上云与否已经不再是问题,而是如何选择更适合自身的云上服务 / 解决方案。
| 4,207 | 1,623,744,844,445 |
InfoQ
|
240 |
亚马逊创始人贝索斯将于7月5日卸任,由云计算负责人接任
|
贾西拥有最高的高标准,他有足够的能力让我们继续保持活力,这让我们变得与众不同。北京时间 5 月 27 日凌晨(美国当地时间 5 月 26 日,周三),贝索斯(Bezos)在年度股东大会上宣布,将于 7 月 5 日正式卸任亚马逊 CEO 。亚马逊云计算的老板安迪·贾西(Andy Jassy)将接替贝索斯的角色。一旦卸任,贝索斯将过渡为亚马逊董事会执行主席。在年度股东大会上,贝索斯解释了选择 7 月 5 日辞任的原因“我之所以选择这一天,是因为这是亚马逊 1994 年成立的日子,那已经是 27 年前”。企业经营出色,但贝索斯还是要卸任了早在今年 2 月 3 日,亚马逊就曾正式宣布,公司创始人杰夫·贝索斯(Jeff Bezos)将于 2021 年第三季度辞去亚马逊 CEO 职务,在辞任后,贝索斯将担任亚马逊董事会执行董事长。当时正值亚马逊发布 2020 年第四季度财务业绩及全年财报。据财报数据显示,亚马逊第四季度的净销售额达 1256 亿美元,相较 2019 年四季度净销售额 874 亿美元增长 44%;净利润为 72.22 亿美元,与去年同期的净利润 32.68 亿美元相比增长 121%。2020 年全年,亚马逊净销售额达到 3861 亿美元,相较 2019 年 2805 亿美元增长 38%;营业收入增至 229 亿美元,而 2019 年的营业收入为 145 亿美元。净收入增至 213 亿美元,对比 2019 年亚马逊年净收入 116 亿美元,净利润同比提升 83.6%。公司业绩如此出色,但贝索斯最终还是决定卸任了。从 1994 年创立亚马逊,贝索斯已经创业 27 年,目前年龄已达 57 岁,接近国内法定退休年龄。不过他不用担心的是,目前他的身价近 2000 亿美元,依然是超级富豪,并不需要为自己的养老问题发愁。针对于此,有网友评论表示:“幸好他宣布即将卸任的消息是在公司业绩表现出色的时候,而且他还将继续担任亚马逊的执行董事长。不然只将首席执行官职责移交给亚马逊网络服务部负责人安迪·贾西的行为,就足以让亚马逊股价大地震了。”接棒人毕业于哈佛,曾领导亚马逊最赚钱部门亚马逊作为全球互联网巨头,如今市值高达 1.65 万亿美金。能接替创始人贝索斯,成为亚马逊新任 CEO,安迪·贾西自有过人之处。据领英显示,安迪·贾西毕业于哈佛大学商学院,并于 1997 年 5 月加入亚马逊,一直工作至今,长达 24 年。作为非技术背景的安迪·贾西一开始负责亚马逊电子商务业务的营销工作,花了很多时间辅助贝索斯的工作。而后,在发明并领导亚马逊网络服务(Amazon Web Service)这一业务中扮演关键角色,由于业务和管理能力出众,一路晋升成为亚马逊云计算的 CEO。而亚马逊云计算如今是亚马逊最赚钱的部门。在股东大会上贝索斯坦言,他希望已经在公司工作 24 年并晋升为公司最赚钱部门的贾西将会成为“杰出的领导者”。而对于即将接班的安迪·贾西,贝索斯评价道:“他拥有最高的高标准,他有足够的能力让我们继续保持活力,这让我们变得与众不同。虽然这并不容易,但我预计贾西会让所有人满意”。
| 4,107 | 1,623,404,924,475 |
InfoQ
|
241 |
微软在低代码领域憋大招,跟RPA厂商抢生意?
|
近期,微软在低代码领域做了大量资金投入,拥有了一批其他厂商难以匹敌的产品,近期发布的 PowerFX 更是如虎添翼。微软在低代码领域的动作表明,软件巨头并不打算开发定制化部署系统,而是要将低代码软件直接整合到企业的现有 CI/CD 工作流当中。微软的矛头直指 UIPath、Automation Anywhere 以及 Blue Prism 等各大机器人流程自动化(RPA)厂商,显然是看中了后者与各家企业签下的重磅订单。而 RPA 厂商们还面临着另一大威胁:亚马逊云科技和谷歌也几乎拥有与微软产品一一对应的解决方案,完全有能力迅速缩小差距。微软低代码工作进入收尾阶段低代码软件开发平台的核心诉求是让非专业开发者也能构建起现实可用的业务应用程序,基本思路是帮助已经对业务流程拥有深刻理解的用户轻松参与到应用程序构建中来,通过将专业业务知识与 IT 团队的开发技能相结合,企业客户可以进一步加快创新速度。Gartner 公司预测,到 2025 年大部分企业级应用程序都将在一定程度上引入低代码软件开发平台。企业级低代码软件套件通常涉及四大核心组件:数据存储、集成与转换管道、应用界面和报告系统,另外还有用于同传统应用程序保持交互的 RPA(机器人流程自动化)和数据提取(从 PDF 中提取半结构化数据)两种可选组件 。除了上述组件之外,低代码软件套件还需要满足能够实现应用程序部署和在部署完成后持续监控应用程序运行状态两个额外要求。过去六年以来,微软一直着力构建前六大组件,如今相关功能已经基本实现,微软开始处理部署和监控方面的收尾工作。这样一条简单的推文,已经令各大 RPA 与代码厂商惊恐不已:RPA 与企业级低代码软件发展简史企业级低代码软件的发展历程可长可短,具体取决于大家的审视角度。例如,我们完全可以从上世纪九十年代的 4GL 软件聊起,但本文只讲重点部分。我们直接把目光投向 2010 年代,即机器人流程自动化(RPA 软件)兴起之时。在发展早期,RPA 软件不比绿屏终端时代的屏幕抓取系统先进多少。但是,RPA 软件很快发展出了现代低代码套件所需要的各大组件(数据存储、集成 / 转换、应用程序界面与报告等)。例如,对于各类需要在特定阶段(例如批复付款申请)进行人工输入或决策的流程,RPA 套件能够帮助用户开发简单应用程序用来实现工作流自动交互。RPA 套件的核心创新点在于出色的编排能力,管理员可以借此高效部署并监控成百上千条流程。总有人评价微软 Power Automate 等自动化平台不如 UIPath、Automation Anywhere 和 Blue Prism 等 RPA 工具那么成熟,这其实就是 Power Automate 在监控与部署方面还存在短板。而微软当然意识到了问题所在,并决定一举解决这些问题。微软低代码的核心优势微软已经完成了企业级低代码解决方案所需要的各个部分。只要能在落地策略上保持住一贯水平,微软就将成为低代码领域中一股无可匹敌的力量。事实上,微软眼中的低代码代表了一片广阔的发展空间。对微软来说,低代码面向的用户既包括在 Excel 中编写公式的会计师,也有通过 API 提取数据的软件工程师,更有负责构建定制化端到端管理方案并为客户提供洞见的咨询顾问。微软意识到,低代码方案推广的障碍不在于编写低代码应用本身,而在于如何部署并监控低代码应用。软件巨头立志要为这一挑战找到理想的解决方案。过去六年以来,微软通过自研及收购等方式获得了以下组件:数据存储解决方案(Dataverse)集成与转换管道(Logic 应用)应用构建工具(Power Apps)报告机制(Power BI)RPA 解决方案 (Power Automate)数据提取 (Azure Cognitive Services Form Recognizer)现在,微软的整盘棋局就只缺少“部署”与“监控方案”两枚棋子。以往的大型 RPA 套件往往要求客户使用其编排器系统来解决上述挑战,但微软的思路明显不同。他们为开发团队提供的方案可以概括为:无须建立新的部署与治理实践,只要延续原有 CI/CD 体系即可。随着 PowerFX 的发布,微软希望通过使用这种通用编程语言将所有组件串连起来,帮助企业依靠现有 CI/CD 流程与治理框架高效部署低代码应用程序。这一思路成为微软相较于其他低代码竞争对手的核心优势,也使得微软低代码解决方案成为 CIO 们眼中的安全选项。换句话说,企业在选择新增低代码平台时,事实上是在能够支持原有治理框架的 Power Platform 与不适合原有框架的其他平台之间做选择。从这个角度看,Power Platform 有着难以抗拒的诱惑力。微软无疑制订出了一项令人印象深刻的战略。虽然不知道这期间经过了多少曲折、多少设计难题,但从战略发布的具体时间来看,微软应该是在 2019 年想到了可以将这些组件整合起来,并随后开始不断推动具体实施工作。这是微软低代码平台的发展年鉴:· 2015 年:发布 VS Code· 2016 年:发布 PowerApps 与 CDS(现在的 Dataverse)· 2018 年:收购 GitHub,发布 GitHub Actions· 2020 年:收购 Softomotive RPA· 2021 年:公布 PowerFX 编程语言其间,微软不断努力将专业软件开发中的持续集成 / 持续交付(CI/CD)组件同低代码及 RPA 产品加以结合,再把这些成果同能够促进数据与应用良好治理的通用编程语言 PowerFX 联系起来。PowerFX 对低代码的意义PowerFX 是 Power Apps 中使用的编程语言。2021 年 4 月,微软的 Greg Lindhorst 首次通过以下 GIF 动图披露了 PowerFX,并快速展示了 PowerFX 与 JavaScript 之间的区别。PowerFX 的核心诉求是为用户提供与 Excel 类似的使用体验。微软之所以努力迎合低代码开发者这一新兴群体,原因在于这种开发方式特别适合现代企业的既有工作流程和治理框架。下面是我个人认为微软公告中最重要的核心部分,具体描述了如何将企业级低代码应用程序整合至现有开发流程当中。微软在确保业务开发者能够适应代码编写要求的路上做出了很多努力,而第一步就是发布基于 GPT-3 的 AI 驱动型 Power FX 公式编写器。只要业务开发者使用 Power FX 构建业务应用程序,这些应用就能由企业中的其他专业开发人员进行增强,再由 IT 人员用与其他软件项目类似的方式进行管理。通过将构建低代码应用程序的业务开发人员与负责部署应用程序的专业开发人员联系起来,企业能够快速建立并部署足以支持自身独特竞争优势的、复杂且强大的定制化应用程序。例如,有一家保险企业专门为采矿业的卡车和其他重型工程设备提供保险。使用 Power FX 的 Power Platform,企业的业务用户可以构建起与业务线紧密关联的应用程序,专业开发人员则可以使用 Java 或 C++ 等语言构建定制化质量评级引擎。以此为基础,所有开发成果都可经由公司内的标准 CI/CD 流程进行维护。亚马逊和谷歌在干什么?微软已经具备能够保障低代码成功的各种因素,也展示出了强大的方案交付能力。这对 UIPath、Automation Anywhere 以及 Blue Prism 等大型 RPA 厂商来说,当然称不上是好消息。更糟糕的是,亚马逊云科技和谷歌可能也会很快进军低代码领域。与其他企业相比,微软目前的优势在于掌握了强大的话语权。亚马逊云科技与 GCP(Google Cloud Platform)都还没有将低代码作为一项重要的市场竞争优势。但必须承认,这两家公司都拥有丰富的技术储备,完全可以向微软发起正面冲击。亚马逊云科技最近发布了低代码应用程序平台 Honeycode,不过还未具体解释更多细节。去年,谷歌收购了 App Sheet 作为自家低代码产品,但尚未公布这款产品将如何与现有存储、工作流或 CI/CD 系统结合。讽刺的是,我从谷歌那边看到的最靠谱的低代码环境声明,就是与三大 RPA 厂商之一的 Automation Anywhere 建立起合作伙伴关系。在技术方案上,亚马逊云科技掌握着一系列能够与微软技术栈相媲美的组件方案:数据存储:亚马逊云科技在这方面拥有很多选项,只是不像 Dataverse 更容易被非传统开发者们接受。但亚马逊正在努力弥合这一鸿沟,相信很快将会有相关成果出炉。集成与转换管道:亚马逊云科技在这方面同样有大量选择,旗下的 Step Functions、Glue、App Flow 以及其他很多工具都是不错的方案,只是亚马逊还缺少在具体情况下使用哪种选项的明确思路。应用构建:Honeycode报告系统:QuickSightRPA(亚马逊云科技在这方面还没有解决方案,但可以收购体量较小的 RPA 厂商)数据提取: Textract谷歌方面的情况也差不多:数据存储:与亚马逊云科技类似,谷歌手里的牌也不少,Appsheet 的数据存储就适用于大部分低代码用例。集成与转换管道:谷歌在这一领域的产品显得很混乱。他们曾先后与 Trifacta、一款名为 Cloud Composer 的 Apache Airflow 衍生产品以及 Workflows 建立起合作伙伴关系。(建议很简单,随便挑一家)应用构建: Appsheet报告系统: LookerRPA:谷歌与 Automation Anywhere 之间的合作可能存在问题。虽然谷歌确实还没有与传统应用进行交互的方案,但 Automation Anywhere 提供的大部分功能(数据存储、工作流、应用程序等)在谷歌全家桶里都有现成的替代方案。因此我个人预计,谷歌与 Automation Anywhere 的销售代表之间将很快爆发激烈的冲突。数据提取:Document AI亚马逊云科技和谷歌在这场与微软的战争中没有很多的技术劣势,他们面临的最大挑战是需要制定明确的发展战略并拿下企业订单。但遗憾的是,微软在这两方面都有着丰富的经验与强大的实力,所以亚马逊和谷歌胜算可能并不大。但他们至少有技术,只需要把各种因素串连起来并试着推广。RPA 领域仍然有三大巨头厂商在虎视眈眈,这种竞争态势对于参与各方都不大有利,不过 CIO 与 IT 团队会成为最大的受益者。经过充分竞争后,用户将有很多优秀的自动化解决方案可以选择,其中一些还能与现有部署及治理框架完美融合,何乐而不为?作者简介:Doug Hudgeon 是 Manning 著作《Machine Learning for Business》合著者,该书展示了如何使用 AWS SageMaker 解决实际业务问题。他也是集成公司 Managed Functions 公司的首席执行官。原文链接:https://www.infoq.com/articles/cloud-vendors-low-code/
| 4,403 | 1,622,761,200,497 |
InfoQ
|
242 |
“节约成本”不是转向云计算的头号理由
|
云计算的成本:一个价值万亿的悖论 毫无疑问,云计算已经成为计算发展史上最重要的平台迁移浪潮之一。云计算不仅左右着数千亿美元的IT支出,而且在达成这些里程碑目标之余居然仍处于早期发展阶段,在每年上千亿美元的公有云支出基础之上保持着旺盛的增长态势。而这股转变实际上源自一个强大的价值主张——打造能够按业务需求即时提供资源及服务的基础设施。这意味着云计算既提高了运营效率,也改善了经济效率。在摆脱了内部资源的束缚之后,企业能够将更多精力投入新产品研发、业务增长、云探索以及创新文化培养等方向。然而,随着云技术行业在经验上的日趋成熟,可以看到虽然云技术确实在发展早期兑现了自己的资源优化承诺,但这种优化效果却在业务规模扩大与增长的同时逐渐减弱,最终负担开始超过收益。这种转变往往发生在企业应用的后期,因此很难轻松逆转,其根源在于企业客户多年以来更多专注于功能创新、而非基础设施优化。在这种情况下,显著提高效率所需要的重写甚至重大重构工作可能需要耗费数年,甚至相当一部分优化工作根本没有现实可行性。 如今,人们开始愈发明确地意识到云计算对于长期运营成本的影响。随着云成本在总体收入成本(COR)或产品销售成本(COGS)中占比的持续提升,不少企业已经开始采取极端方法,包括“撤回”大部分工作负载(例如Dropbox)或者选择混合解决方案(例如CrowdStrike与Zscaler)。这些举措也带来了显著的成本节约效果:2017年,Dropbox在其S-1文件中详尽介绍了基础设施优化改革帮助该公司在首轮公开募股之前的两年内累计节约7500万美元,而所节约成本的主要源头正是公有云。 但考虑到此类工作规模浩大,多数企业往往很难证明将工作负载迁出云环境的直接意义。毕竟坦率地讲,“云计算天下无敌”仍是目前行业的主流观点。为此,我们打算对由云计算催生的潜在损失价值做出评估。随着收益随业务规模的增长而放缓,短期效率已经成为公共市场上愈发重要的决定性价值因素。而云计算过高的成本、特别是给利润率造成的压力,正严重影响着云技术的市场口碑。 但本文的重点并不是劝大家回归本地设施,而是想强调这是个高度复杂的问题,具体影响和应对思路应视公司情况而定。我们希望迈出第一步,估算云计算的普及到底浪费掉了多少价值,这样我们才能确保企业在业务规模扩大的同时始终拥有正确的基础设施管理决策框架。 首先向大家介绍我们的讨论框架:我们会估算全部撤出云端这一极端情况下所能节约的资金,并使用公共数据确定此举对企业股价(市值)造成的影响。通过相对保守的假设,我们猜测在目前使用云基础设施的50家顶尖上市软件公司中,因云服务吞噬应有利润而造成的市值损失约为1000亿美元。虽然我们在本次分析中仅关注软件厂商,但云计算的影响绝不仅限于软件行业。如果将分析结论扩展到更为广泛的上市企业之内,我们预计总市值影响可能超过5000亿美元。 我们的分析还强调了通过云优化能够返还多少市值——具体包括系统设计与实施、重构、第三方云增效解决方案、以及将工作负载迁移至专用硬件等方式。考虑到主流观念已经认定云计算优于本地部署,这里的假设显然极度违反直觉。但很明显,将短期节约与长期市值影响综合起来,这种负载划分、混合运营的方式能够为几乎一切处于扩张期的企业合理降低云成本。云脱钩的单位经济学:Dropbox案例及其他为了确定云计算成本,特别是理解优化带来的潜在节约量,我们首先从较为极端的大规模云脱钩案例开始:Dropbox。在这家公司于2016年开始启动基础设施优化计划时,他们将大部分工作负载从公有云迁移到了由租用及直接运营的托管服务器上,借此获得“更低成本与更具定制化的基础设施操作空间”。事实证明,他们在接下来的两年之内节约下近7500万美元。从2015年到2017年,Dropbox公司的毛利率由33%增长至67%,“这主要利益于我们的基础设施优化……以及在此期间公司本身获得的收入增长。”但那可是Dropbox,未必具有普遍的代表意义。因此,为了帮助更多企业了解云脱钩的潜在节约比例,前谷歌工程师、云计算优化厂商Optimyze联合创始人Thomas Dullien估计,目前企业中约有价值1亿美元的公有云成本,完全可以通过不足一半的每年总体拥有成本(包括服务器机架、楼面占用、网络与工程成本等)替代。 实际节约额度当然会因企业而异,但我们在与多位专家沟通之后,基本得出了一种共识性结论:脱钩成本基本相当于在云端运行等效工作负载的三分之一到一半。此外,某大型消费级互联网企业的工程主管发现,公有云的定价往往达到自有数据中心运行成本的10到12倍。由于批量采购云资源往往能享受到可观的折扣,我们按30%到50%的成本优惠来计算,那么云成本相较于本地设施的实际倍率应该是在个位数范围。但无论如何,除去折扣以及相当激进的研发预算,亚马逊云科技仍然保持着约30%的综合运营利润率。这意味着企业客户在云脱钩之后往往能省下更多资金。自主管理硬件所带来的性能提升,甚至会进一步推动收益增长。 通过与各行业从业者的交流,我们发现上述结论确有普遍意义。在规模化运营的情况下,云成本至少达到同级别本地基础设施的2倍。云计算的真实成本结合云支出在总收入成本(COR)中占据的可观百分比,云脱钩带来的至少50%成本节约无疑意义重大。根据各基准公共软件厂商(即承诺披露其云基础设施支出的厂商)发布的信息,我们发现云计算合约中约定的支出平均占COR的50%。 而实际上,云支出占COR的百分比往往比约定占比更高:一家市值10亿美元的私营软件企业告诉我们,他们的公有云支出占COR的81%,而且“云支出占总收入成本75%到80%的情况在软件行业中屡见不鲜。”结合自己从供职谷歌到效力于Optimyze期间的实际体会,Dullien还观察到企业客户在评估云支出约定占比时往往比较保守,往往出于过度支出的担心而仅纳入了基准负载。根据经验,约定支出往往要比实际支出低20%左右。通过沟通,不少企业还报告称他们的实际云支出至少达到约定云支出的2倍水平。 如果结合这种情况对其他以公有云作为基础设施的软件企业做出广泛推断,那么对于全球前50家顶级上市软件企业,其总体云支出已经达到80亿美元(这一结论已经在各软件厂商的年度报告中有所体现)。尽管一部分企业采用混合模式(即公有云加本地部署,在这种情况下云支出在COR中占据的百分比相对较低),但我们的分析已经在假设层面选取了约定支出(而非实际支出),因此应该可以抵消掉这部分差异。结合与专家的交流结论,我们假定云脱钩能够将云成本降低50%,由此获得40亿美元的总节约额。对于云基础设施利用率更高的大型公共软件及消费级互联网公司而言,其实际节约额可能还要高得多。虽然40亿美元的净节约额已经相当惊人,但将此转化为市值增长之后,得到的结论更是令人瞠目结舌。目前,所有企业的市值概念都源自其按未来现金流的现值,因此在达成以上成本节约后产生的相应市值将远远超过40亿美元。 但到底有多少?一种比较粗略的计算方法,就是参考股票市场如何评估额外利率:目前通过烧掉大把现金保持调整增长的软件公司,通常会按毛利率的倍数确定市场估值,这反映出投资者对于公司长期增长及利润率结构的假设。(参考中的收入倍数同样反映出企业的长期利润率,因此对于业务增长率暂时处于波动的企业,只要其业务的毛利率较高,利润率同样能够保持提升。)我们可以将这两项资本倍数作为启发性指标,用于估算企业未来现金流的当前市场折现率。 在我们分析的50家上市软件公司中,其平均市值约为2021财年毛利润倍数(基于发布时的CapIQ)的24到25倍。换句话说:通过云脱钩每节约下1美元毛利润,则其市值将平均增长24到25倍(假定节约金额已经扣除了增加资本支出而产生的折旧费用)。 这意味着仅这50家企业,就可以通过额外的40亿美元毛利润增长产生额外的1000亿美元市值。另外,由于使用毛利倍数(相较于自由现金流的倍数)假设增量毛利美元与某些增量运营支出相关联,这种方法甚至还低估了每年40亿美元净节约对市值产生的最终影响。 对于特定企业,市场估值受到的影响可能更大。这里我们以基础设施监控即服务厂商Datadog为例,该公司在上市时的股价接近2021年预估毛利润的40倍,同时在S-1文件披露了签订的未来三年内使用2.25亿美元亚马逊云科技服务的约定数额。如果我们将这部分约定支出年化为每年7500万美元的云成本,并假定云脱钩能够实现50%的成本节约(折合3750万美元),那么单此一项就能为该公司带来约15亿美元的市值提升! 当然,这样的简单分析不可能得到完美可靠的结论,但至少能够在方向上给大家一点启示:规模庞大的上市软件厂商的市值,已经因为云成本的压力而蒙受千亿美元的损失。如果我们把目光投向企业软件与消费级互联网企业等更为广阔的领域,那么这一数字有可能超过5000亿美元。换言之,如果能够通过云脱钩帮助这些企业节约50%的总体云支出,那么其获得的额外总市值将超过5000亿美元。 对于企业领导者、行业分析师以及开发厂商而言,在短期乃至长期基础设施决策时显然不应该、也不可能忽略云支出这一对于企业市值具有重大影响的因素。云计算的悖论那我们要如何做出改变?首先需要承认,将工作负载转移出云端是项重大决定。如果不做提前规划,负载重写不仅困难、甚至根本就没有实现的可能。此外,这类工作必然需要一支强大的基础设施团队,但并不是每家企业都拥有如此雄厚的人才储备。这一切也要求我们在核心职能之外建立起额外专业知识,这不仅会分散企业的业务重心,本身也会挤占业务资源。即使单从规模角度来看,云计算也仍有不少可取之处——例如按需容量交付以及能够支持新项目与新市场的丰富现成服务。 但在另一方面,前文提到的问题还是不容忽视:云成本已经开始反噬企业自身,甚至悄然消解掉了本应存在的千亿美元市值。不选择云计算的一定是疯子,而选了云计算早晚要被它逼疯! 那么,企业要怎么摆脱这样的悖论?结合前文,大家应该看到我们并没有以任何方式给出脱钩的理由;相反,我们只是在计算基础设施支出这项核心指标。换言之,企业必须尽早、甚至是在云环境之外开展基础设施成本优化。业务规模越大,我们对于某些先验理念的依赖性就应该越低。虽然这里面有着大量关于心态转变以及最佳实践的门道,但本文希望整理出几项核心注意事项,希望帮助大家更好地应对不断增长的云计算成本。 将云支出作为KPI。要真正让基础设施支出成为一项核心指标,前提就是要把它视为企业中的一项关键绩效指标。以Spotify的Cost Insights为例,这是一款用于跟踪云支出的原研工具。通过跟踪云支出,该公司得以为财务乃至工程技术团队合理分配云支出额度。作为曾经的Digital Ocean成员,Ben Schaechter参与建立起Vantage公司并出任CEO,他观察到整个行业的企业已经在业务生命周期之初就开始关注云成本指标以及核心性能与可靠性指标。“开发商们变得越来越精明,他们希望自己的团队能更严格地对待云支出问题。”激励正确行为。使用一流基础设施KPI数据为工程师们赋权虽然可以帮助他们提高意识,但还不足以激励人们彻底改变行为模式。一位著名行业CTO曾告诉我们,他曾在一家公司中采用过类似销售大促的短期激励措施,确保每一位优化或节约下一定数量云支出的工程师都有机会拿到资金。这项举措确实让企业的投资回报率有所提升。他回忆道,这种方法相当于直接将成本问题同工作人员联系起来,顺利将组织的整体成本降低了10%,在短短六个月内就节约下300万美元的总开销。值得注意的是,公司首席财务官也非常认可这种非传统节流模式。优化、优化、还是优化。在评估企业市值时,最重要的因素就是商品销售成本或者叫销货成本(COGS)。具体来讲,企业要想赚取一美元,需要付出多少成本?客户数据平台厂商Segment最近分享了其如何通过逐步优化基础设施决策,成功将相关成本降低达30%(同时将收入流提升25%)。目前已经有多种第三方优化工具能够为现有系统快速提供收益。根据我们的实际观察经验,具体优化范围从10%到40%不等。提前考虑脱钩需求。云悖论(即云在企业起步及发展阶段表现良好,但在业务规模提升后则成本高昂)确实存在,但企业并不一定只能被动接受,而完全可以提前做好规划。请确保您的系统架构师尽早意识到后续脱钩需求,以免在云成本达到甚至超过收入增长时无可奈何。因此,不妨在早期进行适度或者模块化程度更高的架构投资,包括尽量使用能够将工作负载迁移至最佳位置而不受锁定影响的架构,同时减少未来脱钩时可能需要的工作量。Kubernetes的流行以及软件的容器化风潮已经极大提高了工作负载的可迁移性,这本身就是企业们不希望被牢牢锁定在特定云服务商身上的明证。逐步脱钩。另外,我们当然也可以选择渐进及混合方式推动脱钩(只要适合企业的实际情况)。请注意,大家可能只需要对一部分资源消耗量最大的工作负载进行云脱钩,而并不一定要全面脱钩!实际上,通过具体交流,我们发现即使是脱钩态度最激进的企业,仍然会把10%到30%的工作负载留在云环境当中。 虽然上述建议主要针对SaaS企业,但应该也能给其他公司带来些启发。例如,作为基础设施供应商,您可以考虑成本分摊选项(例如使用客户的云积分)消解掉一部分成本。总之,云成本应该成为整个生态系统都严肃对待的重要议题。结语我们完全可以理解云计算的快速普及:云本身代表着一种专门针对创新、敏捷性及业务增长进行优化的理想平台。在由私人资本推动的行业当中,利润率往往只是次要问题,创新才是真正的诉求。也正因为如此,初创企业才更倾向于在云端启动业务,始终强调功能开发速度的优先性。 但现在,我们已经意识到其中的问题。而且颇为讽刺的是,超过60%的企业都在以“节约成本”作为转向云计算的头号理由!对于初创企业或者全新项目,云几乎成了不容质疑的最佳选择。当然,即使存在一定额外成本,不少公司也愿意将其视为获取云敏捷性所必需的“灵活性税”。 问题在于,大型企业(包括规模不断扩大的初创公司)承担的这部分“灵活性税”往往可以变现为上千亿美元的股权价值……一旦在云道路上走得太远,他们就很难选择回头。这里还要再提一点,很多企业其实是为了回避前期资本支出才选择了云计算。但过去几年以来,公有云基础设施的替代方案迎来了很大发展,现在我们完全可以通过纯运营支出(而非资本支出)实现云脱钩之后的设施构建、部署与管理。 另外需要注意的是,虽然前文提出的不少数字看似夸张,但这还是保守估算下的结果。实际支出往往会高于约定支出,而且我们还没有考虑到弹性定价产生的梯度费率。总之,云成本给整个行业市值的影响可能远远超过预期。 那么,云服务商会不会主动削减目前拿到的30%利润比例?从目前三大云巨头垄断市场的情况来看,可能性不大。部分原因在于,亚马逊、谷歌与微软这三家总市值高达5万亿美元的企业用实际行动证明,他们的成功一方面源自产品的高利润率、另一方面正是来自自主经营的低成本基础设施。正是有了这两大支柱的加持,他们才能在提振自身股价的同时对产品及人才进行持续投资。 因此,如果真的存在这部分高达数千亿美元的市值空间,云计算悖论也许可以通过另一种方式得到解决:公有云厂商逐步放弃利润空间,否则客户就会将工作负载脱钩出去。无论如何,基础设施迁移与代码优化,都是每家企业必须关注的云成本优化正道。 原文链接:https://a16z.com/2021/05/27/cost-of-cloud-paradox-market-cap-cloud-lifecycle-scale-growth-repatriation-optimization/
| 2,645 | 1,622,718,000,300 |
InfoQ
|
243 |
砸200亿美元进军芯片代工,英特尔孤注一掷的自救
|
作为曾经的硅谷缔造者之一,文化上的自满与错失移动浪潮的战略失误已经令这位芯片巨头远远落后于其他竞争对手。英特尔7纳米芯片仍然在路上除了专业投资人或分析师之外,英特尔在季度收入报告中列出的这第三项要点在大多数人眼中可以说是既无聊又无力——“由10纳米向7纳米产品过渡的时间点,晚于先前预期。”英特尔的一举一动永远牵动人心。而最新一轮财报明确给出了残忍的结果,英特尔最新、最出色的芯片仍然“在路上”,而走得很不顺遂。该公司曾经承诺制造7纳米制程(相当于七十亿分之一米)晶体管芯片,并将2021年设为最后期限。很多朋友都知道,晶体管越小、单位面积所能容纳的总晶体管量就越大,处理器的性能或效率将更上一层楼。而新制程产品再度延后,自然代表着英特尔还得靠上代老芯片继续“混”过一年。自上世纪六十年代以来,英特尔一直是美国制造业中的明珠。当时,Robert Noyce与Gordon Moore在加利福尼亚州山景城建立起这家企业,并协助创建了现代芯片产业乃至名震天下的硅谷地区。芯片巨头如今已经将总部迁往圣塔克拉拉。虽然发展历程中新技术量产延误时有发生,但英特尔的工程师们始终坚信每一次挫折仅仅只是暂时的波动。但2020年7月,情况发生了实质性变化。在财报电话会议上,英特尔公司CEO Bob Swan表示,该公司拟建的未来芯片制造厂(晶圆厂)可能永远无法跟上制程发展。为此,芯片巨头正在考虑借助承包商制造7纳米芯片。 Swan在回答分析师的提问时表示,“如果我们真的需要其他厂商的制程技术,也真的只能用这些应急计划解决问题,那我们必须做好准备。”他的回答语气虚浮、嗑嗑绊绊,显然是没有为这个问题做好准备。当时在电话中聆听他陈述的分析师,脑中不约而同浮现两个大字:废话。但无论如何,Swan的回应堪称英特尔公司52年发展历史中的重大转折。在此之前,英特尔不仅拥有先进的处理器设计能力,同时也掌握着生产数亿枚芯片以驱动全球计算设备的复杂技术。完善的内部技术储备,也让英特尔长年把持着价值4000亿美元的全球芯片行业的龙头位置。这种技术能力不仅让英特尔脱颖而出,这种地位本身也成为二十世纪美国资本主义神话的重要组成部分。没错,大多数电子产品确实由亚洲工厂生产,但这些只是美国自己看不上的低利润组件与低收益岗位。另一方面,英特尔在美国本土的工厂则专门制造最复杂、利润率最高的组件。克林顿、小布什与奥巴马三任总统都参观过英特尔的晶圆厂,印在全球台式机与笔记本电脑上的“Intel Inside”标记也成为整整一代人的回忆。上世纪九十年代,在公司文化自信最高涨的时期,英特尔甚至开始在电视广告中配着Wild Cherry的Play That Funky Music乐曲宣传自己的高科技无尘车间。那是何等的辉煌、何等的自信……而如今,Swan先生的笨拙表达无疑否定了英特尔的光荣传统、甚至可能损害美国在高端制造业中的领导地位。但在Swan真正实施外包计划之前,英特尔公司再次改变了方向,决定由Pat Gelsinger接任掌门职务。作为曾经的英特尔首席技术官,Gelsinger对芯片巨头的制造能力仍然很有自信。他在今年3月公布一项计划,决定斥资200亿美元在美国新建工厂,由此带来的产能不仅可支持自家生产、同时也可吸纳部分承包业务。他提出将英特尔转型为一家合约制造商(也就是所谓代工厂),这也彰显出他的勃勃野心。在接受采访时,Gelsinger兴奋地表示“英特尔又回来了。英特尔已经从过去走出来,我们将成为市场的领导者,在全球半导体需求快速增长的背景下满足更多代工客户的要求。我们将以有力且意义深远的方式迈出转型的步伐。”全球半导体产业收入:英特尔在计算领域占据主导地位,但在无线通信领域却毫无建树数据:IDC *包括能源、医疗、军事与航空航天。芯片王者桂冠旁落但即使是在当下,全美最有价值芯片厂商的头衔也早已落入英伟达公司囊中。 英伟达专业设计图形处理器,并将大部分制造业务外包给亚洲合作方——相比之下,英特尔则控制着约八成计算机处理器市场,并在服务器、特别是数据中心设备领域拥有更高份额。但问题在于,英特尔传统意义上的“大客户”,包括Amazon.com、苹果与微软,如今都在着手设计原研芯片并雇用外包制造商进行生产代工。英特尔的另一位竞争对手AMD更是鲜明地打出了“无晶圆厂”芯片厂商的旗号,而且AMD的7纳米产品已经开售了几个月之久。这就引起了很多人的质疑:Gelsinger说是要改革,但英特尔真能从停滞当中缓醒过来吗?Advisors Capital Management LLC合伙人兼长期芯片分析师JoAnne Feeney表示,“目前,芯片制造端的发展进程已经完全脱离了设计端的掌控。”英特尔的这场顽疾当然不是无源之水。二十多位现任及前任雇员纷纷表示,这是十年以来持续决策失误的结果——包括未能在智能手机芯片领域有所建树以及文化衰退等等。正是在一片歌舞升平之下,英特尔的很多严重缺陷被悄悄掩藏了起来。当然,其中也有全球产业转移的作用,三星电子与台积电等亚洲制造业巨头借此快速崛起。他们开始越来越多地处于行业中心位置,其芯片也越来越多地现身于最高端、最先进的设备平台。英特尔入驻前的硅谷早在旧金山半岛还是一片片种植园时,英特尔的创始人Moore与Noyce就开发出第一批半导体产品。但真正推动芯片巨头崛起的功臣,当数Andy Grove。这位出生于匈牙利的工程师是Moore与Noyoce时代的第一批雇员,并于1987年至1998年间担任英特尔公司CEO。Grove治下的英特尔以规章严格著称,其纪律严明、理性诚实与鼓励专注等原则也影响了整整一代人的管理思维。Grove最具影响力的发明当数期间上马的“迟到名单”制度:要求早上8点之后才到达公司的员工将名字写在前台的登记簿上,并由排名系统对全部工程师进行绩效打分(具体分为四个级别)。这套排名系统乃至Grove的很多其他发明,如今已经成为各大科技企业的必备妙方。Grove的组织纪律方法也成为畅销商业书籍中的常见案例。在与高层管理者打交道时,他提倡“建设性对抗”,并认为坦率表达观点是确保问题得以有效解决的前提。用Grove的话来说,员工应该拥有“不以为然但也能全力以赴”的职业素养。当然,如此严苛的管控让英特尔的形象受到了一定影响——不少员工把公司称为“匈牙利宗教裁判所”。但这也从另一个角度,证明Grove愿意听取批评者的声音。他虚心听取基层员工的反对意见(他称这部分员工为「预言家」),鼓励大家畅所欲言、不必担心遭到报复。在Grove逝世后不久,Gelsinger就在2016年的一次采访中回忆道,“跟Andy Grove搭档就像是拔牙又不给麻药。”但他强调这是对Grove的称赞,称其一直“积极追求正确答案”。在Grove长达十年的任期之内,英特尔最雄心勃勃的工程师们皆以成为这位CEO的“技术助理”为荣。如今,这个职能角色已经在Amazon.com与微软中生根发芽。虽然这份工作涉及不少琐碎的任务,例如给领导开车和帮助Grove安排日程,但其中也有大量撰写演讲稿、在高层会议中代表CEO发言等极有价值的内容。技术助理当中出过不少英特尔乃至其他竞争企业的高管人才。英特尔前任CEO Paul Otellini就曾经是Grove的技术助理。Grove的管理方略之所以影响力巨大,部分原因在于其确实带来了令人印象深刻的技术与业绩飞跃。由于表现极佳,英特尔甚至将这种管理原则视为某种自然法则。Grove树立的纪律标杆保证了英特尔芯片能够在降低成本的同时变得更加强大,摩尔定律(这项定律由英特尔公司联合创始人Moore命名,预言了芯片改进的方向与速度)也由此得到证明与延续。上世纪八十到九十年代,面对日本、韩国及台湾的制造业冲击,英特尔成为少数仍然保持蓬勃发展的美国电子制造商之一。错失移动互联网浪潮Grove担任英特尔公司董事长直至2005年,而且到去世之前一直在接受公司高管的密切咨询。但即使是如此强有力的管理者,也无法阻止英特尔陷入诞生以来最大的陷坑——时间刚刚进入二十一世纪,苹果公司正在积极为新的智能手机做准备。时任苹果CEO的史蒂夫·乔布斯与英特尔掌门人Otellini联络,希望由英特尔为iPhone提供芯片。当时,英特尔已经在为苹果提供Mac处理器,但Otellini认为乔布斯给出的报价过低,最终导致合约旁落于三星。最终,苹果开始自主设计芯片,并将生产业务外包给台积电。这里顺带提一句,如今傲视群雄的台积电成立于1987年,专为各类“无晶圆厂”半导体企业提供芯片制造服务。英特尔也进行过其他不同的尝试,希望能在智能手机芯片领域占得一席之地。 2011年,英特尔曾以14亿美元价格收购了生产手机处理器的英飞凌科技公司移动部门,但仍然无法从移动巨头高通科技的压力之下真正打赢一场翻身仗。英特尔还尝试向付费用户(例如韩国LG电子公司)提供采用自家芯片的设备,但产品在市场上一直难以打开销路。据了解英特尔战略与运营内情的消息人士介绍,芯片巨头之所以始终无法在移动领域打开局面,主要原因在于不愿将生产与设计资源从PC及服务器芯片上划分出去。为此,英特尔不仅丧失了数十亿美元收入,也给竞争者留下了巨大的发展空间以及由此积累起的专业芯片制造知识与经验。大规模、高规格芯片的生产,让这些竞争对手快速掌握了等同甚至足以反超英特尔的技术储备。目前,全球智能手机数量已经远远超过PC与服务器,其中运行的芯片不仅必须拥有强劲的性能、同时还要保持理想的电池续航。VLSI Research有限公司总裁Risto Pahukka认为,苹果公司的批量订单“成就了台积电”。事实证明,这种合并不仅极富成效,而且会长期保持下去。内部管理混乱2010年,Otellini的继任者Sean Maloney突发中风,这时距他接过英特尔权柄才刚刚两年。下一位接班人是公司53岁的老将Brian Krzanich,但他并不太认同Grove强硬的运营风格与不屈不挠的自我批评文化。据与他合作过的同事介绍,Krzanich对于英特尔的工程技术路线有着毫不动摇的信心、甚至说偏执。他本人还曾经在英特尔内部负责芯片生产工艺的工程技术部门任职,这也让他听不进任何关于英特尔技术能力的反面论调。2013年,上任不久的Krzanich召集了250位英特尔高层管理人员,在位于俄勒冈州希尔斯伯勒的英特尔研究与制造园区附近开展当面交流。这也是高管们第一次与这位新任掌门“亲密接触”。Krzanich在演讲中介绍了一系列新的基本规则。作为英特尔的传统保留项目,高管结伴慢跑已经被明确取消。据与会者回忆,Krzanich提到“我喜欢一个人跑步,我不怎么爱跟人打交道。”整场会议就在这样尴尬而又沉闷气氛中结束了。在五年任期之内,Krzanich“消灭”了Grove鼓励基层预言家畅谈感受的传统。相反,他开始公开羞辱那些与他持不同意见的高管,无视英特尔在关键产品制造能力已经开始落后的警告。一位前任高管回忆道,“Brian塑造了一个信息茧房,把真正拥有解决方案的人们隔绝在外。而对于英特尔这样一样结构复杂的企业来说,限制信息流通必然死路一条。”跟他共事过的不少英特尔员工提到,在前任设置的辩论审查会议上,Krzanich会肆无忌惮地回复邮件、在网上购物或者打电话聊天。同事们觉得,这种行为实际就是在表明他对发言者的观点和意见不感兴趣、或者自己已经有了明确的答案。十几位消息人士也众口一词,抱怨Krzanich曾经在会议上嘲讽发言者的观点或者表达方式,甚至反问“你知不知道自己在说什么?”Krzanich本人没有就此事回应我们的评论请求。Krzanich最强硬的态度留给了Aicha Evans——时任英特尔业务负责人的她,也是芯片行业中最具影响力的黑人女性之一。Evan的工作是将关键部件的生产从台积电转移回英特尔工厂。当时台积电负责为英飞凌制造移动芯片,但她结合调查实际意识到这种转型根本不可能实现。英特尔的自有晶圆厂专为高性能服务器与PC芯片所设计,并不适合制造需要在性能与功耗之间求取微妙平衡的手机处理器。在长达三个小时的详尽发言中,她向Krzanich、董事长Andy Bryant以及其他十位高管表达了自己对迁移计划的担忧。据与会人员回忆,她的发言透彻且令人印象深刻。她坚持认为,生产制造应该继续交由台积电处理。但在她发言结束之后,Krzanich好像什么都没有听到。相反,他一拳狠狠砸在桌子上,怒斥“他妈的,Aicha Evans,你不了解英特尔,你个没种的窝囊废。”她白了他一眼,“行,你说得对。”必须承认,在相当长的一段时间里,Krzanich对于英特尔芯片制造实力的信心似乎颇有依据。2015年,英特尔成为全球首家发布14纳米晶体管的芯片厂商,性能较上代22纳米有了巨大飞跃。但也就在2015年初,另一位工程师向Krzanich发出警告,表示公司的下一代芯片(基于10纳米工艺,原定于2017年发布)的生产进度已经比原计划晚了六个月。根据这位工程师的说法,Krzanich再次拿出了对付Evan的态度,满满的愤怒情绪。第二年,另外两位工程师同样向Krzanich提供数据,表明即将推出的芯片根本无法保证理想的良品率。所谓良品率,是指在特定生产流程下符合规范标准的正常芯片的百分比。他们指出,从目前的生产情况来看,竞争对手台积电很可能会抢先发布10纳米芯片。而Krzanich还是那句老话,“你们知不知道自己在说什么?”六个月的滞后最终被扩大到了三年。直到2020年,英特尔才发布其10纳米芯片。这直接导致戴尔科技公司(也是英特尔最大的客户之一)将全年销售额预期下调超10亿美元。戴尔公司首席财务官Tom Sweet当时就指出,“我们明显对现状很不满意。”面对这一地鸡毛,Krzanich后来承诺的7纳米芯片将按时供货自然受到了诸多质疑——甚至包括公司内部的反对之声。CPU处理技术 · 纳米尺寸 ;数据来源:伯恩斯坦英特尔于2018年6月撤下Krzanich,官方理由是他与下属之间有染。但芯片巨头在此之前对高层管理者与普通员工间的不正当关系其实相当宽容,所以不少人推测这是因为董事会受够了Krzanich治下的糟糕业绩以及对下属雇员的恶劣态度。移动业务负责人Evans目送Krzanich离去(她于2019年离职并出任Zoox公司CEO,这是一家无人驾驶汽车制造商,于去年被亚马逊公司收购)。但Evans是幸运的,也有不少英特尔高层管理人员因Krzanich的下位而被迫离职,其中包括负责运营事务的前CFO Stacy Smith、负责公司主要PC芯片业务的Kirk Skaugen、以及英特尔总裁Renee James。此外,首席产品官Dadi Perlmutter、负责英特尔核心芯片产品开发的Rani Borkar以及领导微处理器设计团队的Rony Friedman等主要工程技术负责人也一同离职。这些老将在英特尔的供职时长总计超过200年。2014年时的Krzanich砸200亿美元进军芯片代工 英特尔宣战台积电英特尔公司的困境当然不仅仅源自内部失误,这也反映出整个制造业由美国迁出、并由工业化速度极快的发展中国家吸纳的这一波为期数十年的深远转变。 凭借强有力的出口生产鼓励政策,他们顺利吃下了这块蛋糕,而变革中最大的受益者之一当数台积电。台积电位于台湾新竹,率先发展出芯片制造承包业务。英特尔长期竞争对手AMD、英伟达、高通、博通以及英特尔的不少客户都是台积电的忠实拥趸。亚马逊云科技公司曾在2018年设计出一款内部服务器芯片Graviton,用于替代英特尔的部分至强服务器芯片。此后,亚马逊方面又先后公布了多款其他芯片,全部由台积电负责代工生产。谷歌及微软也有类似的内部芯片原研计划,台积电同样扮演着重要角色。更要命的是,英特尔引以为傲的高端个人计算机芯片业务同样陷入风险当中。苹果目前已经开始设计用于Mac笔记本电脑及台式机的原研芯片,并于去年11月推出三款全新机型。这些产品全部采用由苹果工程师设计、由台积电负责制造的中央处理器。苹果当时就表示最终计划是全面淘汰英特尔芯片,并将新的Mac产品线称为“完全不同的全新产品类别”。据知情人士介绍,苹果还计划在今年上半年发布一系列用于高端Mac的更强芯片。受到新冠疫情影响,台积电产能缩水导致全球芯片供应短缺,汽车制造业成为这波冲击下的最大输家。此事也从一个侧面反映出台积电强大的影响力与实力定位,目前欧洲、日本及美国的无数企业都在敦促台积电加快恢复生产。今年2月,美国总统拜登甚至签署一项行政命令,希望解决供应制品并减轻美国对于外国制造产能的依赖。4月12日,拜登政府还与包括Gelsinger在内的各汽车与半导体企业高管举行会议,进一步讨论这方面供应制品。与此同时,半导体行业也一直在向联邦政府高血压,要求其提供关税及其他鼓励国内投资的激励措施。事实上,上一任总统特朗普就已经做出过类似的尝试,希望减缓中国在电子与芯片制造领域的快速进步。特朗普政府宣布多家中国企业对美国国家安全构成威胁,并将上海的中芯国际、华为、中兴以及其他多家中国厂商列入管控名单,禁止其接触美国软件与半导体设计事务。从长远来看,此举也许会给英特尔提供助力,但能否解决眼下难题仍然取决于Gelsinger和他组建的管理团队。甚至在正式上任之前,Gelsinger就开始招募Krzanich任期下的多位英特尔高管。于2014年离职的Sunil Shenoy再次出山,担任英特尔工程设计高级副总裁;此前负责关键芯片设计开发的Glenn Hinton也顺利回归。在上任的第一天,Gelsinger的表现就让人们恍惚间回到了Noyce、Moore以及Grove所代表的那个黄金年代。他也在备忘录中强调,自己“将沿英特尔创始者们开拓出的道路奋力前行。”今年1月,他在华尔街分析师电话会议上说起一段掌故:当时是新世纪的头几年,英特尔曾经遭遇服务器芯片市场份额,但随后又成功夺回。在他看来,“伟大的企业必须有能力从困境与挑战中成功复苏,而且变得更高、更快、更强。”Gelsinger在今年3月再次强调这一主张,并承诺将建立新的晶圆工厂、涉足代工业务。 但要想取得成功,英特尔必须先得搞定制造层面的现实难题,再推动新建晶圆厂顺利启动运营。而且在可能需要数年的建设周期之后,英特尔还得在现有庞大制造需求与新客户群体代工需求之间找到理想的平衡点。相比之下,台积电一直坚定不移地维持着晶圆代工业务这条主线并探索了超过三十年。自2018年以来,台积电就一直在生产7纳米芯片,并从去年开始为苹果提供5纳米处理器。Gelsinger让英特尔重归领导地位的决心我们已经看到了,砸向晶圆代工业务的200亿美元就是明证。但即使是在这样的不利情境下,英特尔在2021年内的计划资本支出也仅仅增加约35%,还是要比台积电年内的支出少近100亿美元。更何况单靠金钱,还不足以让英特尔重新振作。前景如何,恐怕只有时间能带给我们答案。原文链接:https://www.bloomberg.com/news/features/2021-04-07/how-intel-intc-missed-the-mobile-revolution-and-fell-behind
| 1,821 | 1,620,959,106,448 |
InfoQ
|
244 |
阿里云有机会赶超亚马逊和微软吗?
|
云计算市场的 3A 格局由来已久,每个人都在期待——谁是下一朵“破局之云”。4 月 21 日消息,国际研究机构 Gartner 发布 2020 年全球云计算 IaaS 市场追踪数据,阿里云排名全球第三、亚太第一,市场份额连续五年上涨,从 2016 年的 3.7%上涨至 2020 年的 9.5%,超过谷歌的 6.1%。过去五年中,阿里云在全球市场上份额稳步增长,并于 2018 年超过谷歌成为第三名,与亚马逊、微软形成稳定的“云计算 3A 格局”。我不禁开始好奇,阿里云能否再进一步,从增速是全球增速 1.5 倍的中国云计算市场脱颖而出,找到 3A 格局重新洗牌的“力眼”?GDP 18.3% 增长背后的机会4 月 16 日,国家统计局公布了今年一季度经济数据 —— 一季度 GDP 同比增长 18.3%,这是 1992 年有季度 GDP 统计数据以来的最高值。这个令人咋舌的数据背后,体现的是特殊时期中国经济的强大韧性。历史机遇总是在不经意间到来,新冠疫情给世界按下了暂停键,却给适应了“疫情新常态”的中国数字化转型浪潮按下了加速键。以工业制造业为例,包括新能源汽车、工业机器人、挖掘/铲土运输机械、微型计算机设备、集成电路在内的高新技术同比增速均超过了 60%。一方面是中国经济的迅速反弹,另一方面是中国云计算市场的高速成长。据报告数据,2020 年中国公有云 IaaS 市场规模达 156 亿美元,同比增长 62.3%,是全球规模最大、增速最快的云计算市场之一。有分析师表示,中国云计算市场正处于高景气周期,且技术、生态与能力基础可比肩全球顶级水平,将持续保持高于平均值的高增长速度。从行业维度看,在金融、公共服务、零售、教育等重点行业,亚马逊、微软和阿里云均位居全球前三。其中,受益于中国在线教育市场的发展,阿里云在教育行业排名全球第一,超过亚马逊和微软,市场份额达 24.3%。此外,在零售领域,阿里云份额也与微软基本持平。不同于欧美市场完备的产业链上下游生态、成熟的市场体系和广阔的市场空间,中国云计算市场自有其特殊性。中国企业的 IT 化和云化基本上属于同时进行,在 IT 基础设施方面的建设起步晚、底子薄。进入全面云计算时代以后,中国企业的数字化转型意愿空前强烈,一方面需要通过 IaaS 降低 IT 基础架构的成本,另一方面也需要拥有更简单的应用开发、部署方式以满足快速迭代、复杂度高的业务场景。不管是表象上的传统企业数字化转型,还是核心的国家数字化经济建设,亦或是新基建、产业互联网的概念,背后都少不了已经成为水和电的云计算。也正是这样的特殊性,造就了快速增长的中国云计算市场,也引发了对云厂商服务形态的更高要求。一种全新的云计算形态纵观当今全球云计算市场,构建 IaaS 层之上的全新云计算形态,已经成为几家领军云厂商的整体趋势。微软在云战略上打出 Azure+Office365 战略,结合 IaaS 和 SaaS,将 Office 的企业客户优势引入云计算服务。这一战略得到资本市场高度认可,在云战略实施后,微软两年内市值翻倍,已高达 1.5 万亿美元。谷歌云也将云与办公软件相结合,前者为 GCP,后者为 G Suite,包括 Gmail 和 Google Docs 服务。这一模式同样得到市场认可,如前文所述,在资本市场上获得近 14 倍市售率估值。“云+办公软件”,这是微软、谷歌的模式,而在向来别出机杼的中国市场,阿里云提出了一个更进一步的新模式——“云+新型操作系统”模式。时间拨回 2020 年 9 月,阿里云宣布进入 2.0 时代,为飞天云计算平台装上数字原生操作系统,让人类和云计算的交互更加容易,让云能够普及到更多企业、更多人。如果说过去的云像在计算机上安一个 DOS 系统,那今天的云可能就像在计算机上用 Windows 一样简单。而在这个充满特殊性的中国云计算市场,Simple is the best。这样的模式,可以最大程度地激发中小企业的数字化转型意愿、加速数字化转型进程。另一方面,对于构建云生态同样大有裨益:从底层技术能力的满足到顶层应用开发的低门槛,可以提升企业用户粘性,带来更丰富的企业用户资源,降低成本,并提升产品的丰富性和服务能力,是一个云与操作系统的综合作用,而并非简单的 IaaS 与 PaaS、或 SaaS 产品的直接相加。对于那些没有或者缺乏技术能力的中小微企业,在云钉一体的模式下,用他们用“拖拉拽”的方式就能建立自己的企业应用,加快了创新的速度,让企业自己拥有数字化转型的主动权。这恰好暗合疫情新常态下的数字经济发展国情。买别人?自己造!联合国总部有一个名为“铸剑为犁”的雕塑,其蕴含着祈愿世界和平,放下武器,发展生产,人民和平、幸福、平安的美好愿望。但和平并不意味着放弃“刀兵”,“真理”才是守护和平的唯一利器。21 实际的世界格局,竞争空前激烈,掌握属于自己的“屠龙之术”才是保持发展的不二法门。纵观全球云计算格局,市场份额总和超过 75%的亚马逊、微软、阿里云、谷歌无不是从底层就做了自主研发的。从这个角度看,买别人还是自己造的答案不言而喻。去年我受邀参加了阿里云线上峰会,第一次看到了阿里云的“自研全景图”:全国唯一的自研云操作系统飞天;自研的神龙云服务器架构;自研分布式存储系统盘古、自研云原生数据库 PolarDB、自研含光 800AI 芯片……基本做到了软硬一体全球 IT 圈已经形成了一个共识:规模庞大的中国互联网已经变成了一个历练技术的沙箱,用于创建和测试各种新的解决方案,而这个规模是其他经济体几乎无法复制的。Kubernetes、Apache Kylin、Dubbo、TiDB,这些技术扎根于中国互联网的土壤,迅速成熟。而在中国互联网土壤里生长出的开源软件,又反哺给了世界开源社区,建立起信任和良性循环。Linux 基金会、CNCF 基金会、Apache 基金会,都有越来越多来自中国科技公司、中国云厂商甚至中国个人开发者的贡献身影,这就是最好的证据。一手自研,一手开源,两手都抓,两手都硬。最后让我们回到文章标题提出的问题,阿里云有机会赶超亚马逊和微软吗?Why not?让时间说真话。
| 2,514 | 1,618,987,341,376 |
InfoQ
|
245 |
巨鲸内部:亚马逊工程师眼中的亚马逊
|
亚马逊的使命是为我们的生活构建基础设施。作为美国仅次于沃尔玛的第二大私营雇主,每10美元的网上消费就有4美元发生在亚马逊。他们有一个庞大的物流中心配送网络,并在进一步购买更多的地产。2020年9月,他们宣布计划在全国郊区再开设1500个配送中心。但零售只是他们众多业务中的一项,对大部分美国人来说,不管是从家里到学校,或者到办公室,他们都不可避免地要通过一个“环”(Ring)——亚马逊的“智能”家庭监控摄像头。此外,亚马逊网络服务(AWS)控制着近一半的公共云市场,并将资金投到其他更多的领域(从娱乐到广告等)。我们采访了AWS的一位网络安全工程师,了解他是如何看待这个庞然大物,以及在亚马逊工作的感受是怎样的。亚马逊公司问:亚马逊是一个庞大而复杂的组织。作为一个整体,我们应该如何看待它?答:亚马逊是一家机会性主义的公司。它在认为自己有竞争优势的业务上进行投资。总的来说,亚马逊认为自己是一家科技公司,所以把技术放在第一位,不管卖的是什么产品。我们相信,因为我们有如此多的人才和资本,应该能够利用我们的技术优势来主导任何一个决定要进入的市场。问:亚马逊的起源是怎样的?为什么它是从一家在互联网上卖书的公司开始的?答:在20世纪90年代中期,互联网被视为图书馆的替代品(图书馆2.0),所以很自然地,弄清楚如何在网上买书成了下一步要考虑的事情。不久之后,谷歌也推出了Google Books计划,并投入了大量资源。亚马逊的最终目标与Google Books差不多:将世界上所有书籍的信息数字化,并使其普遍可用,因为这就是互联网给我们的承诺。贝佐斯研究了历史上的一些“伟人”,并把自己想象成亚历山大大帝。亚马逊园区里甚至有一座叫做亚历山大的建筑,这也是亚马逊早期的一个项目的名字,目的是把所有出版过的书都放到亚马逊上卖。但还有一个更实际的原因,书可以装进盒子,运输成本相对较低,而且在运输过程中很容易保护,不容易损坏。问:从一开始,亚马逊就有销售实体商品。它的业务发展与谷歌或Facebook非常不同,后者通过在互联网上追踪用户并利用这些信息推送广告来赚钱。答:没错,亚马逊不是一个广告驱动的平台。尽管它有一个从事在线广告业务的子公司A9。A9并不是亚马逊的摇钱树,亚马逊收入最高的业务是零售和AWS。问:为什么亚马逊要进入云计算市场?最初的动力是什么?答:亚马逊想要探索销售网络服务的可能性,因为他们意识到,大多数公司在这方面做得不是很好。从一开始,初创公司就纷纷涌向AWS,因为我们为他们节省了大量时间和精力。在吸引了初创公司之后,AWS就很容易推广到大型企业,也就是进入“企业”市场,因为它们也很羡慕那些技术更成熟的初创公司。这对我们来说是好事,因为大公司更有利可图,但它们也有更严格的安全要求。它们往往处于监管更严格的成熟行业,监管机构对它们如何保护数据这件事很重视。问:所以亚马逊抓住了这个机会?答:很长一段时间以来,安全一直不是亚马逊关注的焦点,因为我们收集的数据——人们卖了什么书——并不是那么敏感,这不是大多数人所关心的信息。我们必须有一种保护信用卡信息的方法,才能使网上交易成为可能,但我们把它外包了。AWS于2006年启动后,安全性成为了一个大问题。亚马逊意识到它对大客户来说有多重要。现如今,亚马逊非常重视安全问题。我想你很难找到有哪个国家有像亚马逊这样复杂的安全措施。提高安全性的目的主要是让你自己成为一个难以被攻击的目标。有个笑话说,你和朋友去徒步旅行,被熊袭击了,你不需要比熊跑得快,只要比你最慢的朋友跑得快就行了。问:大公司一般都有自己的数据中心,要说服他们迁移到云平台是否很困难?如果他们什么都自己做,他们可能会更有安全感。答:他们可能会这么做,但最终他们数据中心的安全标准总是低于像AWS这样的云服务供应商提供的标准。云供应商有很多租户,所以具备了规模效应,这让他们能拥有比自由数据中心更复杂的安全系统。此外,如果你是一家自有数据中心的公司,你要对自己的安全负百分之百的责任——基础设施安全、传输安全、周边安全,所有的一切。如果你转向云平台,亚马逊至少要承担一部分责任。问:所以,当你在使用AWS时,你所支付的费用的一部分是给了安全性?答:是的,这是我们销售的一部分。假设有一个潜在客户来到AWS:“我喜欢现收现付的定价模式,多告诉我一些细节吧”。我们会说:“好吧,这是在容量高峰时使用的资源,这是我们为你节省的费用”。然后客户会说:“我怎么知道我在AWS上是安全的”?这个时候正是我们抓住客户的好时机,我们会说:“好吧,让我们看看你们现在在做什么,看看我们能否提供同等水平的安全保障”。然后他们就会告诉我们他们数据中心的情况。我们接着说:“天哪!原来我们的安全级别是五级,而你们的数据中心是三级。你们在自己的数据中心里真的感觉舒坦吗”?然后,客户意识到,使用AWS可以为他们省钱,他们的数据中心并不像自己想象的那么安全。此外,我们让迁移变得更容易。如果你有大量数据在自己的数据中心里,你想把它迁移到AWS,但又不想通过网络传输,我们会给你一辆装满硬盘的大卡车,插上数据中心的光纤电缆,装满数据后再开到我们这里。问:什么?你们是怎么做到的?答:我们有一款产品叫Snowmobile(雪地摩托)。它们是烧油的卡车,我们没有它们内部的照片,不过它们确实很酷,就像是带轮子的模块化数据中心。而且,客户理所当然地认为,如果他们把所有数据都装到一辆卡车上,也希望这辆卡车是有安全保障的,所以里面一直都有武装守卫。这款产品很容易卖出去。客户看到这款产品,他们会说,我当然想用一辆大卡车和一个拿着枪的家伙来帮忙移动数据,而不是自己去开发一些蹩脚的系统。问:这太酷了答:AWS还出售一些特定的安全服务,比如Amazon Inspector。Amazon Inspector是一个可以审计AWS所有配置的工具,并提供关于如何更改这些配置的建议。当你连接到服务器时,就是连接到特定的端口上,还有其他一些端口可能会被不法分子嗅探,看看它们是否被打开,因为服务器管理通常会用到这些端口。所以Amazon Inspector可能会告诉你:“我们扫描了你的服务器,检测到这个端口是打开的,但你没有使用它。你是否要关闭这个端口以防止不法分子的连接”?或者它可能会告诉你:“这两台服务器之间的通信格式很容易被窃听。我们建议你至少使用X版本的连接软件,以填补一些安全漏洞”。如果你是一位称职的系统管理员,那么你应该在配置系统时完成所有这些工作,但并不是每个系统管理员都做得到位。如果你只是一家保险公司的系统管理员,你会在乎什么?你住在苏福尔斯(美国南达科他州最大城市),为什么要关心云安全呢?你住在一个小城镇,你认识那里的每一个人,而且永远不会失业。很多总部位于偏远地区的公司并没有特别先进的IT团队,所以他们会付钱给亚马逊为他们做安全方面的工作。问:你提到AWS的大客户是成熟行业的大公司,这些行业往往受到更严格的监管。AWS如何帮助这类公司履行合规义务?答:某些机构和行业相比其他行业受到更多的监管。以医疗保健行业为例,医院和健康保险供应商受到健康保险可携性和责任法案(HIPAA)的约束。关于如何存储数据,可以存储多长时间,以及需要什么类型的许可,都有很多规定。实现完全符合HIPAA的系统可能非常困难,但AWS提供的产品在这方面起到了作用。欧洲的《通用数据保护条例》(GDPR)也是如此,它要求组织以特定的方式处理个人数据。其中有一项“被遗忘的权利”。所以,如果你是一家在欧洲做生意的公司,你就需要提供一种方式来满足客户删除数据的要求。AWS可以生成这样的一份报告:“数据已被删除,我们不能再访问它了”。问:因此,合规可以为AWS创造利润丰厚的商业机会。随着《加州消费者隐私法》(California Consumer Privacy Act)等新隐私法规的出台,以及欧盟预计将出台更多有关数据和人工智能的法规,这样的机会可能还会更多。答:AWS基本上就是一台赚钱机器。如今,零售占亚马逊总收入的70%左右,但AWS占了公司营业利润的70%。一些反垄断人士之所关注亚马逊,其中一个原因是亚马逊在利用具有持久优势的高利润业务来补贴其他部门的亏损,以获取市场份额。因为没有像AWS这样的部门,沃尔玛不得不将价格降至盈利水平以下,以保持竞争力,但他们也只能承受这么长时间的损失。问:AWS补贴得特别厉害的是哪个部门?答:Prime Video就是其中之一。贝佐斯喜欢Prime Video,因为这让他可以打入洛杉矶和纽约的社交市场。他刚离婚,是世界上最富有的人。Prime Video对贝佐斯来说是一种损失。新冠疫情下的大挑战问:新冠疫情已经持续了好几个月,你们的工作因此发生什么变化了吗?答:首先,很多会议被取消了。每个人都在说:“新冠疫情真的是一个大事件”!然后,我们撤出了办公室。在公司工作的人和在运营中心工作的人存在分歧,这对白领们来说没有问题,因为我们可以在家工作,但我们需要一个巨大的内部动力来确保运营中心的安全。问:结果是什么?我知道亚马逊仓库工人在疫情大流行期间围绕安全问题采取了一系列集体行动。答:在疫情大流行开始时,管理部门请来了一些顾问和科学家来分析疫情是如何传播的。我们有一周的时间来考虑我们要做什么,然后有三周的时间来执行。我们现在有温度读数摄像机。如果你的体温升高,就不能进入亚马逊大厦。他们想出了尽可能减少人体触摸的方法,实现了远距离扫描门卡,以及使用条形码代替近场通信读取器。他们还制定了一套检测方案。最初没有办法进行检测,但因为我们在行业里的优势,我们找到了一家供应商,我们与他们合作为仓库工人做检测。我不知道这些检测多久做一次,也不是要检测所有的东西。很多仓库工人都是年纪较大的人,他们不属于传统的劳动力大军,也很难再回到原来的岗位,因为他们不能或不想再回去,或者他们过去的岗位已经不存在了。他们中的很多人工作年限不够长,无法获得医疗保险。因此,如果你患了癌症,你可能会死于癌症,我们不会帮助你接受治疗。但如果你感染了新冠病毒,我们想要知道。实际上,我不知道我们为了应对新冠疫情所采取的措施是否使情况变得更糟,或者是否改善了仓库的运作。在内部,人们会说:“我们可能比我们的竞争对手或他仓储和物流公司更好”。但我不知道情况是否真的如此。问:在疫情大流行之初,亚马逊还面临其他挑战,对吧——比如供应链?答:整个亚马逊的供应链都受到了影响。洗手液很难弄到,硬纸板箱也很难弄到。我们很幸运,因为疫情的开始与中国新年正好重合,情况得到了一些缓解,因为我们预计中国新年无论如何对我们的时间表都会有点影响。不过,总的来说,疫情大流行似乎更加突出了亚马逊的优势,并显著降低了亚马逊弱点的影响程度。问:怎么会这样?答:这场危机凸显了大买家的优势。规模越大,购买力就越强,对吧?如果你是一家工厂,你的客户分布是这样的:你有一两个大客户占到业务的80%,然后其他一大堆小客户占20%。因此,如果你的产量下降了30%或40%,你会说,“好吧,我要切断所有的小供应商,只关注大的合作伙伴”。事情就是这样,亚马逊得到了供应商的优先配送,而小公司拿不到货。问:所以,在疫情期间,电子商务总体上有了很大的增长?答:在零售业,每个人都在思考一个问题:沃尔玛和塔吉特(Target)能否利用它们在当地的配送基础设施比亚马逊更快地将包裹送到人们的家门口?沃尔玛和塔吉特唯一的优势是他们的实体店。当商店关门时,它们可以变成配送中心。你可以在用户家附近挑选货物,然后给他们送过去。收购全食超市(Whole Foods)让亚马逊有机会接触到这些1%人群的80%,但美国仍然有大片地区是全食超市无法触及的。有传言说我们要收购邮局地产。邮政局私有化之所以有价值,是因为他们持有房产。他们在美国每个城市的市中心都有很棒的房产。亚马逊可能有兴趣买下所有的邮局,而且也有足够的现金,所以为什么不呢?前几周,我们宣布再次招聘10万名员工。我们正在全面大举扩张,包括兼职和全职,在企业、零售、配送、物流、设备和分销以及我们涉足的所有领域。问:AWS呢?也同样增长了吗?答:我们的一些客户的收入显然在急剧下降。酒店行业和零售行业的一些大客户获得了大幅度折扣或大量的一次性赊购。但总的来说,新冠疫情确实让很多公司开始加速他们的云迁移进程,因为如果你自有数据中心,就必须实施一堆安全指南和限制。亚马逊的运营规模如此之大,我们可以做得更好,更有效率。例如,安全技术行业的很多公司都受到了影响,因为他们的安全设施突然有了准入规则,一次只能有一个人在里面。但在安全技术行业,有很多地方需要两个人或更多的人亲自在场。因为规则方面存在冲突,就不可能使用大量的安全设施。在疫情大流行或自然灾害的背景下,他们为确保设施安全而建立的这些程序实际上阻止了他们遵循安全最佳实践。那些小规模使用AWS的客户出于安全考虑,可能保留了自己的数据中心,但他们吓坏了,他们说:“我们真的需要快速转向云计算,因为他们可以为我们做所有我们现在在本地无法做的事情”。问:除了社交距离方面的挑战,在新冠疫情时期是否还存在新的网络安全威胁?答:现在出现的安全威胁和以往一样,而且它们只会更猛烈。80%的安全问题都是网络犯罪,呈上升趋势。问:为什么?答:大型科技公司越来越多地把发展中国家的人当作可抛弃的白领劳动力。很多创业公司会在湾区招聘一个首席技术官,然后把整个开发部门放在乌克兰或罗马尼亚等地。但当初创公司资金枯竭或要倒闭时,它们所有的海外数字业务就都被切断了。那些失去工作的人会从事网络犯罪。他们会想:“我没有其他选择,只能这么干了,让子弹上膛吧”。网络犯罪分子还可能从公司的竞争对手那里获得报酬,把公司的数据暴露出去,或者通过修改配置让数据公开,让公司看起来很糟糕。实际上,在2019年发生的Capital One数据泄露事件中,入侵者里有一个是前亚马逊员工。Capital One因此在媒体上丢尽了颜面。但不幸的是,Capital One的数据泄露事件和2015年的益博睿数据泄露事件表明,市场似乎对数据泄露非常宽容,因为受害最深的是穷人,他们压根就不知道如何控制自己的数据,甚至不知道数据泄露对于他们来说意味着什么。公司不希望他们的老底被这样暴露出来,因为太让人难堪了。但最终,市场开始认识到,除非国会出面呼吁,否则大规模数据暴露并不会被视为一个很糟糕的问题。开启“最后一步”问:你在网络安全领域工作,而这显然是AWS的重点。但是当我们谈论“安全”这个问题时,在我的脑子里还有另外一种含义——家庭安全。亚马逊的Ring(一种联网的门铃)正在进入这一领域。答:我没有参与这家公司的收购,但我听说我们投资Ring的初衷是为了打击包裹盗窃。亚马逊的零售业务基本上与物流有关。我们有一个分销基础设施,分成不同的部分。“第一英里”是从制造到分销,“中间英里”是从第一个配送中心(仓库)到第二个配送中心(包裹将从那里开始进行投递),就像邮局仓库一样。“最后一英里”是从第二个配送中心到人们的家门前。“最后一英里”面临的主要一个问题就是包裹失窃。但这并不是Ring的唯一初衷。更广泛地说,亚马逊的智能家居项目也是为了开启“最后一步”——不仅仅是如何将包裹送到顾客家门口,而是要如何进入到顾客的家里。我们曾经尝试制造一种带有电子钥匙的电子锁,但后来有人做了Ring,我们意识到可以用它来代替。问:亚马逊积极向警方推广Ring,与全国各地的数百个执法机构合作,甚至在某些情况下免费提供该设备。警察可以访问一个门户,获取到各个房屋的监控录像。Ring让亚马逊与执法部门的关系更加紧密了吗?答:与执法部门的关系需要很长时间才能建立起来,所以如果这些是因为收购了Ring,我会感到非常惊讶。基础已经打好了,我觉得Ring加速了事态的发展。总的来说,与执法部门合作的好处是他们知道自己想要什么,但监管机构并不知道。但说实话,我认为亚马逊也陷入了这种情况。我们只是在事情发生后才意识到,我们有这些数据,知道谁出现在人们的家门前。当我们在想可以用这些数据做些什么的时候,有很多人想到了Ring。Ring有一款叫作Neighbors的App,可以在App上分享Ring的数据,让邻居们知道谁住在附近。所以,与执法部门的合作自然而然地就成为下一步要做的事情,执法部门与我们追求家庭安全的方向非常吻合。问:比如Alexa智能音箱?答:是的。Ring和Alexa在家庭安全方面配合得很好。Alexa还可以帮助零售商开启“最后一步”,将包裹送入顾客家中。问:你说亚马逊早在收购Ring之前就已经和执法部门建立了关系。为什么?答:AWS与美国政府机构有着广泛的合作。在联邦层面,AWS为一些情报机构提供特殊的云平台,我们仍在努力争取五角大楼大型云计算项目“绝地武士”的合同。问:另一个可能有助于亚马逊与情报机构和执法部门合作的因素是这些领域中很多人来到了亚马逊工作。这是为什么呢?答:亚马逊的薪水更高,你可以从事更令人兴奋的工作,而且麻烦事更少。问:两种文化能很好地融合吗?答:总的来说,军队文化是一种自上而下、服从命令和控制的文化,但亚马逊不是。我们希望人们尽可能自治。在亚马逊,如果出现问题,很容易就能反映到上层,并与高管沟通。问:亚马逊是否在从执法部门和军方招聘员工方面做出了一些努力?答:是的,我们努力招募前执法人员和军人。事实上,亚马逊认为军事人员是一种多元化的员工类别,并有针对性地进行招聘。我们有一个针对退伍军人的内部亲和力组织,叫作Warriors@Amazon,它是我们迄今为止最成功的多元化招聘团队。如果你是五角大楼的首席采购官,负责为军队采购,在做了一段时间之后去审计总署做审计师,再做一段时间之后来亚马逊工作,你把亚马逊的服务卖回给五角大楼,每年可以赚50万美元。你可以绕过审计,因为你自己曾经就是一名审计师。显然,亚马逊不是唯一一家这么做的公司。大家都一样,在美国,有两万多人在军队、审计部门和工业部门工作,他们相互之间也是销售来销售去。问:2020年9月,亚马逊任命前国家安全局局长Keith Alexander为董事会成员。你和你的同事是怎么看的?答:从表面看,此举是为了对国防部施加影响,赢得更多美国政府合同。因为Keith Alexander与五角大楼的人有关系,他不仅可以帮助我们处理好与现任官员的关系,还可以帮助我们制定战略,决定什么对决策者来说是重要的。但这也极具争议性,甚至在Warriors@Amazon内部,他们对此也有两种看法。一些人喜欢美国政府,但另一方面,雇佣Keith Alexander这样的人也会给亚马逊的业务带来很大的风险。问:为什么?答:我们的欧洲合作伙伴对雇佣Keith Alexander一事感到愤怒,因为这与他们的数据隐私有关。而且这件事情刚好发生在一个特别糟糕的时间。AWS需要欧洲的市场,但欧洲最近出台的一些法律法规让我们很为难,比如法院在2020年夏天推翻了Privacy Shield协议。Privacy Shield是一个合规框架,对美国公司的数据安全性做了认证,允许它们以一种被认为符合GDPR的方式接收欧盟用户的数据。AWS一直在努力与客户合作,以确保我们能够遵守欧盟制定的任何新的隐私准则。所以,在这种情况下,让Keith Alexander进入董事会肯定会引起很多人的不满。我们的欧洲伙伴会说:“不好意思,我们担心你们正在从我们的公民那里获取数据并将其带回美国。现在你却雇了一个监控世界的项目的设计师!”这是一种复杂的信号。但事实上,商业上的反对也助长了公司内部那些出于哲学或意识形态而反对它的人。问:有很多这样的人吗?答:我的很多同事都很担心Keith Alexander的存在。我想说的是,亚马逊有四分之一的人会认同像电子前哨基金会(Electronic Frontier Foundation)这样的数字自由组织。他们对于此事感到很生气。我认为AWS的很多员工宁愿辞职,也不愿把数据交给美国国家安全局。这些人是公司里最聪明、最具创新精神的人。我不认为亚马逊会希望看到有这么多的内部反对和抵抗。内部的声音问:亚马逊的白领们组织了内部活动,反对向执法机构出售面部识别软件,也反对向支持ICE的公司出售云服务。亚马逊庞大的前执法人员和军事人员队伍是否让这些活动的组织变得更具挑战性?答:退役军人们是爱国的,但他们不关心政府。所以他们会说:“是的,我为山姆大叔工作,但我不在乎它”。所以,我不认为这些人的存在一定会让这些活动的组织变得更难。我只是认为,过去几十年里,左翼总体上的崩溃让各地的工人相信抵抗是徒劳的。也许我们做的是对的,也许是错的,但如果我们是错的,其实也做不了什么。问:在亚马逊,白领们组织的活动似乎大多围绕着气候问题。为了推动亚马逊大幅减少碳排放,亚马逊正在开展一项活动,其中包括给贝索斯写公开信。2020年4月,亚马逊解雇了两名参与领导气候组织的白领工人,他们批评亚马逊在疫情期间对待仓库工人的方式。你是怎么看待这些问题的?答:我没有参与签署这些公开信,因为我不知道这样做能在亚马逊内部或外部起到怎样的效果。一般来说,亚马逊的活动分为三种类型。第一种是大家都喜欢的主流事业,比如捐赠冬季衣物和保护动物权利。第二种是环境保护主义。在亚马逊很容易找到关心全球气候变暖问题的人。因此,有些人认识到这个问题的严重性,并愿意围绕这个问题在亚马逊内部组织活动,他们获得了一些支持。这种活动规模仍然非常小,但在媒体中有着巨大的影响力,因为每个人都对亚马逊着迷。但在公司内部,并没有多少人关注这个问题。第三类运动是社会正义行动主义,比如反对与ICE或执法部门合作的#TechWontBuildIt运动。在一些内部邮件列表上有一场关于这种激进主义的激烈辩论。但同样,这只是一小部分亚马逊员工在参与。问:为什么在亚马逊内部没有很多人参与到这些对话中来?答:从历史上看,亚马逊的一些内部通讯工具可能是所有大公司当中最糟糕的,员工很难发现公司里正在发生哪些积极的对话。公司没有内部交流中心,没有内部社交媒体。我们最近用上了Slack,但对于那些有兴趣组织活动的员工来说,这并没有多大区别。问:你认为是亚马逊故意造成缺乏内部沟通工具的吗?答:我认为你不应该假定亚马逊是故意而为之的。亚马逊并没有不希望员工相互交流,他们只是不明白员工之间的交流如何给生产力、士气或底线起到积极的作用。如果有,而且这种影响可以用某种方式量化,我们明天就能看到了。但事实上,亚马逊给员工提供了它认为可以帮助他们完成工作的工具,他们也不认为员工间的交流与工作有关。问:相比之下,谷歌拥有非常健壮的内部交流基础设施。这种基础设施在促进谷歌的活动组织方面发挥了重要作用,尽管最近管理层限制了内部平台上可能发生的对话类型。你是否认为类似工具的缺乏有助于解释为什么亚马逊的活动相对较少?答:谷歌的总部在山景城,在硅谷的中心。如果你是谷歌的员工,很擅长你的工作领域,即使你明天就离开谷歌,也会有53个雇主等着雇佣你。但如果你是在西雅图的亚马逊工作,也很擅长你的工作领域,明天离开亚马逊,你得到其他工作的机会会少得多。去微软?没有那么多的流动性。所以,我认为我们缺乏组织活动的很大一部分原因是人们害怕丢掉自己的工作。如果你想呆在西北部,就得低着头。从数据上看,亚马逊的员工比谷歌的员工更有可能已经成家,这是另一个让人们更加厌恶风险的因素。他们为什么要做一些可能危及自己工作的事情,尤其是在很难取得成功的时候?问:正如你所说的,亚马逊内部的组织活动受到如此多媒体关注的原因之一是媒体对亚马逊着迷。媒体对亚马逊市场影响力、与执法部门的合作关系、仓库的劳动条件等问题进行批判的报道层出不穷。在国家政治领域,亚马逊也有一些著名的批评者,比如Bernie Sanders。亚马逊内部如何看待这些批评?人们对这类事情的反应如何?答:我认为你的问题有点因小失大了。亚马逊的大多数人并不关心新闻,因为这对他们的生活没有任何贡献。我的一些同事朋友并不知道谁在竞选总统,他们认为反正谁当总统都是一样的,所以何必费事呢。出于同样的原因,如果他们听到有人批评亚马逊,他们也不会倾向于去防御。亚马逊没有多少强烈的效忠者,大部分人是雇佣兵。亚马逊的福利不是非常好,办公室生活很糟糕,也不是一个有趣的工作场所。人们在那里工作是因为那里的薪水比竞争对手高一些,写简历上看起来也不错。他们去公司上班,然后回家,陪孩子,看体育比赛,这就是他们的美好生活。亚马逊在全球拥有大约100万名员工,大多从事航运、物流和配送工作,其中有8万名公司员工。我估计他们中只有不到2000人参与了这些组织活动。问:你觉得还有希望改变吗?答:一般来说,组织活动的人是在为自己的生命和生存做斗争。这些人是在亚马逊配送中心工作的人,是中国的工业无产阶级,是发展中国家那些在亚马逊机械特克众包平台上工作的人。如果说会发生什么变化,可能就从这些地方开始。我认为,如果你把亚马逊的员工看作是希望的源泉,那就太荒谬了。在我看来,公司通过让白领工人在内部组织活动来修复他们所造成的损害的想法是疯狂的。但也许这是我愤世嫉俗,也许我是个坏人。原文链接:https://logicmag.io/commons/inside-the-whale-an-interview-with-an-anonymous-amazonian/
| 2,983 | 1,618,207,154,805 |
InfoQ
|
246 |
Kylin on AWS 云上运维实践|揭秘 OLX Group 全球数据基础架构
|
作为首个中国人主导贡献到 Apache 基金会的顶级项目,Apache Kylin 开源社区在国内外一直都保持着较高活力。在 2019 年 10 月,Apache Kylin 就同来自欧洲的大型跨境电商 OLX Group 在德国柏林一起举办过 Kylin Meetup,并受到众多好评。在之前举办的 Apache Kylin 5 周年庆典中,OLX Group 荣获最佳应用奖,我们也再次邀请到高级数据工程师 Mateusz Jerzyk 作为代表分享了 Apache Kylin 在 OLX Group 全球数据基础架构中发挥的作用。以下为会议实录翻译。大家好,今天很开心可以与大家分享,我们是如何在 OLX Group 应用 Apache Kylin 的。首先我会简单介绍 OLX Group,之后会向大家展示 Kylin 在我们的全球数据服务基础架构中的作用,最后会分享一些我们的用例。同时,我也会重点介绍我们在使用 Kylin,构建 Cube 时遇到的一些困难以及我们的收获。OLX Group 简介OLX Group 是全球互联网巨头 Prosus 公司的一部分。Prosus 是一个全球互联网集团,也是全球最大的技术投资者之一。Prosus 投资了腾讯,Delivery Hero,Udemy 等公司。OLX Group 为购买,出售和交换产品和服务提供了领先的平台,在全球拥有 20 多个品牌。目前业务覆盖 30 多个国家/地区,在全球设有 35 个以上办事处。OLX 有 7500 多名员工,其中有上千名在产品与技术部门工作。每月都会有 3.5 亿人通过我们的平台购买,出售或交换商品或服务,平均每天用户访问平台会产生超过 40 亿个事件。在 OLX Group,我们相信数据的力量。我们每天收集的数据都会影响我们的业务决策。我们会构建各种仪表板,机器学习模型等来辅助决策。Kylin 在数据架构中的作用接下来我来介绍一下 Kylin 在我们的数据基础架构中的作用。先介绍一下 OLX 的数据流。首先,我们会使用一些内部工具从产品数据库和设备中收集数据。所有数据都存储在数据湖中,作为我们的数据存储区。在这里需要特别提及的是,我们已经建立了一个数据湖,但只有公司内部的少数人才能访问它,也是完全符合数据保护法案的。在收集和治理数据之后,OLX 中的每个团队都可以向专用的精简数据存储(称为存储库)请求一些数据。这样,我们就可以完全控制我们数据的使用。最后,我们会使用 Odyn 的数据处理运营数据中心的功能。用户可以计划自己的 ETL 和/或其他工作负载,并将结果存储回存储库中。这些处理好的数据已准备好接入用作加速分析查询的加速层的 Apache Kylin。现在我们来关注 Kylin 在 OLX Group 数据架构中的作用。大家可以看到我们的 Apache Kylin 平台设置的流程。 我们使用 Kubernetes 来部署 Apache Kylin,Spark 和 Hive。 值得一提的是,为了将 Apache Hive 在 Kubernetes 上用起来,OLX Group 会将 Apache Spark 作为引擎的一部分。同时,我们使用 Amazon EMR 将 Amazon Kylin 的 HBase 集群与 Hadoop HDFS 托管在一起,并且将数据备份到 S3 中。该数据架构还拥有一个自动还原过程,当发现部署中发生崩溃时,该过程可以随时从 S3 恢复所有环境。OLX Group 将 OKTA 用作用户登录的 SAML 联邦身份认证,也把 OpenLDAP 用于用户授权。我们会将 Tomcat 会话存储在 Memcached 中,来将部署的停机时间降至零。该数据架构使用 Amazon Aurora 存储 Hive 元存储数据。我们拥有和 OLX 其余数据基础架构完全集成的 Apache Kylin。分析师和非技术用户可以使用一致、全面监控、稳定且可扩展的跨团队环境,轻松顺畅地构建多维数据集并使用 Apache Kylin。我们还为 Apache Kylin 提供了量身定制的每日 HBase 备份和自动还原功能。Kylin 实践分享接下来我来分享一些案例和使用 Kylin 时遇到的一些困难。如前所述,我们在多个地方使用数据。 我们遇到的第一个困难就是为我们的全局报表构建一组仪表板。 我们的目标是使它们能够以亚秒级的延迟快速查询,而且还具有足够的灵活性以计算给定过滤条件下的非累加度量。同时也能与 Tableau(我们的主要可视化工具)配合使用。另一个具体问题是建立自助服务分析平台。 与仪表板不同,在自助服务工具中,我们无法真正预测用户将如何准确使用度量和维度,这意味着我们不知道 Cube 应当提供的查询。因此,Cube 的目标是更加灵活。在这种情况下,我们可以接受边缘情况下较慢的响应时间。最后,我想向大家分享一些数字。到 2020 年 11 月,我们在生产中使用了 39 个 Cube,支持 Tableau 用,目前有超过 300 位分析师在使用,执行了将近 40 万次分析查询,返回了超过 5,000 亿行的数据,并扫描了 500 TB 以上的数据。作者介绍:Mateusz Jerzyk,OLX Group 数据基础架构团队高级数据工程师。2019 年曾协助举办柏林站 Apache Kylin Meetup。本文转载自公众号ApacheKylin(ID:apachekylin)。原文链接:Kylin on AWS 云上运维实践|揭秘 OLX Group 全球数据基础架构
| 1,445 | 1,617,760,800,242 |
InfoQ
|
247 |
Google 将停止使用 Oracle 财务软件,转而使用 SAP
|
4 月 5 日,Google 与 Oracle 之间的十年诉讼终于有了结果。美国最高法院判定 Google 使用 Oracle 公司的软件代码构建 Android 操作系统,并不违反联邦版权法。这场旷日持久的版权诉讼案落下帷幕之后,有外媒报道:“Google 母公司 Alphabet 计划在未来几周内停止使用 Oracle 财务软件,转而使用 SAP。”Google 在写给员工的一封邮件中表示:Alphabet 和 Google 的核心财务系统将在五月转向 SAP。据了解,这次弃用 Oracle 软件只与财务软件有关,没有证据表明 Google 将弃用其它的 Oracle 软件。为什么 Google 弃用 Oracle 财务软件?为什么 Google 会弃用 Oracle 财务软件呢?原因很简单,Google 和 Oracle 在云计算市场的竞争日渐激烈,双方都想建立自己的技术壁垒。当然,这也不是 Google 一家公司这么做。2019 年 10 月 15 日,Amazon 消费者业务正式完成了对 Oracle 数据库的迁移工作,关闭了最后的 Oracle 数据库,其中近 7500 个 Oracle 数据库、75 PB 级数据库全部迁移到 AWS 数据库服务,包括 Amazon DynamoDB,Amazon Aurora,Amazon Relational Database Service(RDS)和 Amazon Redshift。有例在先,Google 弃用 Oracle 财务软件也是意料之中的事情。Oracle CEO Larry Ellison 在 2018 年的会议上就表示:“我们不会与 Google 合作,因为我们准备与 Google 竞争。”因此,一直以来 Oracle 都拒绝为 Google Cloud 提供长期数据库软件认证,这也意味着客户不确定在不违反 Oracle 许可政策的情况下,是否可以将 Oracle 数据库托管在 Google 云中。由于很多大公司都使用了 Oracle 数据库软件,因此缺乏认证成为了 Google 云业务面临的挑战。据悉,Google 之后会专注于在云中部署 SAP 数据库软件。谷歌发言人表示:“Oracle 用户仍可以通过 Bare Metal Solution 在 Google Cloud 上运行 Oracle 数据库工作负载。Google 将财务系统从 Google 过渡到 SAP,是站在财务软件企业客户的角度做出的决定。”Oracle 与 Google、SAP 的竞争在云计算领域,Oracle 要落后于 Google,但是根据 Gartner 2020 年的一份报告,Oracle 是增长速度最快的云服务提供商。Oracle 在云计算市场有三大优势,排在首位的肯定是其在数据库领域的优势,尤其是这两年推出的自治数据库(ADB)。剩余的两个优势分别是企业应用和公用云,而在这两个方面,Oracle 逃不开与 SAP、Google 的竞争。Oracle 企业应用收入主要来自三个云应用的增长:Fusion ERP(服务大公司的财务管理)、Fusion HCM(服务大公司的人力资源软件)、NetSuite ER(服务较小企业的财务管理)。企业应用上云的比例较少,因此 Oracle 认为可以从 SAP 手中抢夺潜在的市场份额,尤其是在 ERP 领域。Larry Ellison 也从未掩饰 Oracle 在 ERP 领域的野心。2019 年 Larry Ellison 在一次企业家活动上表示:“SAP 是数据中心时代的 ERP 软件领导者,但随着云计算时代的到来,Oracle 将会超越 SAP,SAP 将眼睁睁看着我们抢走所有客户,却无能为力。”2021 年 3 月,Larry Ellison 在电话会议中再次表示:“Oracle 公司将吸引超过一半的 SAP 客户。”在公有云方面,Oracle 与 Google Cloud 是正面短兵相接的竞争。Oracle 已经重新组建了一个新的云计算与 AI 部门——Oracle 云平台及 AI 服务部门(Oracle Cloud Platform & AI Services)。据了解,该部门是 Oracle 云基础架构部门(OCI)的延伸,会把公司不同部门的团队联合起来,以打造一种新的统一的用户体验,并支持整个云业务统一整体的基础服务。这种种改革都透露出来,Oracle 在云计算领域瞄准的竞争对手是规模庞大、资金充裕的大型科技公司——亚马逊云科技、微软和 Alphabet 等。
| 3,125 | 1,617,684,052,011 |
InfoQ
|
248 |
供热公司如何实现负荷预测与智能调度?看云和机器学习如何提供技术支撑
|
“通过使用亚马逊云科技,我们帮助石家庄一个18万平方米的小区,进行云端管理调控供热,在保证温度舒适的情况下最终实现节热44%,第一年节能费用62万元。”——北京智信远景软件技术有限公司 技术总监 张选潮关于智信远景北京智信远景软件技术有限公司(以下简称“智信远景”)是一家以降低社会综合成本为发展使命,在城市能源领域应用智慧物联网技术,助力产业优化,改善城市生态的高新科技企业。其主要面向供热运营企业,提供供热管网系统运行监测、安全保障、智慧调度的云服务解决方案。智信远景推出的揽月云平台是一个针对供热企业和热用户提供智慧供热、智慧用热的SaaS服务云平台。平台基于运营商稳定可靠的NB-IoT网络,为供热管网中的各种工业设备赋能,是一个连接供热管网所有设备,连接所有运维人员、管理人员、暖通专家、决策者的智慧大系统。目前,揽月云平台面向城市集中供热企业的应用中接入2,000多个换热站,覆盖供热面积1.2亿平方米左右,累计节能约4,000万千瓦时,折合燃煤50,000吨。面临的挑战中国的城镇供热行业集中在北方,主要是集中供热业态,目前90%供暖都是通过水暖的方式进行消费,以水为载体,将供热公司生产的热沿着热力管网输送至各个居住小区,而在小区内建设独立的二次网循环系统,通过换热机组将热力主管网的热交换至二次网,通过二次网在住宅中的循环散热,保证住户室内在冬季的温暖舒适,从而将热源生产的热消费掉。但传统供热系统采用粗放式的管理方法,平均供给,很多时候无法根据房屋朝向、天气温度、住户面积等因素进行科学调节,往往靠人的经验调节相应阀门,这就会出现屋内过热或温度较低的情况,造成大量的能源浪费。供热行业的信息化变革已经是发展趋势,目前供热公司信息化的业务支撑系统主要指针对每个小区的换热机组设备,进行自动化控制及无人值守,做一些与天气因素相关的策略控制。但面向未来,真正实现精细化管理,做到科学负荷预测则是下一步目标。供热具有时延性,影响因素非常多,要做到真正按需供热,则需要大量末端设备的数据来支撑预测算法,比如室内温度采集器、智能温度控制器、入户智能控制阀门装置等,而随着物联网设备数据量指数级的增长,在云上进行数据存储与计算已是必然。对于智信远景来说,想要提升公司竞争力,为供热公司更好地提供解决方案必须依赖这两方面:云端的部署和人工智能的应用。在业务初期,智信远景希望减少在基础设施层面的投入,更聚焦于业务,因此上云势在必行。而在供热管网各种工业设备连接上云的过程中,只有快速排查出温度、压力和流量等传感器的异常数据,才能保证预测的准确性。为什么选择亚马逊云科技现在揽月云平台整体构建于亚马逊云科技,以实现更快速的数据挖掘,实现对换热站负荷的准确预测并指导现场调控。智信远景使用的亚马逊云科技服务包括 Amazon Simple Storage Service (Amazon S3) 、Amazon Elastic Compute Cloud(Amazon EC2)、Amazon EMR、Amazon Elastic Container Registry(Amazon ECR)、Amazon Relational Database Service(Amazon RDS)、Amazon Athena、Amazon SageMaker等等。亚马逊云科技弹性服务保证业务稳定,降低IT综合成本目前揽月云平台的系统最外层网关程序以容器方式部署在Amazon EC2上,业务数据通过Amazon S3进行存储,并导入Amazon EMR及Athena进行数据批量处理和查询分析,批量处理后数据进入Amazon RDS进行缓存,最终返回给前端应用,将可视化数据展示给平台使用者。另外,借助Amazon SageMaker构建机器学习模型,实现对供热负荷的智能预测。图 1 智信远景基于亚马逊云科技的系统架构示意图供热行业一般在供暖开始后数据量大幅增加,随着供暖结束数据量逐步降低,期间增长率能够达到200%-300%。针对其业务数据周期变化明显的特点,智信远景通过容器化部署,并结合服务注册发现机制,在供暖季开始前增加Amazon EC2的节点,部署更多的应用容器以应对增长的数据处理量,供暖季结束后逐步下线应用节点,实现弹性服务,节省IT成本。通过机器学习快速实现供热负荷预测与智能调度智信远景希望通过物联网设备连接上云,获取用户真实的需求,再通过机器学习调整最优的供给策略,达到节热节电的目的,因此需要在系统内加入供热负荷预测功能。而大量流式数据在收集过程中,必须保证真正有效、可靠的数据进入数据库。针对供热行业用到的很多工业设备出现异常数据影响预测准确性的问题,通过应用Amazon SageMaker基础模型,帮助智信远景实现了毛刺数据的识别和剔除,最终效果令人满意。在使用Amazon SageMaker之前,智信远景原有专人负责搭建机器学习环境,但手写规则和方程式太过复杂,导致更多时间浪费在环境搭建上,留给业务分析的时间较少。在使用Amazon SageMaker开箱即用的功能后,用现成的模型直接构建,让企业能更专注于业务,节省资源。最终通过机器学习能力,实现对换热站负荷的准确预测与智能调控。获得的收益通过使用亚马逊云科技,使智信远景降低了部署中间件的复杂度和运维成本等,通过Amazon EC2性能监控功能,结合Amazon EC2 Spot 实例的使用使得IT综合成本进一步降低,比未接入云时的成本至少降低30%。另外,通过亚马逊云科技众多开箱即用的服务,智信远景将更多精力投入到核心的业务研发中,再结合CI/CD的应用,将产品功能发布周期由3个月降低至1个月。通过Amazon SageMaker实现机器学习模型快速构建,保证对换热站负荷的准确预测,帮助智信远景扩展了业务能力,提升其产品在市场上的竞争力。目前有16家大规模集中供热公司、20余家小区物业的二次网在使用智信远景的揽月云平台。位于石家庄的一个18万平方米的小区,拥有住户1,500家,智信远景帮助其进行云端管理调控供热,在保证温度舒适的情况下实现节热44%,第一年节约热费57万元,电费5万元,共计节能费用62万元。如果换算为燃煤,相当于减少1,550吨的二氧化碳排放量。未来,智信远景将更多发挥Amazon SageMaker的优势,在负荷预测和智能调度上,将更多数据参数加入模型进行训练,比如住房户型、面积、光照以及阀门调整后温度变化的时间延迟、人的行为变化(住户人数变化、节假日是否需要供热)等等。同时,针对供热行业,智信远景预测,物联网边缘设备的应用智能以及云端AI的应用一定会成为趋势,未来也将与亚马逊云科技继续进行更深的合作创新。
| 2,315 | 1,616,152,039,799 |
InfoQ
|
249 |
2020年Go开发者调查:支持泛型仍是核心需求
|
近日,Go 官方发布了 2020 年 Go 开发者调查报告,共计有 9684 位开发者参与了调查。2020 年,Go 语言的使用率上升到了 76%,66% 的受访者表示 Go 语言对公司业务很重要,92% 的受访者表示对 Go 语言的使用感受很满意。此次调查中,接近一半的受访者拥有 3-10 年工作经验,大部分受访者工作在技术行业中,70%受访者的主要工作是开发软件和应用程序,还有 10%受访负责在设计 IT 系统和架构。在 Go 使用时间方面,48% 的受访者使用 Go 语言不到两年时间,不过与 2019 年相比,这个比例下降了。92% 受访者对 Go 语言感到满意针对受访者对 Go 语言的满意度,社区也做了调查。本次满意度调查总共有 5 个档,分为非常满意、满意、一般、不满意、非常满意,92% 的受访者选择了满意和非常满意。与往年相似,91%的受访者表示他们更愿意将 Go 用于其下一个新项目;89%的受访者表示 Go 在其团队中表现良好。同时,越来越多的受访者认可 Go 对他们公司的发展至关重要,这个比例从 2019 年的 59%增加到 2020 年的 66%。在 5000+ 人以上公司工作的受访者对于 Go 语言的认可度比较低(63%),而在规模更小的企业中工作的受访者更认可 Go 语言(73%)。我们将满意度调查做了进一步拆分,做了 14 个细项的调查。根据调查结果,受访者构建速度、可靠性和并发性满意度最高,对云服务、调试和模块领域的满意度有所增加,其它大多数选项的重要性与之前相比基本没变。今年新引入的两个选项 API 和 Web 框架,Web 框架的满意度低于其他领域(64%),对于大多数当前用户而言,它的重要性并没有那么高(只有 28%的受访者表示它非常重要或至关重要),但对于潜在的 Go 开发人员来说,它可能是重要的缺失功能。Go 语言开发工具和实践与往年一样,绝大多数受访者表示他们是在 Linux(63%)和 macOS(55%)系统上使用 Go 语言,不过需要注意的是在 Linux 上开发的受访者正在逐年下降。在编辑器的选择方面,受访者最喜欢的是 VS Code,占据了 41% 的份额,排在第二位的是 GoLand(35%)。与往年不一样的是,今年社区做了一项新的统计,让受访者针对编辑器的改进优先级进行排序。根据调查结果显示,目前开发者最想改进的编辑器功能是代码完成、代码导航、编辑器性能和重构。2019 年,社区调查了开发人员都在使用哪些特定的开发技术,结果发现几乎 90%的受访者都在使用文本日志来做调试。2020 年,针对这个调查结果,社区做了一个更详细的调查,希望能够找到大家为什么喜欢使用文本日志来做调试。43% 的受访者表示是因为它可以在各种语言中通用,42% 的受访者表示是他们本身就喜欢使用文本日志。不过,仍有 27%的受访者不知道如何开始使用 Go 的调试工具,还有 24%的受访者从未尝试过使用 Go 的调试工具。Go 语言的具体实践根据调查结果显示:构建 API/RPC 服务(74%)和 CLI(65%)仍然是 Go 的最常见用例。在这个调查中,我们还根据不同的企业规模做了细分,大型企业和中小型企业使用 Go 语言的方式差不多,但是大型企业很少使用 Go 语言来做返回 HTML 的 Web 服务。开发者都在使用 Go 语言完成哪些工作呢?根据调查结果显示,在工作场景中,受访者更多的是将 Go 用于自动化 / 脚本、代理和守护程序以及数据处理等用途,在工作之外,桌面 /GUI 应用、游戏和移动应用等用例更常见。那么,受访者对于每个用例的满意度如何呢?根据调查结果显示:CLI 的满意度最高,有 85%的受访者表示对 Go for CLI 的使用感到满意。当然,满意度和使用率不能完全划等号,比如代理和守护程序的满意度第二高,但使用率排名第六。CLI 的目标平台调查结果显示,开发人员对 Linux 和 macOS 以及 Linux 的使用率较高,其中 Linux(93%)、macOS(59%),而 Windows 也有差不多三分之一的受访者在使用。仔细研究 Go 的数据处理用例可以发现,Kafka 是唯一被广泛采用的引擎,但大多数受访者表示他们用 Go 搭配一个定制的数据处理引擎。受访者都在哪些领域中使用 Go 呢?根据调查结果显示,到目前为止,最常见的领域是 Web 开发(68%),而其他常见领域包括数据库(46%)、DevOps(42%)、网络编程(41%)和系统编程(40%)。Go 语言模块的使用情况2020 年,Go 模块得到了更普遍的使用,尤其是将模块用于软件包管理的比例显著增加。96%的受访者表示他们正在使用模块进行软件包管理,87%的受访者表示他们仅使用模块进行软件包管理,而这两项调查在前一年的占比仅为 89% 和 71%。当然,受访者对于 Go 语言模块的满意度也从 2019 年的 68% 上升到 2020 年的 77%。使用 Go 语言构建云服务Go 在设计时就考虑了现代的分布式计算需求,那么开发者在云上部署 Go 语言项目的情况如何呢?根据调查结果显示,三大云计算提供商(亚马逊云科技、GCP 和 Azure)的使用率都上升了,尤其是 Azure 的使用率从 7%增长到了 12%。而在自有或者公司拥有的服务器的本地部署比例继续减少。部署到 AWS 和 Azure 的受访者中,部署到托管 Kubernetes 平台的比例有所增加,目前分别为 40%和 54%;Azure 用户中将 Go 程序部署到 VM 的用户比例显著下降,容器使用率从 18%略微增加到 25%。与此同时,GCP(已经有很大比例的受访者报告他们在使用托管的 Kubernetes)用户中部署到无服务器的 CloudRun 的比例从 10%增长到 17%。总体而言,大多数受访者对在所有三大头部云提供商上使用 Go 的体验感到满意,受访者对在 AWS(82%满意)和 GCP(80%)上使用 Go 开发的满意度相似。Azure 的满意度较低(满意度为 58%),受访者 Azure 的 Go SDK 和 Go 对 Azure 函数的支持提出了建议。为什么我们还没使用 Go 语言?根据调查结果显示·,受访者认为 Go 语言使用率无法提高的主要原因包括项目正在使用另一种语言开发(54%)、团队成员更偏好使用另一种语言工作(34%)以及 Go 本身缺乏某项关键特性(26%)。Go 语言到底缺乏哪些关键特性呢?根据调查结果显示,88%的受访者认为泛型是关键的缺失特性,其他关键的缺失特性包括更好的错误处理(58%)、null 安全性(44%)、函数编程特性(42%)%)和更强大 / 扩展的类型系统(41%)。调查还发现 18% 的受访者由于缺少泛型而不会用 Go,其它不使用 Go 的原因中,模块 / 软件包管理以及关于学习曲线 / 最佳实践 / 文档的问题均占 13%。报告链接:https://blog.golang.org/survey2020-results
| 2,933 | 1,616,055,453,744 |
InfoQ
|
250 |
AWS PrivateLink全面可用,可用安全地从本地访问S3
|
AWS最近宣布,用于Amazon S3的PrivateLink现在全面可用。有了PrivateLink,客户可以安全地将Amazon S3连接到本地资源。在去年的AWS re:Invent大会上,亚马逊预先发布了用于Amazon S3的PrivateLink,现在已全面可用。通过用户虚拟网络中的私有IP,为用户提供Amazon Simple Storage Service与本地资源之间的私有连接。从2015年开始,S3已经配备了VPC端点,但仍然不允许AWS用户通过安全连接(如AWS Direct Connect或AWS VPN)从内部访问S3。AWS首席布道师Martin Beeby在一篇博文中写道,一些用户在他们的Amazon虚拟私有云中设置了私有IP地址的代理服务器,并使用S3的网关端点:尽管这种解决方案是有效的,但代理服务器通常会限制性能,增加额外的故障点,并增加运维复杂性。我们研究了如何在避免这些缺陷的情况下为客户解决这个问题,于是就有了用于S3的PrivateLink。有了用于S3的PrivateLink,用户现在可以在他们的虚拟私有云中使用新的VPC端点接口,在他们的安全虚拟网络中作为私有端点直接访问S3。它扩展了现有网关端点的功能,使用户能够使用私有IP地址访问S3——从其内部应用程序到S3的任何API请求和HTTPS请求都自动通过接口端点进行重定向。此外,用户可以在其接口端点上设置安全组和访问控制策略。图片来源:https://aws.amazon.com/blogs/aws/aws-privatelink-for-amazon-s3-now-available/其他云提供商也提供了类似的服务,允许用户从本地连接到云存储服务。微软提供了Azure Private Link,它从2020年3月开始为Azure存储提供私有端点支持。谷歌也为用户提供了私有访问解决方案,包括Cloud Storage。在Reddit上,受访者对用于S3的PrivateLink的可用性表示欢迎:这是针对一些特定的情况,即你正在使用本地资源,并希望通过连接获得一个直接连接到S3的私有路由。以前,你能做的是将它指向一个EC2代理,并通过现有的VPC端点转发,但这种方式不是很理想。或者通过公共网络连接,这种方式也不是很理想。以及:一些企业不能在他们的网络中配置分离路由,所以他们不能使用网关端点。有了PrivateLink,他们就可以在PrivateLink接口上使用网关端点。此外,Trivadis的高级顾问和培训师Daniel Hillinger在推特上表示:昨晚,AWS发布了很棒的S3接口端点公告!特别是对安全有限定的客户来说,这是期待已久的。因为在之前,他们必须将公共IP加入白名单,并在S3网关端点的NACL中进行定期更新。注意,该特性只在用户需要从内部访问S3时才有用,否则,就像Reddit上说的那样:如果不需要从本地访问S3,就不要使用它。S3网关端点是免费的,但这个端点可能很贵。PrivateLink目前适用于所有AWS区域,处理数据的费用按GB收取,VPC端点的费用按小时收取。原文链接:AWS Releases Privatelink for Amazon S3 into General Availability
| 3,308 | 1,613,399,242,545 |
InfoQ
|
251 |
全球最大云厂商AWS是如何诞生的?
|
2000年,正值互联网泡沫破裂时,我在亚马逊工作。当时,资本市场枯竭,而我们每年要烧掉10亿美元。其中,最大的开销是数据中心,里面全是昂贵的Sun服务器。为了压缩成本,我们花了一年时间“去Sun”,用HP/Linux替代它。这为AWS奠定了基础!昂贵的IT基础设施1999年,我进入亚马逊。在工作第一周,我在电梯里遇到史考特·麦克里尼(Sun创始人兼CEO),他正要去贝佐斯办公室。当时,Sun公司是世界上最有价值的公司之一,其最高市值超过2000亿美元,全球拥有5万名雇员。尽管Sun的产品不便宜,比如一台工作站要上万美元,一台服务器要10万美元,但是其产品不愁销路,因为购买Sun的产品就像买IBM的东西一样,“没有人会被解雇”。我们的座右铭是“快速成长”。为此,网站的稳定性至关重要——每一秒停机时间都意味着销售损失,所以我们花费大笔钱来维持网站的正常运行。而Sun服务器是最可靠的,虽然它的专有栈很贵,而且棘手,但是所有的互联网公司都在用它们。.Com泡沫破灭,亚马逊开始“去Sun”不过,到了2000年,互联网泡沫破裂,那些由风投支持的初创企业纷纷倒闭,全新的Sun服务器开始以原价10%的价格出现在eBay上。那时,AWS还没影,你必须建立自己的数据中心。虽然亚马逊本可以与Sun达成更好的协议,但是贝佐斯选择了一种更激进的方式:用HP/Linux取代Sun。早在1994年,Linux内核正式发布,同一年,贝佐斯创立亚马逊。6年后,这家公司将全部赌注压在Linux身上。这在当时是一种新颖又冒险的做法。在“去Sun”的过渡期间,产品开发停滞不前,我们冻结了所有新功能长达一年多。在我们面前,是一个巨大的待办事项清单,但在向Linux迁移完成前,什么都不能发布。我很清晰地记得,在一次全员会议上,一位工程副总快速展示了一张蛇吞老鼠的图片。这与收入增长减速同时发生——并进一步加剧了这种减速,因为我们还不得不提高价格以减缓公司燃尽速度。这是一个恶性循环,我们没有时间也没有钱。这个时候,再有几个季度,亚马逊就要破产了。但是,一旦我们开始向Linux迁移,就没有回头路。所有人都被动员起来重构我们的代码库,替换服务器,准备切换。如果成功,基础设施成本将下降80%以上。如果失败,网站就会倒掉,公司就会灭亡。最终,我们及时、顺利地完成了迁移。对整个工程团队来说,这都是一项巨大的成就。网站继续运转,没有垮掉。资本支出在一夜之间大幅减少。突然之间,我们有了一个无限扩展的基础设施。从出租服务器开始,AWS诞生然后,更有趣的事情发生了。作为一家零售商,我们一直面临着巨大的季节性问题,每年11月、12月,流量和收入都会飙升。贝佐斯开始想,我们每年有46周服务器过剩,为什么不租给其他公司呢?大约在同一时间,他还对解耦内部依赖关系产生了兴趣,这样团队的构建就可以不受其他团队的限制。实现这个松耦合模型所需的架构更改就成了AWS的API原语。这些都是AWS的基本洞察。我记得,贝佐斯在一次全体会议上,展示了这个形成于电网背景下的想法。在1900年,企业要开店必须自己建造发电机。可是为什么2000年的企业还必须自己建数据中心?没有AWS,云基础设施最终也会出现(就像没有特斯拉,电动汽车也一样),但时间会拖多久,机会成本会有多大?在AWS大幅降低创办公司的成本后,创新爆发,现代风投生态系统诞生了。在2000年至2003年,亚马逊几乎破产。但如果没有这场危机,该公司就不太可能做出这个艰难的决定,转向一个全新的架构。如果没有这种转变,AWS可能永远不会出现。要在危机中发现良机!另外:亚马逊最近花了数年时间去Oracle,很少有人这么做过。做困难的事情需要实力,而实力是通过做困难的事情锻炼出来的。最好的公司把每一次挑战都视为机遇,将这种理念融入在他们的文化中。原文链接:https://threadreaderapp.com/thread/1347677573900242944.html
| 3,614 | 1,612,768,581,785 |
InfoQ
|
252 |
AWS 助力珂晶达高效构建云端服务,加速国产EDA软件融入市场
|
通过使用 AWS,加速了珂晶达应用系统部署的速度。借助自定义 AMI 和 AWS Auto Scaling 技术,使得原来需要 2-3 天的部署时间,在云端只需 2 小时即可完成。”——苏州珂晶达电子有限公司 总经理 沈忱关于珂晶达苏州珂晶达电子有限公司(以下简称“珂晶达”)成立于 2011 年,主要从事科学计算软件设计开发、EDA 软件设计开发、IC 软件设计开发以及相关技术服务,主要产品包括半导体工艺和器件仿真(TCAD)和多物理仿真软件等。目前致力于国产化基础软件研究,公司拥有多个具备自主知识产权的多物理数值仿真软件,涉及热、流体、电磁、电子、辐射等多个技术领域,客户已遍及国内、欧美和亚太区域。面临的挑战随着芯片制造工艺的不断发展,芯片的集成化程度越来越高,其性能也越来越强大,大量的计算、验证、仿真工作都需要强大的 IT 资源作为支撑,单靠企业自行构建 IT 资源设备所投入的人力、物力会非常庞大。而且在仿真计算时普遍存在计算周期长、数据量大、耗费资源多的情况,在资源使用上存在前、后期比较集中而中期比较少的问题,导致资源利用率不高。珂晶达希望利用云服务平台实现资源的可配置、可伸缩、以及目标优化。此外,对于珂晶达的很多客户来说,标准的 EDA 软件有些已经不能满足其前沿产品的开发,所以一些标杆客户希望珂晶达能够按照需求进行定制开发。IGBT 电热耦合仿真平台就是珂晶达重新定义软件的典型案例。珂晶达的客户在研发过程中发现了一些可靠性方面的问题,需要用电热应力、电磁、多物理耦合的仿真来进行分析。在调研了很多国内外成熟软件之后,最终在 2017 年逐步与珂晶达建立合作关系,珂晶达按其需求构建了IGBT 电热耦合仿真平台。但当珂晶达想要推广通用的 EDA 软件以服务更多客户时,则需要一个部署在云上的 Demo 系统,让更多客户了解和使用。对于有使用云计算需求的用户来说,平台的运算性能是一个重要的选择标准。在过去,珂晶达的运算系统只是提供内部服务,因为运算量巨大,主要追求在单位时间内完成更多任务。而现在,珂晶达的 IT 系统要面向用户,就不能只考虑任务量和成本,而更加重视云服务的可靠性和弹性,为用户创造优质稳定的工作环境。综合来说,珂晶达希望在云服务的帮助下,支撑业务扩展,为客户提供更为优质稳定的工作环境。在技术考量上,则对服务高可用、弹性伸缩、运维自动化以及安全性保障这些层面比较关注。为什么选择AWS在使用 AWS 之前,珂晶达的 IT 基础架构采用的是自建服务器方式,部分应用云服务的策略。在技术上,珂晶达缺少稳定强大的数据运算系统。最终选择 AWS,也是基于对安全性、稳定性、扩展性、可伸缩性的考量。目前,珂晶达使用的 AWS 服务包括 AWS Auto Scaling 、Elastic Load Balancing(ELB)、 Amazon Simple Storage Service (Amazon S3) 、Amazon Elastic Compute Cloud (Amazon EC2)、 Amazon DynamoDB 等等。基于 AWS 技术架构,提供 EDA 软件上云新思路珂晶达基于 AWS 的架构示意图珂晶达实现 EDA 软件上云的思路,并不是从内网服务器直接迁移到 AWS 云端,而是基于低延迟、高流畅度的标准,重新划分服务器端和浏览器端的计算量分配。通过在 AWS 上部署一个 Slurm 计算集群,由每一个节点领取一个计算任务,进行分布式计算。最终用户直接与基于浏览器的图形界面进行交互。在多用户场景下,通过ELB可以把不同用户浏览器发来的请求,分配到不同的 HTTP 服务器上运行的图形界面后端,分别处理不同用户的交互。在这一过程中,AWS 弹性伸缩能力发挥作用,减轻系统压力,为珂晶达的用户带来更好的体验。在数据存储层面,如仿真结果、仿真波形、IGBT 内部的温度分布等数据量相对较大,主要使用 Amazon S3 来存储;而例如用户的账号信息、配置信息、权限信息、日志等轻量级数据,对延迟要求比较高,主要使用DynamoDB来存储,共同保证数据传输、存储与安全。AWS 解决仿真平台 Demo 快速部署与安全需求珂晶达非常重视系统的快速部署,通过接入 AWS,可以实现与客户远程协作,只需帮助用户开通平台账户并登录,然后通过线上视频进行协作,就可以短时间内建立试用,省去了过去 IT 工程师实地考察、实地部署的环节。在安全方面,珂晶达重点考虑目前使用平台 Demo 的用户数据隐私问题。通过使用 AWS,可以很方便地将数据进行清洗,以及为不同的用户账号做数据隔离,进一步提升工作自动化程度。同时 AWS 也不断为珂晶达提供安全性最佳实践经验、配置方法、防火墙设置等建议,为客户安全保驾护航。统一公司产品线,海内外业务统一接入 AWS珂晶达在印度有 100+ 家客户,包括学校、商业公司、科研机构等在内,其中超过一半客户是学校。目前其在 AWS 海外区域部署了一套业务系统,以帮助印度高校创建实验环境。在国内业务推广中,珂晶达选择 AWS 的原因之一,也是为了统一公司海内外的产品线。无论是海外,还是国内的学校客户,都面临 IT 能力薄弱的问题,在使用珂晶达软件的过程当中,经常会碰到一些基础的 IT 问题,为了避免工作人员疲于奔命,珂晶达推动把面向学校和小企业客户的软件升级优化版本,通过统一维护比较成熟的 AWS IT 架构,减轻客户负担,以降低客户支持和 IT 系统维护的成本。凭借优质技术支持服务,AWS 团队提升客户满意度在使用 AWS 相关服务时,珂晶达也曾面临过一些细节性的技术问题。例如曾针对服务器 CPU 的配置提出要求,想要在虚拟化的环境里关闭一些影响数值计算性能的CPU选项,当时内部查找了一些网上的资料并不能解决他们的问题。在这个过程中,AWS技术服务团队主动提出一些建议方案,通过线上会议同步设置方法,并指导珂晶达 IT 团队进行测试。在日常合作中,AWS 技术服务团队也随时协助珂晶达解决问题:如何使用某一项新功能、如何合理地配置保证费用最优等等。此外,AWS在半导体行业拥有专业的服务经验和精深的技术专家,参考AWS全球的客户成功经验,帮助珂晶达规划系统应用中长期发展路线,对标国际发展前沿。沈忱说“经过长期合作和接触,我们认为 AWS 的专业程度非常高。一方面是背后的系统和产品本身的质量很高,另外一方面就是在提供服务支持时,能够提供比较专业的建议,并不是纯粹从商业的角度来看待问题,更多从技术合理性、日后维护总体运营的成本来替我们考虑,我们对此非常满意。”获得的收益依托 AWS 高可靠性和弹性等能力,以及在专业技术团队的支持下,珂晶达能够更好地保障业务稳定运行,拓宽市场,获得显著的竞争力改善。一方面,加速了应用系统部署速度,珂晶达借助自定义 AMI 和 AWS Auto Scaling 技术,原来需要 2-3 天时间的部署任务,在云端 2 个小时就能完成。另一方面,节省了运维成本,运维工作量降低了 60%,一个运维人员可以管理更多的 HPC 集群和应用。而且通过弹性伸缩能力既满足高峰期的客户访问流量,也节省了硬件投入。最后,在安全层面,通过AWS Identity and Access Management (IAM)访问控制和Amazon Elastic Block Store (EBS)加密等技术,充分保护了数据安全。展望未来在半导体行业升级转型上,EDA 软件或者工业软件上云已然是大势所趋。未来,在 AWS 的助力下,珂晶达将不断提升业务创新水平。同时,随着业务发展对安全性要求的提升,珂晶达也将持续关注 AWS 云安全服务以及新服务的技术跟踪。为什么使用AWS弹性伸缩能力减轻计算压力快速部署,降低运维成本保护客户隐私与数据安全深入业务场景提供专业支持
| 3,082 | 1,612,757,012,999 |
InfoQ
|
253 |
桐树基因基于AWS显著提升基因数据智能分析速度
|
“通过使用 AWS,桐树基因同样一个样本分析时间比原来快了 30-40分钟。”——桐树基因 高级副总裁、首席信息官 全雪萍博士关于桐树基因上海桐树生物科技有限公司(以下简称“桐树基因”)是一家专注于肿瘤精准医疗领域的高新技术企业,总部位于上海宝山科技创新园,已分别在常州和广州设立有 GMP 标准的生产中心和国际标准的医学临检中心。桐树基因与世界顶尖的高通量测序生物公司——赛默飞世尔(ThermoFisher)达成战略合作关系,目前已形成基于高通量基因测序技术与生物信息分析的ctDNA精准检测体系,500多项分子病理检测项目,实现了对肿瘤无创、准确、动态的基因分析,为临床提供精准用药、疗效监测、术后复发监测、风险预测和早期检测等咨询服务。其产品线全面满足临床及科研的不同需求,检测服务网络现已覆盖全国五大区域500多家核心医院。短短三年内,桐树基因的业务量呈现出指数级增长,销售额已居同行业前列。面临的挑战在过去二十年,科学家对人类基因组的研究促成了基因检测等一系列新技术的出现,还带来基因诊断、基因治疗、靶向药物等医学新手段,生物医学已经进入建立在基因组大数据基础上的精准医学时代。肿瘤的基因检测是桐树基因的重要业务,属于精准医学范畴。基于检测技术的发展,以及1990年启动的“人类基因组计划”和2006年启动的国际癌症基因组计划等大型研究,揭示出许多与癌症相关的重要突变,获得50余种肿瘤的特定分子异常谱型,让人类更深入地了解了癌症发生发展的分子机制。但肿瘤的基因检测是十分复杂的,涉及很多的基因、位点。目前肿瘤基因检测大多基于二代高通量测序技术进行的,这种技术能够同时对上百万个甚至到数十亿个基因分子进行测序,产生的数据非常大。在检测时,每个样本可以产生10的8次方至 10 的 9 次方的短序列片段,每个序列片段又约是 150 个基因碱基长度,因此每个样本的原始数据十分庞大。从文件大小表现来看一般是从 10GB 到 30GB 之间。在这样的情况下,对于数据的存储、I/O、计算的要求都非常高。而桐树基因与 AWS 合作之前,采用的是租赁服务器的方式,在公司内进行维护,每个月维护成本很高,包括服务器本身的成本和电费、空调费以及 1-2 个运维人员的成本等。同时随着业务发展,需分析的样本量的增加也使总成本越来越高。另外,此前出现服务器故障或者断电还会导致分析流程中断,影响业务进程。因此,桐树基因亟需通过上云来达到解决本地分析能力不足、提高分析效率、节约成本等目标。为什么选择AWSAWS 的冷热存储分离、面向对象的存储、容器化应用、一键式构建并行化集群和分布式集群等功能,十分有效地解决了精准医学数据,特别是由二代高通量测序产生的数据量大,对存储、I/O、算力要求高的问题,有助于根据不同的临床场景、检测技术、分析特征组合不同的容器化分析模块、搭建不同的分析流程,准确快速完成大批量、大样本的数据分析解读,以极快的速度将检测结果呈递到医生和患者面前。目前,桐树基因使用的 AWS 服务包括 Amazon Simple Storage Service (Amazon S3)、 Amazon Elastic File System (EFS)、 Amazon Elastic Block Store (EBS)、 Amazon Elastic Compute Cloud (Amazon EC2) 、 Amazon Elastic Container Registry (ECR)、 AWS CloudFormation 、 AWS ParallelCluster 、 AWS Batch 、 AWS Lambda 等等。冷热存储分离及多样化存储能力解决精准医学数据量大、存储要求高问题对于桐树基因来说,基因样本分析的数据量是源源不断增加的,不同数据的存储要求不同,需要进行冷热存储分离。对于正在分析的数据,需要频繁调用进行处理,则放在热存储里。对于已经分析完的数据,包括原始数据或者热数据的结果等,这些数据可能需要长期存储不需要经常调用,则放在冷存储中。桐树基因使用了AWS多种存储能力,Amazon S3 用于存储基因测序的原始数据以及分析完的数据等,利用 Amazon S3 的数据归档能力可以很好地降低成本。Amazon EFS可以在多个 Amazon EC2 实例中共享网络文件系统,因此桐树基因通过 Amazon EFS来管理多个服务器共享的一些公共数据,比如人类参考基因组是每个分析流程都会用到的共享文件。Amazon EBS的 I/O 速度很高,主要用来做数据库或者托管应用程序,进行大数据分析。桐树基因基于 AWS 的数据分析架构示意图一键式构建集群,提高批量样本及大型单个样本的分析能力桐树基因以前常碰到这样的问题:在本地服务器上分析时,如果有一个计算节点宕机,整批分析都会终止,需要再次提交,重新分析。在业务上云后,AWS 提供的一键式集群构建能力,可以实现同时对几十个到几百个样本进行分析,单个计算节点宕机不会影响其他节点的数据分析。当桐树基因遇到需要在半天或一天内把数据解读完,再将报告发给用户的情况时,利用一键式构建并行集群,就可以对样本进行具体的处理和分析,同时也可以根据提交的样本数量的增加,随时增加计算节点。除了一键式构建并行集群,AWS 一键式构建分布式集群也解决了桐树基因针对大型单个样本分析的难题。比如 WES 全外显子测序数据量非常大,在对此数据进行分析时,就需要利用分布式集群,将一个任务拆分再进行分析来缩短单个任务的分析时间。同时通过容器化管理,还可以把很多比较标准的分析步骤打包成容器。通过把已经打包好的容器相互组合,来搭建新的分析流程。无服务器架构与弹性配置提升计算能力在基因样本分析中,一个文件里会存储几百万个短序列DNA信息。在分析时,需要把这些短序列与参考基因组进行对比,识别患者个体与参考基因组之间的差异。在这一过程中生成的中间文件,除了要保存最初的短序列以及参考基因组的信息外,还要记录这些序列比对参考基因组上的位置,与参考序列之间的差异,以及比对的质量等多种维度的信息。因此中间分析过程产生的文件是呈指数级增长的,体量比原始数据暴增5-10倍。而在样本分析结束后,分析结果仅仅记录比对差异,例如哪个基因在哪个位点上有什么变化等,此时数据量又会逐渐下降。基于这样的数据特性,AWS 弹性的计算资源配置就显得十分重要。桐树基因使用 AWS 搭建的架构是基于无服务器的,通过对 AWS Lambda 的应用,一方面可扩展性很好,另外节省计算资源,系统会根据样本分析任务的需求去申请计算资源,保证在业务高峰期弹性地进行配置。获得的收益在 AWS 完善的服务与技术支持下,桐树基因很好地解决了肿瘤基因测序中大批量数据存储与计算的难题。避免先前租赁服务器故障或者断电导致的分析流程中断的问题,同时在业务高峰时更能从容应对,用更少的费用获得更大的计算能力。另外,依托 AWS 能力缩短了整体科研流程的分析时间。经过桐树基因的测试,同一个样本的分析时间比原来快了 30-40 分钟;对于批量样本的分析来说,整体节省了 2/3 的时间。在安全保障上,桐树基因在设置特有的权限策略之后,几乎不用担心外部安全问题。Amazon S3 和 Amazon EBS之间批量的数据传递也不用担心泄露,有效地保护了数据安全;而且传输速度也有所提升,之前本地服务器之间传输速度在 100M/s 左右,现在 Amazon S3 和 Amazon EBS之间传输速度提升到 150M/s 左右。展望未来面向未来,桐树基因在大数据和 AI 方向已经开始布局,对 Amazon Redshift 数据仓库、Amazon EMR 大数据平台等服务已经准备进行测试。在AI层面,桐树基因已经在 AWS 开通 GPU 的计算资源,开始使用 Amazon SageMaker 的一些功能以实现对患者进行更精细地诊断,以及对一些新的药物靶标的预测。同时桐树基因也在积极整合一些分子层面组织学表型的数据,如病理、影像等,从而把基因层面和表型层面的信息整合在一起研究新的 AI 模型。为什么使用AWS弹性伸缩能力减轻计算压力容器化应用节省计算时间多样化存储能力满足存储要求一键式构建集群提升分析能力
| 2,987 | 1,612,755,856,656 |
InfoQ
|
254 |
AWS 和 Elastic 吵起来了:鄙视改开源协议,我们要做真正开源的Elasticsearch
|
1 月 15 日,Elasticsearch 创始人 Shay Banon 在公司官网发文,宣布将更改开源协议,从 Elastic 7.11版本开始,Elasticsearch 与 Kibana 代码所遵循的 Apache 2.0 许可会调整为 SSPL 与 Elastic License 双许可。针对 Elasticsearch 与 Kibana 开源协议更改,Elastic 和 AWS 都发表了自己的观点。Elastic 表示更改协议是被 AWS 逼迫的无奈之举,坚决抵制“白嫖”;而 AWS 则认为 Elastic 此举只是为了壮大自己的业务,不想其它人提供 Elasticsearch 托管服务,更改后的 SSPL 协议既不自由也不开源。坚持抵制“白嫖”,Elastic CEO 狂怼 AWS 行为不端1 月 20 日,Shay Banon 在公司官网发文表示,他们决定将 Elasticsearch 和 Kibana 的开源协议由 Apache 2.0 变更为 SSPL 与 Elastic License,这是因为被 AWS 的所作所为逼于无奈作出的选择。Shay Banon 在文中强烈表达了自己的不满,措辞激烈:“亚马逊于 2015 年基于 Elasticsearch 推出自己的服务,还将其称为 Amazon Elasticsearch Service,这是很明显的商标侵权行为。NOT OK。”“我在 2011 年借了一笔个人贷款来注册 Elasticsearch 商标… 看到商标如此公然地滥用,我特别痛苦。亚马逊问题迫使我们提起诉讼。NOT OK。”“商标问题让用户感到困惑,以为是 Elastic 和亚马逊之间有合作,这不是真的。NOT OK。”“… 多年来这种困惑仍然存在。NOT OK。”“亚马逊针对 Elasticsearch 的 Open Distro 分支,进一步分裂了我们的社区,引发了相当多的混乱。NOT OK。”“… 最近,我们发现了更多挑战道德底线的例子。我们已经在专有功能方面上与众不同,现在这些设计却被视为来自亚马逊的灵感。NOT OK。”AWS 回应:我们没有逼迫,将打造真正的开源 Elasticsearch1 月 21 日,AWS 官方博客更新博文《Stepping up for a truly open source Elasticsearch》,并表示:Elastic 专门发布博文宣称“这一切都是 AWS 逼的”,但群众的眼睛是雪亮的,我们没有做出做出任何逼迫行为。很明显,Elastic 的限制性许可只是为了阻止其他人提供托管 Elasticsearch 服务,帮助 Elastic 建立起更庞大的业务体系。对于更改后的开源协议,AWS 表示 Elastic 声称“SSPL 自由开放”的说法存在误导性。AWS 认为 Elastic 一边宣扬开源代码的好处,同时又在破坏开源代码自身的定义。SSPL 其实是一种非开源许可,只是通过模糊二者边界的方式让自己看起来像是开源许可。正如 Fedora 社区做出的评论,“SSPL 既不自由也不开源,它的出现给 FOSS 生态系统中的一切其他许可蒙上了阴影。开源协议更改之后,AWS 将会如何应对呢?“Elasticsearch 与 Kibana 变更开源协议之后就不再是真正的开源软件。为了确保两款软件包的开源版本仍然可用并继续获得良好支持(特别是在 AWS 产品当中),我们今天正式宣布,AWS 将抓紧建立并维护沿用 ALv2 许可的 Elasticsearch 与 Kibana 开源 fork。”其实,2019 年 AWS 就发布了 Elasticsearch 的增强发行版本 Open Distro for Elasticsearch ,基于 Apache 2.0 100% 开源,除了 Elasticsearch,还包含来自 Elasticsearch 分析和搜索仪表板 Kibana 的源码。当时,AWS 表示:“创建 Open Distro for Elasticsearch 的目标不在于分叉 Elasticsearch,我们还将继续向上游项目提供贡献。”现在,AWS 将会有所动作,“我们的 Elasticsearch 与 Kibana fork 将基于 ALv2 许可的最新 7.10 代码库版本。并在接下来的几周内发布新的 GitHub repo,用以替代 Elastic 提供的 ALv2 版本。”同时,AWS 对于 Open Distro for Elasticsearch 的未来发展保持积极态度,“我们期待使用 ALv2 许可为 Elasticsearch 与 Kibana 提供真正的开源选项,并携手社区一同建设光明的未来。”开源社区如何看待这次开源协议更改?Elasticsearch 与 Kibana 开源协议更改也引起了社区和开发者的广泛谈论。虽然 Shay Banon 和 Elasticsearch 布道师们一直在强调:“源代码许可的改变对绝大多数免费使用默认发行版的社区用户没有任何影响。”但是 Elastic 修改协议的这个行为还是引发了社区不满。有开发者吐槽表示:“Elasticsearch 属于社区中的 1573 位贡献者,这些贡献者保留其版权,并授予 Elastic 不受限制地分发其作品的许可。开源是社区的工作…Elastic 更改协议是为了获得更多的钱,是为了建立对 Elasticsearch 的垄断… 这是反开源的举动。Elastic 的行为辜负了社区,辜负了大家的信任。"对于 Elasticsearch 与 Kibana 开源协议更改,您有什么看法?欢迎留言评论。
| 2,616 | 1,611,460,968,961 |
InfoQ
|
255 |
2021中国云计算市场展望:行业变革的三大关键
|
2020 开年的疫情加速了传统企业数字化转型的进程,“新基建”政策的提出让市场对云计算的需求更加喷涌,自主可控、本土开源的如火如荼让行业变得更加规范化、透明化、标准化。中国的云计算市场格局虽然相对稳定,但暗流之下涌动的竞争却愈发激烈。2021 年,中国云计算市场迎来了变革之时,只有技术、生态和开源“三位一体”的云,才有可能在新的历史机遇和市场机会下走得更远。云计算,变革来临时“软件正在吞噬世界”,10 年前当 Marc Andreessen(Netscape 创始人)说出这句论断时,没有几个人认同他的观点。可是后来,硅谷的神话印证了这句话的先见之明。“我完全搞不懂那帮家伙在说些什么,简直就是一派胡扯。云计算到底是指什么?”当 Larry Ellison(Oracle 创始人)说出这句论断时,附和声此起彼伏颇为统一。可是后来,云计算吞噬了软件,席卷了全球。IT 世界版“大鱼吃小鱼”一个时代有一个时代的 IT 底座。从 1960 年大型机的出现,到 80 年代小型机的独领风骚,再到 PC 时代的 Wintel 联盟,最近的则是 Intel 和 Linux 结合带来的分布式计算的巅峰。数字世界的 IT 底座一直在不断地演化、变迁、革新。云计算,就是当下这个时代的 IT 底座。在国内,“新基建”政策下掀起了传统企业数字化转型浪潮,建设数字化经济、提升 GDP 占比更需要云计算的全面加持,再加上云计算天然的降本增效、弹性伸缩的特性,时代的需求交织在一起,掀起了这场全面云化的浪潮。如果说过去的云计算是与泛互联网场景的耦合,那么从现在到未来的云计算将会是传统实体经济与全场景智慧的深度耦合。云计算行业有两个看起来似乎矛盾的特点:马太效应与不确定性。前者似乎揭示了这个行业赢家通吃的市场规律:国内市场「HAT」三足鼎立趋势凸显,其他中小云都在夹缝中艰难求生。后者却是云计算市场背景的真实写照:需求远比服务多,云计算市场规模增速仍旧迅猛,未来充满了不确定性,盖棺定论的时候远未到来。云的世界以技术为先,但驱动云计算行业发展的,永远不会只有技术一条。技术、生态与开源市场需要怎样的云?这个问题是长久以来摆在各大云服务厂商面前的一大难题。云计算服务的同质化现象日趋严重,而全面云化的浪潮带来的与全行业的深度耦合,又提出了更加多元化的市场需求:你不能用泛互联网的打法去做政企,就像你不能用锤子去拧螺丝。根据《IDC:向以云为中心转变加速下的市场新特点新机遇》的报告显示,未来云计算行业将呈现出技术生态化、需求多样化、模式丰富化、管理复杂化的新特点,由此也将带来新的机遇和挑战。事实上,技术 / 产品的多样化仍旧是市场关注的核心,但合作生态、拥抱开源也是影响云计算服务的另外两个关键因素。只有三位一体的云,才是能走得更加长远的云。技术:底层要自研、上层立标准云计算服务是一整套的解决方案,可分可合、弹性扩展、按需使用的特性决定了技术的重要性。技术和产品的多样化决定了云计算服务满足多样化场景各异需求的能力。当前,云计算技术的发展也进入了深水区。人工智能、大数据、云计算技术深度耦合,5G、区块链等新兴技术带来更大的想象空间,云、边、端协同的技术发展趋势日益明显。而在此之上的,是多样化算力变迁带来的软硬件协同发展。IT 领域有两条相伴相生的定律:摩尔定律与安迪·比尔定律,前者揭示了硬件性能提升的规律,后者解释了硬件提升的性能是如何被软件所榨干的。只做硬件,你就没有生态。只做软件,你就失去了基石。何以解忧?唯有自研。在软硬件协同的大背景下,对底层多架构算力与上层软件之间的适配、调优带来了更高标准。国内各大云巨头也看到了这个趋势,开始在芯片、服务器的底层硬件与操作系统、数据库到云服务的全栈打通战略投入。HAT 三家中,华为云早已在服务器、芯片和操作系统等领域做到了一骑绝尘,阿里云自研了神龙服务器、含光芯片,腾讯云 2020 年成立了星星海硬件实验室。从软件到硬件,从计算到存储,从平台到架构,中国技术已经成熟。技术、产品和服务,是参与竞争的前提。但制定竞争规则的,却永远是掌握了标准定义权的那群人。如果说云计算在技术上有一个业界广泛认可的发展趋势,那一定是云原生。CNCF 大中华区总裁 Keith Chan 去年末曾表示:“新冠疫情从根本上改变了商业模式,工作流向线上迁移的速度比以往任何时候都要快,越来越多的企业和消费者依赖电子商务(B2B 和 B2C)和网上银行推动创新以满足日益增长的客户需求,云原生技术在其中发挥了重要作用,同时也加速了云原生技术的普及。我们正处在一个巨大的转变之中,越来越多的企业将成为云原生企业。”云原生技术自 2015 年由 CNCF 下过定义以后,短短 5 年间发展迅速,已经演变为一整套的技术体系和方法论。这 5 年间,云原生并没有被广泛认可的确切定义,而是一直处在变化发展之中,每个云厂商、每个“云原生居民”、每个开发者都有各自的理解。一个可以观测到的现象是,企业对上云的态度已经从业务上云变成了云原生上云。华为云提出了云原生 2.0 的技术标准,阿里云提出了核心系统全面云原生化,腾讯云发布了企业云原生路线图。这一切战略意图的背后,体现的正是中国云厂商对云原生化的敏锐洞察:建立中国厂商定义的云原生标准,在中国规模化的技术试验田下推动云原生技术走向成熟,成为云原生领域的事实标准。在 CNCF 基金会的全景图中可以看到,中国云厂商、开源企业在关键节点下都有突出展现。而在 CNCF 历年的调查报告中显示,中国在云原生领域的贡献逐年递增,已经成为一股不可忽视的庞大力量。当前国内云厂商不管是在云原生实践,还是在 CNCF 基金会的贡献,都可以称得上引领者。中国规模的技术沙盒,更是前沿技术走向成熟的最好试验田。向市场要规模,向行业要标准,这也是中国云计算市场未来继续健壮发展的内在要求:与其在别人划下的规则下活动,不如参与到标准的制定中。生态:做好连接者、助力新基建做智能世界的“黑土地”——华为云不做 SaaS,被集成——阿里云做企业的数字化助手——腾讯云细细品味一下以上三句论述,不能看出 HAT 三家巨头对云计算服务的定位空前一致:做帮助者,而非颠覆者。这正是构建良性生态的核心所在。对于一个行业而言,技术永远不会是唯一的关键,如何能让自己的技术产品走出去,让外面的用户伙伴走进来,在一个繁荣共生的圈子里,相互提点共同、印证技术发展的路线,才是王道。你能看到华为云接连发布“华为云 Stack”、“智能体”等产品,举办多场“DevRun 开发者沙龙”、“华为云联创营”等活动背后的深意;你能看到阿里巴巴提出的“云钉一体”,下连阿里云基础设施,上承客户的各种应用;你能看到腾讯云战略升级了“千帆计划”,从“一云一端”到“一云多端”。一切,为了生态。但生态并不仅仅是 To B 和 To C,还得有 To G 的参与。而新基建政策就是最好的抓手。国务院发展研究中心资源与环境政策研究所副所长李佐军去年曾说:过去的基础设施投资主要集中在铁路、公路、机场等领域,这些投资规模大、周期长,短期刺激作用明显,但是投资回报相对慢一些。而新基建与高新技术发展紧密相连,是发展信息化、智能化、数字化的重要载体,也是创造与满足新需求的重要保障。近年来,政企成为了全面云化的排头兵,如何提升城市治理水平,加速智慧城市建设,加快发展数字政务等能力是亟待解决的问题。各大云厂商针对该场景也提出了自己的解决方案,比如阿里云的“城市大脑”、腾讯云的“WeCity”,华为云则在 2020 年 9 月发布了智能体,这是业界首次针对政企智能升级提出的系统化参考架构。中国正在加速拥抱数字经济。政企上云、传统企业数字化转型已经不是故事,而是事实。2020 年的疫情黑天鹅虽然对实体经济造成了重创,却也给新基建政策的落地按下了加速键。疫情期间,华为 WeLink 、阿里云钉钉、腾讯会议等在线会议平台在汹涌的线上流量冲击下,纷纷扩容,加速了服务器的大规模部署,也开启了超大型数据中心的进一步规划,给了云计算以更广阔的施展天地。失之东隅,收之桑榆。开源:建立信任、健全标准曾几何时,以 MongoDB、Redis 为代表的开源厂商们视云厂商为洪水猛兽:他们都是吸血鬼,利用开源软件赚取了大量利益却从不回馈社区。而现在,同样是以 MongoDB 为代表的开源厂商却主动与云厂商展开了合作,利用云厂商的平台优势触达更多客户,将自己的商业模式与云深度绑定,各取所需共同发展。这一切变化的背后,表象是开源与云计算从“相杀”走向了“相爱”,实则是开源的特性是云厂商与企业、开发者建立信任最好的方式,也是让云计算更加标准化的最佳路径。另一方面,云计算先进的商业模式又让开源厂商找到了更大的市场与想象空间。二者的关系从野蛮竞争走向了通力合作。企业使用云服务的核心需求是降本增效,云厂商说服企业上云的核心关键在于建立信任:怎样确保数据的稳定性、安全性、可控性、灾备的可恢复性以及对核心业务的无影响、弱感知性?开源文化所代表的开放、共享、共建的特性,天然地培育了反商业垄断、反霸权的技术土壤。开源的即是“去厂商绑定”的,对企业来说选择权在我。开源项目背后庞大的技术社区与使用场景,又让开源项目的技术进步得以生生不息,不断提升着技术能力与产品体验。云厂商的售后服务与支持,又对开源项目的快速迭代提供了帮助。在此基础之上,云计算也变得越来越标准化,企业和开发者使用云服务的门槛变得越来越低,未来甚至会出现低代码 / 无代码升级下的“零门槛”。2020 年 9 月,云计算“独角兽”Snowflake 成功上市,创造了史上规模最大的软件业界募资案例,这也是股神巴菲特首次投资科技股。然而,Snowflake 的成功在国内并非没有对标者,国内的两大开源创业公司 PingCAP 和 Kyligence 同样在用类似的产品、商业模式前行着。无一例外的,这两家开源企业都非常认同,云是更加现代的商业模式。再进一步,开源其实是一种最佳的资源组织模式。在开源以前,很多创新都是由单一的企业来进行,但在开源以后却是由整个社区里的企业、开发者来一起实现创新,这是开源的魅力和强大所在。在 InfoQ 发布的《2020 中国技术力量》年度榜单上,来自华为云、阿里云、腾讯云三大巨头的开源项目、云原生客户案例均有斩获,恰恰证明了云厂商对开源的态度——开源是云的最佳拍档。写在最后Gartner 每年都会发布一份《技术炒作生命周期》的研究报告,揭示未来可能会获得更多关注甚至取得成功的技术方向。鲜为人知的是,这其中很多的热门技术最终都消散在了技术发展的长河里,没有掀起一丝波澜。这揭示了一个道理:上层技术的发展终归要依托于底层技术的进步,只有在肥沃的智能世界黑土地之上,才能培育出健壮的创新技术与产品。软硬件作为数字经济的 IT 基础设施,木桶效应十分明显:从芯片、操作系统、数据库等核心方面缺一不可,只要有一个短板,就将在未来竞争中陷入被动。中国云计算乃至科技公司的发展,只有「HAT」还远远不够,未来还应该有更多技术创新、商业模式的创新,在中国规模化的场景下得到印证,成为下一代的事实标准。此外,根据近期 CNCF 公布的第三次中国云原生调查报告告数据显示,公有云的使用率从 2018 年 11 月峰值的 51% 下降到了 36%,取而代之的是使用率 39% 的混合云。相对公有云市场的一家独大,混合云市场的不确定性更多,不管是 IBM 还是华为云,都有着自己的优势和机会,未来混合云市场下的厮杀也会越发惨烈。云计算的市场格局远未到盖棺定论之时,2021 年不会是终点,但却一定是做到了技术、生态、开源三位一体的云的变革拐点。
| 2,882 | 1,611,047,284,221 |
InfoQ
|
256 |
被特朗普带火后,这款软件却被苹果、谷歌和亚马逊全面封杀
|
在刚过去的周末,一款因特朗普迅速火起来的社交App,也或将因特朗普而走向消亡。被特朗普支持者选中的App美国科技巨头苹果、谷歌和亚马逊正对一款聚集众多特朗普支持者的社交平台Parler进行封杀。Parler是一家标榜言论自由、不偏不倚的社交媒体平台,这对于在Twitter、Facebook等平台失意的特朗普及其支持者来说,是重要的替代性平台。早前特朗普的竞选活动推动了Parler的发展,过去几个月该平台的用户量亦增长迅速,特朗普和他的几个子女在Parler上都有账号。Parler亦几度成为Android和iOS美国下载榜的榜首。从上周五晚开始,谷歌、苹果和亚马逊分别对Parler进行下架和停服处理,理由是Parler对内容缺乏管理,平台仍充斥大量有害的煽动暴力和犯罪的言论。苹果曾在上周五给Parler发整改通知,限其在24小时内解决问题。周六,苹果在一份声明中表示已将Parler从App Store中下架,直到他们解决这些问题为止。苹果认为,Parler采取的减缓或防止危险和非法内容扩散的程序是不充分的。“我们一直支持在App Store上体现不同的观点,但我们的平台上不允许暴力威胁和非法活动存在。”随后亚马逊也称将不再向Parler提供云服务。据BuzzFeedNews,Parler每月向AWS支付超过30万美元的托管费用。但有分析认为,即使不用云服务,自建数据中心也是困难重重,未必有其它托管服务商愿意提供服务。这次科技巨头围剿的导火线为特朗普在上周三煽动暴徒入侵美国国会大厦。事件发生的隔天TikTok也宣布将封禁所有有关特朗普煽动暴徒的内容。据Axios统计,目前已经有大量软件对特朗普的相关账户采取了封禁或限制措施,包括Facebook、TikTok、Youtube、Instagram、Snapchat、Pinterest、Reddit、视频软件Twitch、电商软件Shopify和Discord。Parler首席执行官John Matze在自己的平台账户上对亚马逊、谷歌和苹果展开抨击,他指控这三家公司在明知Parler没有多少选择的情况下采取了一致的措施,而且由于特朗普已经被其他社交媒体平台封杀,所以此举将构成极大的破坏。不过Parler亦开始有所妥协。外媒指出,周日Parler删除了特朗普的竞选律师兼支持者林·伍德(Lin Wood)的多条帖子,其中包括伍德在帖子里呼吁对副总统迈克·彭斯(Mike Pence)采取暴力手段。这是该社交平台首次删除一位高调保守派人士的内容。Parler会消失吗Parler在2018年9月上线,总部设在美国内华达州的亨德森市。根据Sensor Tower的统计,去年Parler的下载量超过1000万次,其中80%在美国。伴随巨头的围剿,它或许很快就要消失。John Matze在最新的采访中指出,公司可能会破产。他表示难以找到新的服务供应商。“所有(服务)供应商--从短信服务到电子邮件供应商再到我们的律师等所有合作伙伴,在同一天抛弃了我们。”他补充道:“我们会尽最大努力尽快恢复在线。但我们遇到了很多麻烦,因为与我们交谈的每个供应商都说他们不会与我们合作。因为如果苹果不批准,谷歌不批准,那么他们也不会批准。”Matze承认,针对Parler的这些禁令可能会导致该公司停业。他还称这些禁令正在引发对保护言论自由的担心,并认为是“对每个人的攻击。”上周三的国会暴乱事件发生几小时后,Matze在接受《纽约时报》采访时说:“我对这一切都不承担任何责任,平台也不应承担责任,因为我们是一个只需遵守法律的中立的‘城市广场’(意指开放的公共空间)。 ”另外据纽约时报报道,Parler的首席运营官Jeffrey Wernick在接受采访时说,已经听到有几家公司愿意给Parler提供帮助。但他拒绝透露这些公司的名字。“从现在起一个月后Parler会是什么样,我不能告诉你。”他说, “但是Parler不会消失。”Parler现已成为互联网言论自由以及Facebook,谷歌,苹果和亚马逊等科技巨头是否拥有过多权力的讨论案例。纽约时报指出,多年来,Facebook和Twitter捍卫了人们对在其网站上畅所欲言的能力,而亚马逊,苹果,谷歌也不会去管Parler这类应用的运营,这使得网络上总流传着错误和虚假信息。后来这些科技公司对特朗普和Parler采取的限制行动受到了自由派和其他人士的称赞。但是,此举也引发了人们的疑问,即私人企业可以如何决定“谁留在网上,谁不留在网上”。以Twitter为例,加拿大邮报传媒集团数据科学经理、评论人士李军在其FT专栏文章中评价道:Twitter对于特朗普的全面永久封杀,给我们演示了社交媒体巨头是如何进行“无需审判,就地枪决”操作的。李军认为,言论自由的界限是由国家的法律来界定的,而不是由互联网平台的内部规则来界定的。如果互联网平台认为自己用户的内容突破了言论自由的界限,可以拿起法律的武器,获得司法或者行政机关的合法授权后永久封杀某个用户。否则互联网平台只能根据已经发布的内容是否违规来采取相关限制措施,而不能假设风险,根据过往的历史来针对某个具体个人进行封杀。如果不能明确这一点,互联网平台就在事实上获得了平台的言论裁判权 -- 而且是针对具体个人而不是某个虚拟账号的。在被禁止进入Twitter后,特朗普曾在一份声明中说,他将“考虑在不久的将来建立我们自己的平台的可能性。”
| 1,692 | 1,610,376,263,925 |
InfoQ
|
257 |
追剧学院丨来看看贴片广告背后的技术大片!
|
网剧、网综早已成为人们的“休闲佳品”,除了精彩内容,还有各种贴片广告推送。细心的你也许会发现,这些广告仿佛知你所想,懂你所思,常常能击中你的喜好。这是为什么呢?因为这些广告背后,涉及了机器学习与多维时序预测等技术和场景。要讲清楚这背后的故事,首先,我们要了解什么是广告库存。什么是广告库存?在计算广告中,库存指的是广告投放机会的存量,广告投放机会由两个要素构成:媒体与流量。 媒体是内容与广告的载体,以视频、音频、文字等不同形式提供内容与广告位;流量则关乎广告投放机会的存量与价值。广告机会的价值取决于流量本身,由高消费潜力用户构成的流量价值自然更高些;广告机会的存量则很大程度由用户的观看习惯、浏览习惯所决定。举例来说,一集 50 分钟的《后翼弃兵》,媒体平台以前贴片、中贴片和后贴片的方式总共设置 4 个广告位,如下图所示。 广告机会示意 对于任何一个观看这集《后翼弃兵》的用户,视频中的广告位都是如此设置,但是,至于这 50 分钟的视频到底能提供多少个广告投放机会,那就因人而异了。比如有两个用户,李雷和韩梅梅,李雷将视频从头看到尾,甚至把正片结束后 30 秒的后贴片广告也看完了,那么李雷提供的广告投放机会就是 4;韩梅梅则没那么有耐心,视频看了 1/3,看到第二个广告之后便把视频关掉,那么韩梅梅提供的广告投放机会是 2,即便后面 2/3 的视频内容中还有两个广告位,但是已经没有机会展示出来了。 在计算广告业务中,库存预测扮演着重要角色。对于品牌广告,买卖双方交易撮合的前提是不同定向条件下广告库存的准确预测;效果广告中,对于交易价格随时间波动的媒体流量,如果能够有效预测其在未来一段时间的概率分布,那么作为买方的市场参与者在预算固定的情况下对于流量的竞买会更加游刃有余。预测广告库存:多维时序预测基于上面的示例,应该更容易理解:本质上,广告库存是不同用户画像下广告投放机会的存量。那么,广告库存该如何预测呢?既然广告库存取决于流量且按照定向条件(用户画像)划分,那我们自然想到将这个业务问题转化为多维时序预测,一旦有了技术方向,剩下的就是技术选型问题了。无论是从用户视角出发的用户画像,还是从广告主视角出发设置的定向条件,本质上都是不同维度的交叉组合。 例如,给定性别、年龄、所在省份三个刻画维度,至少有 2x100x52 种组合来刻画不同的人群,如果以小时为单位统计不同人群贡献的广告库存,那么每一个人群都有与之对应的库存序列。显然,有多少人群,就有多少广告库存序列——这也正是多维时间序列名字的由来。对于多维时序预测场景,计算广告公司 FreeWheel 至少有 3 种技术方案。 关于 FreeWheel:作为一家计算广告公司,FreeWheel 为数以千计的欧美客户提供品效广告投放服务,基于长达 14 年的广告投放经验,FreeWheel 致力于打造囊括私有市场和开放市场的统一广告交易平台,为媒体与广告主建立高效连接,力图帮助广告主在以成本优势有效触达目标用户的同时,最大化电视媒体与互联网媒体的流量利用率。 3 种技术方案如下图所示: 不同技术方案优缺点 在 FreeWheel 的业务场景中,我们需要基于种类众多的定向条件(内容来源、地理位置、播放设备、用户画像等)以小时为粒度预测未来 3 个月的广告库存。这样的业务需求至少面临 4 个方面的挑战: 众多定向条件的交叉组合造成维度爆炸,维度爆炸又带来数据分布的长尾效应; 维度爆炸带来的工程复杂度。如果为每个序列构建时序模型,那么工程与运维成本无法想象; 超长时间序列。在传统的金融时序预测中,预测周期往往不超过 120 个时间单元,但在 FreeWheel 的场景中,需要向前预测 2160(24x90)个时间单元; 海量数据挑战。FreeWheel 日投放广告量达到 10 亿级规模,为了向前预测 2160 个时间单元,至少需要回溯同样长的时间周期,也就是说至少要回溯 3 个月的数据,数据规模可想而知。 机器学习团队的主要职能在于利用机器学习算法赋能业务,团队的核心竞争力在于算法,专注于机器学习在计算广告业务中的应用与落地。与专职算法研究不同,算法的应用与落地要求团队同时具备算法钻研与实现、模型调优、工程交付等多方面的能力。受限于团队规模与有限的人力资源,FreeWheel 无法承受庞大的工程与运维成本,因此上表的方案 1 被迅速排除。 方案 2 虽然在一定程度上降低了工程成本,但是训练阶段先聚类再时序预测、推理阶段先预测再反归一化的非端到端流程依然比较繁琐,非端到端解决方案的主要痛点在于工程耦合组件较多,耦合组件过多带来的副作用就是端到端的稳定性较差。为了将后期运维成本降至最低,我们最终还是选择了上表中的方案 3。尽管方案 3 涉及的深度模型复杂度较高、调优挑战较大,但这正是团队的核心价值所在。 技术方案敲定后,接下来需要考虑的是采用哪些技术栈。众所周知,端到端机器学习流水线至少囊括以下环节:FreeWheel 通常使用 Presto 分布式数据库来拉取数据源,然后利用高效的分布式计算引擎 Apache Spark(Databricks 商业版本)来进行数据预处理、特征工程和样本工程。就机器学习算法来说,Spark 的 ML 算法库提供了丰富的经典算法实现并且支持大规模样本量下的分布式模型训练。不过,对于参数量动辄百万甚至上亿的深度模型来说,模型并行是刚需,Spark 基于数据并行的实现方式便有些力不从心,超大规模的深度学习模型在单点中的存储与更新已然超出硬件资源上限,从而导致模型训练无法顺利完成。 鉴于此,FreeWheel 采用支持模型并行机制的 TensorFlow 来实现自定义的深度学习模型。得益于 Keras Functional API,FreeWheel 很快便实现了定制化的深度网络结构,并在单机环境中跑通了训练流程,接下来便是基于 3 个月体量的大规模样本在分布式环境下不停地迭代、调优模型。对于算法人员来说,网络结构调整、超参调优是“家常便饭”,周而复始的迭代对分布式训练环境的稳定性与运行效率提出了较高要求。就目前来说,TensorFlow 的分布式部署主要有如下几种方式:三种部署方案各有千秋,基于 Spark 或 YARN 的部署方式适合已经部署 Hadoop 生态的数据和算法团队;而基于 Kubernetes 的部署方式则非常有利于离线模型训练与在线模型服务的融合与统一。不过,对于这三种部署方案,我们不难发现这其中的每一种都需要 TensorFlow 与底层框架的集成与耦合,对于 FreeWheel 机器学习团队来说,没有额外的时间和精力来搭建这样的分布式训练集群。对于一个规模小、专注于算法研究与落地的团队来说,FreeWheel 最需要的是“召之即来、挥之即去”的分布式训练环境,按需而用,用完即弃。于是,FreeWheel 调研了多种云原生的分布式机器学习平台,并最终选择了 Amazon SageMaker 来实现分布式模型训练、调优、部署,从而打通整条端到端大规模机器学习流水线。为什么选择 Amazon SageMaker? Amazon SageMaker 从开发到部署,以开箱即用和深度定制化两种方式提供了完备的分布式功能集合。 在开发方面,Amazon SageMaker 提供的 Jupyter notebook 与脚本模式允许开发者根据业务需要充分定制深度模型,开发者仅需几行框架代码(Skeleton code)即可将现有的 TensorFlow 代码迁移至 Amazon SageMaker,仅需几个有限的参数即可按指定机型、数量自由启停分布式训练集群。对于分布式模型训练,Amazon SageMaker 在模型并行方面支持两种实现方式:参数服务器与 Horovod,在硬件资源方面支持 CPU 与 GPU,这种开放性允许开发者结合业务场景(图像识别、分类回归、时序预测等)灵活地构建运行时环境。 在模型训练过程中,Amazon SageMaker Console 提供的可视化面板让开发者可以及时监测模型训练过程、收敛情况、拟合能力、泛化能力,从而使开发者在下一轮迭代中做到有的放矢。对于模型调优,算法人员最头疼的无疑是超参调优、网络结构变更、激活函数、学习率、优化函数等等,不一而足。对于深度模型,网格搜索和随机搜索逐渐淡出视野,超参调优的趋势是利用机器学习来调优机器学习,即用机器学习的方法来选择超参数;值得一提的是,在 Auto ML 如火如荼发展的当下,作为其中一个门类,超参调优被应用得最为广泛。Amazon SageMaker 的 Auto Pilot 为自动超参调优赋能,允许开发者以开箱即用的方式充分享受 Auto ML 发展的红利。 在部署方面,Amazon SageMaker 提供的 API 允许开发者以按需方式启停分布式训练集群,按需而用、按需付费、用完即停,这完美契合了 FreeWheel 机器学习团队对于分布式训练集群的核心诉求。不仅如此,Amazon SageMaker 自 2017 年底开始支持 Spot 机型,这一机型的支持使 FreeWheel 的云上成本在现有的基础上又降低了至少 50%。Amazon SageMaker 为开发者提供的功能集合完备而全面,鉴于篇幅有限,难以一一陈述。 那么,Amazon SageMaker 如何助力 FreeWheel 实现大规模多维时序预测?效果与收益如何?2021 年 1 月 13 日,亚马逊 re:Invent 2020 计算广告与营销主题专场会议《Distributed machine learning for digital video and TV ad serving》(Session ID: ADM302)中,AWS 资深开发者布道师王宇博联袂 FreeWheel 机器学习团队负责人吴磊,为您倾情讲述个中细节,敬请期待!
| 342 | 1,610,100,734,196 |
InfoQ
|
258 |
解读物联网的2020:生态梦从何说起
|
“哇,现在‘埋单’居然这么智能!”在一些连锁零售门店的自助结账区域,有越来越多的消费者体验到快捷便利的结账服务——只要把购物车上的全部衣服放置在自助结账台,结账机就可以一次性扫描所有商品标签并给出账单,消费者只需扫码结账即可。在这个过程中起到关键作用的是RFID(Radio Frequency IDentification,无线射频识别)技术。对于零售行业来说,RFID除了可以缩短支付时间,它还减轻了门店导购层面的人力成本、并大大提高了仓储管理效率。简单地理解,RFID为物品建立“身份标识”,它是物联网的关键联网基础技术,其历史可追溯至上世纪50年代。虽然在许多用户看来,“物联网”是个既熟悉又陌生的词汇,提到物联网很多人会想到智能音箱、智能家居、智慧城市等等,但这些相关应用的落地又尚未成熟。事实上,物联网早已渗透进生活的方方面面,除了前面说到的支付场景,线下智慧便利店、零售店的“无人化”和“自动化”服务其实都是由物联网解决方案实现。更进一步说,我们日常打网约车、骑共享单车、点外卖以及国内这两年全面铺开的ETC等等,也都是物联网技术应用的体现。来到2020年,物联网早已不是“纸上谈兵”的概念。尤其在新冠肺炎疫情的影响下、在5G商用的背景下、在新基建的号召下,加上人工智能技术,各类智慧场景的需求被进一步挖掘并变得越来越明确,比如在医疗、零售、物流等领域,为提升管理效率、提供智能化服务,物联网技术正被广泛采用,物联网玩家们更纷纷加大力度去扩建生态,以号召更多生态伙伴的加入。“物联网”纳入新基建今年4月20日,国家发改委首次明确新基建范围,物联网作为信息基础设施纳入其中。“新基建”包括信息基础设施、融合基础设施、创新基础设施三个方面,其中信息基础设施涵盖以5G、物联网、工业互联网、卫星互联网为代表的通信网络基础设施。作为新基建的重要组成部分,应对疫情的时候,物联网的重要性再次凸显,相关应用加速落地:5G红外测温、居家隔离监控、能自动化/无人化生产的“黑灯工厂”,基于大数据的疫情预警、追踪和防控,人员与物资的全流程可追溯管理......在12月20日举办的2020世界物联网大会上,大会组委会主席、国务院原参事、科技部原秘书长石定寰指出,目前全球物联网产值大约15万亿美元左右,其年平均增长率接近23%,预计2021年以后这一增速有望达到30%,到2025年,全球物联网产值将达到30万亿美元的体量。“中国是物联网应用实践和创新开发最多的国家,占到了全球物联网产值的1/4左右;其中一个主要原因在于,中国已完成5G基站超70万个,预计今年年产值超2万亿人民币。”石定寰介绍道。沃达丰今年调查了包括新加坡、中国、韩国、日本和印度在内的13个市场的1600多名受访者,并以此发布了《2020物联网聚焦报告》,调查结果显示,在已采用物联网的中国企业中,有88%的企业因疫情而加速推进部分物联网项目,同时有82%的企业强调,在疫情期间更加看重物联网。总的来说,虽然这场流行病影响巨大,让许多企业停止运营,但企业同时也在寻求提高自动化程度的路径,以帮助应对未来这种不可预见的情况。IoT平台百家争鸣物联网的技术体系主要包括四个层次:感知与控制层、网络层、平台服务层、应用服务层。其中,平台层作为连接设备和场景应用的关键桥梁,具备数据管理、分析、应用开发、互操作性、设备管理和安全性等功能。甚至有观点认为,物联网未来是平台为王。调研机构IDC指出,越来越多的物联网用户开始借助物联网平台的应用去加速业务创新——通过使用物联网平台提供的大数据、AI等技术能力,用户可以显著降低IT管理复杂度,更好地发挥自身的行业经验优势、专注于业务流程的设计与优化,从而加速物联网业务创新。而公有云物联网平台将是市场未来的发展趋势。目前,物联网平台数量众多,呈现“百家争鸣”的局面,据统计,国外平台层厂商主要有AWS IoT、微软、谷歌、甲骨文、IBM、思科。国内的物联网平台企业主要有三类厂商,一是三大电信运营商,其主要从搭建连接管理平台方面入手;二是华为、百度、阿里巴巴、腾讯、京东等计算机通信类企业以及大型互联网公司,其利用各自的传统优势,主要搭建设备管理和应用开发平台;三是在各自垂直细分领域的平台厂商,如宜通世纪、和而泰、上海庆科等。“目前大多数平台做的都是‘连接’。”腾讯云物联网产品总监周佳鑫日前在接受InfoQ采访时表示,“连接并不好做,要把稳定性跟兼容性都做好,其实很不容易。”既然不好做,为什么还有这么多大大小小的厂商涌进来做?物联网平台的盈利模式是什么?腾讯云AIoT产业生态合作总监黄驿斐表示:“目前物联网平台的盈利模式有很多种,有些是通过‘卖场’来盈利,比如你的产品接入我的平台,我来帮你卖;有的厂商是品牌授权,让ODM或工厂有一个能离品牌更近的道路。”据介绍,腾讯物联网平台的收费模式主要是“卖云资源”,因为设备厂商或客户在做设备的互联互通时,本身亦需要为云资源埋单,无论是买一台虚拟机还是租服务器。腾讯把这个成本变成物联网平台PaaS能力的输出,提供标准化的技术服务,按设备的接入数来收费。IDC认为,企业用户在选择物联网平台时,需要多关注其生态体系是否繁荣、开发者服务是否完善以及技术开放性(是否开源)。操作系统“诸侯混战”今年,值得一提的还有IoT操作系统。毕竟小米也入场了。在桌面和移动操作系统方面,基本是谷歌、苹果、微软等海外企业的天下。不过在尚未迎来真正爆发的物联网产业,操作系统仍在发展初期,对众多企业而言,操作系统是物联网时代的战略制高点,同样属兵家必争之地。物联网操作系统与传统的个人计算机操作系统和智能手机类操作系统不同,它具备物联网应用领域内的以下特点:内核尺寸伸缩性以及整体架构的可扩展性、内核的实时性、高可靠性、低功耗。目前国内市场主要有阿里AliOS、腾讯TecentOS tiny、华为的LiteOS和鸿蒙、百度DuerOS、小米Vela以及RT-Tread,而海外除了谷歌、苹果、微软等老牌玩家,还有Arm、三星、通用电气、亚马逊等不容小觑的竞争对手。主流分析认为,由于在桌面、移动操作系统时代领先,海外企业在生态方面更占优势,比如谷歌推出的Android Things系统、微软Windows IoT系统,正在原有的生态基础上,在物联网领域迅速扩展市场。对比之下,国内企业的IoT操作系统仍处在建设初期,还不具备较强的竞争力,对国内企业来说,如何在IoT操作系统领域迅速扩展生态,是迫切需要解决的问题。但从另一角度看,小米、华为等有坚厚硬件基础的企业,也有着其独特的产品生态优势。竞争:从平台能力到生态如果用一些关键词形容你心目中的物联网的2020年,会是什么?对于这个问题,周佳鑫的答案是“融合”和“场景化”。“比如正在推动的云芯一体化,我们找芯片和模组上游厂商,把腾讯云的协议跟这些模组的协议做融合,去打通。最大的好处是用户即便买了不同厂商的芯片做开发,都能马上连到腾讯云,而不用再‘照着云把芯片底层再开发一遍’,去适配云。”周佳鑫表示,这样的融合打通能大大降低硬件开发者的开发门槛和工作量。同时,腾讯云IoT既对自身的能力做了整合(跨部门打通了QQ音乐、微保、微信支付、腾讯地图、腾讯健康、微众银行等众多主体,使其与腾讯云IoT高效融合,在腾讯云IoT的工作流中,以统一平台化的方式呈现在用户面前),也联合合作伙伴做SARS的服务融合,面向有垂直场景化需求的客户。周佳鑫强调,当企业的设备连接到云后,下一步要和用户结合,需要落地到具体的场景中,腾讯除了关注设备连接外,更关注连接之后与人产生的场景化服务。腾讯云物联网产品总监周佳鑫在12月10日举办的2020腾讯云IoT生态峰会上,腾讯云宣布旗下 “腾讯连连”品牌以及物联网平台IoT Explorer实现全新升级,腾讯云副总裁王峰正式公布最新的物联网“聚合生态,共筑产业”生态发展战略。王峰表示:“腾讯云物联网生态战略的最核心使命,就是通过开放一个连接12亿人的中立且开放的物联网平台,全面支持合作伙伴能力的发展和业务的提升。”无独有偶,同期阿里云AIoT首届渠道大会举办,并宣布启动AIoT合伙伙伴计划。阿里云AIoT渠道运营高级专家赵秋航表示,该计划是基于阿里云AIoT的产品及服务、技术、生态等多方面的能力和优势资源,为合作伙伴提供AIoT标准产品、方案支持。具体来说,阿里云AIoT可以为不同等级的合作伙伴提供包括专业的认证培训、专属的产品技术支持、集团生态营销体系通道和阿里销售层面的支持。阿里云AIoT产品总监何云飞相比之下,阿里云入局IoT要早得多,也是目前国内最具竞争力的公有云物联网平台。但可以发现,厂商们都有着生态梦。“中国物联网平台市场已逐步从平台能力竞争转向生态体系竞争。”IDC中国研究经理卢春生表示,“各大物联网平台在持续提升物联网平台能力、改善技术支持服务的同时,也强化与OEM厂商、系统集成商以及独立开发者的合作,扩展生态体系,为生态伙伴提供更丰富的平台能力、更完善的开发和测试环境、更多样化的市场推广渠道,赋能生态伙伴,共同推进物联网在各行各业的发展”。还是“碎片化”聊到最后,我们仍不得不承认,物联网始终是一个十分碎片化的市场,这被认为是产业发展道路上最大的难题。据《深圳市物联网产业市场调研报告》,物联网的碎片化体现在技术、应用甚至玩家(入局企业)。技术的碎片化,指物联网技术流派众多,解决某个项目的需求,往往可以有多种多样的技术选项,这便造成了物联网技术方案企业需要积累多种多样的物联网技术,才能更好地匹配市场需求。应用的碎片化是指物联网应用项目多种多样,如工业、城市、交通、物流、园区、农业、医疗等等,甚至基于这些细分行业还会延伸出更加丰富的缝隙领域,每个领域有不同的行规,有不同的产业链,因此,对于物联网企业来说,需要投入大量的精力去研究各个行业应用。而玩家的碎片化,指的是物联网企业的玩家种类众多,因为物联网的概念模糊,并没有统一标准,大量的传统企业都可以基于自己的理解来进入物联网,这造成了物联网市场上产品与方案鱼龙混杂,用户难以辨别的局面。但碎片化也意味着机遇,尤其对于中小型企业而言,因为复杂的碎片化市场,所以需要不同的解决方案、不同的功能和应用去满足需求,而巨头要形成垄断地位也不容易。未来物联网市场谁主沉浮?一切尚未有定数。
| 11,648 | 1,609,321,626,951 |
InfoQ
|
259 |
亚马逊 CTO:从无数实践中总结出 4 条云端构建的铁律
|
12 月 18 日,云计算行业年度盛会亚马逊 re:Invent 2020 暂告一段落。本届盛会首次在线上向公众免费开放,在三周时间内举办了数百场专业技术论坛,与全球科技行业从业者共同交流和探索了云计算领域最新的技术成果与趋势。在 12 月 18 日的压轴演讲中,亚马逊全球副总裁兼 CTO Werner Vogels 博士登台亮相,回顾了 2020 年科技行业经历的风雨历程,并分享了他对 2021 年科技行业趋势的预测和展望。近期,InfoQ 大咖说 AWS 专场系列活动的第三期特别邀请到了 AWS 数据分析架构师经理王晓野老师,对 Werner 博士的这场压轴演说做了精彩点评。晓野老师解析了演讲中的亮点金句,并回顾了 AWS 发布和升级的多项服务背后的技术与应用场景细节。本文总结自大咖说王晓野老师分享的内容以飨读者,有删改。糖厂与云计算作为 IT 领域的老兵,晓野老师长期关注企业 BI 及大数据分析、敏捷开发管理、DevOps 等领域,在分布式计算和数据平台建设方面有 10 年的设计与实践经验。加入 AWS 后晓野老师最大的感受就是,行业最先进的技术实践并非 AWS 传授给客户,而是 AWS 从自身服务的大小客户那里学习而来的。与此同时 AWS 可以充当桥梁,将这些实践推广到全球范围,这也是 AWS 的核心价值所在。Werner 博士今年的演讲地点选在了家乡附近的一座制糖厂。这座糖厂已经存在超过 150 年,逐渐从工厂演变为零售卖场,乃至今天的娱乐与集会场所。在 AWS 看来,这就是一个持续创新和转型的现实案例。但相比之下,糖厂中发生的大小事情都是可以切身感受的,而在线上虚拟环境中人们很难有这种体验,这就需要云端平台提供一系列的工具来帮助人们观察了解,本质上也是为了随时感受事态变化。从这些层面来看,糖厂和云计算有内在的共同点,值得相互学习和借鉴。从无数实践中总结的 4 条云端构建铁律在 Werner 博士的演讲中,有四句话引起了开发者群体的广泛关注:Everything fails, all the time(不存侥幸,虽怕一万,更怕万一)Encrypt everything(事以密成,语以泄败)Operations are forever(运维不灭)Monitoring≠Observability(监控≠可观察性)晓野老师以后两句为重点进行了解析。晓野老师认为,运维不灭这一观点是要向传统运维人员及研发人员传达的。很多传统运维人员对云计算有抵触情绪,害怕云托管服务抢了他们的饭碗。但 Werner 博士要告诉大家,运维本身是生产环境不灭的要素,变化的只是模式和技能而已。在云端背景下,运维和研发团队更加轻量化,运维人员需要掌握各种云端工具,理解企业的规范流程,与研发人员更好地协作,这是非常重要且会持续存在的角色。从研发人员的角度来说,在云计算时代也需要更多了解生产环境中运维对业务健壮性的支撑和意义所在,并与运维人员合作,共同提升能力,及时响应需求并完成工作。监控不等于可观察性这一概念很早就在开发者社区中出现了。本质上来说,监控是基于人们已知且理解的知识来监视事物,找到出问题的位置,而可观察性的重点则是要探索问题背后的成因。因此可观察性实际上包含三个要素:日志(logging)、监控(monitoring)和追踪(tracing)。在 AWS 的诸多实践中,分布式、微服务化的架构往往涉及数百个服务、几百支团队,可观察性的本质就是在这些团队协作时寻找问题的根源和解决方案。由此可见,可观察性在生产环境中是非常重要的指标。相对应的,云平台也提供了很多工具来提升可观察性,帮助开发者和运维人员提升协作和响应能力。持续创新,直面挑战过去多年来,AWS 发布了大量服务和产品,不断为客户带来创新的技术和理念。晓野老师认为,所有这些服务背后都有一个共性,就是帮助开发运维人员从底层的繁琐事务中解脱出来,将精力投入在应用和业务创新上。此外,虽然万事都可能遇到失败和挑战,但是 AWS 可以凭借丰富的经验帮助客户提前预防,并在出问题时与客户共同面对。2020 年,整个 IT 产业,乃至全社会最大的挑战无疑就是全球性的疫情。由于疫情的冲击,很多线下业务持续萧条,与此对应的是,暴增的线上需求给在线业务的扩展能力带来了巨大考验,传统的本地化运维模式遭受了巨大冲击,除此外,还有很多企业希望有效利用手中掌握的大量数据和资源来帮助社会预防和控制疫情……所有这些都是 IT 产业需要共同面对的问题,也是 AWS 高度关注和深度参与的领域。AWS 会采取各种行动和创新来应对这些挑战,利用云计算的力量帮助整个社会渡过难关,这也是 AWS 的重大职责所在。此外,AWS 还会关注人类社会的长远利益。例如今天的 Amazon 是全球最大的可再生能源采购商,因为 Amazon 拥有庞大的规模,有足够的能力去大规模采购这类资源,与传统 IDC 相比,AWS提供的云服务在能源效率上可以带来88%的提升,有利于全球变暖下的二氧化碳排放的控制。AWS 承担的责任和采取的行动也在各个层面体现着 AWS,乃至云计算对社会的价值和意义,这也是 Werner 博士在演讲中强调的重点。AWS 创新服务和技术理念一览本次压轴演讲中还提到了一些重要的 AWS 服务,晓野老师在分享中一一做了解读。AWS CloudShellAWS CloudShell 是 AWS 面向深度开发者发布的一项服务。AWS CloudShell 为习惯了命令行界面的开发者提供了云端命令行的操控界面,开发者可以通过它登录控制台,调用 AWS 的所有 API,完成各类云端任务。与传统通过密钥获取授权的方式不同,AWS CloudShell 通过身份认证功能直接授予预使用者相应角色,并可限定角色可访问的资源与细分权限,免除登陆前密钥拷贝和存储的步骤,避免潜在的安全漏洞,增强了云端管理的安全性。可控混沌工程在 Werner 博士的演讲中提到了一个名为可控混沌工程的概念。这一概念是相对于线性的可解释逻辑的。我们生活的世界在很多时候并非线性可控,而是处于随机不可控的状态。所谓可控混沌工程,就是在这样的环境中依旧保持平台的稳健性。例如在数百个微服务的应用架构中随机断开某些服务、关闭某个网络、改变某个防火墙规则,由此产生一些随机混乱,并观察应用的整体是否还能维持健壮性,这就是可控混沌工程的一种模式。Werner 在每年的演讲中都会强调 “design for failure” ,出于这一理念,可控混沌工程提早通过人为的混乱来检验并修正应用,从而加强应用 / 架构的健壮性。AWS Fault Injection SimulatorAWS 即将在 2021 年推出的 AWS Fault Injection Simulator 服务就是可控混沌工程的一个实现工具。这一服务可以在生产环境中帮助开发人员测试应用的健壮性,例如随机断开部分 API、注入一些错误数据和网络流量等,从而在生产环境中验证应用的可靠性。这一服务是开箱即用的,可以帮助开发人员直接在生产中实践可控混沌工程。Amazon Grafana/Amazon PrometheusAmazon Managed Service for Grafana(AMG)和 Amazon Managed Service for Prometheus(AMP)是本次大会新发布的两项服务。这两项服务都是旨在提升可观察性的工具,结合了多种用户习惯使用的监控和展示功能,同时通过托管的方式隐藏了用户不需要的底层复杂性。Amazon 作为 CNCF 云原生基金会的成员,一直以来都在鼓励和推动云原生社区的成长。这两项服务也适用于 CNCF 社区理念,是基于云原生的思想开发的,适应社区需求的工具。AWS Distro for OpenTelemetry今年 AWS 还发布了一项 AWS Distro for OpenTelemetry 服务。关于这项服务,晓野老师提出了一些见解和看法。首先,OpenTelemetry 是一个云原生计算开源标准架构,是 CNCF 的一个组成部分。它的宗旨就是提升可观察性,涉及日志、监控和跟踪等工作。而 AWS Distro for OpenTelemetry 是 AWS 针对这一标准架构的一个生产实现。AWS 意识到,很多客户会在 AWS 云端使用托管的开源工具来提升企业能力,例如增强易用性、改善监控调度工作等。这些客户存在一个共同的诉求,就是希望将这种云端体验带到 IDC 机房或本地资源上,于是 AWS 就针对这些需求推出对应的 Distro 发行版。包括 AWS Open Distro for Elasticsearch、Amazon EKS Distro 和这次的 AWS Distro for OpenTelemetry,都力求为客户提供云上云下统一的开发体验,使得开源社区的成果能够更好地惠及客户的业务和需求。在大咖说的最后,晓野老师也总结了 Werner 博士的演讲,乃至整个 AWS 的核心理念:我们的核心想法是,无论在云上还是云下,我们都希望为客户和广大开发者社区提供好用的工具,帮助大家解决人类的种种业务问题,帮助我们社会去做一些更有价值的事情。大咖说围绕亚马逊 re:Invent 2020 大会的 Keynote 专题至此就告一段落了。下一步大咖说专栏还将推出其他节目,为大家带来更多技术干货,欢迎继续围观。点击观看直播回放。
| 390 | 1,608,732,115,215 |
InfoQ
|
260 |
AWS发布预览版Babelfish,一项用于Aurora PostgreSQL的新数据库服务
|
在AWS re:Invent大会上,AWS发布了用于Aurora PostgreSQL的新数据库服务Babelfish的预览版。该服务是一个全托管、开源、兼容PostgreSQL和ACID的关系数据库引擎,运行在Amazon云上。Babelfish是一个与SQL Server兼容的PostgreSQL终端,让PostgreSQL能够流畅地理解来自SQL Server应用程序的通信请求(例如,T-SQL和TDS通信协议)。Matt Asay在AWS有关Babelfish的博文中写道:Babelfish让PostgreSQL能够在不改变库、数据库模式或SQL语句的情况下,理解来自SQL Server应用程序的数据库请求——包括命令和协议。AWS为客户提供了一个选项,可以在不切换数据库驱动程序或重写应用程序的情况下,从SQL Server切换到Aurora PostgreSQL。来源:https://aws.amazon.com/rds/aurora/babelfish/根据Asay的博文,客户可以轻松地将数据加载到Babelfish中,无需进行转换。该服务的原则是保证正确性,这意味着使用SQL Server语义设计的应用程序在PostgreSQL上的行为将与在SQL Server上的行为相同。此外,Asay在Hacker News的一篇帖子中写道:在启动时,Babelfish能够以100%正确性处理你想要的语义。不过,有一大部分内容和一个“长尾”功能,需要借助专业人士。因此,要实现这个目标,需要社区的努力。来源:https://twitter.com/mattdevdba/status/1334212687056809988PostgreSQL是开发者在开发应用程序时除MySQL、SQL Server和Oracle之外的另一个选择。此外,Stack Overflow的数据显示,PostgreSQL在过去十年中越来越受欢迎。用户还可以选择转移到云端的托管服务,比如Babelfish。AWS数据库副总裁Shawn Bice在发布会上表示:随着下一代Aurora Serverless和Babelfish的发布,我们让客户更容易摆脱旧数据库的束缚,享受开源数据库引擎的巨大成本优势,并选择正确的数据库。另外,一位网友在Reddit上发帖称:这个新服务可以让你在不改变应用程序代码的情况下转移到一个更低成本、托管在AWS上的与PostgreSQL兼容的数据库。我不确定数据的迁移过程会是怎样的(将数据从SQL Server转移到Redshift/PGSQL环境中),但这迈出了将应用程序与数据库平台解耦的一大步。目前,Babelfish感兴趣的客户可以注册成为早起访问者。此外,开源的Babelfish项目将于2021年启动,采用了Apache 2.0许可,并托管在GitHub上。原文链接:AWS Announces New Database Service Babelfish for Aurora PostgreSQL in Preview
| 2,862 | 1,607,999,692,093 |
InfoQ
|
261 |
AWS推出Apache Airflow全托管工作流MWAA
|
最近,AWS推出了亚马逊Apache Airflow托管工作流(MWAA),这是一项全托管的服务,简化了在AWS上运行开源版Apache Airflow和构建工作流来执行ETL作业和数据管道的工作。Apache Airflow是一个开源工具,用于通过编程的方式开发、调度和监控被称为“工作流”的过程和任务序列。开发人员和数据工程师用Apache Airflow管理工作流,通过用户界面(UI)来监控它们,并通过一组强大的插件来扩展它们的功能。但是,要使用Apache Airflow,需要进行手动安装、维护和扩展。现在,AWS解决了这个问题,它为开发人员和数据工程师提供了MWAA,让他们可以在云端构建和管理自己的工作流,无需关心与管理和扩展Airflow平台基础设施相关的问题。在AWS有关MWAA的新闻稿中,负责应用集成的副总裁Jesse Dougherty说:客户告诉我们,他们非常喜欢Apache Airflow,因为它加快了数据处理和机器学习工作流的开发,但他们希望能够去掉扩展、运维和保护服务器方面的负担。通过使用Amazon MWAA,客户可以使用与现在相同的Apache Airflow平台,同时获得由AWS提供的可伸缩性、可用性和安全性。Amazon MWAA可以使用Amazon Athena获取来自数据源(如Amazon Simple Storage Service)的输入,在Amazon EMR集群上执行转换,并使用生成的数据在Amazon SageMaker上训练机器学习模型。此外,开发人员和数据工程师可以使用Python在Amazon MWAA中编写有向无环图(DAG)工作流。来源:https://aws.amazon.com/managed-workflows-for-apache-airflow/AWS首席布道师Danilo Poccia在NWAA的一篇介绍博文中写道:你可以通过以下三个步骤来使用亚马逊MWAA:创建环境——每个环境都包含你的Airflow集群,包括调度器、工作程序和Web服务器。开发人员和数据工程师可以从控制台、AWS命令行接口(CLI)或AWS SDK创建新的Amazon MWAA环境。上传DAG和插件到S3——Amazon MWAA自动将代码加载到Airflow中。在Airflow中运行DAG——从Airflow UI或命令行(CLI)运行DAG,并使用CloudWatch监控环境。有了MWAA,开发人员和数据工程师可以通过插件获得开放可扩展性所带来的好处,他们可以创建与工作流所需的AWS或内部资源发生交互的任务,包括AWS Batch、Amazon CloudWatch、Amazon DynamoDB、AWS Lambda、Amazon Redshift、Amazon Simple Queue Service (SQS)和Amazon Simple Notification Service(SNS)。需要注意的是,AWS还有其他工作流管理系统,比如Step Functions和AWS Glue。Hacker News上的一位受访者在一篇帖子中解释说:它是由内部的Orchestration团队开发的——这个团队也开发了Step Functions,并维护着AWS Simple Workflow。我认为Glue与其他的工作流系统不一样——它针对ETL进行了深度优化。我相信,随着时间的推移,会出现更多有关Step Functions和Apache Airflow的详细指南,不过简单地说,Step Functions是完全AWS原生的(并且是无服务器的)编配引擎。当然,Apache Airflow是一个开源的项目,它拥有一个由其他插件组成的多样化生态系统。MWAA目前可在下列AWS区域使用:美国东部(俄亥俄州和弗吉尼亚州)、美国西部(俄勒冈州)、欧盟(斯德哥尔摩、爱尔兰和法兰克福)和亚太地区(东京、新加坡和悉尼),其他更多地区将会陆续可用。此外,有关服务的详细信息可以在文档页面上获得,有关价格的详细信息可以在定价页面上获得。原文链接:AWS Introduces Amazon Managed Workflows for Apache Airflow
| 3,542 | 1,607,500,800,187 |
InfoQ
|
262 |
AWS发布Aurora Serverless v2预览版
|
在re:Invent 2020的第一个主题演讲中,AWS发布了Amazon Aurora Serverless V2的预览版。Amazon Aurora Serverless MySQL 5.7兼容版的伸缩可以在几分之一秒内完成,并引入了多可用性区域支持、全局数据库和读取副本。产品介绍页列出了新版的主要改进,包括在毫秒级伸缩到数十万事务处理能力,以及在进行小容量调整时的自动伸缩。两个版本之间的一个关键区别是容量的增加方式:Aurora Serverless V2不是每次都增加一倍实例,而是增加0.5个Aurora容量单位(ACU)。此外,新服务支持多个可用性区域,并将增加目前只在Amazon Aurora标准版中可用的企业特性。新版本不只是向现有产品中增量地添加新特性,最主要的是它带来的非常不一样的自动伸缩能力和设计。虽然它还处于预览阶段,但开发人员和数据库专家已经对这种新的托管无服务器关系数据库表现出了浓厚的兴趣。Oracle高级数据库专家Christian Abdel-Nour表示:看着非云系统在资源浪费和账单之间徘徊,Aurora Serverless V2的伸缩能力让人大开眼界。AlertMe首席技术官Jeremy Daly(同时也是AWS Serverless Hero)进行了一些详细的测试,并写了一篇题为“Aurora Serverless V2:好,更好,甚至令人惊叹”的长文。他例举了旧版Aurora Serverless的一些限制和新版本的一些优势:在过去的18个月里,我们看到了该产品的一些改进,但是在伸缩速度、故障转移时间和集群特性方面仍然存在很多问题……随着Amazon Aurora Serverless V2的引入,这一切都改变了。我终于看到了预览版,并花了几个小时试图对它进行了测试。我的第一印象?这东西可能是一颗银弹……除了惊人的伸缩能力之外,它还支持全部的Aurora特性,包括全局数据库、多可用性区域部署和读取副本。预览版的主要目的是展示新的缩放特性,很多新的高级特性还没有在预览版中提供,例如,Data API、Aurora全局数据库、性能洞察、Aurora多主、RDS代理和暂停容量等特性。新版本可能面临定价方面的挑战。即使Amazon声称客户可以节约高达90%的数据库成本(相对于高峰负载),并建议大多数客户通过从Aurora Serverless v1迁移到V2来节约成本,但不同的部署和数据库使用模式导致这种直接的比较变得复杂。Jeremy Daly补充道:这一点没办法掩饰,Aurora Serverless V2的成本似乎很高。实际上,V2 ACU的价格是v1 ACU的两倍……但是,这些成本的计算方式存在一些区别。其中一个区别与V2的增量ACU和v1的双倍实例大小有关……另一个区别与伸缩宕机时间有关。预览版目前只在美国东部(弗吉尼亚州)可用,支持MySQL 5.7。访问预览版需要注册。原文链接:AWS Introduces Preview of Aurora Serverless V2
| 2,783 | 1,607,486,400,364 |
InfoQ
|
263 |
AWS发布网关负载均衡器
|
AWS网关负载均衡器是一种新型全托管网络网关负载均衡器。该服务旨在部署、扩展和管理云端的第三方虚拟设备,如防火墙、入侵检测、预防系统和深度包检查系统。网关负载均衡器与VPC入口路由协同工作。VPC入口路由是AWS去年推出的一项服务,允许客户将进出网络网关或虚拟专用网关的网络流量路由到EC2实例的弹性网络接口。最近,AWS的首席技术专员Channy Yun宣布了这项新服务的总体可用性,并解释了网关负载均衡器的优势:你可以为客户工作负载创建客户VPC,也就是部署GWLB端点的VPC。AWS合作伙伴的设备将被部署在合作伙伴VPC中。设备提供者和使用者可以驻留在不同的AWS帐户和VPC中。GWLB支持设备的整合、安全策略的一致性、减少运维人员犯错和信息流的无缝检查,无需修改流量源头或目的地,也不需要NAT转换。来源:https://aws.amazon.com/blogs/aws/introducing-aws-gateway-load-balancer-easy-deployment-scalability-and-high-availability-for-partner-appliances/在另一篇文章中,AWS解决方案架构师Justin Davies描述了新服务所支持的架构模式。很多用户喜欢这项服务提供的简化网络流量检查的想法,AWS高级首席工程师Colm MacCarthaigh在推特上写道:网关负载均衡器是个大家伙,它为云计算带来了传统/遗留数据中心网络从未具备的能力。它不只是等成本的多路径路由……一个非常小的团队都可以开发具有水平可伸缩能力和高可用性的网络功能,我认为这样说一点都不过分。在为这项新服务提供解决方案的AWS合作伙伴中,思科发布了Cloud ACI集成,趋势科技增加了对Cloud One网络安全的支持。但并不是所有人都认为应该要关注第三方设备。Duckbill Group云经济学家Corey Quinn认为,将合作伙伴的设备嵌入VPC并不是个好主意:我只是想说,你不需要支付费用给第三方供应商,以此来实现AWS网络——我希望网关负载均衡器文档和示例能够反映出这一点。如果你仔细阅读文档,你会发现你不需要交叉使用这些设备,即使需要,也不一定需要第三方的。Sentia Group的AWS技术负责人Luc van Donkersgoed遵循了这个建议,并描述了构建GeneveProxy的过程。GeneveProxy是一个Python应用程序,接收来自网关负载均衡器的流量,封装数据包,检查数据包,重新封装,再返回给网关负载均衡器。这个应用程序的源代码可以在Github项目页上找到。AWS现在提供了四种不同的托管负载均衡器(包括这个新服务在内):应用程序负载均衡器、用于TCP和UDP的网络负载均衡器和用于EC2经典网络的经典负载均衡器。网关负载均衡器运行在一个可用性区域内,按小时收费,另外加上所使用的网关负载均衡器容量单位数量,这个由每秒活动连接或流量以及处理的字节来决定。原文链接:AWS Announces Gateway Load Balancer
| 1,358 | 1,607,480,512,079 |
InfoQ
|
264 |
在 AWS 上扩展 Synopsys Proteus 光学近似修正
|
简介光刻是半导体芯片制造的一个关键步骤。光刻的工作原理是将光(激光)通过图案(掩膜)照射到带有光敏涂层(抗蚀剂)的硅晶片上。这样可以改变涂层的特性,使制造商能够根据对激光的曝光或不曝光以化学方式去除部分涂层,从而在晶片上形成与掩膜上的图案相匹配的图案。 制造商可以使用这些图案有选择地在晶片上添加或去除层,从而在硅上形成不同的器件。这一过程基本上保持不变,直到芯片上图案的几何形状开始接近所使用激光的波长。随着这些图案的尺寸接近光的波长,由于衍射和其他失真,基本的光刻技术无法再准确地在晶片上再现图案。为了进行补偿,光学邻近校正 (OPC) 软件计算这些失真对最终图像的影响,并修改掩膜上的图案。为了实现这一目标,OPC 软件(如 Synopsys Proteus )必须在几十个掩膜层上执行数十亿次计算,以补偿随着半导体几何尺寸不断缩小所引起的失真。这种复杂程度使 OPC 成为半导体制造业中对计算要求最高的工作负载之一,通常需要数以千计计算内核运行数小时才能处理单个半导体芯片。 由于需要大规模的计算,因此半导体代工厂将其数据中心的很大一部分投入到这一单一工作负载中。在 AWS 上扩展 Synopsys Proteus OPCSynopsys 和 AWS 意识到随着半导体技术的进步不断推高每个芯片的复杂性,客户数据中心面临着满足日益增长的资源需求的挑战。 OPC 很适合利用 AWS 云的无限计算规模,因为计算可以并行化。Synopsys 和 AWS 决定启动一项联合调查,以确定 Synopsys Preteus 如何在 AWS 上扩展。我们决定将目标定为在单个设计上大规模扩展到 2.4 万个计算内核,目标是保持至少 95% 的线性扩展。验证单一设计的扩展可以准确地了解客户可以实现的收益,因为您在将工作人员添加到同一作业时考虑到基础设施和设计工作负载的相互依赖关系。我们已经知道,松散耦合的工作负载在 AWS 上几乎以线性方式扩展。Amazon EC2 Spot 实例是为容错工作负载优化计算成本的绝佳方法。EC2 Spot 实例使用空余的 Amazon EC2 容量,该实例与按需实例相比,最高可获得 90% 的折扣。当特定可用区 (AZ) 的按需实例类型请求出现激增,AWS 可以通过两分钟通知的方式收回 Spot 实例。我们利用官方的 AWS Solution Scale-Out Compute on AWS (SOCA) 快速创建一应俱全的云环境,提供可扩展性的计算和存储、预算监控、作业调度等。有关如何为 EDA 工作负载设置 SOCA 的指导,请查看博客使用 Scale-Out Computing on AWS 扩展 EDA 工作负载。Proteus 使用分布式计算架构运行。使用一个头节点来管理和跟踪工作负载和数据,同时将各个计算作业分配至工作节点。每个工作节点都会接收一小部分掩膜的数据、处理工作负载并将完成的数据返回到头节点中。我们将调查分为两个步骤 – 1) 使用按需实例在 2.4 万个内核之间实现可扩展性 和 2) 使用 EC2 Spot 优化架构以节省成本。我们首先使用按需实例运行2000 个内核,然后运行4000、8000、10000、16000 及最后的 24000 个内核运行测试。有关我们用于测试的设计的信息,请参阅下表“设计详细信息”。我们能够成功地将 Proteus 扩展到 2.4 万个,即使使用 2.4 万个内核,我们也能够保持 98% 以上的线性扩展度。请参见图 1 中的红色实线。接下来,我们探讨了使用 Amazon EC2 Spot 实例运行 Proteus 以便更经济高效地扩展工作负载的情况。从版本 vM-2017.03-9-T-20200117 开始,Synopsys Proteus 能够将 EC2 Spot 实例用于工作节点。我们继续使用 EC2 Spot 实例而非按需实例运行同一组测试。请参见图 1 中的黑色实线。结果表明,Spot 实例中断确实导致整体效率下降。然而,即使在 Spot 实例中断的情况下,Proteus 仍然能够在单个设计上扩展到 2.4 万个内核时实现 97% 以上的可扩展性。我们利用了 Spot Fleet,它支持实例类型的多样化,以最大限度地减少 Spot 实例中断的影响。图 2 显示了 2.4 万个内核测试期间使用的 Spot 实例类型。设计详细信息图 1:Amazon EC2 按需和 Spot 实例上的 Proteus OPC 可扩展性图 2:2.4 万个内核的 Amazon EC2 Spot 实例类型分布结论OPC 是半导体制造业中计算密集程度较高的工作负载之一,消耗了代工厂数据中心的大部分容量。基于 OPC 工作负载的规模可知,它们非常适合在云上运行。Synopsys 和 AWS 联合团队表明,Proteus 可以为单个设计成功扩展到 2.4 万个内核的目标,同时保持 98% 的可扩展性。Proteus 甚至可以成功地利用 Amazon EC2 Spot 实例的成本节约,同时实现 97% 以上的线性扩展度。通过利用 AWS 运行Synopsys Proteus OPC,与在其自己的数据中心中相比,代工厂和集成设备制造商 (IDM) 可以灵活且有弹性地将其 OPC 工作负载扩展到更多内核,从而减少总周转时间,同时仍可实现比本地运行更低的总计算成本。我们实现了这项调查的目标,通过 EC2 Spot 在单一设计上扩展 2.4 万个内核,Synopsys 和 AWS 团队认为,我们可以在AWS 上使用Synopsys Proteus 更进一步发展。敬请关注未来的更新。有关我们如何在 AWS 上扩展此工作负载和其他 EDA 工作负载的更多信息,或者有关如何将 EDA 工作负载迁移到 AWS 的更多信息,请联系您的 Synopsys 或 AWS 客户团队。欲了解更多关于 Synopsys Proteus 的信息,请访问 https://www.synopsys.com/silicon/mask-synthesis/proteus.html有关 AWS 上的 EDA 工作负载的更多信息,请转至 https://aws.amazon.com/semiconductor作者介绍:Ahmed ElzeftawiAhmed Elzeftawi 是 Amazon Web Services 的一位半导体和 EDA 合作伙伴解决方案架构师。在加入 AWS 之前,他曾任 Cadence Design Systems 的云产品管理总监,他在该公司为 AWS 上的 Cadence EDA 工作负载架构并部署了多个计算集群。他拥有超过 18 年的电子设计自动化、芯片设计和高性能计算集群经验。Ahmed 拥有开罗大学电子与通信工程学士学位和圣塔克拉拉大学工商管理硕士学位。George BaileyGeorge Bailey 是 Synopsys 掩膜合成产品线的产品市场总监,该产品线包括 Proteus 和 Sentaurus 光刻平台。George 在光刻工艺研究、光刻硬件和 OPC 软件方面拥有 35 年以上的半导体经验。他曾在 Texas Instruments、Motorola (Freescale/NXP)、Nikon、LSI Logic (Broadcom) 和 Mentor Graphics (Siemens) 担任过各种技术和管理职务。他在德克萨斯州立大学获得物理/数学学士学位,并在乔治福克斯大学获得工商管理硕士学位。Richard PawRichard Paw 是 Amazon Web Services 的合作伙伴开发经理,主要专注于半导体和 EDA。他在电子设计自动化和半导体设计领域拥有 20 年以上的经验。在加入 AWS 之前,他曾在 Synopsys 管理计算平台战略,并带领 EDA 行业努力协调设计基础设施硬件和操作系统。Richard 拥有加州大学伯克利分校电气工程和计算机科学理学学士学位。译者介绍:黄振维半導體行業解決方案架構師, 目前專注於以AWS well-architected 策略協助客戶在雲上建構安全且高可靠系統滿足需求丁杰AWS 解决方案架构师,8年以上大型移动互联网研发及技术管理经验,资深云计算行业从业者。对EDA行业上云以及针对云上架构进行优化设计有深入理解。了解云计算及半导体行业技术发展变革方向,能针对云服务特点在行业解决方案上有前瞻性布局本文转载自亚马逊AWS官方博客。原文链接:在 AWS 上扩展 Synopsys Proteus 光学近似修正
| 4,207 | 1,607,133,600,914 |
InfoQ
|
265 |
亚马逊re:Invent综述文章:|解读亚马逊re:Invent首日,AWS CEO五十多次提及重塑 加速企业上云及数字创新
|
12月2日,亚马逊云服务(AWS)在北京举行AWS大中华区媒体和分析师沟通会,由AWS大中华区云服务产品管理总经理顾凡、AWS大中华区首席云计算企业战略顾问张侠带领大家一起观看并解读了AWS CEO Andy Jassy在亚马逊re:Invent首日的主题演讲。今年的re:Invent上,Andy Jassy再次为全球40多万名注册观众带来长达三小时的主题演讲,并且一口气发布27项创新的云服务和功能(当天总共发布43项新服务和功能),令到场的媒体和分析师惊叹。顾凡表示:“我们在AWS re:Invent开始第一天就发布了43项全新的服务和功能,亮点很多。其中,四个改变游戏规则的全新发布尤其值得关注。AWS希望通过这些新服务和功能赋能更多的客户,加速上云,加快转型,通过采用全球领先的云技术和服务,更快、更好地重塑自己。我们也希望尽快把这些创新的服务和功能引入中国,助力中国客户的上云和重塑之旅。”“另外,在创新过程中,速度和复杂度,是两个既对立又互相联系的一对产物。一方面你确实需要速度,你要鼓励公司创新,鼓励试错,快速试错。同时你也要考虑你既然要更加快速试错,首先就要把自己的能力提升起来,要找到一个非常能够信得过的合作伙伴,然后再考虑是否需要有更多的人跟你合作。而这一切,通过上云可以更高效的达成。很多时候你确实需一个最大的平台,通过平台里面无穷无尽的云计算的工具去快速创新。虽然你今天还用不到全部工具,但使用一个好的平台可以为你未来的创新打下一个基础。最后,如果要真正发现一些创新,最终都需要大家决定哪些工作负载在什么样的阶段是必须要上云的,有多少是真正的云计算需求,真正需要用到云平台。”艾瑞咨询研究副总监、云服务部门负责人王成峰表示,AWS re:Invent首日演讲,有三点令人印象深刻:一是AWS对日益多元且复杂IT应用场景的充分满足,例如更轻量化的AWS Outposts单元、满足SAN存储的全新EBS服务等等;二是AWS自身产品之间的协同性进一步提升;三是通过更加完善的Outposts、本地区域、ECS Anywhere、EKS Anywhere等服务,构建起针对客户不同云环境(即混合云)的完整产品体系。中桥咨询创始人兼首席分析师王丛认为,re:Invent 2020充分展现了AWS的适应性公司文化,用户价值驱动的产品研发能力,以及前瞻性的技术布局。这些主要体现在以下几个方面:一是AWS混合云落地能力。企业级用户对混合云在企业级的一致性性能、功能和管理要求不断提升。re:Invent 2020上AWS展现出大量的混合云服务,ECS Anywhere、EKS Anywhere、AWS PrivateLink、AWS Storage Gateway、Outposts 1U、Outposts 2U、VMware Cloud on AWS。其中,Outposts 1U和2U产品的发布降低了Outposts用户入门门槛,也作为AWS技术和服务承载平台,提高了AWS针对企业混合云场景驱动的平台交付能力。二是AWS让数据库进一步降本增效。目前已经35万个数据库迁移到AWS,以应对消费经济激增、业务流量频发。本次发布的Amazon Aurora Serverless V2,在不到一秒内扩展数十万次事务,大幅度降低了保证激增业务时的开支稳定。此外,以开源形式推出的Babelfish for PostgreSQL,让用户直接在 Amazon Aurora PostgreSQL上运行SQL Server应用程序,可以降低传统数据库开支,提升数据库上云后的应用交付效率。三是5G和工业互联网布局深入。AWS清晰呈现出针对5G和工业互联网的数字化平台的布局。5G时代低延迟决定着竞争力和用户体验。AWS之前推出的Wavelength实现5G全程加速,让用户释放5G低延时的商业红利。AWS Monitron构建基于物联网的智能防御式运维数字化平台,组合传感、网管、人工智能服务,提高工业互联网生产及物流运输的全程智能监控和运维能力。reinvent,云计算重塑未来AWS成功的秘密,实际上就是reinvent——用云技术对IT进行重塑或者说再创造。如今,AWS围绕IT领域的方方面面,开发出超过175项全功能的云服务,涵盖计算、存储、数据库、联网、数据分析、机器人、机器学习与人工智能、物联网、移动互联、安全、混合云、虚拟现实与增强现实、媒体视频、应用开发/部署/管理等等,通过遍及全球24个地理区域的77个可用区(AZ),提供给全球数百万客户。re:Invent大会从2012年就开始举办了,大会名称透着AWS对云计算本质的理解,云计算就是对IT的重塑。今年的re:Invent大会,Andy Jassy首次在主题演讲中以超过50次的高频率提及reinvent这一关键词,向全球客户分享如何通过reinvent实现生存和成长,成为领导者。他首先分析了新冠疫情给企业带来的变化,让企业更加注重节省成本,让企业停下来进行战略反思,反思的结果就是让企业加速上云的步伐。他进一步分析,要打造一家基业长青的企业很不容易,50年前的《财富》500强企业,如今只剩下17%、83家还在榜单上;20年前的《财富》500强企业,如今也只有50%还在榜单上,由此得出结论,企业必须重塑自己,才能生存。Andy说,对企业来说,重塑自己事不宜迟。新冠疫情这9个多月来,他对重塑思考良多,发现很多人都是面临绝境才想到重塑。但是就像借钱,越是业务不好时越借不到钱,重塑也是同样的道理。因此,重塑事不宜迟,而且要坚持不懈,才能成为领导者。重塑的关键何在?Andy认为,重塑的关键,部分与技术相关,但更重要的是企业文化,要建立重塑文化。Andy总结了企业重塑文化的8个方面:(1) 领导导要有创造和重塑意识;(2) 顺应趋势,不可逆行;(3) 招募渴望创造的人才;(4) 实实在在解决客户问题;(5) 速度至上;(6) 别把问题复杂化;(7) 使用功能最强、最丰富的技术平台;(8) 自上而下,制定激进的目标。4个颠覆性工具助力企业重塑重塑文化需要企业自己建立。重塑的工具AWS可以整套提供。Andy在主题演讲中发布的27项创新云服务和功能中,有四项他认为是能改变游戏规则的颠覆性服务。第一个是数据库服务Amazon AuroraServerless v2,它是Amazon Aurora无服务器数据库的新版本,可以做到实时扩容,在不到1秒的时间内扩展至支持几十万个数据处理事务。这样,开发者就不需要按业务峰值进行容量配置,而是按需扩容,相比之下可节省高达90%的成本。顾凡表示,目前市面上还没有任何一款数据服务可以做到这个量级,Amazon AuroraServerless v2整体推动了数据库服务的演进。第二个是数据分析服务AWS Glue的新功能AWS Glue Elastic Views,它可以从多个不同数据源创建虚拟表(也叫实例化视图或物化视图),简单、高效地将数据孤岛连接起来,形成统一的数据视角,当数据源发生变化时能够在几秒钟内同步。人们都说数据是21世纪的石油,是企业的血液。解决数据孤岛问题,是人们多年来苦苦追寻的目标。第三个是机器学习服务Amazon SageMaker的新功能Data Wrangler,它可以提高机器学习数据准备的速度。通过Data Wrangler做数据准备,只需把Data Wrangler指向合适的AWS数据存储或第三方数据存储,Data Wrangler内置超过300种数据转换,可以自动识别数据类型,推荐合适的转换。它可以在控制面板合并、组合多个功能,可以在SageMaker Studio中预览数据转换,然后应用到整个数据集。张侠表示,这个产品涉及Amazon SageMaker整个机器学习建模,从最早建模到中间训练,到最后做演算,做推测整个过程。其中最关键的部分是数据处理,我们一口气推出了很多核心内容,再加上芯片,最核心的数据建模处理过程提供了很好的工具,大幅提高开发者做机器学习建模的效率。第四个是开发工具AWS Proton,它的作用是简化容器和无服务器应用的开发和部署。AWS大中华区首席云计算企业战略顾问张侠解释说,Proton是质子的意思。AWS Proton提供了更细粒度的开发和部署管理工具,具有划时代的意义。张侠表示,容器和无服务器应用由非常小的代码段组成,每个代码段通常由不同的团队开发和运维,有独立的基础架构,需要对其更新和维护。随着容器和无服务器应用的增加,基础设施团队、开发团队和运维团队之间,协调基础架构配置、代码部署和运维监控的工作变得日益复杂,拖慢应用开发速度。AWS Proton让中心平台团队可以建一个调用栈(Stack),调用栈是一个文件,由三部分组成:一是定义和配置微服务中所用AWS服务的模板;二是持续集成/持续部署模板,定义代码编译、测试和部署流程;三是Proton模式,指明开发者可以加入的参数,例如内存分配、DOCKER文件等。除了具体的应用代码以外,所有关于微服务部署的信息全都在调用栈里。平台团队将调用栈发布在Proton控制台,开发者准备部署微服务时,选择一个模板,加入参数,点击部署即可。当前,尤其是在中国,容器、无服务器、机器学习都还算比较新的技术。而AWS凭借全球先锋客户的需求反馈,远远地走在绝大多数客户的前面,提前准备好了工具,让大家毫无后顾之忧。AWS大中华区云服务产品管理总经理顾凡表示,过去几年中国的云计算发展非常快,云计算已经成为新常态。很多客户都在关心上云以后如何给业务带来帮助。因此,中国客户尤其关心数据分析、机器学习、现代化应用、微服务、无服务器、容器等高级功能,AWS源源不断发布创新的服务,对他们非常有吸引力。与此同时,按照Gartner的数据,全球云计算支出目前仅占IT总支出的4%,因此,无论是全球还是中国的市场机会都非常大。重塑混合云混合云对于大家来说已经讨论多年,众说纷纭。Andy说,一些厂商宣称混合云是本地基础设施加上云,目的是为了推本地基础设施。AWS始终认为,企业最终都将不再会有自己的数据中心,当然,这需要一个较长的演进过程。为此,AWS推出了虚拟私有云服务Amazon VPC和网络服务AWS Direct Connect,在云与本地数据中心之间建立桥梁。于是AWS回归本原,思考什么是混合,什么是本地(on-premise),认为本地应该不仅仅是本地数据中心,饭馆、仓库甚至农田的IT需求都应该算本地。混合基础设施是由云和各种边缘节点组成的,本地数据中心是边缘节点的一种。客户希望拥有的混合基础设施是,本地跟云一样,用一套硬件和工具管理本地数据中心和云。结论就是AWS应该把云推到这些边缘节点去。对混合云有了这样的认识之后,AWS开始打造一下解决方案,先抓住主要矛盾,满足最大的用户场景需求,而且从短期、中期和长期为客户着想。大部分本地数据中心是运行VMware虚拟化的,这些客户希望上云后还使用同样的工具。于是AWS跟VMware密切合作,推出了VMware Cloud on AWS,客户可以在AWS使用同样的VMware软件和工具,IT基础设施成本节省40%,运营成本节省43%,预期5年投资回报为479%。进一步,客户在转换过程中,或那些必须驻留在本地的工作负载,能不能把AWS部署到本地呢。于是AWS在两年前发布了Outposts,它是跟AWS云数据中心一样的服务器硬件,上面有计算、存储、数据分析等AWS服务,仍然由AWS全托管,由AWS向客户交付,负责安装和维护,使用跟AWS云上相同的API、控制面板、工具、功能,深受客户喜欢,像飞利浦、大众、思科、丰田等企业都在使用AWS Outposts。本次re:Invent大会上,Andy Jassy宣布了1U和2U两款小尺寸的Outposts,1U尺寸的Outposts跟Pizza一样大小,体积是经典型号Outposts的1/40,却具有相同的功能。小尺寸的Outposts可以适应饭馆、医院、零售商店、工厂等IT设备空间受限的场所。再进一步,针对延迟超级敏感的应用,在大城市做本地部署,AWS推出了本地区域,它是AWS区域的扩展,部署AWS基础设施让计算、存储和数据库服务靠近大城市,将本地终端用户的访问延迟降到毫秒级。2019年AWS在美国洛杉矶开通了第一个本地区域,本次大会宣布开通波士顿、休期顿和迈阿密三个本地区域。2021年将在亚特兰大、芝加哥、达拉斯、丹佛、堪萨斯城、拉斯维加斯、明尼阿波利斯、纽约、费城、菲尼克斯、波特兰和西雅图推出另外12个本地区域。再进一步,将AWS服务推到网络连接有限、环境恶劣的地区做本地部署,例如偏远地区、山区、军事基地、船舶、救援车辆等,AWS推出了Snow系列设备,用于连续计算、数据存储和数据转送。比较小的Snowcone,提供8TB存储、2个vCPU,可以放在背包里。设备搜集数据完成之后,可以带到总部去处理。再进一步,把AWS服务推送到5G网络边缘做本地部署,将移动应用的延迟降到10毫秒以内,满足智能制造、自动驾驶、游戏竞技等应用的需求。于是AWS跟运营商合作推出了Wavelength服务。跟Verizon合作的Wavelength已经在美国8个城市提供,跟KDDI合作在东京推出、跟SK电信合作在韩国大田市推出的Wavelength服务很快上线,跟沃达丰合作在伦敦推出的Wavelength将于2021年上线。从VMware Cloud on AWS将企业的虚拟化环境迁移到AWS,Snow系列设备将数据从网络有限的地方带到云上,到AWS Outposts进入企业本地数据中心,进入饭馆、医院、零售商店、工厂等IT设备空间有限的场所,到本地区域,到5G网络边缘,AWS本着让客户不改变使用习惯的原则,沿着客户的视线将本地部署这一概念推而广之,对混合云的理念进行了重塑,极大地拓展了云计算的应用边界,闯出一番新的新天地。正如Andy所说,重塑自己事不宜迟。现在就是时候,打造企业的重塑文化,选择最好的重塑工具,重塑自己,重塑企业,重塑客户体验,重塑行业,重塑未来。
| 825 | 1,607,084,877,432 |
InfoQ
|
266 |
Delhivery 公司最佳实践剖析:从 Apache Kafka 迁移至 Amazon MSK
|
Original URL: https://aws.amazon.com/cn/blogs/big-data/best-practices-from-delhivery-on-migrating-from-apache-kafka-to-amazon-msk/本文为Delhivery公司的客座文章。在本文中,我们将了解Delhivery公司将运行在Amazon Elastic Compute Cloud (Amazon EC2)上的自建Apache Kafka迁移至Amazon Managed Streaming for Apache Kafka (Amazon MSK)的整个流程与相关操作步骤。Delhivery公司高级技术架构师Akash Deep Verma表示,“这套新架构已经投入生产一年有余,我们在Amazon MSK上运行着超过350款应用程序,它们每一天、每一秒都在产生并消费数据。总体而言,与Amazon MSK合作给我们带来了愉悦的体验!”Delhivery公司是印度领先的数字商务执行平台。凭借其遍布2500座城市、18000多个行政管辖区域的全国网络,该公司提供一整套涵盖快递包裹运输、短途/长途货运、反向物流、跨境、B2B与B2C仓储以及技术服务的全套物流服务体系。Verma指出,“我们的愿景是通过世界一流的基础设施、最高质量的物流运营以及尖端工程技术能力的结合,成为印度商务经济的「操作系统」。我们的团队已经成功为印度超过1.2亿个家庭完成了6.5亿份订单。我们运营有24处自动分类中心、75处执行中心、70处物流枢纽、超过2500个直接配送中心、超过8000处合作伙伴中心以及14000多辆货运车辆。超过40000名团队成员每年365年、每周7天、每天24小时为客户服务,正是这一切,让日均百万个包裹的交付配送成为可能。”自托管Apache Kafka的难题我们每天需要处理近1 TB数据,借此实现各类分析功能。这些数据来自货运跟踪、订单跟踪、GPS、生物识别、手持设备、分类器、重量、客户以及设施等各类来源,并通过多条实时与批处理管理在各类系统与服务之间往来移动。数据在经过处理与充实之后,即可服务于多种业务及技术场景。考虑到我们业务的基本性质,Apache Kafka上的传入消息与事件主要以稳定常规流量与间歇峰值流量组成,这两类情况的流量区间分别为每秒10000到12000条消息、以及每秒50000到55000条消息。Apache Kafka则作为这些依赖系统与服务之间的核心消息与事件主干。我们之前在 Amazon Elastic Compute Cloud (Amazon EC2)实例上对Apache Kafka代理及其相关组件(例如Apache Zookeeper)进行自建。随着业务规模的不断增长,管理这些组件并保证正常运行时间已经成为一项重要的资源密集操作。我们需要专门指派两名开发人员管理我们的Apache Kafka基础设施并维持其正常运作。由于这些开发人员无法继续为业务功能的开发做出有效贡献,这种无差别的繁重工作已经在事实上导致生产力下降。Verma表示,“我们想要一项托管形式的Apache Kafka服务,借以降低基础设施管理所占用的时间与资源。这样一来,我们就能重新分配技术团队的事务优先级,保证各位成员专注于开发能够实际增加业务价值的功能。”迁移至Amazon MSK以节约时间我们研究了几种选项,考量借此替换EC2实例上的自托管Apache Kafka,最终的答案正是Amazon MSK。借助Amazon MSK,我们可以继续使用原生Apache Kafka API,并在不更改任何代码的前提下在AWS上运行我们的现有应用程序。它还能为我们提供、配置并维护Apache Kafka集群与Apache Zookeeper节点。以此为基础,我们能够将开发人员从基础设施管理当中解放出来,为我们的业务编写更多创新应用。根据AWS团队的建议,我们采取了以下步骤:调整MSK集群大小。将各Apache Kafka主题迁移至Amazon MSK。监控Amazon MSK运行状态。调整MSK集群大小为了适当调整MSK集群的大小,我们需要了解当前工作负载的基本动态。我们从当前基于Amazon EC2的Apache Kafka集群中检索出以下指标:生产者的写入效率——我们考虑监控broker上的指标BytesInPerSec,选择各代理的平均值,并汇总了集群中全部代理的值以估算净摄取率(请与ReplicationBytesInPerSec指标区分开来,ReplicationBytesInPerSec代表的是与其他代理间的摄取率)。消费者的消费速率——我们还在broker上监控指标BytesOutPerSec,选择单一代理的平均值,而后将集群中所有代理的值进行汇总,借此估算集群的净消费率(请与ReplicationBytesOutPerSec指标区分开来,ReplicationBytesOutPerSec代表的是指向其他代理的消费率。数据复制策略——我们通过集群全局参数default.replication.factor以及为每个主题设定的独立参数之间进行了评估,并借此确定了复制因子的最大值。数据保留策略与磁盘利用率的目标百分比——我们通过集群全局参数log.retention.hours 以及为每个主题设定的独立参数之间进行了评估确定了数据保留的最高保留值。我们还指定了已用存储空间的百分比,并估算满足用例所需要的净空间。AWS为我们提供一份Amazon MSK规模调整与费率标准表格,帮助我们快速估算MSK集群中所需要的代理数量。接下来,我们在业务环境当中进行概念验证,并从电子表格中找到了推荐的具体集群大小。这份电子表格还帮助我们轻松估算了集群使用成本。关于更多详细信息,请参阅每集群代理数量。将各Apache Kafka主题迁移至Amazon MSK我们整理了将各主题迁移至Amazon MSK的几种可行选择:MirrorMaker 1.0,这是Apache Kafka中随附的一款独立工具,能够以最低停机时间将数据从自托管Apache Kafka集群迁移至Amazon MSK。使用消费者从自托管Apache Kafka集群读取数据,而后将数据写入至Amazon MSK。这种迁移方法需要一定的停机时间。我们以往经常使用过的其他复制工具。在实践操作中,我们将前两种方法结合起来进行迁移。对于无法容忍长时间停机的主题,我们使用MirroMaker 1.0将数据迁移至Amazon MSK。对于能够承受一定停机的主题,我们的内部SLA允许通过应用程序流量将数据从自托管Apache Kafka集群重新定向至Amazon MSK。在MirrorMaker方案中,我们需要在自托管EC2实例上设置MirrorMaker 1.0守护程序以使用来自源集群的消息,而后将其重新发布至目标MSK集群。每个MirrorMaker 1.0线程都配备一个单独的消费程序实例,且共享同一通用生产程序。整个流程如下:MirrorMaker 1.0实例产生一个消费者进程,该进程与Apache Zookeeper整体交互,以支持源Apache Kafka集群进行主题发现。消费者进程从相关主题中读取消息。MirrorMaker 1.0生成一个生产者进程,该进程通过Apache Zookeeper端点与Amazon MSK上托管的Apache Zookeeper fleet进行交互。该生产程序进程通过代理端点将消费程序进程检索到的消息,转发至Amazon MSK的相应主题。下图所示,为我们的整个迁移拓扑结构。MSK集群创建流程需要将子网ID作为输入,以便代理与Pache ZooKeeper节点能够正确映射至客户VPC。通过在具有主专用IPv4地址的各子网ID中创建ENI,我们能够轻松实现这一映射。MSK集群中随附的代理与Apache ZooKeeper端点将实际解析这些专用IPv4地址。我们使用以下命令,将所有主题从基于Amazon EC2的源集群以镜像形式保存至Amazon MSK:kafka-mirror-maker.sh
--consumer.config config/mirrormaker-consumer.properties
--producer.config config/mirrormaker-producer.properties
--whitelist '*'
上述命令包含以下细节:其中的kafka-mirror-maker.sh shell脚本用于创建一个 tools.MirrorMaker类实例。在 mirrormaker-consumer.properties 文件中的bootstrap.servers 、group.id等由换行符分隔的键/值对下,包含有消费者配置参数。其中mirrormaker-producer.propertiesfile在bootstrap.servers、acks等由换行符分隔的键值对下,包含有生产者配置参数。--whitelist选项允许大家使用Java样式的正则表达式,保证我们可以仅对特定主题进行镜像复制,例如使用--whitelist 'A|B'镜像复制A与B主题。随着KIP-382的引入,现在Amazon MSK已经能够支持MirroMaker 2.0并发挥由新版本带来的更多优势。关于使用MirroMaker 2.0将自托管Apache Kafka集群迁移至MSK集群的操作说明、配置文件、示例代码以及相关实验,请参阅 MirrorMaker2 on Amazon EC2研讨资料。大家也可以使用Amazon Kinesis Data Analytics(一项面向Apache Flink的全托管服务)将现有Apache Kafka集群迁移至Amazon MSK。如此一来,您可以使用全托管Apache Flink应用程序处理Amazon MSK中存储的流式数据。关于将Amazon Kinesis Data Analytics与Amazon MSK配合使用的更多详细信息,请参阅教程:使用Kinesis Data Analytics应用程序在同一VPC内实现不同MSK集群间的数据复制以及点击流实验室。在稳定状态下,我们生产环境中的MSK集群使用以下配置:broker节点——6 x m5.4xlarge复制因子——3生产者数量——110个以上消费者数量——300个以上主题——500个以上broker上运行的Kstreams——55个以上监控Amazon MSK运行状态Amazon MSK以三种粒度级别提供多项Amazon CloudWatch监控指标:DEFAULTPER_BROKERPER_TOPIC_PER_BROKER在我们的用例中,我们使用最精细的PER_TOPIC_PER_BROKER粒度以实现最佳系统运行可见性。为了自动检测各类运营问题,我们还使用以下指标开发出自定义CloudWatch警报。Amazon MSK还支持通过端口11001(面向JMX Exporter)与端口11002(面向Node Exporter)使用Prometheus等监控工具与Prometheus格式的指标(例如Datadog、New Relic以及SumoLogic等)捕捉公开指标。关于更多详细信息,请参阅使用Prometheus实现公开监控。关于配置公开监控的更多操作说明,请参阅Open Monitoring实验室。总结在使用自建Apache Kafka代理时,我们需要保证Apache ZooKeeper始终发挥仲裁作用、监控代理之间的网络连接,同时监控LogCleaner等不同Apache Kafka辅助进程。一旦某个要素发生故障,我们还需要通过基础设施管理与监控等方式解决问题。这部分被耗费在Apache Kafka运营层面的精力与时间,本应被用于更好地实现实际业务价值。Amazon MSK能够降低基础设施的维护强度,简化问题的识别与解决,缩短代理维护时间,最终将生产力提升至新的层面。它在后台承担起Apache Kafka的维护工作,结合实际需求为我们提供监控级别选择,让我们的团队能够腾出更多精力改善业务应用程序并为客户提供价值回报。作者介绍:Akash Deep VermaDelhivery公司高级技术架构师。Akash于2016年加入Delhivery,从事与大数据及分析相关的多个项目。最近,他开始领导一项与数据大众化相关的架构设计项目。在业余时间,他喜欢打乒乓球和观看烧脑电影。Dipta Shekhar BhattacharyaAWS公司企业级解决方案架构师。Dipta于2018年加入AWS,他主要负责与大型初创企业客户合作,在AWS上设计并开发业务架构以支持云探索之旅。Nikhil KhokharAWS公司解决方案架构师。他于2016年加入AWS,致力于构建及支持各类数据流解决方案,帮助客户分析数据并从中获取价值。在业余时间,他喜欢使用3D打印技术解决日常问题。本文转载自亚马逊AWS官方博客。原文链接:Delhivery 公司最佳实践剖析:从 Apache Kafka 迁移至 Amazon MSK
| 1,280 | 1,607,047,200,943 |
InfoQ
|
267 |
F=ma,如何使创新具备加速度?
|
2002 年,互联网泡沫破裂的余波未散,在大西洋彼岸出现了一个前沿科技赛事 -- 将数据打包,封装成 API 给开发者使用。比赛的发起人是来自 Amazon 的两位高管 Colin Bryar 和 Rob Frederick,比赛办的非常成功,赛事名称被延用到一家公司名称,如今响彻全球 IT 届,它就是 AWS -- Amazon Web Services。据全球知名 IT 咨询公司 Gartner 统计,2019 年全球云计算市场 2060 亿美金,其中 AWS 作为龙头企业,占据全球云计算市场 45% 份额,超过其后微软、阿里、谷歌的总和。而对于 Amazon 来说,如今的 AWS 也已经是公司增长最迅猛,最有前景的业务之一。回顾这一巨头的成长之路,有很多不可忽略的重要因素,今天我们来聊聊关于 AWS 独特的创新文化。14 条领导力法则第一条 --Customer ObsessionAWS 的创新公式:F (创新) = (组织 * 架构) ^ (机制 * 文化)AWS 的每一位员工入职时,都需要认真学习 14 条领导力准则,业界也称为“Amazon 的 14 条军规”。他们分别是:顾客至上(Customer Obsession)主人翁精神(Ownership)创新简化(Invent and Simplify)决策正确(Are Right, A Lot)好奇求知(Learn and Be Curious)选贤育能(Hire and Develop the Best)最高标准(Insist on the Highest Standards)远见卓识(Think Big)崇尚行动(Bias for Action)勤俭节约(Frugality)赢得信任(Earn Trust)刨根问底(Dive Deep)敢于谏言,服从大局(Have Backbone;Disagree and Commit)达成业绩(Deliver Results)来自于 AWS 的解释简洁明了,具有浓厚的工程师气质:我们的领导力准则不仅是鼓舞人心的墙帷。这些准则应该十分有效,就像我们努力工作所取得的成果一样。无论是在讨论新项目的创意、决定应对客户问题的最佳解决方案,还是对求职者进行面试,Amazon 员工每天都在使用这些准则。这是令 Amazon 独具特色的一个重要因素。更有意思的是,第一条准则反映了 AWS 的创新源自何处。为了让创新更具商业价值,而不仅仅是天才的玩具,AWS 将创新源头锚定在客户场景侧,形成了其典型的创新和落地方式:客户至上(Customer Obsession)-- 紧贴客户业务场景寻找更优秀的解决方案。在 2020 年 AWS Summit 的活动中,InfoQ 采访了 AWS 首席开发者布道师费良宏,详细探讨了 AWS 的创新源自何处。费老师提到,在 AWS 大家最常用的一个创新方法叫做“逆向工作法”,也叫做“向后”工作的方法。在 Amazon 看来,创新是每一个人的事情,它不仅仅是一小部分天才或者一小部分管理者来承担的职责,而是在团队当中、在企业中的每一个人,哪怕是最低级别的员工,也一同承担的职责。而作为一个普通员工要创新,基本方法就是从客户那里开始,转身去推动创新的发生。具体来说,Amazon 鼓励每一个员工积极与客户沟通,倾听他们真实的需求和遇到的困难,从中去找到解决问题的思路,然后转过身去,在公司内部推动一个新流程、新产品,或者一个新的服务的发生。随着时间的流逝,很多需求或者想法总是在不断变化,而 AWS 始终相信,客户有一些本质和长久的需求是不变的。只要准确地把握到这些需求,并把它转化成一个新的产品、服务、或者流程,创新就自然而然地发生了。而一个创新型企业不断成长的过程中,如果我们将企业的未来交给少数的几个天才,将必然遇到创造力枯竭的问题。因为即使是天才,也会有灵感枯竭的周期和创新乏力的阶段。相反如果我们将企业的创新职责赋予到每个人身上,企业创新的源泉就不会枯竭,而是会持续不断地成长。哪怕是像 Amazon 这样一个拥有百万员工的庞大公司,也依然可以保持创新的活力和源动力。也正是出于这一基本原则的指导,AWS 早期业务从一个 to do list 收敛到两个最为关键的部分 -- 计算和存储,分别打造了 Amazon EC2 和 Amazon S3 两个产品 -- 一方面这两个产品在客户所使用的基础设施中出现的频率最高,涉及的业务范围最广;另一方面由于有先前的电商业务基础,这两个能力是 AWS 的工程师团队最擅长的。Application First-- 以开发者为本,更专注业务我们乐于招聘三种人:工程师,企业家和发明家AWS 的员工和用户大都是工程师,他们实干、创新的精神与 AWS 的创新氛围互相成就。2006 年起,AWS 就在美国建立了 Developer User Community(开发者用户社区),吸引全球各地的开发者加入。时至今日,AWS 遍布全球的用户社区已经组织了超过 400 个以 AWS 为中心的用户组,其中中国上海和杭州等地还诞生了多位“社区英雄”,组织大家定期聚会,分享想法,回答问题,学习新的服务和最佳实践。关于 AWS 对员工的期望,AWS 首席开发者布道师费良宏提到,在 Amazon 内部,每个员工都有一个特定的称呼 --builder。这个词翻译成中文有各种各样的解读,有人把它翻译成叫“构建者”,也有人把它翻译成“工程师”。而我个人推荐将其解读为“实干家”。“实干家”非常贴切传神地表达出来我们对这类人群期望 -- 希望他能够去承担职责,做出令自己最满意的结果。有“实干家”作为基础,我们希望每一个员工都能承担创新者的责任。对于企业而言,如果每个“实干家”都具有创新能力的话,可以设想企业的创新将是无往而不利的。第三种角色我们叫做“企业家”,他们具有战略规划能力,具有很强的领导能力,他们可以组织和管理更多的 two pizza(两个披萨团队,指的是 Amazon 组建团队的原则,一个小团队人数应该不超过 2 个披萨能喂饱的规模) 团队,或者是更多的“实干家”、创新者,能够组织企业内的其他同事更好更有效的运作。因此总结下来,Amazon 希望寻找这三类人:工程师、企业家和发明家。任何一个员工最起码应该是一个“实干家”,在“实干家”的基础上,AWS 鼓励他成为一个创新者,其中的很多人可能慢慢的走上管理岗位,最终成为“企业家”。但不论哪一种角色,对我们来讲都是最宝贵的,都是我们创新的源泉和基础。内部的实干家创造新的产品和服务,与外部的用户社区结合,使得 AWS 能不断得到一线开发者使用产品和服务的反馈,形成良性互动,推动 AWS 的产品和服务创新。一方面已有服务上线后,开发者社区会从一线反馈最原始的使用体验;另一方面,开发者社区用户基于自身业务发展会产生各种各样的需求,当出现已有服务无法满足其场景需求时,可通过开发者社区获取帮助,而如果该场景是一个值得投入的场景,AWS 则会将其纳入新服务的开发计划中。Always Day 1-- 更多创新,更好的服务,赋能更多开发者和初创企业Day 2 公司处不前的状态,接着会变得无关紧要,然后会经历痛苦的衰退,直至最终迎来死亡。这就是为何我们总是要做 Day 1 公司的原因从创业第一天起,AWS 就一直秉持着 Day 1 文化,对内要求员工时刻保持创业精神,对外需要员工恪守顾客至上的准则。Bezos 在 2017 年致股东信中曾提到 “Day 2 公司处于停滞不前的状态,接着会变得无关紧要,然后会经历痛苦的衰退,直至最终迎来死亡。这就是为何我们总是要做 Day 1 公司的原因“。而对于如何做 Day 1 公司,Bezos 提到 “对于 Day 1 的捍卫者来说,这里有他们需要的防御包:客户至上、抵制代理、拥抱外部趋势、高速决策”。而落实到 AWS 的业务层面,可以看到高速运转的 AWS 如何作出 Day 1 公司该有的成绩。通过利用 AWS 平台及生态不断创造新的服务,通过创新为客户带来更优的体验 -- 2018 年 AWS 共发布了 18 个大类,约 100 项新服务;2019 年,这一数字增长到 28 个大类,172 项新产品 / 服务,其中包括边缘计算架构,Amazon Braket,Amazon SageMaker Studio 和 Amazon DeepComposer 等,涉及开发环境优化,AI 模型训练边缘计算等多个领域的需求。在新服务不断被创造的过程中,AWS 满足客户需求的能力不断增强,客户规模也越来越大;与此同时,AWS 还不断降低产品和服务的价格,以赋能更多开发者和初创企业。从 2006 年推出 AWS 服务至 2020 年 6 月 23 日,AWS 累计降价已达 85 次。而就在去年 6 月 20 日,AWS 在上海举行技术峰会时宣布在中国市场对公司 Amazon EC2 实例进行了价格调降,价格降幅最高可达 49%,这一举措直接让 Amazon EC2 价格直逼本土企业,让更多开发者和初创企业有机会用上全球领先的云计算产品和服务。2020 年新一届亚马逊 re:Invent 大会来袭,带你提前看到未来2020 年,一年一度的亚马逊 re:Invent 大会来袭,持续 3 周的线上会议将带来 5 场 AWS 技术领袖的 Keynotes 演讲及 18 个领导者研讨会,与此同时,还设置了 500 余个专场会议和 25 项关键技术发布。涉及云计算基础架构,机器学习最新技术等重磅话题,带你提前看到全球最前沿的技术!你最期待哪些内容呢从现在起,就开始pick吧!做全面精进的开发者技术大牛即刻扫描二维码报名参会吧!点击“阅读原文”一起出发!
| 527 | 1,606,981,371,890 |
InfoQ
|
268 |
AWS发布新服务Amazon S3 Storage Lens
|
AWS发布了一项名为亚马逊S3 Storage Lens的新服务,该服务可以向客户提供整个组织范围内的对象存储使用情况和活动趋势信息。通过该服务,客户可以了解在S3对象存储中都发生了什么。AWS的S3团队构建了Amazon S3 Storage Lens,为客户提供云存储分析解决方案,通过提供切实可行的建议来提高成本效率以及应用数据保护最佳实践。在推出这项服务之前,用户必须单独管理S3桶——这对重度使用用户来说是一个挑战。正如亚马逊首席开发者布道师Martin Beeby在一篇博文中所写的:一个客户可能有几十个甚至数百个帐号,并且在多个AWS区域中有多个S3桶。这些客户告诉我们,他们不知道该如何在整个组织范围内使用存储、如何优化成本以及如何提高安全性。来源:https://aws.amazon.com/s3/storage-analytics-insights/客户可以通过Amazon S3 API、CLI或S3控制台使用S3 Storage Lens。在S3控制台中,他们可以使用交互式仪表盘,管理员可以进行过滤和查看详细指标,以便了解S3存储的使用情况。此外,指标按照类别进行分组,例如按照成本效率和数据保护进行分组。客户还可以将指标按照CSV或Parquet的格式导出到他们选择的S3桶中,然后使用诸如Amazon Athena、Amazon QuickSight、Amazon Redshift等工具进行进一步分析。一位受访者在Reddit上有关S3 Storage Lens的帖子中写道:让客户清楚地知道他们的成本,这是AWS要关心的事情。如果客户在使用云计算几个月后看到账单吓一跳,并决定将工作负载迁回到自己的数据中心,那么这对他们来说就没有任何用处了。让客户满意才能让他们成为长期的客户。如果客户因为不知道为什么账单费用那么高,就可能不愿意支付账单,很快会弃用服务。此外,Constellation研究公司首席分析师兼副总裁Holger Mueller告诉InfoQ:一旦一个成功的云服务引入了可观察/管理/分析工具,你就知道云服务已经成熟并“进入”了企业。毫无疑问,Amazon的S3存储服务就是这样。AWS让客户更好地了解S3集群中正在发生的事情,这是件好事。就像所有的新服务一样,我们现在可以通过第一批Storage Lens采用者来看看AWS是否达到了标准。目前,Amazon S3 Storage Lens几乎在每个AWS商用区域都可用。该服务有两个层。所有S3客户自动获得的免费层包含15个使用情况指标和一个高级指标选项(这需要付出额外的费用)。高级指标选项包含了完整的29个使用情况和活动指标,以及15个月的数据保留期限和上下文建议。更多有关定价的详细信息可以在管理与分析的定价页中找到,服务本身的详细信息可以在文档页中找到。原文链接:AWS Announces New Service: Amazon S3 Storage Lens
| 2,130 | 1,606,977,927,023 |
InfoQ
|
269 |
AWS发布新的S3智能分层归档访问层,降低用户使用成本
|
S3智能分层是AWS添加到Amazon S3的一个存储类,用于优化用户的存储成本。亚马逊最近宣布,它将增加两个新的归档访问层,这两个层是为优化一小部分异步访问而设计的,并且成本非常低,它们分别是归档访问层和深度归档访问层。AWS在两年前推出了S3智能分层,让客户能够根据使用模式自动选择最经济的存储层。Amazon S3智能分层是Amazon S3的一种存储类,它可以自动优化未知或不断变化的访问模式下的数据存储成本。亚马逊现在为S3智能分层增加了两个新的优化(存档访问层和深度存档访问层),当对象在很长一段时间内很少被访问时,可以自动归档很少访问的对象,进一步降低高达95%的存储成本。来源:https://aws.amazon.com/blogs/aws/s3-intelligent-tiering-adds-archive-access-tiers/S3智能分层可用的访问层现在包括:频繁访问层,为频繁访问而优化,定价为S3标准;非频繁访问层,这是为非频繁访问优化的低成本层,定价为S3标准-非频繁访问;存档访问层,性能和价格与S3 Glacier存储类相同;深度存档访问层,性能和价格与S3 Glacier深度存档存储类相同。客户可以使用Amazon S3 API、CLI或在S3管理控制台中简单地单击几下,就可以轻松激活其中的一个或两个S3智能分层归档访问层。Duckbill Group的首席云经济学家Corey Quinn在推特上表示:S3智能分层对象到Glacier/Glacier深度归档,这个非常棒,但要知道,被转换的对象需要数小时时间来恢复,或许你的网站可能不一定需要启用这个功能。AWS高级开发人员Marcia Villalba在一篇博文中解释了新层是如何工作的:一旦激活了其中的一个或两个归档访问层,S3智能分层将自动将90天内没有被访问的对象移动到归档访问层,180天后没有被访问的对象将自动移动到深度归档访问层。在恢复归档访问层中的对象时,对象将在几小时内移动到频繁访问层,然后就可以进行检索了。Constellation研究公司首席分析师兼副总裁Holger Mueller告诉InfoQ:随着S3职能分层Uber服务的诞生,我们可以看到AWS是如何一步步走向成熟的。流行的存储服务要求客户手动将数据转移到更便宜的存储上,比如Glacier。现在AWS创建了一个跨越AWS原子服务的服务,这对客户来说是一个很好的产品,因为它让客户可以更容易地使用AWS。目前,用于S3智能分层的新归档层在所有AWS区域都可用。此外,S3智能分层的详细信息可以在文档中找到。原文链接:AWS Announces New S3 Intelligent-Tiering Archive Access Tiers
| 1,211 | 1,606,875,327,372 |
InfoQ
|
270 |
AWS发布Nitro Enclave,可独立于EC2环境处理保密数据
|
AWS最近发布可以独立于EC2环境处理保密数据的Nitro Enclave。基于轻量级Linux操作系统的Nitro Enclave是一种经过强化和验证的高度受限的虚拟机。新的服务没有使用持久存储,没有使用管理员访问权限,并创建了一个额外的隔离,以进一步保护EC2实例中的高敏感数据,并减少敏感数据的受攻击面积。AWS首席布道官Jeff Barr描述了主要的用例:金融服务、国防、媒体和娱乐以及生命科学等各业的AWS客户通常会在AWS上处理高敏感数据,他们需要保护它们免受来自内部和外部的威胁,需要处理复杂的情况,包括多个相互不信任的合作伙伴、供应商、客户和员工。如今,他们使用VPC创建高度隔离的环境,这些环境具有受控的有限连接,只能由一组受限制的用户访问。客户可以使用这个新功能将数据从更大的通用操作系统环境中分离到独立的执行环境中。AWS并不是唯一提供受保护虚拟机的云供应商:Azure也提供了基于硬件的可信任执行环境(TEE),而谷歌云最近也宣布了其保密虚拟机特性。GrowthOps云工程师及AWS社区开发者Richard Fan写了一篇关于如何在AWS Nitro Enclaves上运行Python应用程序的文章,并总结了这个新特性是如何工作的:AWS Nitro Enclave是和EC2实例一起运行的独立环境。它使用来自EC2实例的CPU和内存资源,但与Hypervisor级别的实例是隔离的,因此你的实例即使在操作系统级别也不能访问Enclave。与Enclave通信的唯一方式是通过vsock通道。他在GitHub上创建了一个项目,演示如何使用Python套接字包在EC2实例和Nitro Enclave之间建立通信,并使用代理从Enclave内部进行HTTPS调用。图片来源:https://aws.amazon.com/blogs/aws/aws-nitro-enclaves-isolated-ec2-environments-to-process-confidential-data/CoinText首席技术官Vin Armani认为可能可以在数字货币采用这种新功能:这些新的AWS Nitro Enclave很有趣。我猜想它们在加密货币交易方面将变得非常流行。这似乎是服务器提供简单分类帐邮资协议(Simple Ledger Postage Protocol)和SWaP协议服务的一个完美的工具。另一份公告表示,AWS证书管理器可以通过Nitro Enclave支持EC2的TLS主机终止连接。这样就可以对运行在EC2实例上的Web应用程序和Web服务器使用免费的公有和私有SSL/TLS证书。一些限制:用于Nitro Enclave的ACM目前只支持与NGINX集成的证书安装和证书过期替换。Nitro Enclave目前只支持英特尔和AMD的处理器,最小的可用实例是m5a.xlarge。每个EC2实例只支持单独的加固环境。新服务不需要额外的费用,但父实例需要付费。原文链接:AWS Introduces Nitro Enclaves, Isolated EC2 Environments for Confidential Computing
| 734 | 1,606,874,530,385 |
InfoQ
|
271 |
手淘双11最新实践:PopLayer弹层领域研发模式升级
|
背景近年来,各大APP内的弹层需求逐渐增多,以手机淘宝为例,日常的弹层上线频率为单端每月50次左右,而在大促期间可以达到240次以上。在手淘内,各类弹层业务都会通过PopLayer中间件的能力进行投放。但业务往往会遇到开发弹层难、慢、稳定性差的种种困难。对比于往年业务研发成本较高的现状,PopLayer在今年提出了【低研发搭投模式】来解决这类问题,形成一套 快速搭建+可视化+多端多场景通用 的解决方案,在日常与大促期间得到了广泛应用:研发效率升级: 弹层业务的上线成本从3天+,降低到2小时左右业务覆盖率高: 双11大促期间的业务覆盖率达到75%稳定性极佳: 大促期间线上0故障在各类APP都逐渐走向存量时代,精细化流量运营的今天,弹层作为一个可以随时随地产生内容并带来高流量的强运营手段,已经从低频需求,变成了面向各类人群投放的高频需求。作为业务支撑方向的中间件,如何为业务提效,将业务的关注重点从开发转向内容运营,助力其完成触达矩阵,成为了一件非常值得探索的事情。PopLayer弹层,是一种强触达用户的交互形态。 PopLayer的定义,则是一个可以在任何APP页面上,在指定时间内,对页面无侵入地弹出任何内容的弹层中间件。其业务定位,则为触达各领域用户的重要流量场。为了便于理解,下面以手淘首页近期Pop为例,将手淘内的Pop业务分类举例介绍(本文中Pop即指弹层):1、大促氛围打造视频视频开售倒计时提醒2、增强用户体验死亡恢复浏览飘条3、红包发放&提醒左图:星秀猫开奖,右图:红包催用提醒飘条4、用户指引视频可以看到,弹层业务的交互形态是灵活多变的,业务目标诉求也各有不同。其背后有着各自业务层面的复杂诉求和增长目标。PopLayer为此提供了一套端侧弹层管理SDK+投放系统的整体解决方案。PopLayer常规投放&生效流程注:PopLayer是以端侧中间件为核心进行建设的,其中每个环节都有比较复杂的链路可以展开,这里我们不展开讨论端侧细节,主要讨论研发效率方面。在这套流程中,对业务方负担最重的,也是研发耗时最重的,便是前端页面的研发以及服务端接口的研发。且各个业务的曝光预判接口不断累积,也带来了非常大的资源浪费与QPS压力。随着弹层业务逐年增多,这套模式的弊端越来越凸显:研发效率低下。 以日常期间观察,研发一个图文类型弹层, 至少需要一个前端人员投入三天以上时间+一个后端人员投入三天以上时间+测试人员投入一天以上。运营效率低下。 运营策略往往受限于研发成本、资源调控、以及上线时间等等问题,而无法灵活展开与快速迭代。尤其在大促期间,很多快速决策的运营玩法无法及时且稳定地落地,丧失了关键时刻获取流量的机会。研发质量难以保证。 不同于整页研发,弹层存在一些特殊需要注意的问题。而研发人员接入PopLayer的流程熟悉程度往往有限,很容易因缺乏经验而产生线上异常,比如只有背景黑色遮罩弹出而内容加载失败(可以想一想会是什么状况)业务数据指标没有统一标准, 无法形成客观统一的业务指标,无法通过数据快速定位问题,无法形成有效的数据沉淀与对比。整体方案难以沉淀复用。这样的研发成本,对于Pop这类往往需要快速响应的业务需求,是远远不能满足的。尤其在大促期间,对时效性要求很高,一个Pop从决策到上线,可能仅仅只有1-2个小时的响应时间,一旦错过时机对业务的流量损失是巨大的。经过建设搭投模式,这套陈旧野生的研发流程终于得到了改变。如今,通过新模式, 一个常规的单图Pop几分钟就可以完成搭投。 业务方可以彻底解放双手,集中精力在更加优质的内容编排与制作上。PopLayer搭投模式对研发流程的影响PopLayer搭投模式Pop业务背景分析经过长期与业务深入合作,我们发现弹层的需求往往有一定的规律可循。PopLayer领域下的业务特征大体如下:UI结构轻量: 主要为底图+内部图文混合的UI结构,视觉复杂度有限点击交互可枚举: 跳转页面、关闭Pop、发送后端接口、切换内部子页面等组件复用性低、整体复用性高: 每个Pop内部可复用的组件几乎不存在,更应该以一个完整的Pop作为一个模板进行维护和复用Pop特有逻辑较多, 比如疲劳度规则、各类数据来源变量解析等那么实现一套统一标准的搭建-投放链路,从前后端等各个方面逐个击破,来承载业务的大部分高频需求,支持其快速、无研发迭代上线,便成了解决这类问题的首选方案。得益于这套标准化的前端协议规则,我们可以将PopLayer的触发范围,从APP站内触达,向其他流量场横向扩展,比如Android桌面、H5环境等,这部分后文将会展开讨论。搭投模式架构搭投模式方案框架图我们通过锁定 无研发搭建+多端多领域统一框架 的解决方案,支持运营与业务快速完成各类弹层小时级上线。其链路主要包括如下几个部分:搭建设计一套Pop业务域内的统一业务描述DSL,来描述Pop的全部UI架构、数据提取规则、交互逻辑等等内容。以其为核心,完成搭建与各端各领域的解耦搭建IDE,提供友好的编辑界面、实时动态预览、真机预览、搭完即投等业务服务,最终产生标准DSL内容投放探索除APP站内之外的更多触达领域,包括Android桌面环境、H5环境研发DSL运行时解析引擎,并完成统一体验的Pop渲染及交互ServerLess服务提供一体化人群预判服务提供权益、AB与模板搭建的打包配置能力,无需业务方自建实验、自研权益对接将单场景多Pop情况下的预判QPS压力,降低为单场景组合预判模式,有效降低服务端压力搭建搭建与DSLDSL,即领域特定描述语言,是为了解决特定领域问题而形成的编程语言或规范语言。在Pop业务域下,我们无需形成编程语言,甚至追求尽可能低研发,所以这里的DSL即为一种Pop业务域范围内的规范描述语言。Pop的DSL格式为常用的JSON格式。其整体结构为pages-UI动线、props-变量解析、requests-请求接口、env-环境全局配置。下面我们从交互动线结构、变量解析、事件结构、疲劳度几个方面分别介绍DSL描述的主要内容。1、交互动线与UI结构交互动线视频视频以如上的测试Demo为例,我们可以看到其基本动线为:展示开奖图文,点击后,进入第二页红包获取图文。但实际针对部分不同策略的用户,会如第二个视频,直接展示其红包获取图文。对应到DSL,我们提供了多子页面+多版本的描述方案,即通过创建多个子页面+每个子页面的多个版本来完成动线素材,并通过设置事件动作,完成动线串联。对应到DSL的结构,即通过pages+vers以树形结构分别描述各个子页面版本。其整体示例如下:布局版型Pop的布局版型是多种多样的,但基本可归类为如下几种:居中、四角挂角、四边贴边。DSL设计中,每一个子页面都可以单独设置其布局版型。不同的版型,会以不同的布局逻辑计算其大小位置。UI组件Pop形态下的UI组件,基于围绕着如下几个类型展开:图片、文本、视频、容器、倒计时、点击热区等。即通过提供大图或视频为背景,并通过容器+内部组件形成内部复杂的界面布局。我们针对各个组件提供了统一的布局配置+各自不同的素材配置。以一个倒计时组件为例:2、变量数据提取与绑定变量数据提取Pop的内容与服务端数据做绑定时,需要提供一套提取数据的描述方案。而数据来源因Pop的整体链路设计,存在多个可能来源。我们通过 指定数据来源+提供插入式Mtop接口配置+接口数据提取Function 完成数据提取的设置,形成一个变量。仍以上述Demo为例,其中红包金额的变量为服务端Mtop接口返回数据。其提取流程示例:即通过预判MTOP接口数据源,通过JSONPath,并指定其数据位置完成提取。在某些较为复杂的情况下,有时数据来源需要多层解析(JSONPath+URLDecode+URLParse),那么也支持其设置串行多层解析。变量绑定解析结束的变量,即视为一种全局资源,其可以绑定到各种内容与其他数据上,哪里需要哪里搬。比如图片地址、文本内容、toast内容、跳转地址、MTOP请求参数等等。其实现方案为常用的字符串模板表达式${prop_name},进行运行时替换。3、事件结构大多情况下,Pop内的事件,即为用户点击事件,但随着业务复杂度的提升,例如视频播放结束、视频加载失败、倒计时结束等时机也需要响应事件,我们便提供了统一的事件描述,方便挂载到各个组件事件配置上。而事件的类型。即为跳转场景、切换子页面、发送MTOP接口、关闭Pop等,我们分别对这些事件提供了对应的封装描述。此处细节较多暂不展开。4、疲劳度疲劳度是Pop投放策略的重要组成部分之一。疲劳度的设计分为疲劳度规则+疲劳度消耗规则。例如Pop需要用户每天曝光不设限,但点击后当天不再弹出。那么其疲劳度规则为一天一次,而消耗规则即为点击时消耗。通过这样的实现方式,则可以非常灵活的实现各类疲劳度需求,做到想怎么弹就怎么弹。在DSL的曝光、关闭、以及每个事件结构中,均有疲劳度消耗规则,而疲劳度整体规则,则通过不同的疲劳度表达式完成配置。搭建IDEIDE的核心功能,即为业务用户提供一个 实时可视化、随时可真机预览、搭完即投 的一站式搭建编辑器。其产出,则是产生一份描述业务完整需求的DSL内容。目前已为业务提供包括 页面搭建、数据管理、曝光判定、疲劳度规则、降级策略、埋点配置 等方面的搭建服务。搭建IDE投放如方案框架图所示,搭投模式的目标不仅仅是在APP站内完成Pop投放,还需要在Android桌面、站外H5这样的环境里完成一站式多端投放。我们可以把目前涉及的几个流量域,称为投放领域。APP站内的触发流程,即PopLayer端侧中间件,功能上有非常丰富的积累,可支撑几乎所有Pop业务的各方面诉求,此处不进行展开,本文将从弹出Pop后的解析引擎、Android桌面的投放领域支持方面进行介绍。运行时解析引擎针对不同的投放领域,需要形成各自的运行时解析引擎,目前我们完成了APP站内引擎:负责站内+Android桌面的解析渲染,以及H5站外引擎:负责H5环境下的解析渲染。这里我们主要针对站内引擎进行介绍。PreDisplay + Running解析引擎的主体工作流程,分为PreDisplay阶段:获取DSL、获取各环境数据、解析变量、完成UI渲染并曝光,以及Running阶段:在曝光后的事件交互处理。解析引擎工作流在执行display之前,Pop为隐形状态,用户无感知。经过如上图的DSL解析、同步各类环境数据、变量解析、曝光判定、素材加载等流程后,通过display接口,完成最终曝光。为了达到双端统一的渲染效果、高适配性、以及高性能渲染的要求,站内引擎的底层载体目前为Rax方案。基于Rax完善的工程化支持,我们得以完成一系列上层方案,无需过度关注动态性、适配性等问题。Android桌面流量域打通对于手淘这样日活流量足够大的APP,其Android桌面的触达流量价值同样是巨大的。相比APP站内的Pop触达,其更加拥有包括加强唤端、二方流量交换这样的独特价值。在有规则规范的投放前提下,我们可以通过端侧中间件建设,把Pop搭投的能力无差别的输出到桌面环境,使其成为Pop触达生态的一环。其具体的触达形态,则可以是顶部消息、挂角提醒等。其底层实现方案为Android悬浮窗。桌面Pop的效果Demo如下:桌面Pop方案框架首先,我们将桌面与站内进行了包括端侧、投放侧的搭投能力对齐,使一个搭建产生的页面,即可以投放在手淘里,也可以投放在桌面上。为此我们抹平了底层方案不同带来的差异,包括:搭投模式与站内一致,同样采用标准DSL+解析引擎完成渲染通过控制Window添加次序来对齐层级管理通过控制视窗大小位置,控制其可绘图区域;通过搭建输出可视区域位移量,对视窗内容进行位移还原窗口内容另外,我们提供了桌面环境的特殊处理:增加了切换桌面触发时机(计划触发,适合计划常驻),并打通了ACCS消息触发时机(即时触发,适合消息类型)增加了自由拖拽、边侧自动吸附功能由于桌面环境的特殊性,应避免对用户形成严重的干扰。那么桌面触达的规则管理则十分重要。目前我们设计了如下避免过度干扰的规则:桌面环境的Pop必须有明确明显的关闭按钮切换其他APP时,需要将Pop内容进行隐藏,对于Android高版本则进行倒计时后自动关闭设置桌面的弹出管理底层与站内一致,采用分层分优先级管理,并对一次桌面切换的曝光次数进行上限设置ServerLess相关建设从上述投放流程图可以看到,业务对于曝光预判、业务数据方面都是需要服务端的人力投入的。即除前端的研发成本问题,服务端同样面临类似的问题。我们梳理业务目前痛点如下:人力消耗大,大促时效性差机器资源消耗大全量配置下发+全量接口预判的模式,导致单活动机器资源消耗大;单场景(比如手淘首页)下的Pop往往存在多个,活动之间筛选独立进行,导致机器消耗总量增长快(QPS总量随活动数线性增加且无上限)稳定性风险高临时开发的模式,加上人员开发质量层次不齐,稳定性很难保障。业务需要自己投入精力维护稳定性,特别是每次大促的时候应对突发流量为此我们实现了对业务进行一站式托管服务。核心目标为:实现权益、导流这两个业务领域的无研发极速上线降低机器资源消耗,在线活动数量不再受机器资源限制托管业务全年0故障通过拆解上文的投放流程图,可以看到服务端的工作主要包括曝光预判接口,以及页面内的业务数据接口。我们针对两部分分别进行部分托管建设,架构图设计如下:ServerLess服务架构针对曝光预判接口,我们提供了单场景多活动的人群预判复用能力,即将人群圈选的预判模式统一集中管理,底层与奥格人群平台二方包打通,上层单场景仅透出一个整合接口。从过去每次切换页面触发N次预判接口,变为仅触发一次。业务也无需自研人群接口,仅需把人群包ID进行配置即可。针对内容数据接口,我们仍在建设中。计划通过底层打通了拉菲权益平台二方包,将权益类型(红包、优惠券等)直接整合进搭建体系中,业务无需进行复杂的权益能力对接,仅需提供权益ID配置即可。整体效果除文章开头提到双十一期间的业务覆盖率已经达到75%之外,得益于搭投模式对研发效率的提升,今年双十一期间,手淘内Pop的业务量和整体流量也有了大幅度飞跃:除此之外,今年我们快速稳定地响应了大促期间的全部紧急需求,避免出现过去几年因封网、研发效率等问题带来的无法上线Pop的情况。写在最后PopLayer目前除手淘外,已经服务了集团众多APP,包括天猫、淘宝特价版、闲鱼、淘宝直播、饿了么、Lazada、零售通、AE等等。 后续也将继续以手淘为核心,服务更多的集团业务。通过双十一大促期间以及日常的业务覆盖率,我们印证了搭投模式+ServerLess对业务的价值。站在业务的角度思考,Pop这类“既轻量又复杂”的业务域,经过一番深挖的底层支持,可以大幅度破除业务的桎梏,让其解放双手,去快速通过“提出idea-搭投-AB-看数据-再次迭代”的模式得到最佳的业务结果。这套研发模式的优化,从思考如何研发变为如何尽可能封装研发,对于相对轻量级的业务域来说也是有输出价值的。后续,我们一方面将会继续完善相关建设,将AB、标签+推荐系统、引擎加载页面性能优化等等进行深度挖掘,从研发效率提升,升级到业务价值提升;另一方面也会将Pop的建设经验沉淀成流量域方法论的一部分,输出到其他流量域中,为业务探索与构建更有价值的流量增长矩阵。本文转载自公众号淘系技术(ID:AlibabaMTT)。原文链接:手淘双11最新实践:PopLayer弹层领域研发模式升级
| 1,549 | 1,606,874,400,055 |
InfoQ
|
272 |
CI/CD 工具选型:GitLab 还是 AWS?
|
本文最初发布于beSharp,经原作者授权由InfoQ中文站翻译并分享。GitLab已成为一款广受欢迎的、集众多功能于一身的DevOps工具,它既可以在内部部署,又有SaaS版本供人选择。代码库维护、流水线运行,以及管理项目信息等常用任务,免费版GitLab足矣。亚马逊云服务(AWS)则采用按实际使用量付费的模式,借助一系列包括AWS CodeCommit、AWS CodeBuild、AWS CodePipeline在内的服务,实现了CI/CD的最佳实践。在规划新业务,或是将老应用迁移到云端时,如何选择合适的工具一直都是个伤脑筋的事。但不要担心,我亲爱的开发者们——这篇文章将通过一场终极巅峰对决来帮你理清头绪!既然目标是云环境,那么我们首先需要找到一个共同的战场来展开决斗:公平起见,我们将应用AWS架构完善的框架详解(AWS Well-Architected Framework),该框架由AWS设计,旨在帮助用户设计可维护、安全、弹性、高效,且具有成本效益的应用程序和架构。我们将以AWS的五大基础支柱:卓越操作、安全性、可靠性、性能效率,以及成本效益为设计参考。因为这五大支柱并不涉及AWS的具体服务项目,所以可以被广泛应用在任何服务或基础设施的构建上。接下来让我们热烈欢迎选手入场!两方选手,GitLab和AWS CodePipeline,正在进行热身!比赛规则在这场GitLab和AWS CodePipeline的虚拟比赛中,规则如下:五大支柱中每一条算作一轮,最终根据支柱的设计原则进行评分。第一轮:卓越操作在这一轮比赛中,我们将依据以下规则进行评分:以代码形式进行操作频繁进行小规模、可逆修改频繁完善操作程序预测失败从所有的操作失败中吸取教训GitLab和CodePipeline可以为不同的任务定义不同的流水线,项目的构建和部署也都可以用yaml模板解决。因此,定义不同阶段,并在每个阶段中执行步骤是可行的。我们将使用这个示例。GitLab服务器端:image: python:latest
variables:
PIP_CACHE_DIR: "$CI_PROJECT_DIR/.cache/pip"
test:
script:
- python setup.py test
- pip install tox flake8 # you can also use tox
- tox -e py36,flake8
run:
script:
- python setup.py bdist_wheel
- pip install dist/*
artifacts:
paths:
- dist/*.whl轮到CodePipeline上场:version: 0.2
env:
variables: PIP_CACHE_DIR: "$CI_PROJECT_DIR/.cache/pip"
phases:
test:
- python setup.py test
- pip install tox flake8 # you can also use tox
- tox -e py36,flake8
run:
- python setup.py bdist_wheel
- pip install dist/*
artifacts:
files:
- dist/*.whlGitLab允许定义构建用image,而CodePipeline则允许在流水线中定义,而非是构建过程中定义image。二者语法清晰且相当类似,派生也非常灵活。1-1 平手。无论如何,CodePipeline允许使用Cloud Formation部署全部的基础架构堆栈。这就意味着整体架构的持续交付!CodePipeline暂时领先:2-1第二轮:安全性在这一轮比赛中,我们将根据以下规则进行评分:允许追溯在所有层面中实施安全防护自动化最佳安全措施保护传输状态与非传输状态中的数据确保非授权人员无法接触数据为安全事件做好准备GitLab提供的认证机制让用户可以利用其他IdP,诸如Active Directory和SAML的联盟,如果有好好规划过配置的话,就将能享受到集中式用户管理的优势。总之,如果你的组同样需要SAML SSO的话,那么你恐怕只能选择付费计划了。AWS CodePipeLine使用与AWS相同的身份验证与授权层:其具有Active Directory、SAML,以及......为group服务的SAML SSO。鉴于GitLab免费版并不能提供所有的身份验证功能,AWS领先一分。下面让我们来看看可追溯性和让人们远离数据:GitLab中的审计日志仅在可在付费版中查看,而CloudTrail的审计日志则是注册可用,并且账户中所有服务均可使用。AWS得分:3-1于GitLab而言,最难处理的部分可以在GitLab上关于运行程序安全性和存储数据(缓存和构件)加密的公开issue和讨论中找到。利用AWS服务部署应用则更需要考虑runner-manager角色的授权问题。部署使用不同服务的不同应用,需要授予runner更多的权限,或者你也可以选择生成更多的runner,并授予他们最低访问权限。需要注意的是,这样做会导致资源数量和成本的增加。因为AWS可以为每一款服务提供存储与传输时数据加密,这一轮的获胜者是AWS。另外,IAM角色还可以让你免去使用token,密钥(access key)或者其他脆弱的服务认证机制。CodePipeline再得一分!目前比分:4-1。第三轮:可靠性在这一轮比赛中,我们将根据以下几点进行评分:故障恢复自动化恢复测试程序横向扩展提高总工作负载的可用性停止猜测容量自动管理变更在进一步讨论之前,请注意,这一次的结果很大程度上取决于,你对使用这两种服务中实现构建环境时的期望。GitLab和AWS CodePipeline都拥有横向可扩展的特点,二者都可以自动完成变更、无需人为干预即可自动进行高级容量规划(为GitLab使用单个大型内部runner除外)二者各得一分,比分5-2。而在扩展的灵活性上,GitLab使用的是插件系统,用户也可以使用自定义执行器。这项功能可以称得上是意外之喜了,干得漂亮GitLab:5-3。AWS CodePipeLine允许用户使用多可用区部署。举例来说,这项功能可以确保在eu-west-1-a区出现故障时,用户的构建可以在另外两个可用区中运行。需要注意,如果你使用的是GitLab的EC2自动扩展插件,将无法实现多可用区部署。下面的配置示例来源于这个示例。[runners.machine]
IdleCount = 1
IdleTime = 1800
MaxBuilds = 10
MachineDriver = "amazonec2"
MachineName = "gitlab-docker-machine-%s"
MachineOptions = [
"amazonec2-access-key=XXXX",
"amazonec2-secret-key=XXXX",
"amazonec2-region=us-central-1",
"amazonec2-vpc-id=vpc-xxxxx",
"amazonec2-subnet-id=subnet-xxxxx",
"amazonec2-zone=x",
"amazonec2-use-private-address=true",
"amazonec2-tags=runner-manager-name,gitlab-aws-autoscaler,gitlab,true,gitlab-runner-autoscale,true",
"amazonec2-security-group=xxxxx",
"amazonec2-instance-type=m4.2xlarge",
]由此可见,只设置一个子网和一个可用区是可行的。这样一来,当这个区域发生故障是,你的配置同样也会失败。AWS得分,现在比分6-3。注意,虽然你可以选择使用自定义执行器来提高可靠性,但这样一来,你就需要自己开发并测试,会浪费不少时间。接下来让我们继续最后两轮的比赛。第四轮:性能效率在这一轮比赛中,我们将根据以下几点进行评分:先进技术的民主化只需几分钟便可全球化使用无服务架构多做实验在考虑到的情况下,请注意以下几点特殊情况即使GitLab与Code Pipeline有许多共同点,但GitLab支持许多不同的部署和配置,在灵活性上更胜一筹。GitLab再得一分:6-4另一方面,CodePipeline对Fargate平台上的无服务器构建提供了更好的支持,相比之下,GitLab对部分无服务器方式支持有限。举例来说,你不能在fargate自定义执行程序的同一个Docker套接字中使用Docker中的Docker。看来这一轮比赛又是平局收场。AWS Pipeline和GitLab各得一分,现在比分:7-4。第五轮:成本效益在这一轮比赛中,我们将根据以下几点进行评分:实现云财务管理采用消费模式衡量整体效率拒接将钱花费在无意义的重活上分析和分配支出首先让我们来分析一下这两款服务的定价模式。GitLab选择基于买家的定价模式,而AWS的账户则是免费的。CodeBuild的收费是根据用户使用资源构建的持续时间,按分钟计费。假设使用general1.small(双核3GB RAM),那么费用将会是5美元/1000分钟。而使用GitLab的共享runner,费用将会是10美元/1,000分钟(前2,000分钟免费)。如果你不想使用GitLab的共享runner,那么你还有AWS的Auto Scaling可选。但请记住,你需要为runner管理准备一个EC2示例,而为了构建能够扩展,你还需要再准备一个示例。你也可以可以在业务允许的情况下,选择提前购买预购示例,或者使用现货示例。对于这一轮比赛,胜者毫无疑问:AWS CodePipeline以更多的预建和开箱即用的集成解决方案夺得最后一分!结论两款最广泛使用的服务之间的友谊赛已经结束。以8-4的比分,让我们欢迎AWS CodePipeline登上冠军的领奖台!AWS会保持它的霸主地位吗?不要误会,GitLab仍然是个非常优秀的服务。对团队而言,它拥有强大的功能;对开发者来说,它拥有顶级的用户体验。在某些特定的条件、特定的用例下,它仍是最好的选择。而在其他的情况下,二选一永远不是个好主意。根据不同的需求,两种服务的共同使用可能是个更明智的选择。原文链接GitLab VS AWS CodePipeline: the ultimate Battle Royal!
| 4,646 | 1,606,640,360,487 |
InfoQ
|
273 |
AWS Nitro Enclaves – 隔离 EC2 环境以处理机密数据
|
我对 AWS Nitro 系统进行的第一次介绍如下:Nitro 系统是一个能够以多种不同方式组合的丰富构建块集合,可以让我们灵活地设计并快速交付 EC2 实例类型,并提供不断增加的计算、存储、内存和网络选项。到目前为止,我们已经使用这些构建块实现了这一承诺,并已推出(举几个例子来说)M5、C5、R5、T3、I3、A1、P3dn、z1d 和高内存实例。我们快速增长的实例集合旨在满足同样快速增长的客户需求和要求。一项新的隔离挑战金融服务、国防、媒体和娱乐以及生命科学各行各业的 AWS 客户都会在 AWS 云上定期处理高度敏感的数据。他们在执行此操作时,需要防止内部和外部威胁,而且需要处理涉及到多个互不信任的合作伙伴、供应商、客户和员工的复杂情况。如今,他们使用 VPC 创建连接受控、有限的高度隔离环境,仅限有限用户集访问该环境。Nitro Enclaves今天,我们推出 AWS Nitro Enclaves,以此来解决此重要需求。您可以使用此服务在任何由 Nitro 系统提供支持的 EC2 实例上创建隔离环境。Nitro 系统已隔离在同一硬件上运行的多个 EC2 实例。Nitro Enclaves 通过分隔单个“父级”EC2 实例的 CPU 和内存来提供额外的隔离,防止高度敏感的数据被在同一个实例上运行的其他用户或应用程序访问。该环境经证明非常安全,且不会被在父级 EC2 实例上运行的其他应用程序、用户或进程访问。它非常灵活,旨在满足要求最苛刻的生产工作负载的需求,并使您能够完全控制分配给隔离环境的内存量和处理能力。我们在推出该服务时支持为每个 EC2 实例创建单个 Enclave,并将在未来增加对多个 Enclave 的支持。您可以将实例的所有核心(仅一个除外)(使用超线程处理器的实例上的 2 个 vCPU)以及几乎所有的内存用于您的 Enclave:每个 Enclave 运行一个独立的内核,并且可以独占访问内存和 CPU 资源。Enclave 没有外部网络连接,没有持久存储,也没有用户访问权限(即使拥有完全 IAM 权限)。流入和流出 Enclave 的所有数据都会通过在 EC2 实例上终止的本地虚拟套接字 (vsock) 连接移动。Nitro 管理程序在创建每个 Nitro Enclave 时会创建并签署证明文档。该文档包含(除其他外)一组平台配置注册表 (PCR),它们可提供引导过程的密码学可靠性测量值。这些值附加到 KMS 密钥策略时,用于验证是否使用了预期的映像、操作系统、应用程序、IAM 角色和实例 ID 来创建 Enclave。KMS 执行此验证步骤后,将执行在 Enclave 中运行的代码所请求的所需 API 操作(解密、生成数据密钥或生成随机值)。创建和使用 Enclave实例必须运行包含新 Nitro CLI 的 AMI。按设计,这些工具在托管 Enclave 的实例上运行。实例本身必须在启用 enclave-enabled 选项的情况下启动:$ aws ec2 run-instances ... --enclave-options Enabled=true
为方便起见,可以将 Docker 映像用作 Enclave 映像 (*.eif) 的依据。我使用 Nitro CLI 存储库中的 hello 示例来构建 docker 映像:$ docker build hello -t hello
然后再构建 EIF:$ nitro-cli build-enclave --docker-uri hello:latest --output-file hello.eif
正如我前面提到的,PCR 用于验证预期的映像,内核和应用程序是否在 Enclave 中运行。以下是我构建 EIF 时生成的三个 PCR:PCR0 – 映像的 SHA384 哈希值。PCR1 – 操作系统内核和引导过程的 SHA384 哈希值。PCR2 – 应用程序的 SHA384 哈希值。Start building the Enclave Image...
Start building the Enclave Image...
Enclave Image successfully created.
Enclave Image successfully created.
{
"Measurements": {
"HashAlgorithm": "Sha384 { ... }",
"PCR0": "951f851181bb490bd112b8ab855e40e3ac60c0dcc31e408c5b8485f85c4db276b1753b401dcc0a787ff79c2fae81b3ae",
"PCR1": "aca6e62ffbf5f7deccac452d7f8cee1b94048faf62afc16c8ab68c9fed8c38010c73a669f9a36e596032f0b973d21895",
"PCR2": "242201df93225622132c9f3b0c315fbc85485c6aa7a2ced2491d5a290c015c053d5d5a7028b13f3a23a22c2e529d29de"
}
}
接下来,我启动 Enclave(我使用调试模式进行测试):$ nitro-cli run-enclave --eif-path hello.eif --memory 512 --cpu-count 2 --debug-mode
Start allocating memory...
Started enclave with enclave-cid: 21, memory: 512 MiB, cpu-ids: [1, 9]
{
"EnclaveID": "i-070d1d4d2f0389aea-enc1755616f36f444b",
"ProcessID": 4720,
"EnclaveCID": 21,
"NumberOfCPUs": 2,
"CPUIDs": [
1,
9
],
"MemoryMiB": 512
}
我的 Enclave 如下所示:$ nitro-cli describe-enclaves
[
{
"EnclaveID": "i-070d1d4d2f0389aea-enc1755616f36f444b",
"ProcessID": 4720,
"EnclaveCID": 21,
"NumberOfCPUs": 2,
"CPUIDs": [
1,
9
],
"MemoryMiB": 512,
"State": "RUNNING",
"Flags": "DEBUG_MODE"
}
]
接下来看看控制台输出(仅在调试模式下提供):$ nitro-cli console --enclave-id i-070d1d4d2f0389aea-enc1755616f36f444b
Connecting to the console for enclave 21...
Successfully connected to the console.
Command line: reboot=k panic=30 pci=off nomodules console=ttyS0 i8042.noaux i8042.nomux i8042.nopnp i8042.dumbkbd random.trust_cpu=on virtio_mmio.device=4K@0xd0000000:5 virtio_mmio.device=4K@0xd0001000:6
[ 0.000000] x86/fpu: Supporting XSAVE feature 0x001: 'x87 floating point registers'
[ 0.000000] x86/fpu: Supporting XSAVE feature 0x002: 'SSE registers'
...
[ 1] Hello from the enclave side!
[ 2] Hello from the enclave side!
[ 3] Hello from the enclave side!
[ 4] Hello from the enclave side!
[ 5] Hello from the enclave side!
在真实的生产场景中,我的映像将被配置用来启动我的 Enclave 应用程序代码。我的代码将使用 Nitro Enclaves 开发工具包与 KMS 通信,以获取密钥并解密传入的数据。它还会使用 KMS 提供的数据密钥在任何数据被处理后对其进行加密。当我完成了 Enclave 的所有操作后,我将终止它:$ nitro-cli terminate-enclave --enclave-id i-070d1d4d2f0389aea-enc1755616f36f444b
Successfully terminated enclave i-070d1d4d2f0389aea-enc1755616f36f444b.
{
"EnclaveID": "i-070d1d4d2f0389aea-enc1755616f36f444b",
"Terminated": true
}
证明至此,我已向您展示如何设置、运行及最后终止 Enclave。下面我们来谈谈极为重要的证明概念。简而言之,证明是一个过程,它可以让您确定在 Enclave 中运行的映像、操作系统和应用程序代码没有被无意中修改或以任何方式篡改。如前所述,PCR 值提供了每个元素的密码学可靠性表示。在真实环境中,我将创建一个 KMS 密钥策略,以将 PCR 值作为 Condition 语句的一部分进行检查:"Condition": {
"StringEqualsIgnoreCase": {
"kms:RecipientAttestation:ImageSha384": "ecfd7aa6d1dcca1e0bba646e7d49ede2761651c68f13cee68b1141c182cd836baae37d05dd8e6260aa847369a7b27e24"
}
适用于 Nitro Enclaves 的 AWS Certificate Manager 是一个示例应用程序,该应用程序允许您将免费的公有和私有 SSL/TLS 证书与在具有 AWS Nitro Enclaves 的 EC2 实例上运行的 Web 应用程序和 Web 服务器一起使用。要了解更多信息,请阅读 Nitro Enclaves 应用程序:适用于 Nitro Enclaves 的 AWS Certificate Manager。现已推出您可以立即开始在美国东部(弗吉尼亚北部)、美国东部(俄亥俄)、美国西部(俄勒冈)、欧洲(法兰克福)、欧洲(爱尔兰)、欧洲(伦敦)、欧洲(巴黎)、欧洲(斯德哥尔摩)、亚太地区(香港)、亚太地区(孟买)、亚太地区(新加坡)、亚太地区(悉尼)、亚太地区(东京)和南美洲(圣保罗)区域基于 Intel 和 AMD 处理器上立即创建和使用 Enclave,无需额外费用,更多区域及对基于 Graviton 的处理器的支持即将推出。您只需按通常费率为 EC2 实例以及对 KMS 的任何调用付费。– Jeff;本文转载自亚马逊AWS官方博客。原文链接:AWS Nitro Enclaves – 隔离 EC2 环境以处理机密数据
| 807 | 1,606,629,600,102 |
InfoQ
|
274 |
使用A/B测试衡量Amazon Personalize推荐结果的有效性
|
Original URL: https://aws.amazon.com/cn/blogs/machine-learning/using-a-b-testing-to-measure-the-efficacy-of-recommendations-generated-by-amazon-personalize/基于机器学习(ML)的推荐系统早已不是什么新鲜概念,但开发这类系统仍是一项需要投入大量资源的任务。无论是训练与推理期间的数据管理,还是运营具备可扩展性的机器学习实时API端点,都着实令人头痛。Amazon Personalize 将Amazon.com过去二十多年来使用的同一套机器学习技术体系交付至您手中,轻松将复杂的个性化功能引入到您的应用程序,且无需任何机器学习专业知识。当前,来自零售、媒体与娱乐、游戏、旅游乃至酒店等行业的无数客户都在使用Amazon Personalize为用户提供个性化的内容推荐服务。在Amazon Personalize的帮助下,您可以实现一系列常见用例,包括为用户提供个性化商品推荐、显示相似商品以及根据用户喜好对商品进行重新排序等。Amazon Personalize能够自动使用您的用户-项目交互数据进行机器学习模型训练,并提供API以检索面向任意用户的个性化推荐结果。很多朋友都抱有这样的疑问:我们该如何将Amazon Personalize生成的推荐结果,与现有推荐系统进行性能比较呢?为了解答这个问题,我们将在本文中介绍如何使用Amazon Personalize执行A/B测试,这是一种用于对不同推荐策略进行有效性比较的常用技术。大家可以在AWS管理控制台上,或者通过Amazon Personalize API快速创建一套实时推荐系统,具体操作步骤如下:导入您的历史用户-项目交互数据。根据实际用例,使用Amazon Personalize机器学习算法(也被称为recipes)启动一项训练作业。部署一个由Amazon Personalize托管的实时推荐端点(亦被称为campaign)。通过将事件流传递至附加在Amazon Personalize部署当中的 event tracker,实现对新用户-项目交互的实时记录。下图展示了Amazon Personalize具体管理的各项任务。指标概述我们可以通过离线和在线指标对机器学习推荐系统的性能加以衡量。离线指标用于查看修改超参数与模型训练算法后的实际效果,可以根据历史数据计算得出。在线指标则是对用户与实时环境中的实时推荐进行互动时,观察到的实际效果。Amazon Personalize使用由历史数据中的测试数据集生成离线指标。这些指标能够展示模型如何根据历史数据生成新的推荐。下图展示了Amazon Personalize在训练过程中对数据进行拆分的简单示例。我们假定使用一套包含10位用户的训练数据集,每位用户分别进行了10次交互。交互通过圆圈进行表示,并根据时间戳从最早到最新进行排序。在此示例中,Amazon Personalize将使用90%的用户交互数据(蓝色圆圈)进行模型训练,另外10%则用于模型评估。对于评估数据子集中的用户,其交互数据中又有90%(绿色圆圈)作为已训练模型的输入,而其余10%的数据(橙色圆圈)则与输出进行比较以验证模型推荐结果的质量。比较的结果通过评估指标进行展示。Amazon Personalize将生成以下指标:Coverage(覆盖率) – 此项指标适合展示推荐项目覆盖到全部库存项目中的比例(百分比形式)。Mean reciprocal rank at 25 (前25项中平均排名倒数) – 这项指标主要适合指示单一排名最高的推荐结果。Normalized discounted cumulative gain at K (K项标准化折现累计收益) – 折现累计收益是一种衡量排名质量的方法,主要关注推荐结果的顺序。Precision at K (精度) – 此项指标主要用于衡量前K项推荐的精度,具体产生了怎样的用户宣传效果。关于Amazon Personalize如何计算这些指标的更多详细信息,请参阅评估解决方案版本。离线指标能够有效表示我们的超参数与数据特征,如何根据历史数据中的模式影响模型的预测性能。要探寻Amazon Personalize推荐结果对您业务指标(例如点击率、转化率或收入)产生影响的经验性证据,您应该在实时环境中对推荐结果进行测试,并将其实际展示在客户面前。这方面测试非常重要,因为此类业务指标的哪怕一点微小改进,都有可能推动客户参与度、满意度以及业务产出(例如收入)的显著增长。在以下内容中,我们将提出一种实验方法论与参考架构,供大家借此确定以随机方式向用户提供多种推荐策略(例如Amazon Personalize与现有推荐系统)的实现方法,并以科学合理的方式(A/B测试)衡量二者之间的性能差异。实验方法通过多项实验收集到的数据,将帮助您根据业务指标衡量Amazon Personalize推荐结果的实际效果。下图说明了我们建议遵循的实验方法。整个流程包含五个步骤:研究 ——具体提出的问题以及指标改进定义,完全基于您在实验开始之前收集到的数据。例如在浏览历史数据之后,大家可能会希望了解为什么购物车中的商品长期“吃灰”,或者向潜在客户展示的广告为何无人问津。提出假设 ——根据研究阶段收集到的数据进行观察,建立一个关于变更与效果的基本假设。请注意,这些假设必须可以量化,例如通过在购物车页面上展示Amazon Personalize campaign提供的用户个性化推荐,令购物车的平均结算金额提升了10%。根据假设创建变量 ——实验的变量调整将以您当前评估的假设行为为基础。与现有基于规则的推荐系统相比,您可以将新创建的Amazon Personalize campaign视为实验的变量。运行实验 ——您可以使用多种技术测试您的推荐系统;本文重点介绍A/B测试方法。实验期间收集到的指标数据将可用于验证基本假设是否有效。例如,在将Amazon Personalize推荐结果添加至购物车页面一个月之后,购物车的平均结算金额与继续使用原有推荐系统的购物车平均结算金额相比增长了10%。衡量结果 ——在此步骤中,我们需要确定新系统是否带来了具有统计学意义的改进,并从中选择效果最佳的变量。购物车平均结算金额的增长,到底是用户测试集中随机性带来的结果,还是受到全新Amazon Personalize campaign的切实推动?对您的 Amazon Personalize部署进行A/B测试下面的架构展示了两项Amazon Personalize campaign之间基于微服务的A/B测试实验示例。其中一项campaign使用Amazon Personalize提供的推荐recipe训练而成,另一项则由该recipe的变体训练得来。Amazon Personalize提供多种预先定义的机器学习算法(recipes);其中基于HRNN的recipe能够帮助您为用户生成个性化推荐结果。这套架构比较了两项Amazon Personalize campaign。在将Amazon Personalize campaign与基于自定义规则/基于机器学习的推荐系统进行比较时,请注意使用相同的测试逻辑。关于campaign的更多详细信息,请参阅创建campaign。这套架构的基本工作流程如下:Web应用程序向推荐微服务请求客户推荐结果。微服务确定是否存在活动的A/B测试。在本文中,我们假定您的测试策略设置存储在 Amazon DynamoDB当中。当微服务识别出您的客户所属的群组时,即开始解析Amazon Personalize campaign端点以查询推荐结果。Amazon Personalize campaigns为您的用户提供推荐结果。用户与其所在的群组推荐结果进行交互。Web应用程序将用户交互事件流式传输至 Amazon Kinesis Data Streams。微服务使用Kinesis流,该流将用户交互事件发送至两个Amazon Personalize event trackers处。Amazon Personalize提供Recording events(事件记录)功能,可收集实时用户交互数据并实时提供相关推荐。Amazon Kinesis Data Firehose提取您的用户-项目交互流,并将互动数据存储在 Amazon Simple Storage Service (Amazon S3)当中以用于后续训练作业。微服务会在整个实验过程中,持续跟踪您的预定义业务指标。关于运行A/B测试的具体操作说明,请参阅 Github repo上的示例零售店实验研讨部分。在A/B测试期间,对具有良好定义的业务指标进行持续跟踪是一项至关重要的任务。这些指标的变化与改进,直接对应着Amazon Personalize推荐结果的实际影响。在A/B测试当中测得的指标,必须在所有版本(A组与B组)之间保持一致。例如,电子商务网站可以评估在添加Amazon Personalize推荐(A组)后与原有基于规则的推荐系统(B组)获得的点击率之间的变化(增加或减少)。A/B实验需要在一段时间内保持运行,且通常由达到显著统计学变化所需要的用户数量决定。Optimizely, AB Tasty以及 Evan Miller’s Awesome A/B Tools等能够帮助您确定具体需要怎样的样本体量。A/B测试往往需要持续几天甚至几周时间,以从用户群体中收集到足够多的样本。下图展示了测试流程、模型调整以及成功推出新功能之间的反馈循环。为了保证A/B测试成功,您需要对收集到的整体数据进行统计分析,以确定结果中是否存在具有统计学意义的结果。此项分析将以您为实验设定的显著性水平为基础。目前行业标准一般将5%设定为基准显著性水平。例如,显著性水平为0.05则表示当实际情况没有差异时,结果有5%的几率存在差异。显著性水平设定得越低,则代表我们需要更强有力的证据才能获得具有统计学意义的结果。关于统计显著性的更多详细信息,请参阅统计学意义复习教程。下一步是计算p值。所谓p值,是指当原假设为真时,看到极端特殊结果出现的概率。换句话说,p值是给定样本中的预期波动,类似于方差。例如,假设我们进行一轮A/A测试,向两组用户展示完全相同的内容。经过这样的实验之后,两组之间的预期性指标结果虽然存在差异但已经非常相似,即p值大于我们设定的显著性水平。而在A/B测试中,我们则期望p值小于我们设定的显著性水平,由此即可得出结论,即变量组中确实存在对业务指标有所影响的因素。AWS合作伙伴(Amplitude 以及 Optimizely)提供了成熟的A/B测试工具,可帮助大家简化实验中的设置与分析步骤。A/B测试是对Amazon Personalize推荐结果有效性的统计学度量指标,可帮助大家量化这些推荐结果对业务指标的实际影响。此外,您还可以使用A/B测试收集用户-项目交互中的有机信息,借此对Amazon Personalize模型进行后续训练。我们建议您尽量控制离线测试的时长,尽快将Amazon Personalize推荐结果发布给实际用户。这有助于消除训练数据集中存在的系统性偏差,保证您的Amazon Personalize部署方案能够从真实客观的用户-项目交互数据中学习。总结Amazon Personalize是一项易于使用且具备高可扩展性的解决方案,能够帮助大家实现一系列常见的推荐系统用例:个性化推荐相似项目推荐项目个性化重新排名A/B测试还能够提供客户与Amazon Personalize推荐结果间实际交互方式的宝贵信息。这些结果将根据明确定义的业务指标进行衡量,使您了解推荐结果的有效性,以及该如何进一步调整训练数据集建立起明确认知。在对此过程进行多轮迭代之后,您会发现各项重要指标都将得到改善,客户参与度也将随之提高。如果本文对您有所帮助,或者在应用A/B测试改善业务指标方面对您有所启发,请和我们分享您的心得与体会。扩展资源关于Amazon Personalize的更多详细信息,请参阅:Amazon Personalize现将快速变化的新产品与全新内容目录的个性化推荐效果提升达50%运用上下文信息提升Amazon Personalize推荐结果的相关性使用Amazon Personalize过滤条目元数据增强推荐过滤器作者介绍:Luis Lopez SoriaAWS机器学习团队AI/ML专业解决方案架构师。他与AWS客户合作,帮助他们大规模采用机器学习技术。在业余时间,他喜爱运动、环游世界,以及体验新的食物与文化。本文转载自亚马逊AWS官方博客。原文链接:使用A/B测试衡量Amazon Personalize推荐结果的有效性
| 583 | 1,606,442,400,191 |
InfoQ
|
275 |
使用 Amazon Kinesis 快速构建流式数据分析架构
|
简介Amazon Kinesis 可让您轻松收集、处理和分析实时流数据,以便您及时获得见解并对新信息快速做出响应。Amazon Kinesis 提供多种核心功能,可以经济高效地处理任意规模的流数据,同时具有很高的灵活性,让您可以选择最符合应用程序需求的工具。借助 Amazon Kinesis,您可以获取视频、音频、应用程序日志和网站点击流等实时数据,也可以获取用于机器学习、分析和其他应用程序的 IoT 遥测数据。借助 Amazon Kinesis,您可以即刻对收到的数据进行处理和分析并做出响应,无需等到收集完全部数据后才开始进行处理。实际上,Amazon Kinesis包含以下四个服务:Amazon Kinesis Video Streams – 利用 Amazon Kinesis Video Streams,您可以轻松而安全地将视频从互联设备流式传输到 AWS,用于分析、机器学习 (ML) 和其他处理Amazon Kinesis Data Streams – Amazon Kinesis Data Streams 是一种可扩展且持久的实时数据流服务,可以从成千上万个来源中以每秒数 GB 的速度持续捕获数据。Amazon Kinesis Data Firehose – Amazon Kinesis Data Firehose 是将流数据可靠地加载到数据湖、数据存储和分析服务中的最简单方式。该服务可以捕获和转换流数据并将其传输给 Amazon S3、Amazon Redshift、Amazon Elasticsearch Service、通用 HTTP 终端节点和服务提供商(如 Datadog、New Relic、MongoDB 和 Splunk)Amazon Kinesis Data Analytics – Amazon Kinesis Data Analytics 是通过 SQL 或 Apache Flink 实时处理数据流的最简单方法,您无需了解新的编程语言或处理框架。本篇文章将完整展示如何使用Kinesis构建流式数据分析架构,如下图所示:提前准备进入Demo之前,先提前创建好名字为kinesis-demo-us2的S3存储桶,创建过程可以参看:https://docs.aws.amazon.com/quickstarts/latest/s3backup/step-1-create-bucket.html然后,再创建Redshift集群,具体步骤可以参看:https://docs.aws.amazon.com/zh_cn/redshift/latest/gsg/rs-gsg-launch-sample-cluster.html注意: 在Redshift的安全组里,需要加上对Firehose放行的规则,示例为AWS美西2区域的IP段其他区域的IP可以参看此链接:https://docs.aws.amazon.com/zh_cn/firehose/latest/dev/controlling-access.html1. 创建Kinesis Data Stream输入名字demo_ds,由于是测试使用,分片数量写1即可,实际生产环境的分片数量要根据数据量的吞吐决定。2. 在EC2上安装配置Kinesis Agent:2.1 从https://mockaroo.com/准备一份样本数据,其中包含id,first_name,last_name,email,gender,ip_address字段,数据格式为CSV2.2 创建一台EC2,然后按照如下文档,安装Kinesis Agent https://docs.aws.amazon.com/zh_cn/firehose/latest/dev/writing-with-agents.html#download-install修改配置文件如下,在此配置文件里默认数据是CSV格式,配置里把CSV转换为JSON格式,详细配置请参考链接https://docs.aws.amazon.com/zh_cn/firehose/latest/dev/writing-with-agents.html#agent-config-settings[ec2-user@ip-172-31-52-232 ~]$ cat /etc/aws-kinesis/agent.json
{
"cloudwatch.emitMetrics": true,
"cloudwatch.endpoint": "https://monitoring.us-west-2.amazonaws.com",
"kinesis.endpoint": "https://kinesis.us-west-2.amazonaws.com",
"flows": [
{
"filePattern": "/tmp/app1.csv",
"kinesisStream": "demo_ds",
"dataProcessingOptions": [
{
"optionName": "CSVTOJSON",
"customFieldNames": [ "id", "first_name", "last_name","email","gender","ip_address" ],
"delimiter": ","
}]
}
]
}
2.3 配置后启动Agent[ec2-user@ip-172-31-52-232 ~]$ sudo /etc/init.d/aws-kinesis-agent start2.4 通过如下脚本持续生成数据[ec2-user@ip-172-31-52-232 ~]$ while true;do sleep 5;cat sample.csv >> /tmp/app1.csv;done2.5 通过查看日志,可以看出数据被解析后,发送成功[ec2-user@ip-172-31-52-232 ~]$ tail /var/log/aws-kinesis-agent/aws-kinesis-agent.log2020-11-05 06:34:03.557+0000 (Agent.MetricsEmitter RUNNING) com.amazon.kinesis.streaming.agent.Agent [INFO] Agent: Progress: 5750745 records parsed (355242075 bytes), and 5750575 records sent successfully to destinations. Uptime: 236670045ms3. 使用Kinesis Data Analytics分析Data Stream里的数据:3.1 创建Kinesis Data Analytics3.2 连接流数据,即之前创建的demo_ds3.3 创建新的IAM权限会自动创建一个IAM角色,点击发现架构,系统会自动识别数据结构,并进入SQL Editor页面3.4 编写SQL语句对流数据进行分析,主要分4个语句创建应用流DEMO_STREAMCREATE STREAM "DEMO_STREAM" (
id int,
first_name VARCHAR(16),
last_name VARCHAR(16),
email VARCHAR(64),
gender VARCHAR(8),
ip_address VARCHAR(16)
);
创建泵从现有的数据流持续插入到应用流DEMO_STREAM里CREATE OR REPLACE PUMP "DEMO_STREAM_PUMP" AS
INSERT INTO "DEMO_STREAM" SELECT STREAM
"id",
"first_name",
"last_name",
"email",
"gender",
"ip_address" FROM "SOURCE_SQL_STREAM_001";
创建统计流,统计每分钟的gender的分布统计CREATE OR REPLACE STREAM "DESTINATION_SQL_STREAM" (r_time TIMESTAMP,gender VARCHAR(16),genderCount int);
创建统计泵,从应用流里把数据汇总统计,并持续插入到统计流里CREATE OR REPLACE PUMP "OUTPUT_PUMP" AS
INSERT INTO "DESTINATION_SQL_STREAM"
SELECT STREAM ROWTIME,gender, COUNT(*) AS genderCount FROM "GAME_STREAM"
GROUP BY gender, FLOOR(("DEMO_STREAM".ROWTIME - TIMESTAMP '1970-01-01 00:00:00') minute / 1 TO MINUTE);
详细解释可以参看https://docs.aws.amazon.com/zh_cn/kinesisanalytics/latest/dev/streams-pumps.html3.5 将结果导出,点击连接新目标,这里选择Firehose作为目标,最终把数据传送到Redshift上4. 使用Kinesis Firehose把Kinesis Data Analytics的结果发送到Redshift上:4.1 点击上面的连接新目标后,可以选择Kinesis Firehose,创建一个新的Firehose交付流,同时输出格式选择CSV4.2 选择Direct PUT或其他源4.3 这次实验里我们不需要再处理数据,也不需要转换格式,禁用这两项后点击下一步4.4 选择目标Amazon Redshift4.5 选择已经创建好的Redshift集群4.6 选择中间的S3目标,选择之前创建的kinesis-demo-us2的S3桶,并在COPY选项里加上delimiter ‘,’ (因为4.1步选择的是CSV的输出)4.7 修改默认缓冲区时间和大小,加速数据导出,下面选择创建新的IAM角色,系统会自动为Firehose创建相应的权限5. 在Redshift上创建表以接受数据:5.1 在Redshift数据库中执行以下SQL语句create table demo_table (r_time varchar(32),gender varchar(8),genderCount int)
5.2 再通过SQL语句select * from demo_table limit 10进行查询;可以看到每分钟的数据在不断的流入总结从上述的实验可以看出来,使用Kinesis Data Stream和Kinesis Data Analytics构建流式数据架构非常简单,用Kinesis Firehose和Redshift 可以把流式处理后的结果及时的发送到数仓,为业务提供见解。同时Kinesis是一项完全托管的服务,不需要额外的维护工作量,大大减少了运维的成本,数据工程师只需要专注通过SQL语句实现业务的需求即可。作者介绍:韩宇光AWS解决方案架构师,熟悉互联网的大数据业务场景,有丰富的基于AWS上大数据解决方案的经验,对开源hadoop组件有一定研究。在加入AWS之前,在猎豹移动任职大数据高级运维工程师,有10多年的运维经验,深入理解云架构设计,对云上的运维,Devops,大数据解决方案有丰富的实践经验本文转载自亚马逊AWS官方博客。原文链接:使用 Amazon Kinesis 快速构建流式数据分析架构
| 1,157 | 1,606,183,200,773 |
InfoQ
|
276 |
AWS发布运维仪表盘的最佳实践指南
|
最近,AWS在Amazon构建者库(Amazon Builders' Library)中添加了构建仪表盘的最佳实践指南。仪表盘用于实现运维的可见性。文档中详细阐明了Amazon现有的各类仪表盘,并探讨了创建仪表盘的最佳设计实践。AWS首席工程师John O'Shea负责撰写这些构建者库中的新添文档。O'Shea指出,AWS的服务状态告知机制是通过仪表盘实现的,仪表盘向用户提供系统运行视图。但O'Shea也阐明,“我们发现只要运维过程需要人工检查仪表盘,那么无论多么频繁地检查仪表盘状态,也会由于人为错误而导致失败”。为解决这个问题,他们专注于创建一种自动化的告警机制,以评估系统运行所产生的最重要的数据。在某些情况下,报警会触发自动修复工作流。Amazon还对随时待命(oncall)事件使用了仪表盘。运维人员可以使用仪表盘定位并隔离问题。O'Shea给出的一个主要应用场景,就是在每周例行运维审核会议上使用。此类会议的与会者包括一些企业高层、高级管理人员和高级工程师。会议中使用一种称为“幸运转盘”(wheel of fortune)的工具,随机选择某个团队的仪表盘,基于此讨论用户体验和SLO问题。为设计一致且实用的仪表盘,Amazon创建了一系列需遵循的通用设计原则,并给出了效果测定方式,以改进和推进这些原则。测定方法之一,就是新的运维人员是否能快速地理解和使用仪表盘。这种度量指标驱动的方法完全符合最近Camille Fournier在接受InfoQ采访中提出的技术和策略。在这次采访中,她介绍了Amazon内部平台团队是如何交付更有效的产品。原则之一是应从最终用户预期的角度回推工作,确保仪表盘符合用户的需求。O'Shea指出,“对仪表盘创建者而言,构建一个自己完全理解的仪表盘是非常容易的。但这样的仪表盘可能对最终用户是毫无价值的”。他们发现,用户倾向于重点解读最新渲染出的图表,而传统设计理念是将最重要的图表置于仪表盘的最顶部。对于Web Service,通常最重要的是可用性的聚合图或汇总图,以及端到端延迟的百分比图表。其他设计原则包括:确保时区的一致性,并显示在仪表盘上。在图表的布局上,需迁就预期的最小显示分辨率;确保提供可调整采集度量指标周期和时间间隔的功能;在图上标注报警的阈值和目标值。报警状态、简单数值和时序图组件可用于适当位置。O'Shea还说明了Amazon在用的各类仪表盘,其中最重要并广为使用的是用户体验仪表盘。此类仪表盘设计适用于各种利益相关者的需求,从服务运维者到管理人员。仪表盘展示服务的整体健康状态,以及多种当前进度情况的度量指标。所展示的数据可回答“受影响的客户数量”、“受影响最大的客户”等问题。各类仪表盘是如何为不同系统层级提供视图(图片来源:Amazon官方网站)在系统和服务层面也应创建仪表盘,提供多种系统和服务运行状态视图,用于审计跨各区域的服务。系统层仪表盘上应包含足够的信息,支持查看系统任一端点的运行状态,服务层仪表盘应深入到所有的单一服务实例,为精准定位更深层次的问题提供视图。指南最后探讨了仪表盘的维护问题。O'Shea写道:仪表盘的维护和更新,是集成于我们的开发过程中的。在完成变更前的代码审核期间,我们的开发人员会问,“是否有需要我们更新的仪表盘?”。因此我们授权开发人员,在部署变更前更新仪表盘。指南意在将仪表盘的创建和维护潜移默化到文化中。正如近期Tyler Treat在接受InfoQ采访时分享的,“文化是许多工作的出发点。我们必须提升可观察性的文化。如果团队并未将仪表盘展示作为系统的首要关注点,那么构建其它工具的意义也不大。”此外,指南鼓励团队在事后剖析(post-mortem)中讨论是否需要改进仪表盘和自动化报警,以防患于未然,或是更快地发现问题。仪表盘的更改应使用与服务部署同样的工具,包括作为核心实践的版本控制和IaaS。最佳实践指南的全文已加入到Amazon构建者库中。资料库中包含了一系列的文档,阐述并探讨了Amazon构建、维护和操作软件的机制。原文链接:AWS Publishes Best Practices Guide for Operational Dashboards
| 1,553 | 1,606,010,400,724 |
InfoQ
|
277 |
如何使用 Amazon EventBridge 存档和重播事件
|
事件驱动型架构使用事件在一个或多个应用程序的组件之间共享信息。事件告诉我们“发生了什么事情”,可能是您收到了 API 请求、文件已上传到存储平台或数据库记录已更新。业务事件描述了与您的活动相关的内容,例如已创建新客户账户或付款已成功。要使用您自己的应用程序、集成的软件即服务 (SaaS) 应用程序和 AWS 服务中的事件将应用程序连接在一起,您可以使用 Amazon EventBridge,它是一个无服务器事件总线,可从事件源中交付实时数据流,然后将该数据路由到 AWS Lambda 之类的目标中。事件告诉我们,可以与对该信息感兴趣的任何人共享信息。创建新的客户账户后,新添加的服务可以使用此信息,而无需更改现有界面。例如,新的欺诈检测系统可以了解为执行安全检查和评估可能的欺诈活动而创建的所有新客户账户。有时候您可能需要 重新处理 过去的事件。在很多使用案例中,重新处理很有用,例如:修复错误后,您可以重新处理受影响的事件以获得正确的结果。此方法假定您的应用程序可以多次处理同一事件。发布新功能时,您可以重新处理之前的事件,以将该功能的覆盖范围扩展到过去的数据。例如,添加到您的应用程序中的欺诈检测系统不仅可以访问新账户,还可以访问过去几周或几个月创建的账户。为了使其操作更方便,我很高兴地分享一个消息,EventBridge 现在可以存档和重播事件:现在,您可以为发布到事件总线的事件创建加密 存档 。您可以存档所有事件或使用 EventBridge 规则所用的模式匹配语法对事件进行筛选。您可以无限期地存储事件,也可以设置 保留期 ,在保留期之后,旧事件将自动从存档中删除。您还可以 重播 存储在档案中的事件。事件将根据为事件总线定义的所有规则(但不是其他 AWS 服务所创建的托管规则)或您指定的规则重播。重播的事件包含一个额外的 replay-name 字段,以防您需要识别它们。开始重播时,您需要定义一个时间范围,并且只重播该时间范围内的事件。目前,您只能在存档事件的事件总线中重播事件。可以对 EventBridge 的所有事件流程进行存档和重播,包括来自 AWS 平台、SaaS 集成的事件以及您自己的自定义事件。重播期间,您当前的事件吞吐量不受影响,因为 EventBridge 为重播保留了单独的配额。就每秒发布的事件而言,重播的速度与您 当前在该区域的 PutEvents 限制相同。如果您要求提高 PutEvents 服务配额,重播速度将更快。这样,您的正常操作不会受到重播的影响。但是,您应检查处理重播的下游服务的性能和限制,以确保它们能够处理额外的工作负载。您可以停止正在进行的重播。您无法继续已停止的重播,但您可以从以前停止的重播创建一个新的重播,并将开始时间设置为 lastReplayedEvent 时间戳。让我们来看看存档和重播在实际中是如何运作的。创建事件存档在 EventBridge 控制台中,我为我的应用程序创建了一个 事件总线 。然后,我使用简单的事件匹配模式为事件总线创建了一个 规则 ,以便将其收到的所有 DetailType 等于 customerCreated 的事件发送到将 Lambda 函数中,以将事件中的客户数据存储到数据库中。现在,我选择事件总线,然后在 Actions (操作)菜单中选择 Archive events (存档事件)。我给存档提供名称和描述,然后仔细检查来源是否是我的事件总线。我选择无限保留期,但是您可以选择要保留的天数,之后事件将自动从存档中删除。选择 Next (下一步)。我可以选择使用类似于创建规则时使用的模式匹配语法筛选要存档的事件。我决定不添加任何筛选条件,并存档来自源的所有事件。现在,我使用这个简单的 Python 代码将一些事件放入总线中:import json
import boto3
EVENT_BUS = 'my-event-bus'
# Create EventBridge client
events = boto3.client('events')
eventDetail = {
'customerId': '123',
'customerName': 'Danilo',
'customerData': 'More info...'
}
# Put an event
response = events.put_events(
Entries=[
{
'EventBusName': EVENT_BUS,
'Detail': json.dumps(eventDetail),
'DetailType': 'customerCreated',
'Source': 'com.mycompany.myapp'
}
]
)
print(response['Entries'])我多次运行前面的代码。几分钟后,我看到我发布的活动已存档:重播事件过了一段时间,我在 Lambda 函数的代码中发现了一个错误… 当地址超过预期时,该函数不会存储所有数据(是的,这是常有的事 😉)。我修复了代码,以便正确处理新事件。使用 EventBridge,我还可以重播更老的事件来修复我已经处理的事件的结果。我可以放心地这样做,因为我的应用程序为幂等形式。这意味着它可以在不改变结果的情况下使用相同的输入多次执行。在这种情况下,它会用正确的客户数据覆盖数据库项目。为了构建弹性应用程序,我总是建议设计幂等界面。通过这种方式,您可以轻松地从这样的错误中恢复,也可以放心地忽略重复的输入。请注意,EventBridge 不提供排序保证,并且重播是以多线程方式执行的,这可能导致事件按照与原始排序顺序不同的顺序交付。选择我的存档后,我点击 Start new replay (开始新的重播),然后为重播提供名称和描述。我检查重播的来源是否是我的存档。我选择只重播触发修复错误的 Lambda 函数的规则。我定义了重播的开始和结束时间(我可以使用本地时间或 UTC)并选择 Start Replay (开始重播)。好吧,我的存档没那么大。重播开始时,只需几秒钟即可完成。我查看我的数据库,发现客户数据现在是正确的。错误修复了!现已推出事件存档和重播现已在除中国大陆和大阪之外的所有商业区域推出。有关更多信息,请参阅 AWS 区域服务列表。您可以通过控制台、AWS 命令行界面 (CLI)、AWS 开发工具包和 AWS CloudFormation 使用这些新功能。使用 Amazon EventBridge,您只需为您的使用量付费。对于存档和重播,您需要按存档的事件数量、存档使用的存储空间以及重播的消息数量付费。有关成本的更多信息和示例,请参阅 EventBridge 定价页面。要了解更多信息,请参阅文档。快告诉我您打算将这些新功能用在哪些方面吧!– Danilo本文转载自亚马逊AWS官方博客。原文链接:如何使用 Amazon EventBridge 存档和重播事件
| 871 | 1,606,010,400,423 |
InfoQ
|
278 |
使用 AWS CDK 结合 OPA 实现“策略即代码”
|
Original URL: https://aws.amazon.com/blogs/opensource/realize-policy-as-code-with-aws-cloud-development-kit-through-open-policy-agent/AWS Cloud Development Kit(AWS CDK)是一个开源软件框架,允许使用熟悉的编程语言来定义和配置AWS上的基础设施。“基础设施即代码”通过使用CDK对基础设施进行版本控制,能够更有效且可靠地管理AWS上的基础设施。当然,在计划部署新的AWS资源或更新时,我们必须确保这些更改没有引入安全漏洞,势必要建立安全合规基准,辅以流程遵循合规性要求。现在,是时候来设置和定义相应的安全基准,以确保AWS上基础设施的更改不会引起安全问题。开放策略代理(OPA)是一个云原生基金会的孵化项目,旨在针对云上基础设施的安全基准策略自动进行检查。OPA提供了统一的框架和语言,用于声明、实施和控制云上基础设施中各个部件的安全基准策略。将OPA与AWS CDK集成在一起之后,可获得“策略即代码”的能力,即在AWS CDK对AWS环境进行更改之前,对这些更改进行合规策略的检查。这种新方法带来很多好处,具体包括:各个团队成员可以轻松在实际更改之前进行策略检查。通过与CI / CD集成,可以自动执行策略检查。用户可以对“基础设施即代码”实施强制性检查。用户可以根据行业最佳实践框架(例如CIS AWS Benchmark)中的安全合规要求,编写自定义的OPA策略。总而言之,这将极大地缩短基础设施安全合规的事后检查周期。这篇文章的其余部分将逐步介绍如何将OPA与AWS CDK结合使用,以实现“策略即代码”。这将涉及以下的任务:创建一个AWS CDK项目以部署AWS资源。根据REGO策略语言编写简单的OPA策略。利用OPA策略来检查AWS CDK的基础设施代码。先决条件1.1 在AWS Cloud9中创建EC2环境按照说明创建一个Amazon Linux Cloud9 EC2环境(自建EC2实例亦OK)。1.2 确保已安装AWS CDK$ cdk --version1.3 安装OPA$ curl -L -o opa https://openpolicyagent.org/downloads/latest/opa_linux_amd64
$ chmod 755 ./opa入门2.1 创建一个AWS CDK项目AWS CDK项目将创建一个AWS CloudFormation堆栈,其中包括:一个Amazon Elastic Compute Cloud(Amazon EC2)实例,一个AWS Identity and Access Management(IAM)角色,一个附加到EC2的安全组。2.2 使用Python语言的CDK Demo应用模板$ mkdir cdk-demo
$ cd cdk-demo/
$ cdk init --language python --app cdk-demo2.3 安装virtualenv$ python3 -m venv .venv2.4 进入virtualenv$ source .venv/bin/activate2.5 安装所有必需的软件包$ cat >requirements.txt <<EOF
aws-cdk.aws-ec2
aws-cdk.core
-e .
EOF
$ pip install -r requirements.txt2.6 编辑AWS CDK项目创建资源cat >app.py <<EOF
#!/usr/bin/env python3
import os
from aws_cdk import core
from aws_cdk.core import Environment
from cdk_demo.cdk_demo_stack import CdkDemoStack
app = core.App()
ACCOUNT = app.node.try_get_context('account') or os.environ.get(
'CDK_DEFAULT_ACCOUNT', 'unknown')
REGION = app.node.try_get_context('region') or os.environ.get(
'CDK_DEFAULT_REGION', 'unknown')
AWS_ENV = Environment(region=REGION, account=ACCOUNT)
CdkDemoStack(app, "cdk-demo", env=AWS_ENV)
app.synth()
EOF
cat >cdk_demo/cdk_demo_stack.py <<EOF
from aws_cdk import core, aws_ec2
class CdkDemoStack(core.Stack):
def __init__(self, scope: core.Construct, id: str, **kwargs) -> None:
super().__init__(scope, id, **kwargs)
self.vpc = aws_ec2.Vpc.from_lookup(self, 'default_vpc', is_default=True)
self.sg_ssh = aws_ec2.SecurityGroup(
self,
'ssh',
vpc=self.vpc,
description="Allow SSH from anywhere",
security_group_name="SSH from anywhere"
)
self.sg_ssh.add_ingress_rule(aws_ec2.Peer.any_ipv4(), aws_ec2.Port.tcp(22))
self.ami = aws_ec2.LookupMachineImage(
name="ubuntu/images/hvm-ssd/ubuntu-bionic-18.04-amd64-server-*",
owners=["099720109477"],
)
self.ec2 = aws_ec2.Instance(
self,
'cdk-demo',
instance_type=aws_ec2.InstanceType('t2.micro'),
machine_image=self.ami,
vpc=self.vpc,
security_group=self.sg_ssh,
)
EOF2.7 创建AWS CloudFormation模板$ cdk synth这将生成cdk.out/cdk-demo.template.json。如果我们现在运动cdk deploy,将启动CloudFormation堆栈,并创建所有声明的资源。但是,在更改发生之前,我们需要使用OPA进行策略检查,以确保更改没有违反安全合规基准。2.8 使用Rego编写OPA策略本示例中将从三个策略检查AWS CloudFormation模板:禁止创建超过10个的EC2实例禁止在EC2实例上启用SSH禁止创建IAM角色cat > opa_cdk.rego <<EOF
package opa_cdk
import input
# deny if it creates more than 10 EC2 instances
deny_too_many_ec2[deny] {
instances := [res | res:=input.Resources[_]; res.Type == "AWS::EC2::Instance"]
count(instances) > 10
deny := true
}
# deny if ssh is enabled
deny_ssh_enabled[deny] {
input.Resources[_].Properties.SecurityGroupIngress[_].ToPort == 22
deny := true
}
# deny if it creates IAM role
deny_role_created[deny] {
input.Resources[_].Type == "AWS::IAM::Role"
deny := true
}
EOF2.9 OPA策略检查针对AWS CloudFormation模板运行OPA策略:cd ..
./opa eval --format pretty -i cdk-demo/cdk.out/cdk-demo.template.json -d cdk-demo/opa_cdk.rego "data"该命令的输出显示,CloudFormation模板通过了EC2实例数量的策略检查,但违反了禁止创建IAM角色和禁止在EC2实例上启用SSH的两个策略。模板未通过所有策略检查,无法部署此模版。OPA的策略检查确保了,只有符合安全合规要求的基础设施更改才能投入生产。清理从AWS控制台删除Cloud9 EC2环境。总结上面的示例是一个Hello World的演示,展示了一种新的方式,即使用OPA策略,检查AWS CDK发生的基础设施更改是否符合既定的安全合规基准。该示例也可以应用于其他场景,例如确保所有资源在创建之前都具有标签,确保遵循资源的命名规范,满足安全性或运维合规要求等等。尽早了解应用或基础设施部署是否违反策略,这点很管用。因为策略检查是基础设施生命周期中的一个环节,且须确保无法创建和部署不合规的资源。OPA可以和应用,同时作为守护程序运行,并可基于HTTP的JSON提供RESTful API。对于用Go语言编写的应用,甚至可将OPA直接嵌入用作语言库。此外,将OPA与AWS CDK结合使用,可高度扩展“基础设施即代码”,也为基础设施策略检查,提供了端到端自动化的服务功能。这篇博客文章提供了一个示例场景,当然可以在组织中广泛应用:安全性、成本和可用性的许多其他策略。也可以定制访问控制要求,为容器化工作负载施加约束,并可将OPA与AWS CDK结合使用,以构建策略驱动的基础设施,强制执行策略检查,为更好地管理云资源提供防护和信心。现在,您距离DevSecOps更加近了一步。我们甚至可以将OPA与AWS CDK,AWS CloudFormation或Terraform所支撑的“基础设施即代码”流水线集成在一起,并利用OPA的检查结果,自动使部署失败或通过。显然,借助这些工具的功能,极大地扩充了DevSecOps的实践空间。正应了一句话:凡事皆有可能!作者介绍:作者Xuejiao ZhangXuejiao Zhang is a DevOps Consultant at Amazon Web Services. Prior to joining Amazon. Xuejiao worked for a number of e-commerce companies like JD.COM, Rakuten. You can find her on Github.译者黄帅亚马逊 AWS 专业服务团队云架构咨询顾问。负责企业级客户的云架构设计和优化、DevOps 组织咨询和技术实施。在软件研发领域有多年架构设计和运维、团队管理经验,对 DevOps、云原生微服务治理框架、容器化平台运维、混沌工程实践等有深入的研究和热情。本文转载自亚马逊AWS官方博客。原文链接:使用 AWS CDK 结合 OPA 实现“策略即代码”
| 1,263 | 1,605,060,000,040 |
InfoQ
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.