Id
int64
1
278
Title
stringlengths
7
81
Content
stringlengths
560
16.9k
View
int64
342
28.8k
PublishTime
int64
1,605B
1,695B
Site
stringclasses
1 value
1
亚马逊云科技推出基于生成式AI的临床文档工具HealthScribe预览版
最近,亚马逊云科技新推出了一项符合HIPAA标准的服务,名为AWS HealthScribe。该服务尚处于预览状态,它可以利用语音识别和生成式人工智能(基于Amazon Bedrock)来生成临床文档。 按照该公司的说法,AWS HealthScribe是会话式和生成式人工智能(AI)的结合体,可以减轻编写临床文档的负担并改善咨询体验。借助这项服务,用户可以利用一整套的人工智能功能来加快临床应用中临床文档的编制。 AWS HealthScribe为医疗卫生软件提供商提供了一个API,可以自动生成完整的记录及提取关键的详细信息(如医疗术语和药物),并根据医患之间的讨论创建可输入电子健康记录(EHR)系统的摘要。 例如,在HealthScribe中创建的笔记可以通过人工智能进行补充,包括诸如就诊原因、当前病史、评估和随访等细节。示例:医疗卫生软件开发人员可以使用AWS HealthScribe为用户提供的应用程序体验(图片来源:AWS for Industries博文) AWS for Industries博文的作者是这样描述AWS HealthScribe的好处的:通过功能整合,AWS HealthScribe减少了训练、优化、集成单个的人工智能服务和构建自定义模型的需求,加快了实施速度。客户可以专注于为最终用户提供价值,而不必费力优化单个的AI组件。 另一方面,虽然该服务符合HIPAA,但公司必须签署一份称为商业伙伴附录的合同。对此,AWS的文档做了详细说明,只有这样才能完全符合HIPAA。 除了AWS,微软和谷歌也有像AWS HealthScribe这样的医疗卫生服务。例如,云服务Microsoft Healthcare Bot就使得医疗卫生组织能够构建和部署可用于各种目的的会话代理,例如分诊和症状检查。还有Google Cloud Healthcare API,该服务提供了一套基于Google Cloud Platform构建的专门用于医疗卫生领域的产品和服务。 Bertalan Meskó是医学未来学家协会(Medical Futurist Institute)的主任、哲学和医学博士,他在LinkedIn的一篇帖子中评论道:看到科技巨头进军医疗卫生领域非常令人兴奋,我们都应该为此感到高兴,因为他们比医疗卫生/制药公司更擅长创造人们想要的技术。 此外,Batch首席执行官Simon Dawlat在推特上写到:随着亚马逊加入微软/谷歌的竞争行列推出HealthScribe,基于人工智能的临床文档API淘金热正如火如荼地进行着——然而,与那些高度专注的公司(如@NablaTech)所提供的产品相比,所有FAANG的产品都显得有些尴尬。 比赛开始了! Nuance和Cerner Corporation(Oracle)等公司也提供了其他一些类似的解决方案,前者为医疗卫生和客户互动提供了对话式人工智能,后者则是医疗卫生信息技术解决方案、服务、设备和硬件供应商。 最后,AWS HealthScribe目前仅在美国东部(弗吉尼亚州北部)地区可用,客户可以填写表单完成注册后访问该服务。了解定价细节可以查看定价页面,了解其他细节可以查阅文档。  原文链接:https://www.infoq.com/news/2023/08/aws-healthscribe-ai-preview/相关阅读:亚马逊云科技re:Inforce 2023中国站:企业如何提高数据、模型和应用安全?降本增效:Grab如何在亚马逊云科技上将Kafka消费者流量成本降到零
1,518
1,695,081,600,680
InfoQ
2
网安市场营收全球第一,这家老牌防火墙公司在AIGC时代换了新“打法”
Palo Alto Networks(派拓网络),于2005年成立,总部在硅谷圣克拉拉(Santa Clara, CA),目前服务超过150多个国家和地区,在创立之时便推出以下一代防火墙为著称的产品线。目前在全球网安市场营收排名第一,市值如果单从网络安全赛道来讲应该也是名列前茅。Palo Alto Networks服务95%的全球财富百强,72%全球2000强客户,营收连续三年来从43亿美元、55亿美元到今年7月底刚刚结束23财年的69亿美元,复合增长率达到了26%。派拓网络大中华区技术总监董春涛介绍,公司早期是基于下一代防火墙(NGFW)开展业务,在近几年派拓网络已经不再是一个传统意义上的防火墙公司。公司已经涉及多个网络安全赛道,同时也是可拓展威胁检测与响应(XDR)以及零信任(Zero Trust)概念的提出者。一直以来,Palo Alto Networks(派拓网络)都非常重视国内市场,且已经在大连设立了售后技术支持中心,并且积极把包括Prisma Cloud、Prisma SASE在内的各种各样的云上安全服务陆续落地中国,服务中国客户和在华的跨国公司。董春涛坦言,这些努力对背后离不开派拓网络与亚马逊云科技的紧密合作。在此次亚马逊云科技re:Inforce 2023中国站会后,董春涛就AI时代的网络安全这一主题回答了包括InfoQ在内多家媒体的提问。嘉宾介绍|派拓网络大中华区技术总监董春涛问:您认为AI时代的网络安全面临哪些新的挑战?Palo Alto Networks(派拓网络)是如何理解和应对这些挑战的?董春涛:Palo Alto Networks(派拓网络)在2016年就引入机器学习,或者是深度学习,或者是加强型学习促进我们防护安全攻击的能力。所以7年间我们从最早的安全沙箱引入机器学习能力以后,第一时间提出的就是防御未知威胁攻击的方式,我们不断地把这种能力渗透到各个产品,包括URL过滤,在线的防火墙机器学习能力,Prisma SASE里面也都融汇了人工智能的技术。去年年底我们推的AIOps也是利用了这样的技术,我们在之前有一个广泛的上升。但是现在来讲,生成式AI推动的安全技术使我们产生了一个新的对于安全领域的思考,肯定它是有一个非常大的变化。我们首先看到我们积累的数据价值,因为数据才是AI最核心的因素。我们在过去做安全做了十多年,沉淀了大量的高质量数据,我们认为这些高质量数据会帮助我们更好地利用新的AI技术。同时我们也看到在2018年以后坚定采用云战略也是正确的。因为没有云就没有数据的聚集,也没有算力去做这件事情,很多技术都不是突然之间发生的,一定是很多技术底层积累下来的。所以我们也看到我们在跟亚马逊云科技合作过程当中,包括我们与亚马逊云科技最新的创新服务Amazon Security Lake安全数据湖来互相交换数据,这些数据未来对AI产生极大的价值,这是一方面。第二方面是SASE,我们看到SASE方案完全构建在整个云平台上面,我们知道有一些友商做的是私有部署,或者是在IDC自建,但是我们坚定不移放在公有云上开展这个服务。在这个过程中也是把我们的集成性能力和数据整合能力都体现在这里面,使我们对AI能力的赋予就产生非常便利的条件。最后,我们说安全平台化,原来的安全行业是非常碎片化的,其实这也是因为安全领域是攻防博弈的过程,有很多创新公司有自己的新型能力去做。但是我们看到随着AI的发展,更多的平台化公司会出现,为什么要这样做?就是因为我们要有3C的数据,3C是什么呢?就是完整的(Complete)、一致的(Consistent)、正确的(Correct)数据,我们通过这样平台化的解决方案才能收集到3C的数据,有这样3C的数据我们才能有更好的AI能力和防御手段。问:Palo Alto Networks(派拓网络)是一家独立的安全公司,除了和亚马逊云科技合作之外,和别的云厂商合作情况是怎么样的?另外对于客户来说,其实很多时候面临的是多云环境,在这种情况下怎么更好地合作落地安全?董春涛:第一,我们在主流公有云上面都做了部署和尝试,更多地是以客户的需求为导向。第二,通过很多统计,我们看到用户都是多云需求的,这个趋势也是不可阻挡的。我们自己的代码是要上云的,上云过程中我们是要看成本和市场规划,然后有序地在各个云上推出和部署我们的服务。我们作为一个软件安全公司来讲本身也是认可多云战略的,并且在整个过程中看到这也是一个比较成功的方式。我们在满足客户需求的时候,有时候是客户驱动我们要用哪个,我们也在不停根据客户的需求与后台一起讨论市场的预期,然后做相应的发布。问:您提到生成式AI带来的契机把安全从IT端推向业务端,您能不能解释一下为什么这么讲?是因为生成式AI离客户的业务更近吗?您认为这会带来什么影响?会使得未来客户在安全方面的预算支出在IT当中占比明显提升吗?董春涛:我们看到安全在IT中是一部分,是一个小众的组成部分,其实常年以来它是附着在IT上的,大部分的组织结构是CEO、CIO、CISO这样一个结构。现在我们看到在整个IT发展过程当中,生成式AI的出现根本改变了IT这个领域的范畴。企业数字化本来就是在衍变,但是生成式AI起到了催化剂的作用,它的能力使每一个行业,不管是To C还是To B,都会有一个整体的发展,这个时候大家在回顾看到用生成式AI来做这种创新业务的时候,会发现安全是一个绝对不能避开的话题,是更重要的话题。我们相信安全在生成式AI主导的业务促进过程当中会是一个伴生关系,所以就突破了原来传统的IT领域。Palo Alto Networks(派拓网络)从下一代防火墙变成云安全公司之后,我们能看到自己的发展趋势,尤其是这两年大家看到很多经济在下滑的时候,所有的安全公司都在往上走,这是一个趋势。第二个趋势我们看生成式AI会把业务带到数字化转型当中,推动企业转型。这个时候也对我们整个的安全从业和服务人员来讲是一个促进,我们可能更多地会与业务负责人谈论安全的复杂性。问:刚才也提到了派拓网络有和亚马逊云科技定制的云原生保护平台,其实在国外还有一些比较流行的安全方面的产品,比如云网络安全代理、云安全态势管理、SaaS安全态势管理,还有SaaS管理平台这些新兴的工具,想问下派拓网络有没有计划把这些在国外比较流行的安全产品和工具带到国内,如果没有带到国内的话,为什么没有引入国内?是国内用户不太关注这些,还是它对中国的用户不是主流?也想请您预测一下哪些方案将成为云安全市场的主流产品,依据是什么?董春涛:在Palo Alto Networks(派拓网络)刚刚引入到中国区域的时候,做得更多的是CSPM,就是整个云使用的安全态势管理,但是正如您刚才提到几个另外的模块,这些模块其实都是在云安全里面的,就是我们在Prisma Cloud里面的安全模块。我们看到容器安全在中国有相当长一段时间是比较靠前的,尤其是金融行业先推出的。我们在早期也参与了很多类似这样的项目,我们看到容器安全,它另外一个词就是主机安全(CWP,Cloud Workload Protection)这样的概念,虽然它有时是私有化。但是它的技术和使用场景都类似的。另外几个尤其是偏SaaS应用的防护确实是国外发展得快,这也确实跟应用场景有关。国内SaaS应用场景现在慢慢多起来了,但是还是国外发展更快、更成熟,所以我们这部分确实在国外用得更多一些。但是刚才我们谈到引入云原生应用(Cloud Native Application),或者叫CNAPP也好,或者是云安全(Cloud Security)的时候,我觉得生成式AI确实能促进,在开发新型应用的时候,很多大语言模型都是开源的,所以如果企业考虑用开源模型做创新业务和生成式AI衍生业务的时候,我们就有机会把我们整个云安全(Cloud Security)的系列服务介绍进来。另外,我们看到原来每一个模块都有自己的市场,从我们自己的观察来看,整个打穿从代码(code)到构建(build),到部署(deploy)到运行(run)的防护是一体的,只有平台化之后才能看到它的关系,才能溯源到哪个最初的地方有问题,这也是我们新的Prisma Cloud UI它在整条线上溯源,如果每一个模块都是割裂的,在不同模块去做的话,很难做到这样全景化的安全防护。大家知道安全的集成是非常难的,不像传统IT集成相对容易,都是标准。安全集成数据交互非常难,所以不同厂家的集成也是很难的。我们构建在亚马逊云科技上的Prisma Cloud也会利用亚马逊云科技的安全能力,我们也希望随着亚马逊云科技在云中安全的创新,我们也实现更多的集成性的工作,通过相对完善的集成,我们在推出全套的Prisma Cloud云服务的时候,整体上也会有一套更加完善的方案。问:今年是AI全面爆发之年,想问一下,您作为一个管理者的角色,尤其是Palo Alto Networks(派拓网络)也是全球顶尖网络安全公司代表,从今年以来咱们大中华区,或者说您负责的技术相关部门有没有一些调整和变化?比如说产品或者是业务重点研发方向,人才的匹配度等方面。董春涛:关于产品结构,我们完全摆脱了原来单一硬件产品的方式进入到整个平台化,即网络安全平台,云安全平台和现代化运营安全平台,这三大平台中。所以对我们的技术人员要求是由单一的、传统的网络安全,向包括云安全、运营安全、终端安全等一体化的方向做演变。我们现在希望每一位安全从业技术人员都是全栈的,我们说云计算有全栈,那么安全现在也有全栈。问:从技术端的感知来看,国内的客户他们对于安全的需求呈现出一些什么样的特点?在国内,我们看到最早的安全在相当长一段时间是合规导向的。不能说是为了合规而做合规,更多是有一个合规框架做相应的导向,及相应产品的开发。其实Palo Alto Networks(派拓网络)一直不是这么做的,我们是基于防护的,真的防住这些攻击,所以我们觉得在国内看到很多客户已经从合规导向向真正的安全防护导向演变了。其实这也是一种被动过程,因为国内很多安全项目都是事件驱动的,就是被攻了才去买东西,这是我们在相当长时间看到项目的情况。但是我觉得现在来看,尤其是我们说到安全与业务的结合越来越紧密了,所以各个企业现在开始主动构建更高阶的安全团队,请了更资深的CISO评估更合理的,真正起到效果的安全方案,这个也是我看到的一个发展趋势。问:当初派拓网络为什么会选择与亚马逊云科技进行合作?董春涛:亚马逊云科技是全球云计算的头部企业,Palo Alto Networks是全球安全解决方案的先行者,随着数字化转型的加速,更多用户将业务迁移上云,安全是最需要首先考虑的问题。双方通过协作发挥各自优势,为用户带来更佳的安全体验。安全能力需要平台的整合,数据的整合,和AI能力的演进,需要专业安全厂商的数据,以及云厂商的计算和分析能力并需要云原生化,才能适应下一代安全的架构。此外,亚马逊云科技完善的生态使Palo Alto Networks能够更有效触达客户,让更多中国客户可以受益于Palo Alto Networks的技术,并实现贯穿于应用开发整个生命周期的安全,为开发、安全及合规团队打造方便易用的安全方案。亚马逊云科技Marketplace为Palo Alto Networks提供了有效的业务拓展渠道,帮助其触达全球用户。同时,显著降低销售成本,并缩短销售周期。
3,509
1,694,600,008,974
InfoQ
3
从Kinesis到Timestream:探讨基于AWS的无服务器分析架构
在基于事件驱动架构构建SaaS应用程序时,分析能力已经成为核心功能,因为它可以更容易地监控使用模式并以可视化的方式呈现数据。因此,这一功能很快成为SaaS平台用户的需求也就不足为奇了。 这让我们灵光乍现,我们意识到,在为客户构建这个新功能的同时,我们也可以通过内部分析仪表盘更好地了解客户如何使用我们的系统。 Jit是一家安全创业公司,旨在帮助开发团队快速识别并轻松解决应用程序中的安全问题。我们的产品已经达到了一定的成熟度,在这个阶段,让用户能够直观地了解他们在他们的安全旅途中所处的位置是至关重要的。同时,我们也希望了解哪些产品功能对我们的客户和用户最有价值。 我们开始思考如何最有效地构建一个分析解决方案,它从同一个源获取数据,并将数据呈现到几个不同的目标。 第一个目标是客户指标湖,其本质上是一个随时间变化、租户分离的解决方案。其他目标则是第三方可视化和研究工具,利用相同的数据摄取架构进行更好的产品分析。 在撰写本文时,我们的产品团队有在使用这类工具,如Mixpanel和HubSpot。团队使用这些工具收集关于单个租户使用情况和产品总体使用趋势的宝贵数据。 如果你曾遇到过类似的工程挑战,那么阅读本文就对了,我们很乐意深入探讨如何使用无服务器架构从头开始构建这样一个系统。 作为一个基于无服务器的应用程序,我们的主要数据存储是DynamoDB。然而,我们很快就明白,它并没有我们聚合和呈现分析数据所需的时间序列能力。使用我们现有的工具来实现这些将需要更长的时间,并且对于我们希望监控、度量并呈现给客户的每一个新指标,都需要大量的投入。因此,我们决定使用AWS构建块从头开始快速构建一个能够为我们提供我们需要的双重功能的东西。 我们意识到,为了能够为每个客户创建个性化的图表,我们必须以时间序列的方式处理数据。此外,我们还要保持强大的租户隔离,确保每个客户只能访问他们独有的数据,从而防止任何潜在的数据泄露,这是这个架构的一个关键设计原则。这让我们开始寻找最经济、管理成本最低的工具。在本文中,我们将介绍我们为内部和外部用户构建新的分析仪表盘所需的技术考量和实现。 分析功能架构设计 架构设计从数据来源开始——即Jit的微服务写入的事件。这些事件代表了整个系统中发生的所有小事件,例如新发现的安全问题、已修复的安全问题,等等。我们的目标是监听所有这些事件,最终能够以时间序列的方式查询它们,并基于它们向用户呈现图表。AWS EventBridge 然后这些事件被喂给AWS EventBridge,它会根据预定义的标准处理和转换事件将它们转换为由数据、元数据和指标名称组成的统一格式。这可以通过使用EventBridge Rule来实现。由于我们的架构已经是事件驱动的,而且所有这些事件已经被写入到不同的事件桥中,所以我们只需要在希望将“KPI相关”数据喂给分析源的地方通过编程的方式添加EventBridge Rule即可,这很容易做到。 一旦数据和相关事件被转换成EventBridge Rule的一部分,它们就会被发送到Amazon Kinesis Firehose。这可以通过EventBridge Rule的Target功能来实现,它可以将转换后的事件发送给各种目标。 被转换为统一Schema的事件必须包含以下参数才不会被过滤掉: metric_name字段,它映射到被度量的指标。元数据字典——包含有关事件的所有元数据,每个表(租户隔离)最终都是根据tenant_id参数创建的。数据字典——必须包含event_time,它告诉我们事件到达的实际时间(因为分析和指标总是需要在一段时间内进行度量和可视化的)。 Schema结构:{ "metric_name": "relevant_metric_name", "metadata": { "tenant_id": "relevant_tenant_id", "other_metadata_fields": "metadata_fields", ... }, "data": { "event_time": <time_of_event_in_UTC>, "other_data_fields": <other_data_fields>, ... } } AWS Kinesis Firehose AWS Kinesis Data Firehose(简称Firehose)是为分析引擎聚合多个事件并将其发送到目标S3存储桶的服务。  一旦事件数超过阈值(可以是大小或时间段),它们就以批次的形式发送给S3存储桶,等待被写入时间序列数据库和其他事件订阅者,例如需要获取所有租户事件的系统。 Firehose在架构中发挥着重要作用。因为它会等待数据达到阈值,然后按照批次发送事件,所以当我们的代码启动并开始处理事件时,我们将从处理大小可预测的小批次事件开始,避免发生内存错误和其他意外问题。 一旦达到其中一个阈值,Kinesis对要发送的数据执行最后的验证,验证数据严格是否符合所需的Schema格式,并丢弃任何不符合的数据。 我们可以调用Firehose中的lambda来丢弃不符合要求的事件,并进行额外的转换和填充,如添加租户名称。这涉及到查询外部系统并使用环境运行信息来填充数据。这些属性对于下一阶段在时间序列数据库中为每一个租户创建表来说至关重要。 在下面的代码部分中,我们可以看到: 定义了批次窗口,在例子中是60秒或5MB(只要满足其中一个即可);验证和转换所有到达事件的数据转换lambda,确保事件可靠、统一且有效。 处理数据转换的lambda叫作enrich-lambda。请注意,Serverless Framework会将其名称转换为叫作EnrichDashdataLambdaFunction的lambda资源,所以如果你也在使用Serverless Framework,请注意这个问题。 MetricsDLQ: Type: AWS::SQS::Queue Properties: QueueName: MetricsDLQ KinesisFirehouseDeliveryStream: Type: AWS::KinesisFirehose::DeliveryStream Properties: DeliveryStreamName: metrics-firehose DeliveryStreamType: DirectPut ExtendedS3DestinationConfiguration: Prefix: "Data/" # This prefix is the actual one that later lambdas listen upon new file events ErrorOutputPrefix: "Error/" BucketARN: !GetAtt MetricsBucket.Arn # Bucket to save the data BufferingHints: IntervalInSeconds: 60 SizeInMBs: 5 CompressionFormat: ZIP RoleARN: !GetAtt FirehoseRole.Arn ProcessingConfiguration: Enabled: true Processors: - Parameters: - ParameterName: LambdaArn ParameterValue: !GetAtt EnrichDashdataLambdaFunction.Arn Type: Lambda # Enrichment lambda EventBusRoleForFirehosePut: Type: AWS::IAM::Role Properties: AssumeRolePolicyDocument: Version: '2012-10-17' Statement: - Effect: Allow Principal: Service: - events.amazonaws.com Action: - sts:AssumeRole Policies: - PolicyName: FirehosePut PolicyDocument: Statement: - Effect: Allow Action: - firehose:PutRecord - firehose:PutRecordBatch Resource: - !GetAtt KinesisFirehouseDeliveryStream.Arn - PolicyName: DLQSendMessage PolicyDocument: Statement: - Effect: Allow Action: - sqs:SendMessage Resource: - !GetAtt MetricsDLQ.Arn 下面是将Jit系统中的事件映射到统一结构的代码。这个EventBridge将数据发送到Firehose(以下是serverless.yaml的代码片段)。 我们事件映射的代码示例。 FindingsUploadedRule: Type: AWS::Events::Rule Properties: Description: "When we finished uploading findings we send this notification." State: "ENABLED" EventBusName: findings-service-bus EventPattern: source: - "findings" detail-type: - "findings-uploaded" Targets: - Arn: !GetAtt KinesisFirehouseDeliveryStream.Arn Id: findings-complete-id RoleArn: !GetAtt EventBusRoleForFirehosePut.Arn DeadLetterConfig: Arn: !GetAtt MetricsDLQ.Arn InputTransformer: InputPathsMap: tenant_id: "$.detail.tenant_id" event_id: "$.detail.event_id" new_findings_count: "$.detail.new_findings_count" existing_findings_count: "$.detail.existing_findings_count" time: "$.detail.created_at" InputTemplate: > { "metric_name": "findings_upload_completed", "metadata": { "tenant_id": <tenant_id>, "event_id": <event_id>, }, "data": { "new_findings_count": <new_findings_count>, "existing_findings_count": <existing_findings_count>, "event_time": <time>, } } 我们将在系统中已经存在的一个叫作“findings-uploaded”的事件(被其他服务监听)转换为即将被指标服务摄取的事件。 Timestream——时间序列数据库 作为一种实践,如果可能的话,你应该先使用你已经在使用的内部技术,然后在必要的情况下采用其他技术(以减少复杂性)。但对于Jit来说,DynamoDB已经不适用了。  为了在AWS上处理时间序列数据(并执行各种查询)的同时保持服务合理的总拥有成本(TCO),我们需要探索新的选项。这些数据将在每个客户的自定义仪表盘(需要时间序列功能中呈现,并严格遵循上述的格式。在比较了可能的解决方案后,我们决定将Timestream作为架构的核心,它是一种全托管、低成本的数据库,具有SQL风格的查询功能。 这是在实际当中查询这个数据库的示例代码片段。 SELECT * FROM "Metrics"."b271c41c-0e62-48d2-940e-d8c80b1fe242" WHERE time BETWEEN ago(1d) and now() 虽然我们还调研了其他技术,比如Elasticsearch,但我们意识到,将其作为时间序列数据库要么难以管理和实现(例如,索引和执行租户隔离会更困难),要么成本会更高。而使用Timestream,每个租户一个表,这很简单,而且它更加经济,因为仅按使用收费,包括写入、查询和存储。乍一看收费的地方似乎很多,但我们的比较显示,根据我们可预测的使用情况和使用它提供的“心智上的轻松”(鉴于它是一个几乎零管理开销的无服务器亚马逊服务),它是更具经济可行性的解决方案。 Timestream中的数据有三个核心属性可用于优化(你可以在文档中了解更多相关信息)。 维度(Dimensions);度量(Measures);时间(Time)。 维度本质上是描述数据的字段,在我们的例子中就是每个客户的唯一标识符(取自用户元数据)和环境。我们利用这些数据从事件中提取出tenant_id,并将其作为Timestream的表名,从而实现了租户隔离。剩余的数据可根据这些字段进行分区,这使以后查询数据变得非常方便。我们使用的维度越多,查询时需要扫描的数据就越少。这是因为数据是根据这些维度进行分区的,从而有效地创建了索引。这反过来提高了查询性能并为我们带来了更大的规模经济效益。 度量本质上是你要递增或枚举的值(如温度或重量)。在我们的例子中,这些是我们在不同事件中测量的值,非常适合聚合数据。 时间很简单直观,它是事件的时间戳(写入数据库时),这在分析中也是一个关键功能,因为大多数查询和测量都基于特定的时间段或窗口来评估成功或改进。 使用Mixpanel和Segment可视化数据 在有了摄取、转换、批量写入和查询技术之后,构建仪表盘就很容易了。我们研究了使用Grafana和Kibana等流行的开源工具,它们与Timestream集成得很完美,但我们想在客户的UI中为客户提供最大化的定制能力,所以我们决定使用内部开发的可嵌入式图表。 在Firehose按照预期格式将数据写入S3后,有一个专门的Lambda可以读取数据,然后将其转换为Timestream记录并写入(如上所述,每个租户一个表,在元数据字段中包含tenant_id)。然后另一个lambda将这些预格式化的数据发送到Segment和Mixpanel,为内部摄取和外部用户使用提供整个租户数据的俯瞰视图。 我们利用Mixpanel和Segment的数据和公开查询Timestream的API(通过IAM权限实现租户隔离)为客户构建UI,让每个客户只能可视化他们自己的数据。 这使得我们能够利用Mixpanel和Segment作为分析的支撑,为客户提供像乐高积木那样的图表构建块。 通过利用Mixpanel和Segment等工具,我们可以对图表进行跨租户和跨客户洞察,并以此来优化我们为用户提供的功能和产品。 重要的注意事项 当说到Timestream和决定完全无服务器化,确实需要考虑成本和规模限制问题。我们上面讨论了Timestream的属性,每一个属性都有一个不能超过的阈值,知晓这一点很重要。例如,每个表的维度限制为128,度量的最大值为1024,因此你必须确保系统架构不超过这些阈值。 在内存方面,主要有两种配置:内存和磁性存储(即长期存储。注意,这里的“磁性”是指AWS Timestream的长期经济型高效存储,而不是磁带)。相比之下,内存存储价格更高,但查询速度更快,时间窗口有限(在我们的例子中是2周)。理论上,你可以在磁性存储上存储多达200年的数据,但这一切都有成本问题(我们选择了一年,因为我们觉得这已经足够了,并且可以根据需要动态升级)。 AWS服务的好处在于大量繁重的工作是自动完成的,例如数据分层会自动从磁性存储迁移到磁盘。 其他限制包括每个账户的表数量(阈值为50K),查询也需要至少10MB数据量(查询时间为1秒——可能不如其他引擎快,但成本优势足以让我们在查询速度上做出妥协)。因此,你应该了解总拥有成本,并优化查询,让它们始终高于10MB的限制,在可能的情况下甚至更高,同时还要减少客户端的延迟。解决这些问题的一个好办法是缓存数据,不要进行实时的完整查询,你可以通过联合查询将多个查询合并为单个查询。 无服务器乐高积木,永远的王 通过利用现有的AWS服务,我们能够快速提升分析能力,管理和维护开销很小,采用低成本的按用计费模式让我们获得了成本效益。这个可伸缩、灵活的系统的最大好处在于,随着客户需求的增加,它也可以轻松地添加新的指标。 由于所有事件已经存在于系统中,并通过事件桥进行了解析,要找到新的相关指标并加入到现有框架中就变得很容易。你可以创建相关的转换,然后立即在系统中拥有一个可以查询的新指标。 通过这个框架,我们可以在未来很容易地基于相同的聚合数据添加“消费者”。通过利用类似乐高的无服务器构建块,我们能够开发出一个可扩展的解决方案,不仅支持大量指标的并行增长,而且可以让架构适应业务和技术的不断演化。 原文链接:https://www.infoq.com/articles/jit-analytics-architecture/相关阅读:什么是无服务器架构技术引领下一代云计算技术的变革:无服务器架构基于无服务器的架构落地与实践论无服务器架构的特征
4,806
1,693,526,400,942
InfoQ
4
最长 30 分钟,拥抱生成式 AI,两堂热门课程免费学!
活动推荐: #生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYa有人说,生成式 AI 将带来充满创造性的新世界;有人说,生成式 AI 热潮正在掀起一场新的科技革命;有人认为生成式 AI 将淘汰一部分旧工作;也有人认为生成式 AI 能将诞生一系列新的工作。无论如何,毋庸置疑的是生成式 AI 的出现,带来了人工智能技术发展的新转折点,将改变企业的运营方式。据麦肯锡:《2023 生成式人工智能经济潜力研究报告》中提到:“生成式人工智能对生产力的影响可为全球经济增加数万亿美元的价值。我们的最新研究估计,在我们分析的 63 个使用案例中,生成式人工智能每年可增加相当于 2.6 万亿美元到 4.4 万亿美元的价值。”亚马逊云科技推出七项生成式 AI 新功能关注云计算以及人工智能领域的朋友们相信对这条资讯并不陌生:亚马逊云科技推出七项生成式 AI 新功能,进一步降低了生成式 AI 的使用门槛,让无论是业务用户还是开发者都能从中受益。借助这些新功能,来自千行百业的企业都能更专注于核心业务,提高生产效率,充分释放数据价值和生成式 AI 的潜力。Amazon BedrockAmazon Bedrock 全面扩展,新增全新基础模型、基础模型供应商以及 Agents 功能。Amazon Elastic Compute CloudAmazon EC2 P5 实例正式可用,加速生成式 AI 和高性能计算应用。Amazon OpenSearch Serverless适用于 Amazon OpenSearch Serverless 的向量引擎助力客户轻松构建现代生成式 AI 应用。Amazon CodeWhispererAmazon CodeWhisperer 与 Amazon Glue 实现集成,进一步提升开发效率。Amazon CodeWhisperer 是一款 AI 编程助手,能够使用底层基础模型帮助开发人员提高工作效率。它可以根据开发人员使用自然语言留下的注释和 IDE(集成开发环境)中的历史代码实时生成代码建议。Amazon QuickSightAmazon QuickSight 新增生成式 BI 功能,升级自然语言人机交互。Amazon Entity ResolutionAmazon Entity Resolution 正式可用,赋能企业提升数据质量、获取客户洞察。Amazon HealthScribeAmazon HealthScribe 利用生成式 AI 助力构建医疗应用程序。不仅如此,为了帮助云从业者在生成式 AI 热潮中乘风破浪,把握机遇,亚马逊云科技培训与认证还开设了多门以生成式 AI 为主题的课程,课程针对不领域、不同技术程度、不同岗位的人群,针对性的讲解生成式 AI 的原理以及应用案例,今天云师兄就向大家推荐两大热门课程,大家对号入座哦~高效制胜,提升云职场专业技能据麦肯锡《2023 生成式人工智能经济潜力研究报告》显示:生成式 AI 有可能改变工作结构,通过自动化人工的部分来增强他们的能力。目前的生成式 AI 和其他技术有可能将目前占用员工 60% 至 70% 时间的工作活动自动化。另外,报告认为将生成式人工智能与所有其他技术相结合,工作自动化可使生产率增长每年增加 0.2 到 3.3 个百分点。由此可见,“高效”是生成式 AI 的关键点。工作效率的提升助推器 Amazon CodeWhisperer在亚马逊云科技推出七项生成式 AI 新功能中,Amazon CodeWhisperer 作为一款可帮助开发者更快地完成更多工作的人工智能编程伴侣,就能很好的做到这一点。亚马逊云科技曾举办了一场生产力挑战赛,使用 Amazon CodeWhisperer 的参与者成功完成任务的可能性要比未使用 Amazon  CodeWhisperer 的参与者高 27%,平均完成任务的速度快 57%,实现了开发人员工作效率的巨大飞跃。30 分钟上手云技能《Amazon CodeWhisperer 入门》如果您想要快速上手 Amazon CodeWhisperer,云师兄强推:《Amazon CodeWhisperer 入门(英文)》课程值得一学。《Amazon CodeWhisperer 入门》是一门免费的自主进度数字课程。课程面向开发人员和专业技术人员,在 30 分钟的课程中, 不但向大家介绍了 CodeWhisperer 的功能、如何进行设置,并开始用选定的编程语言使用 CodeWhisperer 。从理论到实践,助您快速解锁 Amazon CodeWhisperer 的使用指南,从此登上业务提升快车道。亚马逊云科技官方学习中心 学习通道管理创新,提升企业竞争力据麦肯锡(QuantumBlack)发表的《2023 年的人工智能发展状况:生成式人工智能的爆发之年》调查报告中显示:有近 1/4 的受访首席高管表示,他们个人正在使用生成式 AI 工具开展工作,超过 1/4 的使用人工智能公司的受访者表示,生成式 AI 已列入其董事会的议程。在这一数据中不难发现,很多企业高管已经开始拥抱生成式 AI 了。当然也有很多企业高管仍在洞察这一态势的走向:生成式 AI 能否颠覆行业格局的机遇?生成式 AI 能给自身业务带来什么价值?13 分钟读懂生成式 AI《Generative AI for Executives》如果您想把握生成式 AI 风向标,如果您想了解生成式 AI 能为你带来什么,如果您想快速拉近与生成式 AI 的距离,如果您想通过深入浅出的方式掌握生成式 AI 云技能,如果您想通过生成式 AI 推动业务增长,如果您想通过生成式 AI 提升竞争力,云师兄五星推荐《Generative AI for Executives 》,步入生成式 AI 快车道,13 分钟足矣!《Generative AI for Executives (英文) 》课程,面向企业管理者、业务人员以及非技术人员,通过一系列免费、简短且易于理解的视频课,可帮助高管了解生成式 AI 如何助力他们应对业务挑战并推动业务增长。亚马逊云科技官方学习中心 学习通道
4,572
1,693,382,740,844
InfoQ
5
Amazon CodeWhisperer 初体验,享受AI带来的效率提升
活动推荐: #生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYa随着Github Copilot在程序员中流行,越来越多的开源项目和大型公司也在代码生成这一领域发力。最近亚马逊就宣布了自家基于亚马逊云科技的代码生成项目CodeWhisperer开放测试,由于还在测试阶段,大家可以在各种IDE上免费体验,享受AI带来的效率提升。安装安装CodeWhisperer非常简单,只需要在插件市场搜索AWS Tookit即可。以VS Code为例:安装完成之后侧边栏就会出现一个AWS的图标,点击最下面的DEVELOPER TOOLS登陆,登陆完成之后点击CodeWhisperer,选择开始就可以体验了。代码补全体验获取当前时间首先我们尝试一个非常简单的例子,用Python获取当前时间:# get current time import time def get_current_time():     return time.strftime("%Y-%m-%d %H:%M:%S", time.localtime()) 实际上我们输入第一行的注释,代码助手就会提示我们输入import time,然后我们可以输入函数的定义def,剩下的都可以自动补充完整:网页代码修改首先我们搭了一个简单的网页,网页上面有两个正方形,分别是橘色和红色的,里面还有一些文字,像是Test和Hello World:<html>     <head>         <title>Test</title>         <style>             .test {                 width: 100px;                 height: 100px;                 background-color: orange;             }             .hello {                 width: 50px;                 height: 50px;                 margin: 10px;                 background-color: red;             }         </style>     </head>     <body>         <div class="test">Test</div>         <div class="hello">Hello World!</div>     </body> </html> 现在,我们需要给Test这个正方形加上阴影,将*Hello World!*这个较长的字符串省略并在后面加上省略号。尝试给出注释:这次它生成代码的时间比较长,不过还好最后还是顺利的生成了我们想要的格式:算法应用首先我们尝试一下经典的快速排序算法,它很顺利的生成出来了:基本上是满足了快速排序算法的要求。接着我们挑战一个难一点的,在字符串中找到最长的回文子串。这个问题可以用中心扩展法在O(n ^ 2)的时间复杂度完成,最优的算法是使用马拉车算法(Manacher's Algorithm),其时间复杂度仅为O(n):它也很快得到了,不过实践是检验真理的唯一标准,我们来看看它能不能通过LeetCode:一次通过!代码补全还是很强大的,我自己写的时候在循环的部分很容易就写错了。单元测试在日常工作时,我们需要编写单元测试可以在一定程度上保证我们对代码的修改的把握。我们可以对上面的马拉车算法进行单元测试的编写:在Python中我们一般用断言可以完成一些简单的单元测试,这里它给出了一些测试用例。不过我觉得还不够完善,因为s有可能为空或者None,它并没有测试到这些用例。安全扫描安全扫描(Security Scan) 是Amazon CodeWhisperer推出的一项崭新的功能。在测试阶段,我们每个月可以使用50次扫描。首先我们可以尝试一下官网的例子:直接报错了。从提示来看,应该是因为在一个大的文件夹进行了安全扫描。所以新建一个文件夹再尝试:这次顺利地得到了结果。不过其实这里面应该有两个安全问题,它只能检测到第一个。这是删除之后的扫描结果这时它才能检测到下一个安全问题:这个功能确实能够检测出一定的安全问题,尝试使用Copilot Chat,它只能傻乎乎的回复一些车轱辘话:结语总的来说,CodeWhisperer 还是有不少亮点。在代码生成方面几乎不逊色于Copilot,生成的速度可能稍微慢点,质量还是比较优秀。安全检查是这次最与众不同的地方,需要注意的是扫描的文件长度应该有限制,但是官网中没有提到,稍显不足,但是整个功能还是非常有自己的特色的。除了这些,CodeWhisperer比起Copilot还有一个不足是,没有一个理解代码,解释代码的工具。期待后续的功能更新和迭代。版权声明: 本文源自微信公众号【air的代码小屋】未经授权禁止转载,文章转载请联系作者。
4,121
1,692,946,441,119
InfoQ
6
挑战三大任务,Amazon CodeWhisperer 生成代码的能力到底如何?
活动推荐: #生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYaChatGPT 火出圈之后,AI 大模型编程越来越多,虽然 AI 编码暂时无法完全替代程序员,但是时代变化、潮流趋势所向,大家没有必要过多焦虑,而是应该拥抱变化,拥抱趋势,尝试用 AI 辅助自己的编码,看是否可以得到帮助,本文试用了 Amazon 的 CodeWhisperer AI 编程工具,在这里做一个小小的总结。CodeWhisperer 通过 AI 技术,可以自动分析代码库中的模式和常见用法,从而生成符合标准的代码片段,其旨在帮助开发人员节省时间和精力,提高开发者的工作效率。当前 CodeWhisperer 支持集成到几种开发环境中,VS、Jetbrains、JupyterLab,Lamda 等,由于平时用 C++/Python/Go 比较多,因此本文使用 JetBrains 的 Clion 来测试 CodeWhisperer 生成 C++的能力,首先安装好 Clion(具体步骤网上找或者亚马逊官网指导书),进行 Clion 后,首先通过 tools 搜索安装 aws toolkit,安装好后启动就可以使用 CodeWhisperer 了,第一次启动时会生成一个验证码,链接到你的亚马逊账号进行授权,此处不细讲,按照提示操作即可下面进入正题:使用 CodeWhisperer 生成代码,需要添加注释,其会根据注释一行一行完成代码编写,并且会帮助你完成要编写代码的注释任务一:测试生成全部代码能力,主题完成一个 TCP Server 收发数据,下面图里是一步步的结果最终完成的代码如下生成过程并非像 ChatGPT 一样,一股脑的代码全部生成扔给你,需要开发同学一行一行的插入确认,这种情况也有好处,在于可以在开发过程中自己一行一行的确认正确性及问题,避免一大堆复杂代码重新费神的确认逻辑。任务二: 推荐相应功能的开源库以及使用已集成的开源包进行代码生成测试,主题完成一个 SIP 消息处理函数,下面图片展示其完成过程和结果(1)使用 osip2 解析 sip 消息,下面是生成的代码,基本符合预期 (2) 期望重新推荐一个 sip 消息解析库,不知道是我已经集成了解析库还是还是什么其他原因,没有成功可见 CodeWhisperer 对于 Github、Gitee 以及互联网上标准开源库是进行过训练的,可以读懂 oSip2 是一个很有名的 sip 协议栈,因此可直接使用其 API 根据注释生成可用代码任务三:基于已完成部分代码,根据注释生成补全代码,CodeWhisperer 也可以根据上下文和注释补齐代码的相应功能,建立一个资源分配函数(带一定的业务功能),完成一半的部分(>4),让 CodeWhisperer 完成剩下的部分(<4),下面展示结果最终的结果至此任务三测试完成,生成了基本可用的代码。最后总结,CodeWhisperer 对于能够更快地编写代码还是有一定的帮助。首先,在集成开源或者第三方不熟悉的代码库时,它可以为我节省大量的时间去学习和查阅 API 接口文档,让我能够专注于改进和测试。其次,可以帮助我节省繁琐的重复性工作,如上面的 TCP Socket 处理。当然,也期望可以后续可以生成整体代码段的方式,对于非复杂逻辑代码的场景其效率是更高的。版权声明: 本文为 InfoQ 作者【Hanson】的原创文章。原文链接:【https://xie.infoq.cn/article/386428468269729e334f2c134】。本文遵守【CC BY-NC】协议,转载请保留原文出处及本版权声明。
3,913
1,692,859,120,199
InfoQ
7
如何使用 Amazon CodeWhisperer 免费进行代码安全检查
活动推荐: #生成式AI先锋开发者集结令#免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYaCodeWhisperer 是Amazon发布的一款免费的AI 编程辅助小工具,在辅助程序员编程的同时,还具备代码安全审计的功能。可以快速扫描 Java、JavaScript 和 Python 项目中难以发现的漏洞,并获取代码建议以立即修复这些漏洞。遵循跟踪安全漏洞的最佳实践,例如开放全球应用程序安全项目 (OWASP) 概述的漏洞,或者不符合加密库最佳实践及其他类似安全最佳实践的漏洞。今天小试牛刀,试验一下CodeWhisperer的代码安全检查能力,成功识别出Python代码中可能存在的系统命令注入漏洞、SQL注入漏洞、MD5碰撞漏洞以及反序列化漏洞,666 ~系统命令注入漏洞以下是一段有安全漏洞的 Python 代码:import os filename = input("请输入文件名:") os.system("rm " + filename)这段代码的作用是删除用户输入的文件名对应的文件,但存在安全漏洞。其中的漏洞是,用户可以通过输入特殊字符来执行任意系统命令,而不仅仅是删除文件。例如,如果用户输入的是 ;ls,则会先删除指定文件,然后执行 ls 命令。这可能导致系统被攻击者接管或者数据被窃取,因此这段代码需要进行安全性改进。Amazon CodeWhisperer 成功检测出:系统命令注入漏洞。SQL注入漏洞以下是一个有安全漏洞的 Python 代码:import sqlite3 conn = sqlite3.connect('example.db') c = conn.cursor() c.execute('''CREATE TABLE stocks (date text, trans text, symbol text, qty real, price real)''') date = input("请输入日期:") trans = input("请输入交易类型:") symbol = input("请输入股票代码:") qty = input("请输入数量:") price = input("请输入价格:") c.execute(f"INSERT INTO stocks VALUES ('{date}', '{trans}', '{symbol}', {qty}, {price})") conn.commit() conn.close()这段代码的作用是向 SQLite 数据库中插入一条记录,但存在安全漏洞。其中的漏洞是,用户输入的数据没有进行任何过滤或转义,从而可能导致 SQL 注入攻击。例如,如果用户输入的 symbol 参数是 ABC'); DROP TABLE stocks; --,则会删除 stocks 表。这可能导致数据丢失或系统崩溃,因此这段代码需要进行安全性改进。Amazon CodeWhisperer 成功检测出:SQL注入漏洞。MD5碰撞漏洞以下是一个有安全漏洞的 Python 代码:import hashlib password = input("请输入密码:") hash = hashlib.md5(password.encode('utf-8')).hexdigest() print(f"您的密码的 MD5 值为:{hash}")这段代码的作用是计算用户输入的密码的 MD5 值,并输出结果。但存在安全漏洞。其中的漏洞是,MD5 算法已经被证明不再安全,可以被暴力破解或碰撞攻击。因此,如果攻击者获得了用户的 MD5 值,就可以使用彩虹表等方法轻松地破解密码。这可能导致用户账户被攻击者接管或者数据被窃取,因此这段代码需要进行安全性改进。Amazon CodeWhisperer 成功检测出:MD5碰撞漏洞反序列化漏洞以下是一个有安全漏洞的 Python 代码:import pickle serialized_data = input("请输入序列化数据:") data = pickle.loads(serialized_data) # 使用反序列化后的数据...这段代码的作用是对输入序列化数据,进行反序列化。但存在安全漏洞,其中的漏洞是没有对输入进行验证和过滤,直接进行反序列化操作可能导致恶意对象的执行,从而导致远程代码执行或数据泄露。Amazon CodeWhisperer 成功检测出:反序列化漏洞。
3,765
1,692,844,765,178
InfoQ
8
谁说 AI 编程工具缺乏记忆和联想能力,简单琐碎的需求完全可以交给它
活动推荐: #生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYa今年算是 AI 正式破圈的一年,无数的工具,产品横空出世。无论在面向企业的大语言模型,还是帮助个人的 AI 工具,数不胜数。其中关于 AI 编程助手领域,近年来也涌现了很多不错的产品,例如 Copilot, Cursor, 还是我们今天要体验的 CodeWhisperer。已经在潜移默化中改变了程序员们的生产和解决问题的方式,传统解决问题往往依靠的是谷歌等搜索引擎,找到对应的官网和知名的论坛查找问题。而如今,我们仅仅依靠 AI 编程助手就能解决很多问题。回到 CodeWhisperer 上来,它的出生还是带着许多光环的。首先来自著名的大厂 Amazon, 他们在 AI 领域有足够多的积累,在面向开发者方面有足够多的经验和产品用户体验来反馈用户感受,不断迭代相关产品,而且还有一个相当强大的优势,借助亚马逊云的力量,能够将 AI 和云打通,这在当前云原生时代是必不可少的能力。目标及前期准备先给大家讲讲今天我们希望实现的目标,基于 Spring Boot 框架,简单实现用户登陆,。我们使用的是 IntelliJ 开发工具,选用 Maven 进行管理依赖管理,用到的依赖如下。WebJPAH2我们首先尝试安装 CodeWhisperer 插件,在 Plugins 中搜索 AWS Toolkit 下载即可。下载完成后绑定自己的亚马逊账号即可开始使用,默认开启自动建议。项目结构如图所示pom.xml 文件如下<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 https://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <parent> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-parent</artifactId> <version>3.1.0</version> <relativePath/> <!-- lookup parent from repository --> </parent> <groupId>com.example</groupId> <artifactId>demo</artifactId> <version>0.0.1-SNAPSHOT</version> <name>demo</name> <description>demo</description> <properties> <java.version>17</java.version> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-data-jpa</artifactId> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>com.h2database</groupId> <artifactId>h2</artifactId> <scope>runtime</scope> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-test</artifactId> <scope>test</scope> </dependency> </dependencies> <build> <plugins> <plugin> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-maven-plugin</artifactId> </plugin> </plugins> </build> </project> 开始健康检查我们先实现一个最简单的 Controller,请求 /ping 返回 pong 即可。package com.example.demo.controller; import org.springframework.stereotype.Controller; import org.springframework.web.bind.annotation.RequestMapping; import org.springframework.web.bind.annotation.ResponseBody; @Controller public class PingController { @RequestMapping("/ping") public @ResponseBody String greeting() { return "pong"; } }测试用例是检验代码正确性必不可少的一环,我们来写个简单的测试用例。这时 CodeWhisperer 已经开始展示它的实力了,只是写了一行 @Test 注解,它将我们想要做的测试代码完整提示出来。下面是完整的测试代码。package com.example.demo; import com.example.demo.controller.PingController; import org.junit.jupiter.api.Test; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.boot.test.autoconfigure.web.servlet.AutoConfigureMockMvc; import org.springframework.boot.test.autoconfigure.web.servlet.WebMvcTest; import org.springframework.test.web.servlet.MockMvc; import static org.springframework.test.web.servlet.result.MockMvcResultHandlers.print; import static org.springframework.test.web.servlet.result.MockMvcResultMatchers.content; import static org.springframework.test.web.servlet.result.MockMvcResultMatchers.status; import static org.springframework.test.web.servlet.request.MockMvcRequestBuilders.get; @AutoConfigureMockMvc @WebMvcTest(PingController.class) public class TestWebApplication { @Autowired private MockMvc mockMvc; @Test public void shouldReturnDefaultMessage() throws Exception { this.mockMvc.perform(get("/ping")).andDo(print()).andExpect(status().isOk()) .andExpect(content().string("pong")); } } 运行一下测试用例,很顺利的通过🎉。用户类设计我们来定一个 User 模型,发现它在 Table To Class 的实现中具备一定的表设计能力,以及字段关联联想,约束设计能力。能推测我想要的表字段,索引约束建议。这对于新手来说是莫大的帮助,想象有一位功力深厚的同伴在旁指点你设计表结构,那么表结构的设计就能相对合理一些。package com.example.demo.model; import jakarta.persistence.*; import lombok.AllArgsConstructor; import lombok.Getter; import lombok.NoArgsConstructor; import lombok.Setter; import org.springframework.stereotype.Indexed; @Entity @Getter @Setter @AllArgsConstructor @NoArgsConstructor @Table(name = "game_users") public class User { @Id private Long id; @Column(unique = true, nullable = false) private String username; @Column(nullable = false, length = 64) private String password; @Column(unique = true, nullable = false) private String email; } DAO 层实现这时我灵光一现,根据官网的 GIF 图展示,可以通过注释进行代码推断,那好,DAO 层的实现就交给它啦。哎哟,不错哦,根据我上面想要根据邮箱查询用户的注视,它已经给出了相应的提示,让我们再考考它,注释中进行多个方法的描述。挺聪明呀,也很顺利的实现了。package com.example.demo.dao; import com.example.demo.model.User; import org.springframework.data.jpa.repository.JpaRepository; import org.springframework.stereotype.Repository; import java.util.Optional; @Repository public interface UserDao extends JpaRepository<User, Long> { // function to implement find user by email Optional<User> findByEmail(String email); Optional<User> findByUsername(String username); // two function to implement find user by id or email Optional<User> findById(Long id); Optional<User> findByEmailIgnoreCase(String email); // function to implement check user is existed Boolean existsByEmail(String email); } 看来以后 CRUD 的 DAO 层实现可以交给它来完成啦。我们希望能够预先插入一些数据便于测试,琐碎的日志测试对它来说轻轻松松。package com.example.demo; import com.example.demo.dao.UserDao; import com.example.demo.model.User; import org.slf4j.Logger; import org.springframework.boot.CommandLineRunner; import org.springframework.context.annotation.Bean; import org.springframework.context.annotation.Configuration; @Configuration class LoadDatabase { public static final Logger log = org.slf4j.LoggerFactory.getLogger(LoadDatabase.class); // this is Bean is loaded once in the application context // it is used to load the data into the database @Bean public CommandLineRunner initDatabase(UserDao dao) { return args -> { log.info("Preloading " + dao.save(new User(1L, "test1", "111111", "abc@gmail.com"))); log.info("Preloading " + dao.save(new User(2L, "test2", "222222", "123@gmail.com"))); }; } } Service 层实现轮到 Service 层了,让我们看看它的表现,在这里我们简单的根据用户名查询用户,返回对应的数据即可。当我方法签名写一半时,它给我的建议让我停下继续敲击的手指,因为基本符合我的预期,而且具备一定的记忆联想能力,在 DAO 层定义的 Optional<User>,这里也能找到对应的方法进行处理。package com.example.demo.service; import com.example.demo.dao.UserDao; import com.example.demo.model.User; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.stereotype.Service; import java.util.Optional; @Service public class UserDetailServiceImpl { private final UserDao userdao; @Autowired public UserDetailServiceImpl(UserDao userdao) { this.userdao = userdao; } public User getUserByUsername(String username) throws Exception { Optional<User> user = userdao.findByUsername(username); if (user.isPresent()) { return user.get(); } else { throw new Exception("User not found"); } } } Controller 层实现最后我们来实现最外层入口,简单的进行相关业务校验,用户名是否为空,密码是否正确,在这里用于演示。用户不存在相关处理,密码正确性验证,基本符合我们的要求。package com.example.demo.controller; import com.example.demo.model.User; import com.example.demo.service.UserDetailServiceImpl; import org.apache.coyote.Response; import org.springframework.beans.factory.annotation.Autowired; import org.springframework.http.HttpStatus; import org.springframework.http.ResponseEntity; import org.springframework.web.bind.annotation.*; @RestController @RequestMapping("/api/auth") public class UserController { private final UserDetailServiceImpl userDetailService; @Autowired public UserController(UserDetailServiceImpl userDetailService) { this.userDetailService = userDetailService; } @PostMapping("/login") public ResponseEntity<?> login(@RequestBody User user) { try { if (user.getUsername().isEmpty()) { return ResponseEntity.badRequest().body("user name is empty"); } User res; res = userDetailService.getUserByUsername(user.getUsername()); if (res == null) { return ResponseEntity.badRequest().body("user not found"); } if (res.getPassword().equals(user.getPassword())) { return ResponseEntity.ok(res); } return new ResponseEntity<>("user password invalid", HttpStatus.BAD_REQUEST); } catch (Exception e) { return ResponseEntity.notFound().build(); } } } 最后我们来测试一下,格式错误和用户密码错误的情况。与预期一致,撒花。总结CodeWhisperer 就我今天的使用而言,还是有些出乎我的意料,之前的一些 AI 编程工具并不具备记忆和联想能力,今天 CodeWhisperer 展示的记忆联想效果不错,并且具备一定的表结构设计能力,一些简单的测试用例完成度也不错,我想未来一些简单琐碎的需求,测试用例也可以交给它了。但是今天在体验的过程中还是发现了一些不足,插件 UI 会出现挡住建议的情况,这样我需要再次触发建议才行,目前阶段可以使用它来投入生产,在一些复杂的场景还是需要谨慎,会出现胡言乱语的情况,跟上下文关联性不强的建议。当然,这些问题相信随着模型的数据量级和质量不断优化能够慢慢解决🎉。版权声明: 本文为 InfoQ 作者【天黑黑】的原创文章。原文链接:【https://xie.infoq.cn/article/179127e04fff483aac667444d】。文章转载请联系作者。
2,736
1,692,759,388,379
InfoQ
9
全网最全!实测亚马逊 AI 编程助手 Amazon CodeWhisperer
活动推荐: #生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYa今天小王学长带大家实际测试一下亚马逊最近出的 AI 编程助手 Amazon CodeWhisperer,从不同角度和不同功能来看看这款编程助手是否可以帮助我更好的进行开发任务。文章目录:(大家先预览下)一、CodeWhisperer简介 1.1 CodeWhisperer 是一个重要的生产力助推器 1.2 CodeWhisperer 的实际应用 二、CodeWhisperer安装教程 2.1 IntelliJ IDEA安装CodeWhisperer插件 2.2 VSCode安装CodeWhisperer插件 2.3 PyCharm安装CodeWhisperer 2.4 快捷键使用方法 三、简单自动编码演示 3.1 单行代码自动补全 3.2 CodeWhisperer生成完整代码 3.3 其根据签名自动生成代码 四、AI编程代码实测及项目体验 4.1 简单函数代码测试 4.2 代码安全扫描实测 4.3 代码引用跟踪功能实测 4.4 计算机视觉工程项目实测 五、Amazon CodeWhisperer实测体验总结 5.1 CodeWhisperer 可以帮助我成为一个更好的开发者吗?一、CodeWhisperer 简介CodeWhisperer 是亚⻢逊出品的一款基于机器学习的通用代码生成器,可实时提供代码建议。在编写代码时,它会自动根据我们现有的代码和注释生成建议。从单行代码建议到完整的函数,它可为我们提供各种大小和范围的个性化建议。CodeWhisperer 还可以扫描我们的代码以突出显示和定义安全问题。codewhispereropen in new window:亚马逊官方出品目前仅以插件的形式在VS Codeopen in new window、Jetbrainsopen in new window等 IDE 里面使用,如果想试一试可以用 VS Code,目前无限制免费使用免费,并且对环境要求不高,还轻量~亚马逊在 2022 年 6 月发布了 CodeWhisperer 预览版,现在它支持 Python、Java 和 JavaScript。CodeWhisperer 经过数十亿行代码的训练,由机器学习提供支持,旨在实现相同的目标。无论我们是学生、新开发人员,还是经验丰富的专业人士,CodeWhisperer 都有助于我们提高工作效率。其支持多种 IDE 和语言。要开始使用,我们只需安装合适的 AWS IDE Toolkit,启用 CodeWhisperer 功能,输入我们的预览访问代码,然后开始键入:CodeWhisperer 可以持续检查我们的代码和注释,并为我们提供语法正确的推荐。这些推荐根据您的编码风格和变量名称合成,而不仅仅是代码段。​ CodeWhisperer 使用多个上下文线索来提供推荐,包括源代码中的光标位置、光标前面的代码、注释以及同一项目中其他文件中的代码。您可以按原样使用推荐,也可以根据需要对其进行改善和自定义。正如我之前所提到的,我们使用从开源存储库、内部 Amazon 存储库、API 文档和论坛中提取的数十亿行代码训练(并将继续训练)CodeWhisperer。​在 AWS 博客的一篇文章中,Mark Richman 解释说,CodeWhisperer 的模型是在“包括 Amazon 开源代码在内的各种数据源”上训练的。有了这个语料库(显然确实存在)完善 CodeWhisperer 的模型,编写从 S3 读取文件的代码应该是一个很好的测试用例。​在使用 CodeWhisperer(CW)时,我们需要写一个注释,描述我们希望函数去做什么。注释的描述性和准确性越高,系统就越能更好地推断出我们想要的逻辑。Function to open an S3 file比如注释以 Function 开头,让 CW 知道你想要创建一个函数。也就是说,你需要添加一个注释,作为给 CW 的提示。CW 分析注释并生成一个函数的定义。此时,你可以在生成函数体之前修改函数定义。CW 还可能提供多种函数定义供你选择。IntelliJ 集成 CodeWhisperer 的截图:点击“插入代码”,你的函数就在注释的下方创建好了。注意 CodeWhisperer 不仅插入了代码,还创建了一个文档字符串。# Function to open an S3 file def open_s3_file(filename): """ :param filename: :return: """ s3 = boto3.resource('s3') return s3.Object(bucket, filename).get()['Body'].read()看起来不错!这段代码实现了你的注释所期望的功能,并且是在几秒钟内就生成了。节省了查找 boto3 API 的时间,你只需要检查代码,确保语义正确。接着看看提出更多要求时,会发生什么。这有一个很有用的例子:写一个函数从 S3 的文件中返回前“n”行。# Function to get first n lines from a file in S3 def get_first_n_lines_from_s3(filename, n): """ Get the first n lines of a file in S3 :param filename: :param n: :return: """ lines = [] for line in open_s3_file(filename): lines.append(line) if len(lines) >= n: break return lines真厉害!CodeWhisperer 使用了之前创建的辅助方法 open_s3_file,并生成了正确的函数。在 CW 生成函数体之前,你可以修改参数名,提高代码的可读性。例如,如果我们输入:# Function to find common elements in listsCW 会提示:def find_common_elements(list1, list2)在生成函数体之前,我们可以修改函数定义,使其更具描述性:def find_common_elements(first, second)如果我们接受它的函数定义,CodeWhisperer 将使用函数签名和注释来构建函数体。得到的函数将使用改进后的参数名。# Function to find common elements in lists def find_common_elements(first, second): return list(set(first) & set(second))CodeWhisperer 不仅仅可以创建整个函数;它还可以在函数中插入代码片段,并在过程中推断相关变量。# reverse the list order lines.reverse()1.1 CodeWhisperer 是一个重要的生产力助推器使用 CodeWhisperer,我能够更快地编写代码。到目前为止,最大的价值是 S3 示例所演示的功能。如果我自己写代码,大部分时间将会用来查找 boto API 文档,以确保写出正确的调用。使用 CodeWhisperer,则只需三秒钟。这让我想到了一段曾花了很多时间的烦人代码:给 CloudWatch 发送数据。让我们看看 CodeWhisperer 能否有所帮助,试试提供注释:“Function to emit a CloudWatch metric”。# Function to emit a cloudwatch metric def put_metric_data(metric_name, metric_data): """ Put a metric data into cloudwatch :param metric_name: :param metric_data: :return: """ cloudwatch = boto3.client('cloudwatch') cloudwatch.put_metric_data( Namespace='my_namespace', MetricData=[ { 'MetricName': metric_name, 'Dimensions': [ { 'Name': 'string', 'Value': 'string' }, ], 'Unit': 'Seconds', 'Value': metric_data }, ] )非常有用!CW 为我节省了许多打字和查阅 API 文档的时间。我有可能需要重构这段代码,但即使我从零开始编写它,第一步也要写出类似这样的原始逻辑。如今只花三秒钟,我节省了编写大量样板代码的时间,有了一个很好的自定义或重构的起点。1.2 CodeWhisperer 的实际应用我在 PyCharm 中安装了 CodeWhisperer ,并对其进行了测试。以下是一些示例,向您展示了它可以执行的操作。我想构建一个质数列表。我键入 # See if a number is pr。CodeWhisperer 完成此操作,然后我按下 TAB(实际键特定于每个 IDE)接受推荐:在下一行,我按下 Alt+C(同样是 IDE 特定),然后我可以在一对函数定义之间进行选择。我接受第一个函数,CodeWhisperer 推荐函数体,以下是我所拥有的:我编写 for 语句,CodeWhisperer 推荐循环的主体:CodeWhisperer 还可以帮助我编写用于访问各种 AWS 服务的代码。我从 # create S3 bucket 开始,然后按 TAB 键完成剩余部分:看到这里,大家是不是觉得还不错,接下来教大家如何安装,很简单的~二、CodeWhisperer 安装教程2.1 IntelliJ IDEA 安装 CodeWhisperer 插件在 IDEA 中打开配置窗⼝,选择 Plugins,搜索"AWS Toolkit",点击 Install,点击 OK 按钮,如下图:安装完之后重启 IDEA,如下图:打开 AWS Toolkit 视图(菜单 View/Tool Windows/AWS Toolkit),点击"Developer Tools"tab⻚⾯,选择“CodeWhisperer/Start",如下图:弹出的窗⼝中选择“Use a personal email to sign up and sign in with AWS Builder ID",点击“Connect”按钮,如下图:在弹出的窗⼝中,选择“Open and Copy Code”,如下图:此时会在浏览器中打开⼀个⻚⾯,按 ctrl-v 粘贴 code 值,点击“Next“,如下图:输⼊邮箱地址,点击"Next",如下图:输⼊名字,点击“Next”,CodeWhisperer 会向邮箱中发送⼀个验证码,如下图:打开邮箱,可以看到验证码,如下图:复制验证码,粘贴到输入框,点击“Verify”按钮,如下图:设置密码,点击“Create AWS Builder ID“,如下图:在最后⼀个⻚⾯中点击“Allow”按钮,如下图:出现如下提示后,即表示注册 AWS builder ID 成功,如下图:返回 IDEA,在 AWS Toolkit 视图中的 Developer Tools 中可以打开或关闭代码⽣成功能,如下图:此时,就可以愉快的使用 AI 编程了。2.2 VSCode 安装 CodeWhisperer 插件安装 AWS Toolkit 插件,具体到 VS Code 侧边栏搜索并安装侧边栏点击 aws,>> DEVELIOPER TOOL >> CodeWhisper >> Start在下拉菜单中点击 Use a personal email to sign up and sign in with AWS Builder ID点击 Copy Code and Proceed,这将自动复制代码一般会提示外部网站打开提醒,选择打开打开网站后,输入点击 Copy Code and Proceed 时得到的代码,点击 Next输入自己的邮箱地址(同时登录你的邮箱等待验证码),点击 Next重复之前步骤,但是由于已经在浏览器上登录成功了,所以步骤非常简单 粘贴代码后将会提示以下内容,点击 Allow 即可等左下角的 AWS 扩展颜色正常,对勾状态,说明连接成功此时,就可以愉快的使用 AI 编程了。2.3 PyCharm 安装 CodeWhisperer1.打开 Pycharm 插件管理在 JetBrains IDE 中,导航到设置菜单(在 macOS 上为⌘ + ,在 Windows 上为文件→设置),然后单击左侧菜单上的“插件”。在菜单顶部,单击 Marketplace 并在搜索栏中键入 “AWS Tookit”。然后点击安装。2.安装完成后重启 IDE3.将 Pycharm 连接到 AWS(AWS Build ID 创建),重复之前步骤IDE 重新启动后,您将看到一个新的 AWS Toolkit 工具窗口。还可以通过 View -> Tool Windows -> AWS Toolkit(视图 -< 工具窗口 -< AWS Explorer)访问此窗口。然后点击"Developer Tools"标签,选择“CodeWhisperer/Start"此时,就可以愉快的在 PyCharm 里使用 AI 编程了。2.4 快捷键使用方法全程需要按快捷键调用 Codewhisperer,主要的几个用法如下:三、简单自动编码演示回到 IDEA,看到如下界面,即表示注册并启动成功:下面我们新建任意 Java 文件,看看他如何能够帮助我们自动生成代码。3.1 单行代码自动补全输入字符串 public。根据输入,CodeWhisperer 生成了建议列表3.2 CodeWhisperer 生成完整代码CodeWhisperer 可以根据编写的注释生成完整的函数。类似于 if/for/while 等代码块的生成。大家如果看到这有疑问,可以接着看第四部分,有详细的测试说明。3.3 其根据签名自动生成代码看到这里,大家应该有个简单的了解了,咱们接着往下看~四、AI 编程代码实测及项目体验4.1 简单函数代码测试首先,我先用中文注释了“写一个读取 csv 文件的函数” 回车后可以看到 CodeWhisperer 自动显示出来按快捷键 Tab 确认键入后,接着回车后 CodeWhisperer 又自动生成了以下代码:感觉这个 CodeWhisperer 自动生成的代码还不错,我选择了 Insert Code 键入使用。紧接着用中文又注释了“创建一个简单的爬虫简单函数”在这选择了第三个自动代码,同样 Tab 键入。接下来是注释“冒泡排序”后回车注释“选择排序”后回车中文注释实测完后又对英文注释进行了测试,如下图所示:乘胜追击,又对创建和上传文件代码进行自动生成测试,同样得到了预期的效果。对于简单的函数实测让我感觉这个工具还挺不错的,因为可以根据自己想要的注释自动生成多个代码建议,这样不仅节省了大量的编码时间,而且多种代码建议可供选择,一定程度上提升了自己编写代码的质量。4.2 代码安全扫描实测接下来用 CodeWhisperer 去扫描我们代码中的安全漏洞,以下是运行按钮的位置打开我想扫描的文件,然后运行安全扫描结果发现 CodeWhisperer 探测到该文件中有两个安全问题。 通过查看问题栏,点击事件定位到代码中,我们将鼠标移入到突出显示的代码,查看建议的措施,如下所示,问题指出在该例子中未加密的 AWS 凭证被记录下来,是一个安全漏洞,它建议我们重写代码并且修复该漏洞。同样查看第二个问题,CodeWhisperer 告诉我们讲应该把标识设置为 True。根据 CodeWhisperer 的建议,我进行了对应修改,两处安全问题修改如下:修改后重新扫描了文件,扫描完成,显示没找到问题。对于安全扫描这项功能,我还是挺惊艳的,没想到能实测找出问题并给出对应的解决问题,因为这一点我对 CodeWhisperer 的好感又增加了。4.3 代码引用跟踪功能实测在这里想实现一个函数来创建一个 dynamo DB 表。 如下图所示进行了实际测试 “implement a function to create a dynamoDB table”以下是 CodeWhisperer Reference Log 给出的建议:根据代码建议标注被文件跟踪器标记为 MIT 许可证,其引用了 Apache-2.0 许可证下的代码。我选择接受了这些标记代码,然后发现 CodeWhisperer 自动记录了引用我需要的许可证信息,这样我就可以在我的代码上添加适当的许可证和归属信息。 这个功能实测完感觉也挺有用的,对代码涉及到的许可证和归属信息问题进行了有效解决。4.4 计算机视觉工程项目实测在对官网显示的几项功能测试完后,又在平时用到的实际项目上进行了测试,我选取了常用的一些 CV 检测模型,以下是 ShuffleNet 的实际测试效果。首先,我在实例化训练数据集上,对缺失的代码段进行测试,看 CodeWhisperer 是否能联系上下文进行代码补全。进行回车操作后,CodeWhisperer 显现出来了所给的建议。目前看所给的建议正确,接着我又对冻结权重部分进行了测试,这回我又利用了 CodeWhisperer 的快捷键 ALT+C 进行了测试,结果显示自动生成了 False 选项,测试到这里真的让我觉得这个工具是真的好,可以帮助我解决代码中遇到的很多问题。 在训练代码中测试完,我又接着对检测模型代码进行了测试,如下图所示在 transform 指向中为我建议了 img。最后,我对检测模型代码进行了运行测试,正确的检测出图片为蒲公英 dandelion。总的来说,CodeWhisperer 辅助我完成了 CV 模型的代码编写和模型检测,达到了官网所展示的预期。接下来,我要让 CodeWhisperer 帮助我完成更复杂的任务了,哈哈五、Amazon CodeWhisperer 实测体验总结5.1 CodeWhisperer 可以帮助我成为一个更好的开发者吗?通过以上的测试,我觉得它可以帮助我成为一个更好的开发者。首先,它可以为我节省大量的时间和精力,让我能够专注于改进、重构和测试。其次,它通过承担一些同质化的繁重工作,让我有机会成为一个更好的程序开发人员。比如上面的测试的例子是 Amazon 工具(经过 Amazon 开源代码训练)能够表现出色的例子。当然,在大多数开发人员需要花费很多时间的地方,比如编写领域相关的逻辑时,我又多测试了一下,让我们看看 CodeWhisperer 会不会也有帮助。比如从 Python 文档中的数据类示例开始。@dataclass class InventoryItem: """Class for keeping track of an item in inventory.""" name: str unit_price: float quantity_on_hand: int = 0 def total_cost(self) -> float: return self.unit_price * self.quantity_on_hand其实我想知道 CodeWhisperer 是否可以向这个类添加一个方法。让我们看看如果添加注释:" Function that return this item costs more than $10",会发生什么?@dataclass class InventoryItem: """Class for keeping track of an item in inventory.""" name: str unit_price: float quantity_on_hand: int = 0 def total_cost(self) -> float: return self.unit_price * self.quantity_on_hand # Function that returns whether this item costs more than $10 def expensive(self) -> bool: return self.unit_price > 10结果是非常酷的。值得注意的是,CodeWhisperer 给函数起了一个直观的名字,并包含了对 self 的引用。接着,让我们尝试用 CodeWhisperer 来做测试,看是否会触及它的极限。# Function to test InventoryItem class def test_inventory_item(): """ Test InventoryItem class :return: """ item = InventoryItem("Widget", 10, 5) assert item.name == "Widget" assert item.unit_price == 10 assert item.quantity_on_hand == 5 assert item.total_cost() == 50 assert not item.expensive() 在上面的代码中,我输入了注释,CW 自动完成了剩下的工作。 测试似乎是一个极好的证明 CW 可以节省时间的例子。我不需要浪费时间去想测试的值,也不用输入所有的成员变量和方法。总的来说,可以帮助我成为一个更好的开发者,但是任何辅助工具都有利有弊,CodeWhisperer 也是才发布不久,通过测试我也想邀请大家去进行实际测试,可以对使用 CodeWhisperer 遇到的问题大家一起相互讨论,一起促进这个编程助手迭代和完善~版权声明: 本文为 InfoQ 作者【攻城先森】的原创文章。原文链接:【https://xie.infoq.cn/article/909704e9a44302aa28b2a44e9】。未经作者许可,禁止转载。
3,649
1,692,696,130,121
InfoQ
10
9 种方法使用 Amazon CodeWhisperer 快速构建应用
活动推荐: #生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYaAmazon CodeWhisperer 是一款很赞的生成式人工智能编程工具。自从在工作中使用了 CodeWhisperer,我发现不仅代码编译的效率有所提高,应用开发的工作也变得快乐起来。然而,任何生成式 AI 工具的有效学习都需要初学者要有接受新工作方式的心态和意愿。Amazon CodeWhispererhttps://aws.amazon.com/codewhisperer/作为一名早期的“探索者”,我发现了几个对我很有用的功能和可以提高生产效率的小技巧,将在这篇文章中和大家分享:减少输入函数生成类的生成算法的实现单元测试的编写创建示例数据简化正则表达式更快地学习第三方代码库代码的文档化CodeWhisperer 的安装部署使用 CodeWhisperer,需要在你的集成式开发环境(IDE)中安装最新的 Amazon Toolkit。支持的 IDE 包括 Visual Studio(VS)Code 和 JetBrains IDE(IntelliJ、PyCharm、CLion、GoLand、WebStorm、Rider、PhpStorm、RubyMine 和 DataGrip)。另外,CodeWhisperer 被内置了 Amazon Cloud9 和 Amazon Lambda 控制台, 也可以在 JupyterLab、Amazon SageMaker Studio、以及 Amazon Glue Studio Code 中通过加入 CodeWhisperer extension 进行使用。有关设置说明,请参阅:CodeWhisperer “入门” 资源。CodeWhisperer “入门” 资源https://aws.amazon.com/codewhisperer/resources/CodeWhisperer 为输入需求自动提供建议。如果没有收到建议,可以随时使用 Option + C (Mac) 或 Alt + C (Windows) 快捷方式手动触发。CodeWhisperer 有时还会向你提供多种建议以供选择。你可以按 → 和 ← 键循环浏览所有可用的建议。CodeWhisperer 提供的建议是非确定性的,这意味着开发者收到的建议可能与本文中显示的建议略有不同。如果收到的建议不符合需求,可以尝试使用箭头键循环浏览所有可用的建议,或者尝试稍微改写任何代码注释提示。即使是标点符号的变化也可能产生新的建议。本文中的示例是用 JavaScript 和 TypeScript 编写的。当然,演示操作同样适用于 CodeWhisperer 支持的其他编程语言。减少输入对于常见的代码功能实现,CodeWhisperer 的作用在于功能完成自动化,这大大减少了编写单行代码或代码块时的键入次数。CodeWhisperer 在键入时自动提供建议。当建议有用时接受这些建议,当建议没有帮助时则忽略这些建议。根据我的经验,仅以这种方式使用 CodeWhisperer 可以使我的文字输入减少 50% 或更多。函数生成根据函数名自动生成函数资深的程序员为其函数和参数提供清晰准确的描述性名称。如果你在自己的编程中遵循这种做法,CodeWhisperer 将拥有为你实现许多功能所需的所有上下文。在输入下面的函数名后,CodeWhisperer 生成的函数体。用户输入 (JavaScript)JavaScriptfunction standardDeviation(numbers)结果:JavaScriptfunction standardDeviation(numbers) { const avg = average(numbers); const variance = numbers.map((x) => Math.pow(x - avg, 2)).reduce((a, b) => a + b, 0) / numbers.length; return Math.sqrt(variance); }根据描述生成函数有时,仅凭一个好的函数签名不足以传达函数的预期行为。在这些情况下,可以使用详细的代码注释作为提示发给 CodeWhisperer。建议在选择这种方式时使用相应语言的文档注释分隔符。用户输入 (JavaScript)JavaScript/** * Given a list that contains some numbers and strings, format them into a string * in which the numbers are prepended with "#" and the strings are wrapped in * double quotes. */结果:JavaScript/** * Given a list that contains some numbers and strings, format them into a string * in which the numbers are prepended with "#" and the strings are wrapped in * double quotes. */ function formatList(list) { return list .map((item) => { if (typeof item === "number") { return `#${item}`; } else { return `"${item}"`; } }) .join(", "); }类的生成可以通过单个代码注释生成完整或部分的类实现。注释应描述该类的关键属性和行为。用户输入(TypeScript):TypeScript/** * A folder has a name, children, and an optional parent. A child can't be added * twice. */结果:在完成上面的函数块注释之后,CodeWhisperer 提供了多种建议,并附有每种方法的文档注释!TypeScript/** * A folder has a name, children, and an optional parent. A child can't be added * twice. */ class Folder { constructor(name, parent) { this.name = name; this.children = []; this.parent = parent; } /** * Add a child to the folder. * @param child The child to add. * @returns True if the child was added, false if it was already present. */ addChild(child) { if (this.children.includes(child)) { return false; } this.children.push(child); return true; } /** * Remove a child from the folder. * @param child The child to remove. * @returns True if the child was removed, false if it wasn't present. */ removeChild(child) { if (!this.children.includes(child)) { return false; } this.children.splice(this.children.indexOf(child), 1); return true; } }算法的实现CodeWhisperer 能够轻松实现通用的算法。只需告诉 CodeWhisperer 你想将哪种算法应用于特定的编码问题,它就会执行。用户输入 (JavaScript)JavaScriptconst actors = [ ... ]; // Sort the actors by age using the merge sort algorithm.结果:JavaScriptconst actors = [ {name: 'Tom Cruise', age: 56}, {name: 'Meryl Streep', age: 49}, {name: 'Jack Nicholson', age: 39}, {name: 'Christopher Walken', age: 53} ]; // Sort the actors by age using the merge sort algorithm. function mergeSort(arr) { if (arr.length <= 1) { return arr; } const middle = Math.floor(arr.length / 2); const left = arr.slice(0, middle); const right = arr.slice(middle); return merge(mergeSort(left), mergeSort(right)); } function merge(left, right) { const result = []; while (left.length && right.length) { if (left[0].age < right[0].age) { result.push(left.shift()); } else { result.push(right.shift()); } } while (left.length) { result.push(left.shift()); } while (right.length) { result.push(right.shift()); } return result; }单元测试的编写CodeWhisperer 加速了单元测试的实现。不仅能够实现我请求的大多数明确的单元测试的逻辑,而且经常为我甚至没有想到的边缘情况来建议单元测试。当我想让 CodeWhisperer 实现一个单元测试时,我会像下面的例子一样,首先声明我正在测试的条件和预期的结果。用户输入 (JavaScript)JavaScriptdescribe("Folder.addChild()", () => { it("when adding an existing folder should not add duplicate"结果:JavaScriptdescribe("Folder.addChild()", () => { it("when adding an existing folder should not add duplicate", () => { const folder = new Folder("root"); const child = new Folder("child"); expect(folder.addChild(child)).toBe(true); expect(folder.addChild(child)).toBe(false); }); it("when adding a new folder should add it", () => { const folder = new Folder("root"); const child = new Folder("child"); expect(folder.addChild(child)).toBe(true); }); it("when adding a new folder should add it to parent", () => { const folder = new Folder("root"); const child = new Folder("child"); folder.addChild(child); expect(child.parent).toBe(folder); }); }在完成一两个测试之后,即使没有明确的提示,CodeWhisperer 也会建议更多的测试。在后续的文章和视频里,我们将展示 CodeWhisperer 更多的测试建议。提示:你会注意到我的测试描述包括:我正在测试的函数;我正在测试的条件;我期望的结果。 遵循这个由三部分组成的模式是确保 CodeWhisperer 拥有实现高质量测试逻辑所需的上下文的好方法。创建示例数据我发现,CodeWhisperer 可以生成虚拟数据,或者实际的、具有可重复模式的代码。举例来说,在下面的列表中,我只输入了第一个 “用户” 对象作为示例,CodeWhisperer 就很好的延续了这个模式。用户输入 (JavaScript)JavaScriptconst fakeUsers = [ { name: "User 1", id: "user1" },结果:JavaScript const fakeUsers = [ { name: "User 1", id: "user1" }, { name: "User 2", id: "user2" }, { name: "User 3", id: "user3" }, { name: "User 4", id: "user4" }, { name: "User 5", id: "user5" }, { name: "User 6", id: "user6" } ]它甚至可以生成随机但看似合理的值,如下所示:用户输入 (JavaScript)JavaScriptconst fakeUsers = [ { name: "Sally", id: "user1" },结果:JavaScriptconst fakeUsers = [ { name: "Sally", id: "user1" }, { name: "Bob", id: "user2" }, { name: "Joe", id: "user3" }, { name: "Jane", id: "user4" }, { name: "Jill", id: "user5" }, { name: "Jack", id: "user6" } ]Regular Expression 简化正则表达式虽然 CodeWhisperer 还不能将自然语言自动转换为自定义 Regular Expression,但它确实知道很多常用的 Regular Expression,帮助开发者节省时间。每当你需要正则表达式时,它们随手可得。让我们来看一个相对复杂但常见的 Regular Expression。用户输入 (JavaScript)JavaScript /** * Function that validates whether a string is a valid email address. */结果:JavaScript /** * Function that validates whether a string is a valid email address. */ export function isValidEmail(email) { return /^[^\s@]+@[^\s@]+\.[^\s@]+$/.test(email); }快速学习第三方代码库当使用不熟悉的库、模块或框架时,CodeWhisperer 有助于加快自学习速度。 在下面的示例中,我需要编写一个实用函数,该函数将获取来自 API 的 gzip 压缩值并将其转换成其余代码可以理解的值。我知道 “pako” 库会帮助到我,但我不知道如何使用。于是我给 CodeWhisperer 提示:一条导入声明和一条描述我目的的描述。JavaScriptimport pako from "pako"; /** * Accepts a base64-encoded, gzip-compressed JSON string and returns * a parsed JSON object. */结果:JavaScriptimport pako from "pako"; /** * Accepts a base64-encoded, gzip-compressed JSON string and returns * a parsed JSON object. */ export default function decompress(str) { const buffer = pako.inflate(atob(str)); const json = buffer.toString(); return JSON.parse(json); }代码的文档化CodeWhisperer 能为生成的代码和现有的代码生成文档和注释。例如,假设我想要 CodeWhisperer 帮我为 FavoritesFilter TypeScript 类的 matches() 方法生成文档注释。TypeScriptclass FavoritesFilter implements IAssetFilter { ... matches(asset: Asset): boolean { ... } }我们只需要在方法名称的正上方键入文档注释分隔符(/** */),CodeWhisperer 就会为我们生成文档注释的正文。注意:当 CodeWhisperer 用于这个场景时,我们需要使用 Option + C (Mac) 或 Alt + C (Windows)手动触发建议。结论希望上面的分享能激发你开始尝试使用 CodeWhisperer 这样智能的代码工具的想法。立即安装 CodeWhisperer,并开始在自己的项目中使用这些节省时间的方法和技巧。当然,这些建议和技巧只是 CodeWhisperer 的部分功能。随着更多开发者开始将 CodeWhisperer 应用到他们的日常工作流程中,我相信更多的技巧、经验和最佳实践还将持续出现。如果你也有心得体验,请发表评论让我们知道。你的分享会对更多的人有所帮助。安装 CodeWhispererhttps://aws.amazon.com/codewhisperer/resources/参考资料10 ways to build applications faster with Amazon CodeWhisperer:https://aws.amazon.com/cn/blogs/devops/10-ways-to-build-applications-faster-with-amazon-codewhisperer/Amazon CodeWhisperer Startup:https://aws.amazon.com/cn/codewhisperer/resources/Amazon CodeWhisperer User Guide:https://docs.aws.amazon.com/codewhisperer/latest/userguide/sagemaker-setup.html文章作者:Kris Schultz3D Specialist Solutions Architect, Amazon Web Services 文章译者:郑予彬亚马逊云科技资深开发者布道师代码校验:阙铭飞亚马逊云科技大中华区解决方案研发中心 解决方案架构师 
4,666
1,692,694,372,245
InfoQ
11
Amazon SQS支持从死信队列重新生成消息
亚马逊云科技最近宣布在SQS中支持使用AWS SDK或命令行接口进行死信队列的重驱动。新功能允许开发人员将未消费的消息从死信队列中移出并转移回其源队列。当出现错误时,SQS会将未消费的消息转移至死信队列(dead-letter queue,DLQ),从而能够让开发人员探查未成功消费的消息并调试应用程序的故障。亚马逊云科技的开发人员倡导者Sébastien Stormacq解释到:每当消费者应用捡取一个要处理的消息时,消息的接收计数就会加1。当ReceiveCount > maxReceiveCount时,Amazon SQS会将消息移动到指定的DLQ中,供人工分析和调试。我们通常会将警报与DLQ关联起来,以便于在这种情况发生时发送通知。在失败的消息调试完成或消费者应用能够消费它时,新的重驱动功能就会将消息移回源队列,从而能够在分布式系统中以编程的方式管理大规模未消费消息的生命周期。过去,这只能通过在控制台手动处理才能实现。Ampt公司的CEO兼创始人Jeremy Daly当时这样写到:这不是一个特性,这不是一个API,而是一种只能在AWS Console中才能获取的“体验”。我想要它吗?想要!但是,我想登录AWS Console来使用它吗?绝对不想要!要重新处理DLQ消息,开发人员可以使用如下的任务:StartMessageMoveTask用于从死信队列启动新的消息移动任务;CancelMessageMoveTask用于取消消息移动任务;ListMessageMoveTasks用于获取特定源队列最近的消息移动任务(最多10个)。社区对这项特性给出了积极的反馈,MUSIC Tribe的云计算和平台主管Tiago Barbosa评论说:这是一个很好的改进。我一直不喜欢使用DLQ,其中一个原因就是需要建立一种机制来重新处理最终出现在DLQ中的条目。Curantis Solutions的CTO Benjamen Pyle撰写了一篇文章,介绍了如何使用Golang和Step Functions来重新驱动消息。在DLQ的配置中,可以使用自定义目的地选项的ARN来指定将消息发送回源队列还是其他队列。PostNL首席工程师、AWS Serverless Hero Luc van Donkersgoed在推特上写到:如果能重新驱动到原始队列就好了。这一点非常棒,因为它允许我们指定任意的目标队列。这使得以前完成此项任务的Lambda Functions瞬间化为乌有。文档强调了一些限制:SQS仅支持标准队列的死信队列的重新驱动,不支持在重新生成它们时过滤和修改消息。除此之外,一个DLQ重新驱动任务最多可运行36小时,每个账户最多可以有100个活跃的重新驱动任务。有些开发人员质疑其缺少对Step Functions的支持。SQS不会自动创建DLQ,队列必须在接收到未消费的消息之前进行创建和配置。原文链接:Amazon SQS Supports Reprocessing Messages from Dead-Letter Queue相关阅读:大模型竞争突然升级!亚马逊CEO亲自监督、组建新的核心技术团队,集中优势资源打造“最具野心”的大语言模型亚马逊云科技开源PBAC领域特定语言Cedar
3,370
1,691,719,610,095
InfoQ
12
对话无服务器专家 Luca Mezzalira:你真的为Serverless X AI 做好准备了吗?
无服务器架构是当下云计算领域最热门的趋势之一。据统计,只有 35% 的技术人员还没有使用无服务器平台,越来越多的企业出于降低成本、简化运维、加快产品上市速度等原因选择转向无服务器架构。那么,开发人员该如何转变自己的开发方式以适应和充分利用无服务器架构?在业务快速变化的情况下如何采用无服务器架构加速应用开发进程?Serverless 架构如何与 AI 等应用场景进行高质量的结合?亚马逊云科技 TechTalk 特别版直播活动荣幸的邀请到了亚马逊云科技首席无服务器专家 Luca Mezzalira,他结合亲身经验为开发者提供了无服务器架构下应用开发的实用建议。无服务器架构的核心价值和挑战InfoQ:无服务器架构的核心价值是什么?亚马逊云科技的无服务器架构有哪些优势?Luca Mezzalira:“无服务器”这一概念经过多年演变,如今我们称其是一种策略。用户采取无服务器策略时可以将同质化的繁重工作交给亚马逊云科技,自己专注编写开发新功能,满足你的客户需求。无服务器架构有几个优势:首先是业务敏捷性。无服务器架构的优势在于模块化,我们能够在基础设施层面来将这一概念付诸实践。基于无服务器架构,客户可以享受到亚马逊云科技内置的各种通用模式。无服务器的另一大优势就是我们拥有丰富的基础设施管理经验,客户可以直接享用我们多年来学到的所有最佳实践,而开发人员或整个企业就可以专注于自己的差异化竞争优势——也就是他们的软件或他们正在开发的项目。InfoQ:您提到了无服务器架构的这么多优势,但任何事物都有两面性。那么在您看来,无服务器架构现在面临着哪些挑战?我们又该如何应对这些挑战呢?Luca Mezzarila:事物确实都有两面性,特别是对于那些第一次接触无服务器服务的人来说,想要上手确实得花点功夫。大家要在多个维度上转变自己的思维,抛弃过去自己熟悉的传统开发方式,转而在代码层面开始习惯模块化表达,同时试着将更多权力下放给基础设施。确实我们为了上手要花点时间,但这并不是多难的事情。InfoQ:在无服务器架构中,冷启动延迟非常重要,也是一个常见的问题。Amazon Lambda SnapStart 可以将冷启动时间降低 90%,这绝对是了不起的成就。你能分享一下这背后的故事吗?Luca Mezzarila:Amazon Lambda SnapStart 特别关注 Java 的应用场景,因为世界上有很多组织都高度依赖于 Java。将来的 Amazon Lambda SnapStart 也可能适用于其他环境,因为 Amazon Lambda 支持多种由亚马逊云科技托管的运行时。很多开发者都很担心冷启动问题。但根据我个人在行业内工作了 20 年的经验,其实并不是所有 API 都必须拥有超低的启动延迟。大家一直在努力让自己的软件达到最好的效果。但我们还是应该先弄清楚瓶颈究竟在哪里。我们每年推出的版本中总有一些功能会帮助大家改善自己的工作体验,而且开发者和公司完全不用改变自己的工作习惯。他们一早醒来,会突然发现软件的延迟有所降低。这是种非常奇妙的体验。无服务器架构下应用开发的实用建议InfoQ:在开发无服务器应用时,有哪些好的实践和策略可以提供更好的性能?Luca Mezzarila:有几个手段是我们可以重点关注的。我们可以从模式出发,以不同的视角看待问题。比如,当我们的解决方案其中有一部分是同步,而另一部分是异步时,同步的部分需要根据传入的请求来扩展,方案的其余部分可以保持较低的扩展度,从而降低维护难度。传统单体架构中,你往往需要优化峰值流量、预先配置基础设施等,但无服务器架构下这些资源都是开箱即用且可以按需扩展的。我还特别推荐大家认真观察并思考自己在做的工作,想想有什么可以优化的地方。比如说有一些 SLA 或功能可以和产品团队讨论,只要一些简单的调整就可以更加充分地利用它们,让开发者的工作更轻松,同时给用户带来显著影响。无服务器技术的高性能和稳定性往往是由细节决定的。现在你不用再操心在哪里使用 circuit breaker,在哪里存储内存信息,而是直接借用成熟方案,而且不用自己去维护它们,这样你就可以专注于那些真正重要的任务。InfoQ:您说易于使用和易于维护是非常重要的,那么您能和我们分享一下如何将应用程序划分为小型、独立的功能模块,并利用无服务器架构构建和部署这些模块吗?Luca Mezzarila:当我们谈到分布式系统时,主要的挑战在于建模部分。有些公司先是针对细碎的服务做出一些非常小的模块,然后再尝试耦合;还有些公司则是先构建一些小体量或模块式的单体架构,然后当他们对新技术有更深刻的理解时再进一步拆分它。我认为第二种模式效果最好,尤其是当你不太确定你是否想采用微服务时。有一些实践可以帮助你理解如何拆分应用。首先我推荐大家了解一些领域驱动设计的知识。研究这种技术的社区提供了很多极具启发性的方案和一些能够帮助你拆分应用的工具。例如事件风暴就是一个很好的起点。首先,业务部门和技术部门通过事件风暴会议携手合作,并且只关注用户的整个使用流程。大家在白板上罗列出用户为了完成某一项或多项任务所必须经历的所有事件,这样就可以直观展示使用应用或特定功能的整个流程,看到促成流程推进的关键事件。它们代表着不同任务之间的边界,接下来我们就可以顺利地将各部分工作分配给各个团队。这时团队已经可以从业务的角度出发,对自己想要表达的内容有了比较清晰的认知,并且可以将其付诸代码。然后团队就可以轻松地把一个个环节映射到无服务器服务上。而如果没有事件风暴这一环节,直接不管不顾开始写代码的话,你很可能会在代码的构建、重构和删除上浪费大量时间。第二点,我们不应该过早开始预先设计,你不需要在开始写代码前几个月就开始构思准备。你应该采用一个非常精简的方法,在有限的时间内收集尽可能多的信息,然后根据掌握的信息做出决定。有时你很有可能要改变原本的设计方向,而无服务器是在基础设施级别实现模块化的,所以我们就可以直接删除或丢弃一些代码,然后沿着更适合我们软件的新方向前进。此外,事件风暴的另一大亮点是你可以看到各个团队在与哪些人交流,以及服务中的各个部分在与哪些服务沟通。这样架构师就可以轻松调整架构,改善团队沟通机制,对整个系统的认识也会更加清晰。无服务器 VS 微服务:无服务器架构是微服务的一种表现形式InfoQ:我们谈了这么多关于无服务架构的内容,但我们知道在这个领域另一项非常重要的技术叫做微服务。那么您对这两种架构之间的关系有何看法?您认为一项技术会取代另一项吗?Luca Mezzarila:微服务只是一个术语,表示一个特定的实体或工作单元,而且它是完全独立的,可以由单一团队管理。微服务要有一个强大的封装。而这个强大的封装可以是由各种方式设计的,可能是代码,可能是某种基础设施。我认为无服务器应该算是微服务的一种表现形式。现实应用中并不存在它们之间的硬性分割,大家完全可以用容器、虚拟机或者无服务技术等各种方式来实现微服务。真正重要的是我们到底想用模块化微服务表达什么。很多 API 其实根本没有那么高的要求,也许我们只想用它获取数据和查询数据库,这时候无服务器也是个好选择。但无服务器可能并不适合每一个负载,所以大家不必盯着一套方案到处使用,这反而会限制你做架构优化的能力。在设计系统时,我们需要考虑太多因素,包括成本、性能、可扩展性和可靠性等等。真正有意义的是先想清楚要不要用微服务,再思考要用哪种方法来实现,而无服务器只是实现方法之一。InfoQ:哪些企业适合使用无服务架构,哪些又适合微服务架构?Luca Mezzarila:首先,利用无服务器构建解决方案能帮初创企业快速部署生产环境。而大企业显然面临着更大的挑战,因为他们有大量的旧代码和旧逻辑需要处理,而当初编写这些代码、设计这些逻辑的人可能已经离职。因此他们需要先审视整个业务体系,然后思考该如何拆分这些代码和逻辑,从而让它们更容易被新人理解,下一步才是思考具体该使用哪种服务。所以有时候,采用混合架构也不错,毕竟系统中的某些部分可能跟容器匹配得更好,而某些部分更适合无服务器架构。一切工作的本质都在于整合,而无服务器架构恰好是实现整合的出色方案。无服务器架构能用队列轻松消化掉流量,也可以用事件或使用 Amazon Lambda 函数来与其他系统同步。所以每当大家谈到边缘架构时,我想到的首选都肯定是无服务器架构。另外我还发现,其实 API 并没有大家想象中那么脆弱。我们完全可以用 CDN 将流量转出源站,无服务器在这方面也有巨大优势,因为大家只需按实际用量付费。所以如果绝大多数流量都流经 CDN,那我们根本不用为所在区域的源站支付多少成本。总之,想清楚自己的软件要表达什么是很重要的,这会为日后省下很多不必要的麻烦。InfoQ:如果没有无服务器架构,编程工作会变得更复杂吗?Luca Mezzarila:通常情况下,对于公司所掌握的每项服务、每段代码,我们天然希望它能对应一套连贯且统一的代码库。所以团队就得一同定义设计路径、确定所要使用的工具等等。但遗憾的是,这样的一致性总会随着时间的推移发生变化。对于开发人员来说,这就像是在戴着镣铐跳舞。所以,我认为基础设施的模块化表达可以在这里派上用场,我们只需根据业务稍做调整,而不必每次都重新做一遍配置。另外,从应用程序的整体性出发,我们会看到相似的情况总比特殊情况要多,而无服务器架构可以将这些相似的工作集成在架构中,减轻开发者的负担。亚马逊云科技 Serverless 化全面改造的最新进展InfoQ:亚马逊云科技在推动向无服务器的全面转型方面做了哪些努力?Luca Mezzarila:我们在亚马逊云科技建立了多个项目。我们面向的不只是开发者群体,同时也尝试改变企业高管层的思维方式,让他们了解包括无服务器在内,整个现代开发思维所带来的好处。除此之外,我们也有面向架构师和开发人员的项目,与他们一起走向现代化,也帮助他们了解如何构建事件驱动架构和微服务架构。我们也会与拥有无服务器经验的合作伙伴通力合作,甚至可以为客户推荐能帮其达成目标的合作伙伴。我们为客户准备了很多充满潜力的选项。客户只需说明自己想达成怎样的目标,亚马逊云科技就能够提供相应的协助方案,而且大部分服务都是免费的。只要我们能在建模阶段把工作做到位,并在网站上发布丰富的说明文档、博文素材、应用实例,开发人员就能切实掌握值得借鉴的最佳实践。并且我们的努力涵盖各个领域,能帮助任何企业在云端取得成功。InfoQ:亚马逊云科技自己的无服务器实践目前走到哪一步了?Luca Mezzarila:无服务器技术在亚马逊云科技的内、外部工具中正在迅速普及。Amazon Lambda 函数的调用总量已达到 1 万亿。通过无服务器技术,我们部署了大量开箱即用的最佳实践,就连可用性保障都已经在函数部署过程中被默认内置,客户用不着为这些麻烦事分心。我们也在亚马逊云科技内部使用它支持客户、支撑自己的服务。当 Severless 遇上生成式 AIInfoQ:无服务架构在机器学习领域的前景如何?Luca Mezzarila:现在已经出现了不少使用无服务器架构的示例,特别是在粘合各种系统的场景下。在我看来,最重要的就是用无服务器架构充当粘合剂,实现这些信息的跨系统传输,让开发者可以专注于真正重要的事情。关于生成式 AI,我们在亚马逊云科技中已经成功落地。在开发层面,我们推出了 Amazon CodeWhisperer 插件,可以根据提示生成代码编写建议。另一项生成式 AI 服务是 Amazon Bedrock。它允许用户选择自己想要使用的大语言模型。我们还开发了自己的大语言模型,也就是 Amazon Titan。随着这些服务的推出,我坚信这种帮助客户灵活选择、定制大语言模型的方案一定能够大放异彩。InfoQ:您对 AI 和无服务器之间的关系有何看法?二者有什么联系吗?Luca Mezzarila:就目前来讲,我觉得只能算是有松散的联系。我们还需要进一步探索,毕竟大语言模型对内存容量有着极高的要求。尽管无服务器技术拥有自己的优势,但正如我之前提到的,它最大的优势应该是把不同的系统粘合起来,确保技术人员能专注于真正重要的工作。比如在 AI 语境下,你就可以专注于思考如何训练你的模型等等。同时,我很确定会有一些通过无服务器技术实现的有趣应用。社区那边就发布过不少方法,以新颖的生成式 AI 方法尝试简化开发者的工作体验。我有种感觉,其实很多工作正在幕后悄悄推进,只是我们还没看到。面向未来,无服务器架构将为开发者带来怎样的机遇?InfoQ:您如何看待无服务器架构的未来发展趋势?Luca Mezzarila:我觉得最重要的还是研究客户用例。过去几年间出现了大量关于无服务器的需求。亚马逊云科技推出的绝大多数功能都是应客户的要求而生。未来几年的重点应该是为无服务器重新找准定位,因为现在我们将其视作一种策略,而不只是简单的 Lambda 函数。我们有些客户一直立足前沿,正在做一些我们从未预料的疯狂尝试。但同时也有很多客户要么对服务不完全信任,要么持明确的怀疑态度,还有一些客户并不太了解这项技术。所以我一直在努力为大家答疑解惑。我们建立了一套心智模型来帮助客户方的开发人员、架构师和平台团队把自己的软件以科学的方式映射到无服务器架构。这样,无服务器的负载就能快速增长,因为我们以往的观察已经证明无服务器架构具有诸多优势,令许多客户从中受益。InfoQ:对于开发者来说,无服务器架构未来有哪些潜在的机会?Luca Mezzarila:开发人员面前的机会有很多。他们可以编写出免维护的代码、建立更快的反馈循环,并开始研究如何帮助业务和产品所有者一同重塑业务。还有一个挑战是思维方式的转变。企业中仍然流行一种非常集中制的思维模式,单纯由组织顶层人员、或者说技术领导层来决定一切,而开发人员只是螺丝钉。他们没有机会与产品团队沟通,共同塑造成功的软件。产品和技术团队永远在彼此指责和争吵,我觉得必须要避免这种争执,让双方更好地合作,这才能给软件带来益处,进而惠及整个组织。InfoQ:时代车轮滚滚向前,过去开发者可能更关注学习哪种语言、哪种新技术,但现在,特别是在疫情过去之后,企业开始更多关注利润。他们苦苦挣扎,要在糟糕的经济环境下生存下去。在这样的背景下,开发人员应该掌握哪些软技能呢?如何面对这样的大环境变化?Luca Mezzarila:在组织中,“软技能”已经成为了核心技能。如果我们没有能力开展有效沟通、做出权衡,并代表企业的利益发言,即使你可以成为世界上最了不起的开发者,你也没法把握成功的脉搏。因为当今的现实是,我们写的每一行代码都不是为了娱乐自己而写,而是为我们的客户创造价值。另外,开发人员现在需要身兼数职,他们工作中的开发占比越来越低,而需要对事物的发展变化具备更敏锐的感知。我建议大家不要局限于特定的框架或语言,而是着眼于更广泛的问题,包括架构、安全性、平台、基础设施等。这些会让我们成为更全面的开发者、更优秀的人才。还有一点要着重强调,当你以开发者身份做出一个超出自己能力的决定时,必须意识到这不只是一项技术决策,它也一定会在架构和组织层面产生相应的影响。我发现很多开发者对分布式系统特别兴奋,或者每一种新语言都想去试试。但每一个框架都有自己的哲学、思维方式和合作生态。我觉得我们永远都要保持开放思维。你掌握了一种编程语言或框架,这当然是好事。但与此同时你需要看看你的周围,通过团队内不同成员的协同,我们才能构建真正有效的功能单元,在特定场景下大放光彩。我们要做 T 型人才,涉猎广泛的领域,并在特定的领域精通钻研下去,同时也有具备相应的软技能,从而在职业生涯中不断成长前进。
3,215
1,691,057,664,847
InfoQ
13
大家究竟需要怎样的“生成式 AI”?目前已达到 “临界点”?
生成式 AI (Generative AI)已经成为全球范围内的一个重要趋势,得到越来越多企业和研究机构的关注和应用,生成式 AI 的全球市场正在迅速扩大,据 IDC、摩根大通等多家研究机构数据预测,预计到 2025 年,全球生成式 AI 市场的规模将达到 110 亿美元,年复合增长率超过 50%。各大科技公司纷纷投入巨资开展生成式 AI 技术的研发和应用,纽约时间 7 月 26 日,亚马逊云科技数据库、数据分析和机器学习全球副总裁 Swami Sivasubramanian 在亚马逊云科技举办的纽约峰会(下文称“峰会”)上更是表示,“生成式 AI 技术已经达到临界点。”目前我们观察到,随着机器学习、深度学习等技术的不断迭代,生成式 AI 的应用趋势正朝着端到端的方向发展。端到端的生成式 AI 应用可以直接从原始数据中生成新的数据,而不需要进行显式的特征提取或手动设计生成模型,这大大提高了生成效率和生成质量。同时,端到端的生成式 AI 应用还可以更好地理解和控制生成过程和结果,从而提高其可解释性和可靠性。而本次峰会上亚马逊云科技宣布的“生成式 AI 创新"也是将“端到端”显示的淋漓尽致,进一步降低了生成式 AI 的使用门槛,无论是业务用户还是开发者都可以从中受益,来自千行百业的企业都能更专注于核心业务,提高生产效率,充分释放数据价值和生成式 AI 的潜力。一、生成式 AI 的第一要务是“帮用户解决生产问题”随着人工智能技术的快速发展,生成式 AI 已经得到了越来越多的生产者和企业的关注和应用,进入高速发展期。生成式 AI 技术可以通过学习大量的数据和知识,然后生成新的数据和内容,例如图像、文本、声音等;其可以应用于许多领域,例如自然语言处理、图像处理、语音识别等。在生产环境中,生成式 AI 技术可以用来自动化许多繁琐的工作,例如编写代码、设计产品、翻译文本等。帮助企业提高生产效率、降低生产成本、提高产品质量,为企业的创新和发展提供强有力的支持。说到底,生成式 AI 之所以可以被企业关注,其核心原因还是自于生产者的需求驱动,生产者需要提高生产效率和降低生产成本,而生成式 AI 技术可以帮助他们实现这个目标。例如,在一个工厂中,使用生成式 AI 技术可以自动生成最佳的制造流程,从而提高生产效率并降低成本等。正如 Swami 在纽约峰会上所说的,生成式 AI 的核心价值就是“通过生成式 Al 消除繁重的工作并提高生产力”。在生成式 AI 技术的发展中,推动技术研发厂商不断前进的动力就是用户“既要又要还要”的业务需求和技术需求。在满足用户需求方面,亚马逊云科技是业内做的相当不错的厂商,前段时间推出的 Amazon Bedrock 便是一大利器,通过 Amazon Bedrock,文本生成、聊天机器人、搜索、文本摘要、图像生成、个性化情景式产品推荐等功能实例可以完美集成于应用中。然而,只说功能多样性,不拆解技术的硬核,这对于生成式 AI 研发厂商是不公平的。评价一个模型的好坏,我们要从多个维度去看。从训练和部署、架构扩展层面,一个好的模型需要易于训练和部署、提高效率,并能够随着业务需求变化进行扩展和升级。Amazon Bedrock 提供可扩展的 API 和无服务器体验,客户可以使用自有数据基于基础模型进行定制,并使用熟悉的工具和能力进行集成和部署,无需管理基础设施,降低成本。用户还可以使用SageMaker、Experiments 和 Pipelines 等功能实现模型的集成和自动化管理、部署。在数据安全层面,好的模型需要具备安全的数据存储能力,能够保护用户的数据不被泄露和滥用。而 Bedrock 非常注重数据的安全性和隐私保护,对所有数据都进行了加密,并且不会离开客户的虚拟私有网络(VPC)。此外,Amazon Bedrock 还提供了可配置的数据共享选项,客户可以控制数据共享和使用,确保数据的完整性和机密性。在模型选择层面,一个好的模型需要具备丰富的模型选择,能够满足不同领域和场景的需求。用户需要能够选择适合自己业务的模型,并能够灵活地组合和集成多个模型,以实现更好的业务效果。Bedrock 提供了丰富的的基础模型选择,满足不同领域和场景的需求,使得用户可以更加灵活地选择和组合模型,满足自身的业务需求:AI21 Labs 开发的的多语种大语言模型系列 Jurassic-2,可根据自然语言指令生成文本内容;Anthropic 开发的大语言模型 Claude,能够执行多种对话和文本处理任务;Stability AI 开发的文生图基础模型 Stable Diffusion,能够生成独特、写实、高清的图像、艺术作品、商标和其它设计图;Anthropic 接入到 Amazon Bedrock 的最新语言模型 Claude 2,可以在每个对话任务提示中使用 10 万个标记,能处理数百页文本甚至整本书。相比之前版本,还可以撰写长篇文件,长度可达几千个标记;Stability AI 将发布最新版文生图模型套件 Stable Diffusion XL 1.0,能够生成更逼真的影视、电视、音乐和教学视频,具有更精细的图像和构图细节。亚马逊云科技新增的基础模型供应商 Cohere 将提供更直观地生成、检索和汇总信息的基础模型服务。本次峰会上,亚马逊云科技宣布全面扩展其全托管基础模型服务 Amazon Bedrock,发布变革性的新功能 Amazon Bedrock Agents,该功能将助力开发者轻松创建全托管的 AI Agents,帮助开发者研发提效,解决开发过程中的复杂度问题。比如自动分解任务并创建编排计划,无需手动编码,开发者可以轻松创建基于生成式 AI 的应用程序,完成各种复杂任务;安全地访问和检索公司数据,通过简单的 API 接口连接,自动转换数据为机器可读格式,增加相关信息生成准确回答;自动调用 API 满足用户请求,例如保险机构可以开发生成式 AI 应用程序,帮助员工自动处理保险索赔或管理文书;提供完全管理的基础架构支持,消除了系统集成管理和配置工作,使开发人员能够充分利用生成式 AI,实现“全托管”。要知道,在帮助用户构建自己的软件应用程序方面,在生成式 AI 没有步入舞台之前,低代码和无代码平台已经发挥了至关重要的作用,这些用户很少具备或根本没有编程知识。然而,随着生成式 AI 的加入,这些平台的使用将达到一个临界点,会产生全新的开发方式。目前很多专业开发者开始使用 ChatGPT 进行软件开发,事实表明 ChatGPT 可以为开发工作提供帮助,但在具体的业务场景中,开发者需要的不仅是可以编代码的工具,而是从源头降低软件开发复杂度的工具。想要从源头入手降低软件的复杂度,就意味着开发者需要设计良好的架构、简化功能和模块开发、采用合适开发工具等方法,从而来减少软件中的不必要的复杂度,提高软件的可维护性、可读性和可扩展性。而亚马逊云科技此次新推出的 Amazon Bedrock Agents 便有效解决了这些难题,是 Amazon Bedrock 的一大看点,也是生成式 AI 领域在降低开发复杂度的新节点。二、向量数据库是生成式 AI 的基石随着大模型和生成式 AI 技术的高速发展,数据安全和数据自定义成为了技术发展的基础,当前企业普遍比以往更为注重数据,数据已经成为企业的技术壁垒,与生成式 AI 结合的空间很大。大模型和生成式 AI 需要大量数据训练,这些数据需要预处理和自定义以满足模型需求。同时,为确保数据的准确性和一致性,提高模型的准确性和效率,数据自定义要求越来越高。这意味着,以往只存储结构化数据的企业数据库已不能满足需求,于是向量数据库成为了全球数据库发展的重要趋势。向量数据库当前被视为生成式 AI 的基石,因为其存储和处理的数据都是向量形式,而生成式 AI 模型则需要使用向量数据进行训练和推理,它提供了高效的数据存储和查询方式,并且可以与深度学习框架无缝集成,这种集成使得生成式 AI 模型能够更快地学习和生成更准确的数据。换言之,想要训练好生成式 AI,那必须要深度发展向量数据库技术。生成式 AI 使用深度学习框架来学习数据中的模式,这些框架使用张量(即多维数组)来存储和操作数据,而向量数据库则提供了一种高效的方式来实现这种张量存储和操作。向量数据库使用向量索引和向量相似性算法来存储和查询数据,这种存储和查询方式非常高效,可以快速地执行类似“最近邻”这样的查询,而这种查询正是在生成式 AI 模型中非常常见的。目前在研究大模型、生成式 AI 的厂商几乎都在同时研究向量数据库技术,基于生成式 AI、大模型的训练场景,各家的技术成果目前几乎没有太大差距。然而在本次纽约峰会上,亚马逊云科技新发布的适用于 Amazon OpenSearch Serverless 的向量引擎让人眼前一亮,正式可用后,该向量引擎支持简单的 API 调用,可用于存储和查询数十亿个 Embeddings。未来,所有亚马逊云科技的数据库都将具有向量功能,帮助客户简化运营,方便集成数据。Embeddings 是一种将文本、图像、声音等数据转换为向量表示的方法以便于使用机器学习算法进行处理,目前在研发向量数据库的厂商都在相关方面展开了探索。亚马逊云科技本次在该方面的新发布,完全是从用户需求出发。要知道,正常情况下的 Embeddings 应存储在靠近源数据的位置,一系列因素都将影响企业如何选择最适合自己的选项,比如当前数据存储位置、对数据库技术的熟悉程度、向量维度的扩展、Embeddings 的数量和性能需求等,因此亚马逊云科技为大家提供了三个选项满足更高级的向量数据存储需求:Amazon Aurora PostgreSQL 兼容版关系型数据库,支持 pgvector 开源向量相似性搜索插件,对需要存储和搜索大量向量数据的应用场景帮助意义很大;分布式搜索和分析服务 Amazon OpenSearch,带有 k-NN(k 最近邻)插件和适用于 Amazon OpenSearch Serverless 的向量引擎,可以处理大规模的向量数据、提供高效的搜索服务;兼容 PostgreSQL 的 Amazon RDS 关系型数据库,支持 pgvector 插件,可以满足企业日常对于 PostgreSQL 数据库的兼容性和向量数据存储需求。由于向量数据通常具有很高的维度和稀疏性,采用传统的存储方式会占用大量的存储空间,在向量数据存储和查询过程中,需要执行许多复杂的计算,所以如何对向量数据进行压缩和优化、优化算法以提高计算效率是向量数据存储技术领域持续探索的问题,而此次亚马逊云科技新发布的向量引擎也为解决这两个技术壁垒提供了有力支持,同时从用户的需求层来看,这也是向量数据存储技术的新突破。三、生成式 AI 同样需要“加速”生成式 AI 作为一种强大的技术,目前已在多个领域展现出了巨大潜力。然而在实际应用中,尽管其强大的创造力和表达能力令人惊叹,但生成式 AI 在“速度”方面仍有很大的进步空间。比如生成式 AI 的训练和推理过程非常耗时,尤其是再处理大规模的数据集时,速度是其限制因素之一;在实时性至关重要的自然语言处理等领域,如果生成式 AI 无法在短时间内生成结果,用户可能会感到沮丧甚至流失。总之,随着虚拟现实、实时翻译等越来越多创新场景的涌现,用户对生成式 AI 的速度有了越来越高的要求。GPU 作为专门用于并行计算的处理器,可以同时处理多个数据单元来提高计算速度。在生成式 AI 的训练中,需要进行的大量矩阵运算和反向传播等计算、处理大量的数据和模型参数,而这些计算任务均可以通过 GPU 进行并行计算,以达到加快计算速度,降低训练时间的目的。这意味着,只要 GPU 选型选的好,那降低生成式 AI 的训练成本、提高训练质量就是分分钟的事。本次峰会上新发布的 Amazon EC2 P5 实例作为亚马逊云计算平台上的一种强大的计算实例类型,便很好地满足了目前用户在生成式 AI 训练过程中的 GPU 需求。Amazon EC2 P5 实例以其出众的硬件配置提供了卓越的计算、存储、横向拓展性能,它搭载了 8 个NVIDIA H100 Tensor Core GPU,拥有 640GB 高带宽 GPU 内存,同时提供第三代 AMD EPYC 处理器、2TB 系统内存和 30TB 本地 NVMe 存储。同时,Amazon EC2 P5 实例还提供 3200Gbps 的聚合网络带宽并支持 GPUDirect RDMA,从而能够绕过 CPU 进行节点间通信,实现更低的延迟和高效的横向扩展性能。大家需要明确的是,NVIDIA H100 GPU 具有新的转换器引擎,可智能地管理和动态选择 FP8 和 16 位计算,与上一代 A100 GPU 相比,可在 LLM 上提供更快的 DL 训练加速。对于 HPC 工作负载,与 A100 GPU 相比,NVIDIA H100 GPU 具有新的 DPX 指令,可进一步加速动态编程算法。这种计算能力对于生成式 AI 模型中大量的矩阵计算和向量运算至关重要,与上一代基于 GPU 的实例相比,训练时间最多可缩短 6 倍。通过利用 P5 实例的高性能计算资源,可以显著降低训练成本,加快生成式 AI 的处理速度。为了能够满足生成式 AI 模型的大量训练数据、模型参数及中间结果的大量数据存储和加载需求,Amazon EC2 P5 实例还提供了大容量的本地存储空间,使得我们能够更高效地管理和处理大规模的数据集,在本地存储的支持下,避免频繁的数据传输和加载,从而进一步提升生成式 AI 任务的效率。值得一提的是,部署在第二代 EC2 UltraCluster 中的 Amazon EC2 P5 实例,与上一代 UltraCluster 相比,该网络结构可实现更大的规模、更少的集群网络跃点和更低的延迟。UltraClusters 中的 P5 实例可以扩展到与 PB 级网络互连的 20000 个 H100 GPU,并提供 20 exaflops 的聚合计算能力。四、端到端的生成式 AI“未来已至”无论是完全托管式的 Amazon Bedrock,还是适用于 Amazon OpenSearch Serverless 的向量引擎、Amazon EC2 P5 实例,我们能看到的是,亚马逊云科技结合用户需求在生成式 AI“端到端”方面的探索越来越深入。作为 GenAI 领域的技术领导者,亚马逊云科技凭借先进的技术、庞大的生态体系、丰富的实践经验和可靠的安全性,为自己的用户们提供了愈来愈全面的支持和几近完美的解决方案来推动端到端生成式 AI 的发展。Swami 在峰会上宣布”生成式 AI 技术已经达到临界点“,这意味着它变得更加成熟和可靠。亚马逊云科技利用自己过往在深度学习框架、算法库和工具等 AI 方面的探索经验,与全球数千个合作伙伴和数据科学家合作,持续输出完整、高效的 AI 解决方案,一心降低生成式 AI 的应用门槛,使更多人能够享受到这项技术的益处。除了已经提到的几个亮点技术,在本次峰会上,亚马逊云科技还推出了其他四项生成式 AI 技术与应用——AI 编程助手 Amazon Codewhisperer 通过提供丰富的模型和算法库来快速构建和训练生成式 AI 模型,使得开发者能够更轻松地进入生成式 AI 领域,并在图像、语音和文本生成方面得到更好的支持和指导;亚马逊云科技将 Amazon Bedrock 的大语言模型能力与 Amazon QuickSight Q 的自然语言问答功能相结合,提供生成式 BI 功能,提高了数据分析的效率和易用性,同时结合数据可视化,Quicksight 将数据分析结果以更直观丰富的方式展现,让用户更好地理解和利用数据。此外,亚马逊云科技还通过 Amazon Entity Resolution,赋能企业提升数据质量、获取客户洞察;推出 Amazon HealthScribe,利用生成式 AI 助力构建医疗应用程序。一直以来亚马逊云科技致力于降低生成式 AI 门槛,使更多的人能够轻松尝试和应用这项技术。他们希望成为生成式 AI 的普惠领导者,让更多的人从中受益。在峰会上,Swami 更是提到了生成式 AI 技术的发展需要“利用专门构建的 ML 基础架构实现低成本、低延迟的目标”,而亚马逊云科技也确实是这样做的——他们通过构建高效的基础架构和提供灵活的计算资源,来支持生成式 AI 技术的发展,他们不仅提供了高性能的 GPU 实例来加速模型训练,还推出了 Lambda 函数和 SageMaker 等服务,使得生成式 AI 模型的部署和运行更加简便和经济高效。我们从本次峰会上的亚马逊云科技的新发布中不难看出,生成式 AI 的未来已经到来。为了共同推动技术的下一步演进,我们需要更多像亚马逊云科技这样的厂商和所有用户一起努力,相互学习、互相促进、携手并进,为生成式 AI 技术的发展提供更多解决方案。更多关于亚马逊云科技在生成式AI方面的探索请点击链接查看。
2,541
1,690,786,826,647
InfoQ
14
迈向普罗大众的生成式 AI:如何为技术爆发创造条件
生成式 AI、大语言模型(LLM)无疑是 AI 行业当下的最大热点。自 2023 年初以来,ChatGPT、Stable Diffusion 等生成式 AI 技术凭借惊人的输出表现,在行业领域以及大众层面都引发了大量关注与应用热潮。2023 年 6 月 27 日 - 28 日,亚马逊云科技中国峰会在上海世博中心盛大召开。大会第一天,亚马逊云科技全球产品副总裁 Matt Wood 博士发表主题演讲,向与会者传达了亚马逊云科技对生成式 AI 技术的态度与愿景。Matt Wood 表示,生成式 AI 是整个技术行业的一项巨大突破,亚马逊云科技对此感到十分兴奋。为了让更多人更早从这一技术创新中受益,亚马逊云科技正在帮助企业、开发者乃至整个行业,利用亚马逊云科技积累的技术、资源和经验推动生成式 AI 技术向大众化发展。生成式 AI:行业离未来还有多远?生成式 AI 的基础是参数规模可达千亿级别的大型模型,基于大量文本、代码或图像数据集训练,需要数万甚至更多的 GPU,经过几千小时才能训练完成。大模型能够释放超越传统界限的创新,将人类推向未知的领域。用户可以使用大模型加速创意流程、加快总结排序过程,或创造全新的交互体验,乃至提升复杂决策的可靠性与效率等。然而,虽然生成式 AI 技术拥有广阔的应用前景,但它在普及的路上也面临着重重阻碍。大模型训练所需的庞大硬件资源、时间、人力成本投入,对于大多数企业而言都是沉重的负担。企业在训练模型时需要收集海量数据,而如何应对这些数据的法律授权问题,如何保障数据的安全性也会让很多企业的开发团队头痛不已。现阶段大模型的输出质量仍然是一个问题,包括 ChatGPT 在内的公开服务都在实践中表现出了输出质量不稳定、回答过分自信、对领域知识了解不足等问题。针对上述问题,亚马逊云科技在本次峰会上也提出了相应的解决方案。Matt Wood 博士在演讲中提到了亚马逊云科技涉足生成式 AI 领域研发的几项关键产品和服务:Amazon Bedrock、Amazon Titan 与 Amazon CodeWhisperer。这些产品与亚马逊云科技已有的 Amazon SageMaker、Amazon Aurora 等服务,以及亚马逊云科技自研的 Inferentia 和 Trainium 芯片结合,将为行业提供一条通向平民化的生成式 AI 普及路径。大模型平民化,亚马逊云科技的理想与方案Amazon Bedrock 是亚马逊云科技刚刚推出的全托管生成式 AI 服务,其允许用户通过 API 访问亚马逊云科技和第三方基础模型提供商的预训练基础模型。开发人员无需担忧底层基础架构,只需通过简单易用的 API,选择所需模型,就能输出合适的文本或图像内容。亚马逊云科技还提供了 Amazon Titian 模型库,让用户可以在安全、私有的环境下对模型进行优化和微调。最后,Amazon CodeWhisperer 工具则借助了生成式 AI 技术,帮助用户显著提升开发效率,快速获得生成式 AI 的收益,并降低大模型应用的门槛。Matt Wood 提到,从云计算开始,亚马逊云科技就一直在推动创新技术的民主化进程。在生成式 AI 领域,亚马逊云科技认为大模型民主化的关键就在于使用门槛较低、种类丰富、较为低廉的开发和应用成本,易于为行业和领域需求定制模型,同时安全可靠、无需担忧法律和隐私问题。为此,Amazon Bedrock 与 Amazon Titan 提供了一系列有着各自专长的基础模型,用户可以轻松将数据输入模型,通过无服务器的 API 部署应用。Amazon Bedrock 支持私有数据定制化,为开发人员提供了安全的开发环境。对于企业而言,Amazon Bedrock 为他们创造了一个非常合适的生成式 AI 起点和开发框架,他们可以将 Amazon Titan 模型库中的模型,快速调整为可以更好解决领域问题的行业模型,大幅降低了大模型的开发门槛。Amazon Bedrock 即用即付的费用模式,结合亚马逊云科技自研的高效能推理和训练芯片,则可以大幅降低大型模型训练前期的成本投入。Matt Wood 认为,这样的方式足够简便、经济实惠,可以同时适应大企业与中小创投企业的需求。值得一提的是,Amazon Bedrock 还能大幅降低大模型输出自信满满但错误回答的概率,且输出内容都经过了云端认真审核,确保健康无害。亚马逊云科技在训练 Amazon Titan 模型时,使用的数据也都经过了授权或使用许可,符合相关法律要求,企业可以放心地使用这些模型,无需担心潜在的隐私与法律问题。如今,已经有企业利用 Amazon Bedrock 开发了针对广告内容分发的行业模型,并取得了 50% 的成本节约、35% 的效率提升与 45% 的点击率提升。在可见的未来,会有大批行业企业意识到亚马逊云科技提供的生成式 AI 服务解决方案的优势,并通过这些方案享受到类似的收益。释放 AI 潜力:从前台实践到后台支撑在开发生成式 AI 基础框架服务的同时,亚马逊云科技也在关注如何利用生成式 AI 改善生产力,新推出的 Amazon CodeWhisperer 便是这样的工具。它可以为开发人员提供很好的帮助,用户通过自然语言指示系统生成他们所需的代码,大幅提升开发效率。Amazon CodeWhisperer 支持 15 种编程语言,未来还会加入更多选项。该工具能够从开发人员使用的源代码库中提取有用的资源来生成代码,从而更准确地把握需求。在内部对比中,CodeWhisperer 带来了 57% 的开发时间节省和 27% 的代码质量提升,效果十分明显,已经有包括瑞士军刀在内的企业,开始使用 Amazon CodeWhisperer 来改进现有的软件开发流程。亚马逊云科技认为,Amazon CodeWhisperer 还能帮助用户进一步降低大模型技术应用的门槛,让他们以更快的速度、更高的质量和更安全的方式开发生成式 AI 应用,为技术民主化的进程提供助力。Matt Wood 提到,生成式 AI 的本质是以前所未有的方式支持和处理数据。数据对于生成式 AI 而言是一切工作的起点,而亚马逊云科技对此的答案就是云原生的数据战略。如果说 Amazon CodeWhisperer 是生成式 AI 的前台应用,那么云原生的数据战略就是亚马逊云科技为企业提供的后台支撑。首先,亚马逊云科技提供了全球领先的全类别云数据库服务,提供低时延、低成本等优势。例如,元宇宙企业 Gevos 就使用了亚马逊云科技的云数据库作为核心负载的托管平台,显著提升了游戏开发的生产力。与此同时,用户还可以使用 Amazon EMR、Amazon Aurora 的全新 ETL 服务等工具组合,获得广泛而深入的数据分析能力。最后,Amazon DataZone 这样的数据管理服务可以帮助企业搭建数据治理框架,进而形成自己的数据战略。所有这些数据能力组合在一起,为亚马逊云科技的客户带来了可见的先发优势。当用户充分利用这些能力来结合诸如 Amazon SageMaker、Amazon Bedrock 等 AI 服务,就能够快速实现一些全新的应用,从现有的数据中挖掘出可观的价值。在用户推动数据与 AI 战略的过程中,亚马逊云科技还为企业设置了足够的安全护栏,帮助开发团队在免于安全与法律问题的同时获得更高的自由度,进行更广泛的实验。通过这些实验的成果,开发人员就能够整合自身所处行业的专业知识,推出效果令人满意的行业 AI 应用。写在最后本次亚马逊云科技中国峰会,标志着亚马逊云科技在生成式 AI 领域正式开始全面出击,向着这一技术全面普及的目标大踏步前进。Matt Wood 博士的演讲不仅全面回顾了亚马逊云科技的一系列创新产品和服务,也为企业如何利用这些服务搭建自己的生成式 AI 开发框架,并制定 AI 与数据战略提供了很好的建议。Matt Wood 总结说,在整个行业中,亚马逊云科技实现了以最快、最低成本以及最简单易行的方式提供生成式 AI 模型。最近,亚马逊云科技还投资了一亿美元来进一步促进生成式 AI 领域的创新和进步,其中的一项重要举措就是建立一个新的生成式 AI 创新中心。这个创新中心集结了亚马逊云科技在机器学习方面的科学家,与此同时也会积极地同客户合作,帮助他们构想、设计和推出新的生成式 AI 产品、服务和流程。Matt Wood 认为,随着越来越多的企业甚至个人经常使用这些生成式 AI 模型,它们的反馈与输出会越来越好。对于行业的未来,Matt Wood 博士也充满乐观:“我们正处于一项重大技术创新的发展早期和爆发前夜,我们所见的一切都只是起跑线,而非天花板。”
12,103
1,689,049,995,066
InfoQ
15
突发!美国将限制中国企业使用亚马逊、微软等云服务
据《路透社》援引知情人士消息称,拜登政府正准备限制中国企业使用美国云计算服务。 据悉,如果这项新规定被采纳,可能会要求亚马逊(Amazon)和微软(Microsoft)等美国云服务提供商在向中国客户提供使用先进人工智能芯片的云计算服务之前,必须获得美国政府的许可。 美国商务部预计将在未来几周内实施该限制政策,该政策是作为 10 月份推出的半导体出口管制政策扩展的一部分。此前,美国要求禁止英伟达A100等高端人工智能芯片出口至中国,但是企业仍然可以通过云计算的方式在AWS、微软Azure等平台上获取A100等人工智能芯片提供的算力。 最近,还有国外媒体报道称,美国和荷兰今夏将进一步限制芯片制造设备销售,荷兰正计划对该国最大企业阿斯麦(ASML)和其他公司的某些设备施加限制。 昨天,商务部、海关总署宣布,对镓、锗相关物项实施出口管制。由于这些金属材料广泛用于半导体制造,并且中国是市场上主要的供应商,因此此举也被解读为中国对欧美半导体管制政策的反击。 美国商务部、微软和亚马逊没有在工作时间之外立即回应置评请求。参考链接:https://www.reuters.com/technology/us-set-restrict-chinas-access-cloud-computing-wsj-2023-07-04/
7,717
1,688,465,745,686
InfoQ
16
AI 浪潮下,如何体现云服务的价值?
6 月 27 日至 28 日,2023 亚马逊云科技中国峰会(下文称“峰会”)于上海顺利召开。在本次峰会上,我们似乎找寻到了云计算领域竞争对手均日渐成熟,而亚马逊云科技却能一直保持领先地位的原因——过去的十几年里,亚马逊云科技“基于客户需求,快速进行产品更新与技术迭代”的 Day one 理念,一直不断地追求基础架构层面的创新。6 月 28 日上午,亚马逊云科技大中华区产品部总经理陈晓建进行了以《专注创新,摆脱基础架构束缚》为主题的演讲,在演讲中他分享了亚马逊云科技众多应用案例实践,阐明了亚马逊云科技在云基础架构方面的能力与创新及在全球布局方面做出的努力。一、企业亟需提高“用云”性价比随着企业数字化转型的需求增加、市场竞争的加剧,企业需要将业务和数据迁移到云上,以实现更高效的生产和服务,以适应市场的变化。所以我们也观察到越来越多的企业开始上云,然而上云的门槛并不低,需要考虑的东西非常多,比如技术能力、安全合规风险、成本费用、用户体验等,很多企业 CTO 表示,“想上云,但是有心而力不足”,大多企业目前提出了亟需降低云服务使用门槛、提高“用云”性价比的需求。为了提高企业云服务使用的性价比,亚马逊云科技为用户提供全面和深入的算力支持,提供包括 Intel、AMD、 英伟达和自研的 CPU 及加速芯片产品,这其中最值得一提的就是亚马逊云科技的四个自研芯片:Nitro、Graviton、Inferentia、Trainium。Nitro 是亚马逊云科技的第一款自研芯片产品,Nitro 主要有三个亮点:第一,做了高度轻量化的虚拟化;第二,实现网络层面的数据通信和存储的隔离;第三,实现了硬件级别的加密。有了 Nitro 之后,亚马逊云科技能够大大增强 EC2 整个实例应用的安全性,每个单元可以独立发展,也确保 EC2 所有实例运行的稳定。   因为 Nitro 的出现,亚马逊云科技大大降低了推出一个新 EC2 实例工作的复杂性,使得其保持一个非常快的增长的速度,进一步降低客户成本,从而帮助企业达到降本增效的目标。最新一代 Nitro V5 芯片相比之前的芯片性能有大幅的提升,包括更快的转发率,包括更低的延迟,每瓦特性能提升 40%。基于 ARM 架构的通用处理器芯片 Graviton 自 2018 年起,亚马逊云科技陆续推出三代 Graviton 服务器芯片,在去年的 re:lnvent 全球大会上,亚马逊云科技推出了自研的、基于 ARM 架构的高性能计算服务器 CPU 芯片 Graviton3E 芯片。纵观 Graviton 系列芯片的升级历程,Graviton3 计算性能提高 25%,浮点性能提高 2 倍,加密工作负载性能加快 2 倍;Graviton3E 特别关注向量计算的性能,跟前一代相比高 35%,这个性能提升对于像 HPC 高性能计算这样的应用来说是非常重要的。从具体案例来看,在 HPL(线性代数的测量工具)上 Graviton3E 性能提升 35%,在 GROMACS(分子运动)上性能提升 12%,在金融期权定价的工作负载上性能提升 30%;同时,Graviton3E 和类似的 X86 的 EC2 实例相比,Graviton3E 还能节省 60% 的能耗。如今 Graviton 系列芯片的优秀性能表现已经得到了充分验证,本届峰会上,陈晓建讲到的世界一级方程式锦标赛(下文简称“F1”)案例便充分体现了亚马逊云科技在算力资源、数据存储方面的能力。F1 利用 Graviton3 运行空气动力学模拟,可以用比以往快 70% 的速度开发新一代赛车,赛车压力损失可以从 50% 降低到 15% ,这使超车更容易,为车迷可以带来更多赛场的缠斗。此外,F1 通过 5000 多次单车和多车模拟,收集了超过 5.5 亿个数据点,帮助他们进行下一代赛车的优化。用 F1 团队表示,“Graviton3 让系统性能快了 40%,可以晚间运行模拟,第二天早上就能得出结果。”在机器学习技术探索赛道中,目前亚马逊云科技已经发展出三代不同的机器学习芯片。在训练方面,亚马逊云科技先后推出的加速芯片 Inferentia 和 Trainium 覆盖了训练和推理的场景,能为企业提供最佳的性价比。因此,许多领先的 生成式 AI 初创公司,例如 AI21 Labs、Hugging Face、Runway 和 Stability AI 都选择 Inferentia 和 Trainium 作为他们整个研发和应用的平台。在机器学习训练中,最重要的指标是训练效率和性价比。以 HuggingFace BERT 模型为例,基于加速芯片 Trainium 的 Trn1 实例的性能表现非常不错,从训练吞吐量角度看,其与同类型 GPU 实例相比,在单节点情况下,可实现 1.2 倍吞吐量的提升;在多节点情况下,实现 1.5 倍吞吐量的提升;从成本角度,单节点实现了 1.8 倍成本降低,集群的成本降低了 2.3 倍。随着模型越来越复杂,很多时候靠一个单点的计算训练是无法满足用户的需求,在很多时候都需要一个分布式的训练,比如需要非常大规模的集群,通过 Trainium 便可以构建一个超大的集群,它可以有 3 万张的 Trainium 芯片,使企业可以获得云上 6 ExaFlops 的超算级性能。这背后涉及很多创新,比如更快的 EFA 网络以及 PB 级别的无阻塞网络互联等。在机器学习推理中,推理往往要考虑延迟和吞吐,企业需要更高的吞吐力来带来更优的性价比,但是往往更高的吞吐率会带来更高延迟,所以开发者往往要在延迟和吞吐中权衡。Inferentia2 的设计就考虑到了兼顾吞吐和延迟的优化,如果拿一个基于 Inferentia2 的实例做测试,以自然语言处理领域常见的 BERT 模型为例,在 Inferentia2 上可实现高达 3 倍的吞吐提升,8.1 倍的延迟降低,4 倍的成本节约,使得企业开发者二者兼而有之。另外值得一提的是,Inferentia2 在大语言模型中的表现也非常的突出。拿一个 OPT 模型来做测试,中等规模的 OPT 模型 OPT-30B 为例,相较于通用的 EC2 GPU 实例,Inferentia2 可实现 65% 的吞吐量提升,推理成本可降低 52%;660 亿参数级别的 OPT-66B,通用 GPU 实例已经显示内存不足的情况下, 而在 Inferentia2 上还可以实现每秒 351 个 token 数的吞吐量。二、“AI 创新”使算力需求井喷、运维复杂性增加随着 AI 大模型的发展,大模型应用规模呈爆发式增长,加速了未来计算时代的来临,引发了新的生产力革命,但同时也导致算力供不应求,在这个过程中,算力直接反映了数据处理能力的强弱,用户不仅需要更高性价比硬件的解决方案,他们还需要云厂商提供高度弹性化的伸缩。与此同时,巨大算力的增加,使企业云运维成本大大增加,如何降低云运维的复杂性也是企业目前面临的难题。为了应对弹性算力的需求,亚马逊云科技提供超过 600 种不同的计算实例,处理器、存储、网络及各种周边服务均可与计算很好地结合,以积木的方式形成丰富的、灵活的计算实例资源,满足多种不同算力要求。要知道,从存储层面,当数据规模达到 PB、EB 级别时,数据的存储方式非常重要。用户的数据存储可分为热、温、冷、冻四种类型,每种类型的存储成本和性能不同,都需要平衡。所以,亚马逊云科技提供多达八种的存储级别,包括高性能计算、机器学习和通用计算等,企业根据需要选择最合理的存储级别。这其中最具有代表性的案例就是《阿凡达》的制作公司 Weta Digital,其在开发《阿凡达 1》时,他们自建了一个占地 10000 平方英尺的机房,构建 4000 台物理服务器和 35000 个处理器核心。然而,在开发《阿凡达 2 – 水之道》时,他们原有的集群已经无法满足需求。于是,亚马逊云科技为 Weta Digital 提供了从基础架构算力资源到云上制作堆栈、机器学习堆栈的一系列服务,Weta Digital 使用了包括 GPU 实例和 Spot 实例在内的多种计算实例以提供强大的伸缩性和优秀的性价比。然而对于亚马逊云科技来说,仅仅对企业进行多种多样的芯片和高伸缩性的资源供给是远远不够的,亚马逊云科技还为企业提供了 Serverless 来降低云运维的复杂性。亚马逊云科技在 2014 年发布 Lambda 以来,已经相继发布了 105 多种 Serverless 新技术,包括解决 Java 应用冷启动问题的 Lambda SnapStart、可视化编辑器 Application Composer 等。用户可以根据应用的类型来选择不同的弹性和计算颗粒度。全托管的 Serverless 使得开发者可以专注于业务开发,而不是基础设施的运维,也让系统能很容易的实现快速伸缩。为此,陈晓建在峰会上特别举了一个 Second Dinner 打造年度最佳移动游戏《Marvel Snap》的案例。《Marvel Snap》被 Second Dinner 工程副总裁称为“这是我们有史以来运营过的最顺利、最成功的游戏,正是因为我们选择了亚马逊云科技”。Second Dinner 采用亚马逊云科技的 Serverless 架构来开发、构建和运行 Marvel Snap 游戏。整个游戏没有使用任何 EC2 计算实例或容器,而是由事件驱动架构实现。这种方法不仅帮助用户节省成本、加快应用开发速度,还减少了安全方面的隐患。亚马逊云科技的 Serverless 后台架构为其提供了完整的功能、安全和资源管理。最终,Marvel Snap 在启动时没有出现任何后端错误事件,这在游戏行业是前所未有的。此外,Marvel Snap 的开发人员在系统非常早期的测试阶段,就已经通过 Serverless 实现了每分钟 14 万请求的压力测试,要知道,这在云主机的时代是无法实现的,而这在亚马逊云科技的帮助下实现了“不可能”。三、企业正在把握全球性机遇,追求多元化市场放眼全球企业上云现状,当下大多数企业只是简单地将原来的系统搬到云上,尽管降低了成本,但并没有完全开发出云上的潜力。搬到云上并不算是真正的“上云”,最终还要让企业系统和业务在云上跑起来才是硬道理。很多企业渐渐的也意识到了这个问题,所以来自全球各地的企业上云需求和企业业务出海热对云厂商提出了更高要求,这就不仅需要云厂商的业务服务范围覆盖全球,同时还需要能够快速进行部署、高可用的服务及相关业务对于各个国家和地区的业务合规需求。陈晓建在本届峰会上表示,全球布局已经成为很多企业的战略,然而云厂商想要完成全球布局一定需要满足企业对云服务的三个要求,即“无处不在的云服务”、“快速部署稳定系统”、“提供安全可靠的全球基础设施”,他通过亚马逊云科技已经在过去验证过的成功案例举证来验证自己的观点。关于第一个要求“无处不在的云服务”,让创新快速抵达每一个角落是亚马逊云科技的使命。陈晓建拿 OPPO 举例,OPPO 的手机业务遍布全球,拥有数百个云上 VPC 和本地资源需要连接,由于不同国家有不同的安全合规要求,这增加了全球组网的难度,OPPO 希望全球业务独立运作,实现区域合规自治,同时拥有统一的管理。于是 OPPO 选择通过使用亚马逊云科技的 CloudWAN 广域网服务,通过本地网络提供商连接到亚马逊云科技,并通过中央控制面板和网络策略在几分钟内建立覆盖全球的专用网络。同时 OPPO 借助完整的网络视图,可以直观地了解整个网络的运行状况、安全和性能。另外值得一提的一个案例是,AXIOM 使用 Amazon SnowCone 来支持太空实验,成功环绕地球 240 次。目前亚马逊云科技的技术已经可以在太空这种极端环境中收集、处理数据,并做出实时决策。关于第二个要求“快速部署稳定系统”,亚马逊云科技每个区域都由多个可用区组成,单一可用区的故障会影响其他可用区的业务,但通过解耦控制面与数据面,可以提高整体稳定性。蜂窝架构将系统分割成微小、独立、隔离的单元,有效控制故障影响。随机分片进一步优化蜂窝架构,通过随机分配客户访问,使单个单元故障不影响整个系统。我们还通过运营模型和部署机制保证云的弹性,并使用 COE 纠错流程防止问题再次发生。拿中集集团来举例,中集集团使用亚马逊云科技的服务实现了 82 个企业级应用的上线,包括 SAP、仓储系统、CRM、SRM 和费控系统等,并实现了 20% 的成本节约。原 SAP 系统存在延迟问题,需容灾,造成资源占用。亚马逊云科技为其设计了新一代 SAP 架构,应用和数据库在同一可用区,延迟极低至 0.1 毫秒以内;容灾方面,RPO 为 0,RTO 不超 15 分钟,资源成本下降 18.7%。这套全新的 SAP 架构让中集集团获得了更强大的风险控制能力,业务连续性得到保证。关于第三个要求“提供安全可靠的全球基础设施”,亚马逊云科技几乎满足全球所有国家和地区的合法合规的要求。比如生物医疗、联邦认证以及金融等行业,又比如 HIPAA、FedRAMP 和 PCI 这样高标准的合规要求。拿全球电子支付终端领先供应商 PAX 百富来举例,其在迁移多个重要 SaaS 应用至云上时,发现多供应商的安全服务标准不统一,无法满足支付安全要求,且难以集成和管理。亚马逊云科技便为其提供了安全合规服务(如 Amazon CloudHSM、Security Hub)以帮其保障用户支付信息安全和业务安全,满足 PCI 合规要求,并支持国际业务拓展。使用亚马逊云科技的产品使百富的产品交付周期缩短 40%,降低架构搭建及运维压力,节省 20% 成本。陈晓建提到的以上三个方面,对企业用云需求进行了完整概括,而这也是云厂商帮助企业降低用云门槛、实现云基础架构创新的重要发展方向。云厂商需要从区域覆盖、安全和技术成本等方面进行全维度的升级,提供更好的云计算产品和服务,来满足企业的“既要、又要”。四、云厂商需要专注“创新”,摆脱基础架构束缚目前企业愈加难以满足日益增长的客户对快速、可靠和安全服务的期望,在提高自身系统的处理能力和存储能力的过程中,面对着巨大的算力需求和成本过高的可伸缩且安全的 IT 基础架构。云计算基础设施的稳定和可靠,是云厂商的核心竞争力。然而,云计算作为数字产业的新基建,面临着行业高速增长的机遇,同时也在诸多领域存在着挑战,比如 AI 就是一次巨大的浪潮,在全球范围内都带来了巨大的市场机遇和发展潜力,但目前云基础架构还面临着把数据留在本地、延迟和带宽问题和连接稳健性等问题。如果上升到云计算整个领域的发展的探讨,站在终端用户角度去看,在使用产品的过程中,用户实际更关注的是使用体验,当前基础设施要满足用户顺畅的体验需求,即算力喷发下产生的需求,需要在数据存储、数据节点通信及指令调度等层面进行一定的创新;站在企业开发者的角度去看,高效开发、低成本运维是开发者最关注的问题,在云基础架构体系中,工具链的使用、性能调优方式、性能工具的创新是未来主要发展点。此外服务的部署、管理、跟踪、调试等各个环节管理和运维工具的创新,以及企业如何降低运营成本也云计算厂商持续研究并创新的课题。所以,未来只有软硬一体的生态化发展,才能帮助行业更好地完善基础设施,从而为企业数字化转型、降本增效的大目标实现保驾护航,而这一点亚马逊云科技做到了。亚马逊云科技的网络安全芯片 Nitro 系列、服务器芯片 Graviton 系列、人工智能(AI)推理芯片 Inferentia、AI 训练芯片 Trainium 系列的四大自研芯片业务线,从高性能计算、至广至深的云计算实例选择、存储、网络安全、可靠等方面都显示出了绝对的性价比及绝对优秀的能力。同时,我们从亚马逊云科技的每一个实例与案例中也可以看到,亚马逊云科技这些年来从技术上做的创新与帮助全球范围内的客户完成技术创新,为的就是突破当下云基础架构的“束缚”,不断探索新的云计算技术和应用模式,实现业务创新和发展,这为行业内的其他厂商起到了“带头羊”作用。希望亚马逊云科技在未来可以与全球更多企业共同推动云计算的发展,为行业发展不断注入新动力。
6,194
1,688,017,487,049
InfoQ
17
亚马逊云科技开源PBAC领域特定语言Cedar
亚马逊云科技开源了他们用来定义策略访问权限的领域特定语言Cedar。Cedar已集成在Amazon Verified Permissions和AWS Verified Access中,还可以通过SDK和语言规范将Cedar直接集成到应用程序中。Cedar可以在应用程序代码之外定义访问策略,这种分离使得它们能够独立地进行编写、分析和审计。Cedar支持基于角色的访问控制(RBAC)和基于属性的访问控制(ABAC)。SDK可用于编写和验证策略和授权访问请求。Cedar是用Rust编写的,但同时提供了Rust crate和Java包,可以在Java中使用Cedar。可以通过调用Cedar授权引擎来验证请求是否被授权。请求信息会被转换为Cedar请求并传给Cedar授权引擎。下面是在Rust中使用Cedar的示例:pub fn is_authorized( &self, principal: impl AsRef<EntityUid>, action: impl AsRef<EntityUid>, resource: impl AsRef<EntityUid>, ) -> Result<()> { let es = self.entities.as_entities(); let q = Request::new( Some(principal.as_ref().clone().into()), Some(action.as_ref().clone().into()), Some(resource.as_ref().clone().into()), Context::empty(), ); info!( "is_authorized request: principal: {}, action: {}, resource: {}", principal.as_ref(), action.as_ref(), resource.as_ref() ); let response = self.authorizer.is_authorized(&q, &self.policies, &es); info!("Auth response: {:?}", response); match response.decision() { Decision::Allow => Ok(()), Decision::Deny => Err(Error::AuthDenied(response.diagnostics().clone())), } }可以使用self.authorizer.is_authorized(&q, &self.policies, &es)self.authorizer来调用Cedar授权引擎。参数包括访问请求、Cedar策略和实体集合。访问请求包含了所需的主体、操作和资源信息。根据具体的分析结果,授权引擎将返回Decision::Allow或Decision::Deny。策略也可以通过SDK来创建。在下面的Java示例中,我们创建了一个策略,允许主体Alice对Vacation资源的子资源执行View_Photo操作:private Set<Policy> buildPolicySlice() { Set<Policy> ps = new HashSet<>(); String fullPolicy = "permit(principal == User::\"Alice\", action == Action::\"View_Photo\", resource in Album::\"Vacation\");"; ps.add(new Policy(fullPolicy, "p1")); return ps; }在Java中,可以调用isAuthorized方法来查询授权情况:public boolean sampleMethod() throws AuthException { AuthorizationEngine ae = new WrapperAuthorizationEngine(); AuthorizationQuery q = new AuthorizationQuery("User::\"Alice\"", "Action::\"View_Photo\"", "Photo::\"pic01\""); return ae.isAuthorized(q, buildSlice()).isAllowed(); }在亚马逊云科技宣布开源Cedar之后,Permit.io发布了Cedar-Agent,一个HTTP服务器,作为基于Cedar的策略的策略存储和数据存储。策略存储支持创建、检索、更新和删除策略,数据存储支持在内存中存储应用程序数据。Cedar-Agent可以针对存储的数据执行授权检查,这些检查可以基于传入的请求进行。HackerNews上的一位用户dadadad100评论说,他们看到Cedar可能填补了应用程序授权领域的空白:Cedar介于OPA(基于数据的搜索方法)和Zanzibar之间。目前还不清楚哪一方会胜出,但不管怎样,现在这个问题开始引起人们的关注了。其他用户,如Oxbadcafebee,对亚马逊云科技没有为Open Policy Agent提供支持表示失望。Cedar采用了Apache License 2.0,托管在GitHub上。更多细节可以在最近的亚马逊云科技的博客中找到,或者加入Cedar Policy Slack频道。原文链接:https://www.infoq.com/news/2023/06/aws-cedar-open-source/相关阅读:亚马逊云科技 Lambda引入响应有效负载流从微服务转为单体架构、成本降低 90%,亚马逊内部案例引发轰动!CTO:莫慌,要持开放心态
2,699
1,687,737,600,813
InfoQ
18
云端安全由繁到简,云安全文化护航下的“业务创新”进入新局面? | 亚马逊云科技 re:Inforce 2023 全球大会
463MB,这是 IDC 对 2025 年人类每秒生成数据量的预测,而在 2020 年这个数字还只有 1.7MB/ 秒。要知道,数据的指数级增长是当今世界最重要的趋势之一,而充分利用快速增长的数据实现创新和业务成长,就是企业数字化转型的主要任务。Gartner 最近的一份报告显示,89% 的企业董事表示,数字化转型已经嵌入了这些企业的业务增长战略。然而,只有 35% 的董事认为他们已经或正在实现转型目标。数字化愿景与现实存在的差距困扰着诸多企业,但造成这种差距的一个重要因素却一直被很多管理者所忽视,那就是企业未能建立应有的数字安全与合规体系。应用迭代的速度加快、数据快速膨胀、企业云原生道路上遭遇的种种困境,与数字安全部门有限的人力与资源约束叠加在一起,使今天的企业面临着前所未有的信息安全挑战。这种挑战增加了数据泄露、数据篡改、DDoS、恶意软件(包括勒索软件)、零日攻击等威胁的风险和影响,进而为企业的数字化转型路径埋下了一系列隐患。另一方面,各国日趋严格的数据合规政策给企业施加了一系列约束条件,试图拓展全球业务的企业必须在这一领域投入更多资源,避免自身业务遭受冲击。遗憾的是,企业管理者往往采用被动、消极的态度应对这些挑战,安全与合规方面的投入经常被认为是与业务争夺资源的成本负担。直到最近,这样的局面才开始出现了转机。《财富》1000 强 CISO(首席信息安全官)社区的一项近期研究报告说,58% 的 CISO 认同将信息安全重新定位为业务起点和基础的观点,并尝试将这种观点向领导层传达。具体而言,这种全新的视角认为安全性可以提升企业的竞争力、提升企业进入新市场的信心、增加收入、降低风险、保持业务连续性和改善企业信任关系。换句话说,信息安全与合规工作并不会挤占业务资源,相反,这些工作本身就是业务的一部分,是企业降本增效、提升投资回报率的必要工具。作为全球领先的云服务提供商,亚马逊云科技一直高度重视安全与合规工作,也非常认同上述观点,并致力于通过一系列产品、服务为企业提供安全合规这一关键业务支点。在刚刚结束的 re:Inforce 2023 全球大会(下文称“大会”)上,亚马逊云科技就发布了多项创新成果,为全球企业搭建和完善了安全合规性解决方案,并向世界展示了亚马逊云端安全文化如何帮助企业实现数字化转型目标。一、利用“基础设施的安全合规性”+“云安全文化”为企业构筑护城河在数据量指数级增长的背景下,今天的企业愈加依赖云端来存储、分析和处理海量数据资源。正因如此,云端安全性对企业业务的重要性与日俱增。一旦云端数据遭遇泄漏、恶意利用、欺诈等风险,将对企业业务甚至生存造成重大威胁,还有可能造成严重的社会负面影响。正因如此,中、美和欧盟都出台了严格的云端数据监管法案,要求云服务提供商与企业高度重视云安全性,采取有效措施应对日益增长的安全挑战。显然,在搭建云安全防线的过程中,云服务提供商的安全文化是非常重要的。只有将安全合规的理念贯彻到云端基础设施的每一个角落,才能充分保障企业数据,显著降低风险和减少损失。云服务商不仅有责任为企业提供安全屏障,同时也有义务帮助企业建立完善的安全合规体系,并尽可能降低相关工作的成本投入。只有这样,企业才能放心将敏感数据保存在云端,并利用广泛的云端应用来挖掘数据潜力,为业务增长注入动能。在本次大会上,亚马逊云科技再次强调了自身的云安全文化,并展示了诸多相关的技术细节和实现,亚马逊云科技向大家证明了自己作为云服务提供商同样拥有顶级的安全合规能力,可以为企业业务构筑宽广的护城河。亚马逊云科技的安全性始于安全的全球云基础设施,企业无论规模大小均可获得一致的云安全体验。展开来讲就是,亚马逊云科技的基础设施不仅根据安全最佳实践和最高标准来建立和管理,而且还考虑了云的独特需求,采用冗余和分层控制、持续验证和测试,大量使用自动化,确保底层基础设施得到 7X24 小时全天候的监控和保护,以满足跨国银行等高敏感组织的安全需求。此外,亚马逊云科技还支持 143 项安全标准与合规性认证,帮助企业满足全球几乎所有监管机构的合规要求。亚马逊云科技管理和控制从主机操作系统和虚拟化层到服务运行设施的物理安全的组件,同时为企业提供了广泛的最佳实践、加密工具与其他指导,帮助企业完善应用层面的安全措施。值得一提的是,在本次大会上,亚马逊云科技发布了三项服务,其一是易用的 Amazon EC2 Instance Connect Endpoint,为用户提供了严格的身份和资源授权验证;其二是 Amazon Inspector Code Scans For Lambda,它可以扩大 Inspector 的扫描范围,提升云端检测和处理安全漏洞的能力;其三是 Amazon Inspector SBOM Export,能够帮助企业自动并集中管理软件的构成元素清单,便于处理安全问题、许可证合规性并提升供应链透明度。从第三方视角看,这些服务进一步增强了亚马逊云基础设施的安全合规水平,并让企业能够更好地利用云端能力改善应用与终端层面的安全合规性、贯彻企业内部流程的安全合规文化。二、“自动化、智能化”是企业 IT 安全技术应用的大势所趋当下是一个 AI 时代,生成式 AI 与大语言模型(LLM)技术正在经历爆发式增长的过程,在各个领域都展示出了巨大的应用潜力,云端安全行业也不例外。正如亚马逊云科技首席安全官 CJ Moses 在本次大会的演讲中提到的那样,“生成式 AI 与 LLM 可以增强和补充现有的安全工具与流程,对安全团队产生重大影响。”在过去,很多安全工作都需要密集的人力投入,未知的安全威胁、漏洞和突发事件往往依赖安全工程师的经验与技能才能妥善处理。但这样的工作流难以大规模扩展,面对指数级增长的威胁迟早力不从心。相比之下,AI/ML 技术能够将安全人员的注意力从简单重复劳动中解放出来,使安全工程师可以专注解决威胁本身,而不是浪费大量时间寻找和辨认安全问题。以上个月推出的亚马逊安全湖为例,该服务能够自动收集、合并和分析来自 80 多个来源的安全数据,使安全团队更容易发现威胁并更快地响应安全事件。本次大会上新发布的 Amazon CodeGuru Security 则能自动检测违反安全策略的行为与漏洞,提供方案建议并生成健康状况指标。在这一工具的帮助下,企业软件开发团队就能以更少的成本构筑更安全的代码。此外,企业的安全团队还能利用新发布的 Findings Groups for Amazon Detective 工具,通过机器学习和图技术关联数以千计的离散安全事件,分析事件之间的关联性,快速定位问题根因。企业开发团队运用 Amazon SageMaker 开发人工智能与机器学习应用的过程中,Amazon SageMaker 提供的原生安全功能和偏差检测功能是非常有价值的伙伴。例如,开发人员能够使用 Amazon SageMaker 模型卡审查机器学习生命周期中的治理与合规信息,并结合其他原生工具确保 AI 产品符合监管要求。此外,亚马逊云科技每天都需要处理全球海量的 API 请求和日志记录,追踪事件达数十亿条,即 IAM 服务可以帮助云中每秒 10 亿次 API 调用的访问安全。这意味着亚马逊云科技能够检测到更多的安全威胁,并在快速响应单个企业异常情形的过程中生成经验,将这些经验部署到企业使用的自动化服务中,让其他用户免受同样的威胁或攻击。企业应对的数据量越大、业务范围越广,出现潜在安全漏洞与合规缺陷的几率也就越高。自动化云安全服务的本质就是利用智能技术填补每一个潜在攻击面、完善每一处合规工作,通过云服务商庞大的云端资源补足企业的安全合规能力。亚马逊云科技正在这一路径上稳步前进,并高度人工智能创新为行业创造的全新机遇。未来,预计会有更多亚马逊云科技服务利用 LLM 等 AI 技术,帮助安全人员以更少的精力应对更复杂的安全合规挑战。三、零信任方法巩固基础,安全方案需要社区伙伴共建”零信任方法”是安全领域的重要概念,其核心思想是不信任接入网络的任何人,每一次连接都必须经过明确验证才能获得许可。考虑到今天的企业用户可能在各种位置与环境中,通过云端接入敏感数据,只有零信任方法才能提供足够的保护,使企业有信心面对更加严峻的安全态势。第三方服务接入企业应用时同样需要零信任架构来预防威胁,一直以来,亚马逊云科技持续强调零信任方法,帮助企业完善应用的权限模型,这样也能更好地对接第三方企业的安全产品与服务。例如,新发布的 Amazon Verified Permissions 就能帮助开发者在应用中落地零信任架构,该工具与不需要 VPN 的零信任网络访问工具 Amaozn Verified Access 结合,使企业可以快速在业务中部署零信任架构,并在这一架构基础上充分利用合作伙伴的能力建设和完善安全合规体系。充满活力的社区是现代软件产业持续繁荣的动力来源。亚马逊云科技与超过十万合作伙伴的共同努力,为企业提供了丰富、可高度定制的安全方案选项,而零信任方法的应用,则让企业能够像信任亚马逊云基础设施一样信任第三方服务商。如此一来,即便是对安全性高度敏感的企业,也能充分利用亚马逊云科技合作伙伴网络加速业务创新和发展。前几个月,亚马逊云科技与其他网络安全领导者一起宣布发布开放网络安全架构框架(OCSF)项目。该架构项目旨在标准化和规范化网络安全工具生成的数据,在该项目中,各企业和安全工具供应商们可以更密切地协同安全工作,旨在提供一个可定制且功能强大的架构,组织可开箱即用,也可以个性化定制。在本次大会上,亚马逊云科技发布的 Amazon Security Lake 便可将传入的安全数据加以转换,使之符合开放网络安全架构框架要求的格式 (OCSF),可以让安全团队更轻松地自动收集、组合和分析来自亚马逊云科技、安全合作伙伴和分析服务提供商等 80 多个来源的安全数据。要知道,由于所处行业、地域、发展阶段、资源约束等因素的不同,每一家企业都有自己独特的安全合规需求,只有定制化的产品及服务才能最大程度上适配企业的自身状况。例如,正在开发欧洲市场的出海游戏企业可能更重视 GDPR 法规的数据隐私要求,而刚刚升级到分布式架构的金融机构则更多担忧新架构潜在的漏洞造成的业务中断危险。显然,单纯依靠某一家云服务厂商来满足数以百万计企业的差异化需求是非常困难的。合理的实践是构建一个安全社区,依靠众多合作伙伴的力量创造强大而完善的解决方案矩阵。亚马逊云科技很早就意识到了这一点,并建设了一个合作伙伴网络。发展到今天,这一“网络”已经有了来自全球 150 多个国家的 10 万多家合作伙伴。在亚马逊云科技自身提供的 300 多项安全、合规和治理服务基础上,这些合作伙伴为 Amazon Marketplace 充实了数千项安全解决方案。例如,普华永道就携手亚马逊云科技,针对欧盟 GDPR、美国 HIPAA 等法规提供了健康医疗领域的安全合规服务,赋能医药企业安全出海。值得一提的是,本次大会发布的 AWS Built-in Partner Solutions 是亚马逊云科技的合作伙伴网络的最新补充工具。用户使用该工具能够查找、购买和部署经过亚马逊云科技验证,与亚马逊云科技基础服务集成的合作伙伴软件,进一步为企业量身打造最佳的安全合规方案。该工具包含一个模块化代码库(MCR),使工程师部署合作伙伴方案的时间从原来的数周甚至数月缩短到一天之内,大幅简化了云端第三方服务的集成流程,为企业提供了与亚马逊自有服务一致的使用体验。四、“出海合规”到“数据保护”,云端安全是业务成功的基础随着全球化程度不断深入,世界各地的企业纷纷踏上出海之路,希望赢得更多地区用户的青睐,为业务增长注入源源不断的动力。然而,出海企业踏入陌生的市场环境时,不同的监管政策、技术环境、市场文化给业务和技术部门带来了诸多难题,企业希望全球性的云服务厂商能够帮助他们应对跨境数据安全、合规与业务运营等挑战。令人满意的是,很多企业在业务全球化之路上找到了亚马逊云科技,并在后者的高水平云安全合规水平的帮助下达成了业务出海的预期目标。例如,全球最大的智能设备厂商之一 vivo 近年来快速扩张国际业务,希望达成统一决策、全球一盘棋、精准营销的目标,将营销经验沉淀为平台能力。为此,vivo 选择使用亚马逊云来构建系统,充分继承亚马逊在云基础架构层面的安全性和合规性,同时借助亚马逊云提供的各种安全工具进行构建,有效支撑全球营销业务。网络硬件设施领导企业 TP-Link 的经验与 vivo 类似。得益于亚马逊云科技全球覆盖的基础设施资源、全面的数据安全与合规保障能力,TP-Link 快速搭建起了跨国业务平台,实现全球部署,让海外用户能够就近、高效地获得优质服务,持续优化用户体验,建立品牌声誉。通过亚马逊云科技部署云管平台,TP-Link 可以无缝满足其全球业务覆盖范围中各个国家 / 地区的数据安全合规要求,确保团队可以将精力充分投入产品服务创新之中,加速价值兑现。数据保护与跨境传输和访问是中国公司出海过程中最关心的议题。OPPO 与 TCL 作为出海企业的佼佼者,前者使用了 Amazon CloudHSM 构建了自己独特的数据保护体系,可根据业务随时扩展加密机硬件容量,并利用亚马逊云科技的托管服务自动执行耗时的管理任务;后者则选择亚马逊云及合作伙伴方案。高效,低成本解决云上数据跨境的挑战,为业务海外发展保驾护航。另一家面向全球玩家的元宇宙游戏公司 GVERSE 同样高度重视跨境数据的安全稳定性。亚马逊云科技为该公司部署了 Amazon GuardDuty RDS Protection、Amazon Inspector、Amazon Security Hub 和 Amazon WAF 等安全产品,从基础设施保护等方面确保用户数据安全,有效消除了潜在风险,让企业对所有业务运行在亚马逊云科技上充满信心。只有高度重视云端安全合规性,才能充分满足企业需求,将云安全合规构筑为支撑企业业务成长的重要基石。正如 CJ Moses 在本次大会上的演讲主题所言:"安全是我们的首要优先级"——亚马逊云科技充分理解云端安全合规性对企业的重要意义,并在通过诸多产品、服务和创新为企业打造业务的这一全新起点。诚然,企业在数字化转型过程中需要增加安全投资、更加重视云端安全合规体系建设,但这并不意味着企业需要为此背负沉重的负担,在亚马逊云科技的帮助下,企业完全可以凭借较少的投入快速建设云端安全护城河。我们可以预测到,在未来,更多企业将利用亚马逊云科技的云安全能力,有效对抗安全风险并满足复杂的合规要求,实现降本增效与业务增长目标。
4,288
1,687,161,616,025
InfoQ
19
攻略| 一场你不可错过的夏日技术盛宴!
6 月 27 日 - 28 日,2023 亚马逊云科技中国峰会即将在上海·世博中心落地!(还没报名的开发者,文末可以扫码抢位👇🏻)本届峰会,将有百余位重磅嘉宾,一同奉上数百个前沿技术话题和业内最佳实践。技术大咖、顶级社区技术专家、亚马逊云科技 Hero 们带你全面感受最浓郁的 Geek 氛围。更有 Hero 白金讲堂、GameDay (LoL Esports Edition)、DeepRacer 挑战赛等活动,等你来解锁。此外,亚马逊云科技全球知名的 Dev Lounge(开发者会客厅)也将重磅回归!本次开发者会客厅设置了「开发者互动区」、「Build 吧」、「开发者大讲堂」和「开发者市集」四大板块,你可以在这里感受轻松、开放、多元的技术学习和交流氛围。面对这样一场技术干货和趣味活动齐飞的技术峰会,怎样才能在两天中收获最多?亚麻云的开发者会客厅,最佳解锁姿势是什么?现在,InfoQ 为你送上一份攻略,建议收藏~路线一:创新科技的“构建之旅”如果你厌倦了千篇一律的技术展区,在开发者会客厅的「开发者互动区」和「Build 吧」板块,你可以一站式打卡亚马逊云科技的五个互动演示项目。在「Build 吧」,你可以和亚马逊云科技的资深架构师面对面交流,在用最先进的云端技术构建应用的同时,收获从学到用的全链路体验,真切感受创新技术为开发者带来的技术红利。 1.Serverlesspresso 无服务器咖啡工坊传说中“体验地球最 IN 的咖啡点单”——Serverlesspresso 是一个多租户事件驱动的无服务器应用程序,2022 年在全球各大技术活动上已经累计处理了 2 万多个订单。终于,火遍全球的 Serverlesspresso 无服务器咖啡工坊来到了亚马逊云科技的开发者会客厅!你可以直接通过代码拖拽的方式,体验 Serverless 架构带来的开发效率。顺利完成代码复现的开发者,将直接获得一张免费咖啡券,享受⼀杯由 Serverless 应用下单的咖啡。 2.Amazon CodeWhispererAI 编程工具到底是摸鱼利器,还是打工人噩梦?近期重磅发布的 AI 编程工具 Amazon CodeWhisperer 已吸引了无数开发者的关注。在「开发者会客厅」的 Amazon CodeWhisperer 体验区,你可以现场体验,快速掌握 AI 编程方法。现场限量开放 Amazon CodeWhisperer 账号。 3.SQL Chat通过 SQL 语句操作数据库,想必是大多数开发者的工作日常。怎样用自然语言与数据库交互?大会将告诉你如何基于亚马逊云科技的云服务架构来实现。除此之外,你还能现场体验亚麻云不久前发布的 Amazon CodeCatalyst,了解在全云端,如何使用 CI/CD 工具更高效地协作处理代码,构建、测试和部署应用程序,实现开发全生命周期覆盖;或者利用 Amazon SageMaker 轻松构建和部署⾃⼰的机器学习模型,实现更⾼效的数据分析和预测,领略 AI 技术的魅⼒......在「动手实验室」板块,你可以在 6 月 27 日体验《助力机器学习管道构建》等 4 门精品课程,还可以在 6 月 28 日学习《无服务器计算和 Amazon Lambda 介绍》等 4 个主题。路线二:社区共融的“成长之旅” 1. 开发者市集在这条线路中,你将真切感受到亚马逊云科技社区的包容与开放。在「开发者市集」,你可以一次性链接 Java、Rust、Apache ShardingSphere、CCF 中国计算机学会等耳熟能详的技术社区。在这里,你可以深入了解技术社区对于技术多样性和包容性的意义,在每个社区的市集上体验到不同类型的互动游戏,学习如何与亚马逊云科技全球社区一起成长。亚马逊云科技开发者社区(Developer Portal)、亚马逊云科技 User Group 也将为大家带来技术实践分析和技术社区发展的话题。在这里,你可以深入了解亚麻云的中国开发者社区,以及遍布全球、分布在中国 10 个城市的 User Group 社区,结识志同道合的技术伙伴。 2. 开发者大讲堂6 月 27 日下午,围绕“工程师文化”主题,你将在现场听到开发者成长与职业发展、可观测性、开源文化等方面的内容。除此之外,15:30-16:10,Linux Foundation AI & Data 董事会主席 (2022-2023) 堵俊平、 PingCAP 联合创始人兼 CTO 黄东旭、SphereEx 联合创始人 & CTO 潘娟、Bytebase 联合创始⼈兼 CEO 陈天舟和 CSDN CTO 陈玉龙,将联袂奉上话题为《开发者如何利用开源挖掘数据价值》的精彩圆桌。欢迎线下围观,与他们现场互动!6 月 28 日下午,围绕“社区文化”主题,你将解锁更多技术社区运营、技术社区建设、技术人在社区中如何成长的话题。此外,在 AIGC 热潮下,我们邀请了 Jina AI 的联合创始人兼 CTO 王楠带来相关主题演讲,同时举办 Build with AIGC Hackathon 应用挑战赛的启动仪式。在「开发者大讲堂」,我们欢迎所有开发者加入,一起畅聊当下与未来! 3. 亚马逊云科技 Hero 白金讲堂这一板块将聚焦开发者关心的技术前沿热点,由亚麻云的全球英雄专家,在开源技术的安全性和可靠性、大模型与思维链,DevOps 工具集应用,Web 高效开发中的 Serverless 实践等多个技术领域分享自己的最新实践与心得。 4. 备考训练营希望学习云计算专业知识,想备考全球含金量最高的云计算认证 ?这次峰会特别为你设置了两个备考训练营:AWS Certified 云从业者认证、AWS Certified 解决方案结构师助理级认证训练营。大家可以在这里参与备考课程,现场不仅有专家帮你提前划重点,课堂中积极与讲师互动,还有机会获得免费考试资格!路线三:速度 X 激情的“挑战之旅”除了干货满满的技术内容与丰富的动手实操,大会还特别为所有到场的开发者们准备了一场“速度与激情”的挑战之旅。沿着这条线路,你可以获得电子竞技般的沉浸式体验;你可以解锁硬核 AI 技能,感受自动驾驶的魅力;你可以收获基于开源算法复原魔方的奇妙体验......来现场,通过进阶挑战风暴——你会在一次次发起挑战的过程中,感受全新的技术之美! 1.GameDay在游戏挑战中,你将作为 Demacia Data 开发团队的成员,使用《英雄联盟 (League of Legends)》电子竞技大赛的真实比赛数据,为 Riot Games 构建战队胜率的预测模型。在 90 分钟内完成挑战并获得积分,获胜团队将获得定制礼品和奖杯! 2.Amazon DeepRacerAmazon DeepRacer 是亚马逊云科技推出的 1/18 比例自动驾驶赛车。你可以通过这种有趣的方式,学习掌握人工智能知识,0 门槛构建自己的强化学习模型。6 月 27 日,围观“十年专属行动”现场收官总决赛;6 月 28 日,在现场见证众多开发者用 AI 飙车,实力对决! 3. 快手魔方挑战赛基于 Al Solution Kit 和开源算法的魔方复原器,完成魔方复原,工作人员将记录你还原魔方的时间。现场将实时显示「快手魔方挑战赛」排行榜,前 3 名将获得亚麻云准备的惊喜奖品! 4.Jam 挑战Jam 挑战是一项基于团队合作的游戏挑战,通过解决模拟真实案例的挑战来测试你的云计算技能。玩家要在限定时间内通过在亚马逊云科技管理控制台沙盒中的模拟用例来进行部署,解决不同难易度的问题来获得分数提升排名,最终获得胜利。获得冠军的团队,将收获每人价值 1,000 元的旅游基金大奖!相约上海,抓紧报名抢位!6 月 27 日 -28 日,这场开发者狂欢 Party 即将开启!无论你是工作已久的技术大牛,还是初入职场的技术小白——2023 亚马逊云科技中国峰会都将满足你的一切好奇。以上只是 2023 亚马逊云科技中国峰会的冰山一角,期待你也能和小编一起到现场感受这场夏日技术盛会!报名通道现已开启👇🏻
4,186
1,686,898,549,275
InfoQ
20
程序员越“老”就越看不上AI辅助编程工具?Stack Overflow 2023 开发者调查AI特别报告
今天,Stack Overflow正式发布了一年一度的开发者调查结果。 今年Stack Overflow收到了来自185个国家的90,000份回复,这次他们十分关注AI的使用情况。今年AI大火,Stack Overflow希望了解AI对开发人员的工作方式是否产生了真正的影响,因此对AI的深入调查,是今年特有的。 Stack Overflow 产品营销副总裁 Joy Liuzzo 表示,该公司将使用开发者的这些回复来塑造自己的 AI 产品。Stack Overflow 曾公开表示 AI 是该网站的“大机遇”,“我们现在正在投资AI,我们需要了解开发人员如何看待这项技术,并根据回应情况将其纳入开发人员的工作流程中,” Liuzzo说道。 这次调查关于AI使用的亮点有:相对于学习编程的人来说,专业人士对AI工具的采用更为缓慢。30%的专业开发人员表示没有采用AI辅助编程工具的计划。ChatGPT是最受欢迎的AI搜索工具,被83%的受访者使用,其次是Bing AI(20%)、WolframAlpha(13%)和Google Bard AI(10%)。GitHub Copilot是最受欢迎的开发者搜索工具,被55%的受访者使用,其次是Tabnine(13%)和AWS CodeWhisperer(5%)。与美国、英国和德国的开发人员相比,印度、巴西和波兰的受访者更有可能接受AI工具。 专业开发人员信任 AI 吗? Stack Overflow发现,很多开发人员已经在使用AI。其中44%的开发人员现在就在他们的开发过程中使用AI工具,26%的人计划很快开始使用。学习编程的人采用人数更多,达到55%,这些早期采用者一旦进入专业开发人员职位,将成为技能娴熟的AI用户。 尽管越来越多的开发人员在使用AI工具,但他们使用的种类并不多。Stack Overflow询问开发人员他们正在使用哪些工具,在今年列出的21个选项中,绝大多数只是使用了两个热门产品:ChatGPT(83%)和GitHub Copilot(56%)。 Stack Overflow还发现,随着经验的增加,开发人员对将AI工具表现得更为冷淡。近 40% 的拥有超过 21 年经验的开发人员表示他们不打算使用这些工具或计划使用这些工具。毕竟更有经验的开发人员通常从事更复杂的项目和/或代码结构,AI工具目前无法帮助解决这些问题。   而且这些较新的AI技术,现在还处于炒作周期的早期阶段。Stack Overflow预计,在更广泛地应用之前,开发人员可能还需要更多的时间调整现有的工作流程来适应这些工具。 导致AI工具在开发过程中采用速度较慢的另一个因素是专业开发人员对AI工具的准确性不太信任。在使用或计划使用AI工具的人中,只有3%非常信任它们的准确性,而有两倍多的人(6%)非常不信任。虽然多数人(39%)对AI工具有些信任,但这个回应告诉我们AI工具仍需要证明它们的有用性。    对于新工具的采用,“信任但要核实”可能是最佳方法。今年一个非常受欢迎的问题是“为什么ChatGPT在数学上不准确?”这个问题涉及到AI工具(特别是那些基于大型语言模型训练的工具)无法理解复杂问题的问题。但实际上,人们在这类问题上也经常出错。 另外,在什么地方工作也会对结果造成影响。来自印度、巴西和波兰的专业开发人员最有可能使用或计划在其开发流程中使用AI工具,这些国家的回应率达到70%甚至更高。而英国、法国、美国和德国的开发人员更有可能表示他们不计划使用AI工具(回应率达到36%)。 印度和巴西是许多“新”技术人才的来源地,这一趋势可从过去的开发者调查中看出,因此在这些地区更广泛地使用AI工具是有道理的。 而欧盟国家和美国的情况比较特殊,因为可以通过最近的新闻推断出GDPR法规对AI进行监管的可能性在增大。法国已经开始调查针对ChatGPT的投诉。在美国,虽然目前还没有相关法规,但一些公司已经开始公布禁止在工作中使用ChatGPT的政策,同时Stack Overflow和Reddit也公开表示他们将开始收费以限制访问社区数据。无论是准确性问题还是法律规定或工作场所规定,这些因素都使开发人员不敢迅速采用这些AI工具。 AI辅助工具的好处 Stack Overflow表示,无论现在的采用情况如何,开发人员对这些AI工具的可能性都持积极态度。 调查发现,77% 的受访者对在他们的工作流程中使用 AI 感到满意,70% 的受访者今年已经在使用或计划使用 AI 编码工具。 在实际使用中,与专业开发人员相比,学习编程的人员主要是用 AI 工具进行调试和获得帮助 (68%),并了解代码库 (50%)。而专业开发人员最感兴趣的是使用 AI 工具测试代码 (65%)、提交和审查代码 (64%),以及使用它们进行部署和监控 (61%),以及记录代码或了解代码库 (58%)。 整体来说,AI工具给开发者带来的好处,主要还是体现在提高生产力和加快学习速度上。  根据调查结果来看,在对AI工具有好感的所有开发人员角色中,高级管理人员(63%)与数据科学家和区块链开发人员一起位居榜首。嵌入式应用程序开发人员、桌面/企业开发人员和硬件工程师不太可能使用这些工具,并且将来也不太愿意使用它们。Stack Overflow希望硬件工程师暂时不要使用人工智能,因为这些工具的准确性方面让人信心不足。 Stack Overflow也在调查中询问了开发人员,明年在工作流程中使用AI工具,是否会跟今年有所不同,72% 的人表示或许在编写代码流程中会有所不同,78% 的人对使用 AI 调试代码持相同看法。  参考资料:https://survey.stackoverflow.co/2023/#aihttps://stackoverflow.co/labs/developer-sentiment-ai-ml/https://stackoverflow.blog/2023/06/13/hype-or-not-developers-have-something-to-say-about-ai/https://www.theverge.com/2023/6/13/23759101/stack-overflow-developers-survey-ai-coding-tools-moderators-strike相关阅读:全球仅 10% 开发者从不加班,Perl 收入最高| Stack Overflow 年度报告Stack Overflow 最新薪资计算器出炉:DevOps 和 Go 语言开发者是大赢家Stack Overflow 2022 报告:亚马逊云科技的软件开发“武器库”
6,028
1,686,730,824,465
InfoQ
21
“偷”代码建起公司、学历造假、6天拿下1亿美元却拖欠工资,这位AI独角兽CEO屡遭质疑后亲自回应了
Stability AI创始人称Stable Diffusion的成功离不开早期“虚假宣传”。 Stability AI是一家独角兽初创公司,Emad Mostaque 是公司的创始人兼CEO。Stability AI于2022 年 10 月以十亿美元的估值一跃成为新一轮AI热潮中的一匹黑马。 Stability AI 声名鹊起要归功于其开创性的开源AIGC模型——文本到图像生成器Stable Diffusion,它与另一个开源项目Midjourney 一起几乎很快就取代了 OpenAI 的 DALL-E 2 作为首选的生成图像工具。 在过去的一年里,伴随着Stability AI攻城略地式的快速发展,Mostaque 也成为了开源AI世界中炙手可热的人物。然而,《福布斯》最近发布的一篇文章却揭露了Mostaque背后不为人知的一些故事和经历。 据《福布斯》报道,Mostaque谎报了自己的学历、成就和伙伴关系。报道称,他夸大了自己的资历,夸大了对冲基金的经验,误导了投资者和客户,并夸大了与亚马逊的交易。他还把 Stable Diffusion 的成功归功于他,却淡化了他的联合创始人和员工的作用。会讲故事的创始人,却在学历和成就上说谎了 凭借着火爆全网的AI文本到图形生成器,以及公司创始人Emad Mostaque一系列精妙的宣传“引导”,Stability AI已然成为一颗估值10亿美元的技术新星。 Emad Mostaque可以说是开启这波AI淘金热的现代先驱之一。拥有牛津大学硕士学位的他之前曾是一位战绩斐然的对冲基金经理,协助联合国开展新项目,同时也是Stable Diffusion背后的技术缔造者。用他的话说,正是这款文本到图像生成器在去年夏天的横空出世,才迫切OpenAI快速推出ChatGPT,最终让整个世界全面进入AI时代。如今的他成为生成式AI技术浪潮的代言人之一,也吸引到超1亿美元资金实现自己的未来愿景——构建起一套真正开放的AI,在它的帮助下改造好莱坞、推动教育大众化,并彻底打破Office套件中的技术门槛。他在今年年初的采访中打趣道,“希望我能凭借这份努力拿到诺贝尔和平奖。” 但这一切,只是Mostaque想让大家相信的故事版本。 实际上,Mostaque并不是硕士,而仅仅只拥有学士学位。另外就是他提到的对冲基金管理经历,这支基金表现不佳而且短短几个月就宣告倒闭。联合国也已经多年没有与他合作。虽然Stable Diffusion确实是他创立的公司Stability AI的主要成果,但项目的源代码其实是其他研究人员编写而成。领导这项研究的Björn Ommer教授证实,“据我所知,Stability在开发早期甚至连这项技术都没听过,到后来才插了一脚。” “他最擅长的就是把别人的成果拿过来写上自己的名字,或者宣传一些难以证实的事情。” ——某Stability前员工 Mostaque今年已经40岁,他搞过的虚假宣传绝对不止于此。尽管他在AI领域没有任何严肃经验,但为了让自己能在这场自互联网诞生以来最伟大的技术巨变中稳居最前沿,Mostaque完全不惮于捏造事实。通过对13位现任/前任Stability员工和超过20名投资者、合作者和前同事的采访,同时参考推介会和内部文件信息,媒体发现Mostaque如今的成功似乎确有过度夸大、德不配位之嫌。 在去年夏天Stable Diffusion风靡一时之后,蓝筹风险投资公司Coatue Management和Lightspeed Venture Partners投入了1亿美元,这也给总部位于伦敦的Stability AI带来了10亿美元的可观估值。Mostaque在采访中指出,截至去年10月,Stable Diffusion的日活用户已经达到1000万。今年5月,白宫将Stability和微软、英伟达等一道列为七大“领先AI开发商”之一,计划合作开展一项具有里程碑意义的联邦AI安全计划。Mostaque最近还与亚马逊创始人Jeff Bezos共进晚餐,就连功成退隐的谷歌联合创始人Sergey Brin也在去年10月的Stability发布会上罕见露面。 Mostaque对开源AI的远见吸引到众多资深技术专家。曾在Adobe工作两年,去年10月加入Stability的Christian Cantrell表示,“他可能是我见过的最富有远见的人”。但短短半年之后,Cantrell就离职并创办了自己的公司。自去年夏天获得注资以来,更多一流人才也接踵而至。在140名员工中,研发副总裁是英伟达公司前任董事,研究负责人来自Google Brain团队,另有来自Ommer实验室的三位博士生。 但为了继续为Stability制造轰动效应,Mostaque还精心设计了一整套围绕虚假宣传和激进承诺展开的策略,夸大了他本人在几个主要AI项目中的作用,甚至宣传与向来在业务上毫不妥协的亚马逊达成了80%的“战略合作伙伴”折扣。曾与Mostaque共事的AI研究人员证实,这家伙经常宣称自己本应获得更大的荣誉和声名。在一再追问之下,Stability公司发言人Motez Bishara向媒体证实亚马逊并没有为其提供特殊折扣。 Mostaque对投资者的其他误导,还包括高调宣传多个融资平台,宣称经合组织、世卫组织和世界银行都是Stability的合作伙伴——这三个机构均予以否认。Bishara承认,该公司无法在不确定“内容版本”的情况下对这种说法发表评论,但具体宣传应该附有额外的数据和文件。 八名前公司雇员提到,在Stability公司内部,员工的工资和个税缴纳已经一再拖延。去年英国税务机构甚至威胁要没收该公司资产。(Bishara强调「确实出了点问题,但很快就已解决。」)一边是员工工资经常被拖欠,另一边则是Mostaque的妻子Zehra Qureshi(先是担任公关主管,随后担任公司董事会成员)从公账中提取了来自数十名员工的几万英镑(媒体方面已经看到相关来源和交易截图)。公司发言人Bishara解释称,这对夫妇一直在“向企业提供个人借款”,而且“在2022年底之前,Stability与Mostaque及Qureshi间的应欠款项均已全额结清。” 在回应这份详细的质询清单时,Mostaque还发布一份声明,称Stability是一家快速发展的公司,在“系统和流程”方面长期未能给予应有的重视。“我们认识到自身的缺陷,正在努力以有效且富有同理心的方式改善并解决这些问题。” 几个月来,AI专家和潜在投资者一直私下对Mostaque的某些说法表示过怀疑。虽然目前硅谷对AI初创企业已经相当慷慨人,但不少风险投资人士称Stability的这位创始人一直想要再筹款几亿美元,把公司估值推上40亿美元大关。Mostaque去年10月宣称Stability的年亿收入已超过1000万美元,但内部人士却表示销售额并没什么改善(Bishara表示10月公布的这个数字,是「按当时收入做出的正常预期估算」,但拒绝就当前实际收入发表评论)。一位拒绝了Mostaque融资提议的风险投资人坦言,“很多事情根本就对不上。” 一场十亿美元的豪赌 2005年,Mostaque从牛津大学拿到了学士学位,而非他后来宣称的硕士学位。(Bishara回应称,Mostaque当时打算申请「牛津文学硕士」学位,且该校一直向学生无差别开放研究生课程。Mostaque今年7月应该就能拿到学位证书。) 之后他投身金融业,加入了瑞士基金管理公司Pictet。当时决定聘用Mostaque的JP Smith表示“他非常擅长编造故事”,还介绍他去Ecstrat公司担任顾问。2017年,Mostaque加入了对冲基金Capricorn,号称通过重组和运营将这家身陷困境的公司拉出了泥潭。但Capricorn公司联合创始人Damon Hoff澄清称,“他担任的是联席首席投资官,但从来就没投过资。”而且因为业绩不佳,这只价值3.3亿美元的基金在诞生两年后就于2018年停止运作。 在经历了一系列失败的创业(包括尝试把〈古兰经〉数字化再拆分成加密货币出售)之后,Mostaque于2019年创立了Stability。作为AI驱动的数据中心,全球机构开始使用该中心制定COVID-19抗疫决策。2020年7月召开线上启动仪式时,斯坦福AI专家李飞飞和来自联合国教科文组织、世界卫生组织和世界银行的代表还发表了演讲。但项目最终未能启动,并在约一年后被撤销。Mostaque在今年1月的采访中抱怨,“有些人承诺了很多,但却并没有兑现。”  “我们可以从中学到的经验就是,只要你的公司拥有足够庞大的宣传部门,那就可以根据自己的意愿塑造历史。”——Björn Ommer, 慕尼黑路德维希马克西米利安大学与海德堡大学教授 之后,Stability的业务重心又转移了好几次。早期员工表示,他们曾经研究在伦敦周边建立一个自动售货冰柜网络,为用户提供即取即走的冷藏服务。另外还有一系列狗狗表情包NFT,这显然也是赶上了当时那波加密货币浪潮。而随着生成式AI的爆发式增长,Mostaque觉得自己看到了机会。通过各种花招和虚张声势,他成功把Stability定位为当时领先的AI独角兽企业之一。 为了让一切更有说服力,Mostaque向投资者们宣扬Stability正在组装全球Top10的超级计算机。他还把自己塑造成AI研究者的善良盟友,愿意为他们提供资金并向底层技术探索者们出借Stability的超算资源,共同与“邪恶”的谷歌和OpenAI等科技巨头对抗。 Mostaque指出,这台超级计算机由数千个英伟达最先进的GPU构建而成,是从亚马逊云科技手中买来而且享受到了惊人的二折优惠。从2022年5月到8月的五次筹款宣传当中,Stability一直将AWS列为“战略合作伙伴”或“合作伙伴”。 “我们跟亚马逊交流过,并表示这次的合作非同小可。双方达成了一项极具吸引力的交易——主要通过个人担保之类。我不能说得太多,否则我老婆会生我的气。”他的妻子Zehra Qureshi当时正担任Stability的公关负责人。 但AWS公司AI部门副总裁Bratin Saha在今年1月向媒体证明,Stability就是在“正常使用AWS基础设施,跟其他客户没什么区别。”另有三名前Stability员工也证明,在吸引到风险投资之前,该公司已经积累下好几个月的数百万未付账单,亚马逊方面甚至威胁要撤销Stability的部分GPU访问权限。 在就此事求证时,Stability承认情况属实。Mostaque宣称的“极具吸引力的交易”其实是亚马逊向每家承诺长期租赁算力的客户提供的标准折扣。Bishara指出,“在AWS的支持下,所有账款问题都以有序且沟通顺畅的方式得到了解决。”AWS方面没有回应关于此事的置评请求。 Stability推介会上的夸张内容还不止于此:在2022年5月到6月的投资者推介中,Stability将AI图像生成器Midjourney描述为其“生态系统”的一部分,声称自己“参与创造”了该产品并“组织”起用户社区。Midjourney创始人David Holz则回应称,Mostaque只提供了“非常有限”的财务捐赠,除此之外双方之间没有任何关系。 此外,根据四名前雇员的说法,Mostaque还指示其团队将联合国教科文组织、经合组织、世界卫生组织和世界银行等机构列为合作伙伴,而事实上各方根本就没有参与过Stability的发展。Bishara否认Mostaque曾提出这种要求,但以上各组织确实在2022年8月的多个筹款平台上被列为“合作伙伴”, Mostaque还在其中将自己描述为“联合国COVID AI领导者”。 联合国教科文组织发言人澄清称,除了COVID-19数据倡议之外,该机构与Stability并没有任何关联,而此项倡议也已经在去年夏天结束。其他三个机构也表示,他们没有与Stability公司建立过任何明确记录在案的合作伙伴关系。 在被问及Stability宣传材料中的说法时,Bishara表示Stability的所有投资者材料都包含投资备忘录与附录文件,其中包含更多关于亚马逊交易的背景信息以及“我们与合作伙伴的关系”等具体说明。但该公司提到的两名投资者均表示没有收到此类额外说明。Stable Diffusion的真正缔造者2022年6月,Mostaque提出向一群德国学者提供Stability的超级计算机,帮助对方开发代号为Latent Diffusion的开源图像生成器。该模型是在七个月前由研究者们与来自纽约的AI初创公司Runway合作构建的。但根据领导慕尼黑路德维希马克西米利安大学和海德堡大学研究团队的Björn Ommer教授的介绍,该模型在训练过程中只使用过几十个英伟达GPU。 但必须承认,面对可观的计算成本,手头拮据的研究人员当然愿意接过Stability伸出的橄榄枝。Stability提供的算力也显著提高了Latent Diffusion的性能。同年8月,新模型以Stable Diffusion的名号亮相,旨在体现其背后的赞助公司。Stability专门为此发布了新闻稿,Mostaque借机将自己定位为公众眼中“有史以来最受欢迎开源软件”的首席布道师。(Linux和Firefox实名表示反对。) 一位前雇员在谈到Mostaque时表示,“他最擅长的就是把别人的成果拿过来写上自己的名字,或者宣传一些难以证实的事情。”Bishara则在一份声明中指出,Mostaque“很快就赞扬并强调了合作者做出的贡献”,而且“断然否认这些虚假的说法和观点”。 在Stable Diffusion推出的几天之内,Stability公司就从领先科技投资方Coatue和Lightspeed手中拿到1亿美元。Mostaque在发给早期投资者的短信中宣称,这个数字达到了他最初融资预期的八倍。这两家投资企业均拒绝回应置评请求。  “我们的投资理念在于,哪怕还不清楚技术的具体用例是什么,但只要确定这项技术真正具有变革性、且功能发展已趋近临界点,那就应该支持。”——Gaurav Gupta, 领投Stability的Lightspeed公司合伙人 此轮融资让Stability获得了约10亿美元估值,但当时这家年轻的企业还没有产生多少收入。Stability在那时的筹款平台上将Stable Diffusion描述为“我们的”模型,但对实际研发团队却只字未提。还有新闻稿说“Stability AI是Stable Diffusion背后的公司”,同样没有提到实际缔造者。Ommer在采访中指出,他倒是希望能宣传一下自己的实验室,但当时大学的整个新闻部门都在休假。 Bishara表示,Stability已经在官方网站和Stable Diffusion的GitHub页面上“多次发表声明”,对路德维希马克西米利安大学和 Runway公司表达了赞赏。尽管如此,这些原创者们还是觉得Mostaque在交流中在刻意误导公众。Ommer更是放言,“我们可以从中学到的经验就是,只要你的公司拥有足够庞大的宣传部门,那就可以根据自己的意愿塑造历史。” 去年10月,Stability宣称Runway发布Stable Diffusion新版本的行为涉嫌窃取其知识产权。Runway公司联合创始人Cristóbal Valenzuela则反驳称,该技术属于开源成果,因此不可能涉及侵权。Mostaque几小时后就撤回了这项指控,并在采访中称自己这么说是担心Runway版本中缺少护栏——但Stable Diffusion的各实际参与方明显不相信这个借口。 Ommer觉得Mostaque这件事“做得太绝了”,Valenzuela也同样对此感到失望。他在去年的采访中强调,“我们已经达个领域深耕多年,如今新人刚一介入,就想把原本的成果说成是自己的。”(但他拒绝进一步做出更多评论。) 目前,Ommer实验室和Runway公司都停止了与Stability的合作。六天拿下一亿美元,却拖欠员工工资在Mostaque向投资者和研究人员兜售自己的超级计算机和合作伙伴“门路”时,Stability公司正面临巨大的资金压力。据七位现任和前任员工证实,Stability当时经常拖欠员工的工资和个税,有时候甚至超过一个月。其中五位自古以来人士称,他们在2020年至2023年间都遇到过拖欠薪资;其中四位称看到过英国征税机构HM Revenue & Customs的代表亲临公司办公室,威胁要以缴税逾期为由扣押资产。Bishara表示延迟缴税和支付员工工资的问题已经解决。 曾在Stability实习的Eric Hallahan表示,直到今天他也没拿到去年8月寄给公司的发票报销款。他先后为该公司工作了300个小时,其中有181小时的工资始终未付。Bishara表示,自2021年以来,该公司再无“正常运营中”拖欠工资的记录,但承认“外部情况”下可能存在例外。关于Hallahan的问题,Bishara称Stability在4月收到通知后一直在查验发票。 虽然工作人员的工资经常无法按时发放,但从媒体获得的交易截图来看,Stability公账中有数万英镑被直接转移到了Mostaque妻子Qureshi的私人账户当中。 Bishara说这是因为Stability“的创始人一直在亲自管理这家初创公司”,包括向公司出借款项和向公司借支款项。“但随着公司的发展成熟,全面对账已经完成。经验丰富的新财务团队在2022年底前全额结清了与Mostaque和Qureshi间的所有欠款。”Qureshi的律师拒绝直接回答这个问题,但分享了一份声明,其中表示自2021年以来,Qureshi一直在为丈夫的企业提供“情感和经济上的支持”。 虽然Qureshi在公司的正式职位是公关主管,但早期雇员还记得她自称是Stability的首席运营官——甚至把头衔印在个名牌上。(Bishara坚称Qureshi从未担任过高管职务,这些「名片」是其好友用来练手的设计成果,并未正式使用。)而在该公司去年9月完成融资之后,Qureshi正式加入了Stability董事会。 因害怕遭到报复而不愿透露姓名的一位现任员工,以及另外四名前员工均表示,Qureshi经常严厉责骂员工甚至严重伤害对方情感。Qureshi在通过律师发布的声明中,表示自己的管理风格比较“直接”。“很遗憾,很多人似乎误解了我的观点或者意愿,我的本意并非如此。” Mostaque表示自Stable Diffusion爆红的那一刻开始,他从领先投资公司Coatue和Lightspeed拿下1亿美元“从头到尾”只用了六天。 Bishara称Qureshi已经于今年1月下旬离开公司转而追求个人事业,也不再担任董事会成员。但5月初的一份组织结构图仍将她列为“基金会负责人”,在公司中属于看齐Mostaque的最高职级。 Qureshi通过律师发布的声明提到,“我意识到现在是时候各自朝着不同的方向前进了。我今年初辞去了公关主管一职,也辞去了董事会职务。我需要关注家中年幼的孩子,也打算从事其他个人项目。但我将继续支持我丈夫的努力,支持他将Stability AI创立并培养出AI领域的全球领导企业。” 挣钱的速度赶不上烧钱的速度风险投资商一直会花几个月时间开展尽职调查,包括分析市场、审查创始人并与客户交流,确认在投资之前目标初创公司没有什么危险信号。但Mostaque表示自Stable Diffusion爆红的那一刻开始,他从领先投资公司Coatue和Lightspeed拿下1亿美元“从头到尾”只用了六天。从这样的速度来看,其间应该是没有进行过尽职调查才对。 领投Stability的Lightspeed公司合伙人Gaurav Gupta则坦言,“我们的投资理念在于,哪怕还不清楚技术的具体用例是什么,但只要确定这项技术真正具有变革性、且功能发展已趋近临界点,那就应该支持。”Coatue和Lightspeed均拒绝对此做进一步评论。 Mostaque表示,Stability正在为数十家客户构建定制化AI模型,但目前只能透露其中两家。其一是印度控股公司Eros Invetments,其媒体部门前段时间因误导投资者的诉讼而被迫从纽约证交所退市,但Eros方面坚持否认存在不当行为。(Eros没有回应置评请求。)第二位客户都是非洲国家马拉维。Mostaque在最近的播客节目中称,Stability目前“为该国的儿童部署了400万台平板电脑”。(马拉维政府同样没有回应置评请求。) 在Stable Diffusion公开发布不到两个月后,Mostaque宣称Stability的年化收入已经高于OpenAI当时报道的“小几千万美元”。但据知情人士透露,Stability直到现在的年化收入也到不了1000万美元,远远追不上该公司烧钱的速度。因此与其他AI初创公司一样,Stability需要吸纳更多资金才能维持生存。 今年1月,Mostaque暗示公司在筹款方面没有任何压力。“许多实体已经向我们提出要约,但被我们拒绝了。”但另有三位风险投资商证实,Stability这几个月来一直在向多家投资者宣传新一轮4亿美元融资计划,但均未得到响应。(Bishara拒绝就收入发表评论,只表示公司仍有「大量」现金储备。) Stability还面临两项诉讼,指控其违反版权法以训练AI模型。该公司还以一项动议,以艺术家无法确定具体侵权案例为由驳回了其中一项由艺术家提出的集体诉讼。而作为回应,来自Getty Images的另一方称提起诉讼的特拉华州缺乏管辖权,应该将诉讼地点改为北加州或直接驳回此案。这两项动议均在等待法院审查,Bishara拒绝就这两起诉讼发表置评。 在去年9月的一封公开信中,美国民主党代表Anna Eshoo敦促华盛顿采取行动以反对Stable Diffusion的开源路线。她写道,这套模型曾被用于生成“被暴力殴打的亚洲女性”和“色情作品,包括一些高度写实的真人”图像。 Bishara表示,较新版本的Stable Diffusion会过滤数据中“可能不安全的内容,有且于防止用户生成有害图像”。本人回应:对夸大报道感到难过 Stability的AI研究之路并不轻松,其旗舰产品Stable Diffusion正面临着巨大的竞争压力。2022年10月由原始开发团队发布的该模型最新版本,在专门托管此类模型的Hugging Face上获得的下载量仍是Stability版的3倍。而用于对抗ChatGPT的StableLM虽已于4月发布,但人气却长期不及自家师兄Stable Diffusion。 Mostaque倒是不为所动,宣称Stability拥有经验丰富的技术领导者带队:也就是他自己。他声称多年之前曾使用AI分析现有科学文献并构建起分子化合物的知识图谱,进而找到一种针对自闭症的定制疗法。(Bishara称这项研究仅在私下进行,并拒绝做出进一步说明。) Mostaque在年初的采访中称,“我是个优秀的程序员”,就在考上牛津大学的一年之前,他曾在软件公司Metaswitch担任开发人员。“当时我根本就不会编程,所以拿了一整个夏天自学——其实很轻松。”根据他的说法,他提交了几段代码并向公司主动自荐,表示“我想搞开发,希望贵公司能考虑吸纳我作程序员。对方回复说没问题。” “我这个人的说服力还满强的。” 《福布斯》这篇文章发表后,外界对于Mostaque质疑声也不断升高。在舆论持续发酵下,Emad Mostaque本人在文章发表后的几天又接受了VentureBeat的采访,并对文章中报道的内容做出了回应。Mostaque称,对于媒体夸大的报道自己感到很难过,但自己并不想“扼杀”这篇文章,只是希望《福布斯》可以准确无误地报道事实。 Mostaque进一步解释称自己在技术上没有文学学士或文学硕士,但的确是完成了硕士的所有课程作业,只是到最后错过了仪式并且没有寄出支票来获得文凭。 参考链接:https://www.forbes.com/sites/kenrickcai/2023/06/04/stable-diffusion-emad-mostaque-stability-ai-exaggeration/?sh=abbe17775c52 https://venturebeat.com/ai/stability-ceo-says-hes-sad-about-report-he-exaggerated-his-resume/
6,548
1,686,625,960,167
InfoQ
22
继Stability AI、AI21 Labs和LG AI之后,TII也用亚马逊云科技训练大模型
2023年6月7日,亚马逊云科技宣布,位于阿联酋首都阿布扎比的全球领先科研中心TII(Technology Innovation Institute)在亚马逊云科技上训练了其性能卓越的开源模型Falcon 40B。 据悉,TII是一家全球领先的科研中心,一直致力于探索前沿的知识领域。TII的科学家、研究员和工程师团队竭力提供探索性科学成果和变革性技术。据TII介绍,基于一万亿个字符(token)训练的TII Falcon大语言模型不仅在性能上表现突出,同时具有超高的成本效益。 Falcon大语言模型项目地址: https://www.tii.ae/news/abu-dhabi-based-technology-innovation-institute-introduces-falcon-llm-foundational-large Falcon 40B是什么? Falcon 40B是拥有400 亿参数的大语言模型(LLM),在Apache 2.0许可下提供,并在Hugging Face的开源大语言模型排行榜上位列榜首(该排行榜在多个基准测试中跟踪、排名和评估大语言模型,最终评选出最佳模型)。 Falcon 大语言模型提供两种不同规模的开源版本——Falcon 40B和Falcon 7B, 两者均是使用Amazon SageMaker的数据预处理和模型训练任务从零开始构建。开源的Falcon 40B让用户能够构建和定制满足独特用户需求的AI工具,便于无缝集成,并确保长期保存数据资产。模型权重可供下载,检查和部署在任何地方。 为了提高科学质量和训练速度方面的水准,该项目在各个层面都进行了前所未有的定制创新。其中,TII在所有深度学习训练系统层级上都进行了优化。 从6月7日起,两个开源Falcon大语言模型也将在Amazon SageMaker JumpStart中可用。这是SageMaker的机器学习中心,它提供了预训练模型、内置算法和预构建的解决方案模板,可以帮助用户快速上手机器学习。用户只需在SageMaker Studio中轻点鼠标就可以部署和使用Falcon模型,或者通过SageMaker Python SDK以编程方式使用。 SageMaker是一个托管API集合,用于开发、训练、调优和托管机器学习(ML)模型,包括大语言模型。许多用户使用SageMaker处理其大语言模型工作负载,例如Stability AI, AI21 Labs和LG AI。SageMaker Training提供了具有用户自定义硬件配置和代码的计算集群。计算作业按运行次数计费,按秒分配任务,这意味着用户在未使用服务时无需为GPU资源付费。TII使用SageMaker Training API提供的瞬态集群来训练Falcon大语言模型,最多支持48个ml.p4d.24xlarge实例(384个英伟达A100 GPU)。现在,TII正在训练下一代Falcon大语言模型,将训练扩展到3136个A100 GPU(392个ml.p4d实例)。 TII 跨AI研究中心执行总监、代理首席AI研究员兼大语言模型项目负责人Ebtesam Almazrouei博士表示:“我们自豪地宣布Falcon 40B开源版正式发布,这是TII开发的世界一流的开源语言模型。Falcon 40B超过了Hugging Face开源大语言模型排行榜上的LLaMA-65B、StableLM、RedPajama和MPT等知名模型,展示了无需专门微调的卓越性能。” 参数越大,性能越好? 大语言模型是经过训练以完成自然文本序列的软件算法。得益于庞大的规模和与之交互的训练数据量,大语言模型拥有出色的文本处理能力,包括总结摘要、问题回答和上下文学习等能力。 2020年年初,全球各地的研究机构都将研究重点放在模型大小上,并观察到准确性与参数数量之间存在关联。例如,GPT-3(2020)和BLOOM(2022)拥有约1750亿个参数,Gopher(2021)拥有2300亿个参数, MT-NLG(2021)拥有5300亿个参数。 但是最近两年,情况似乎有所不同。2022年,Hoffman等人观察到当前模型参数和数据集大小之间的计算平衡不是最优的,并发表了经验性的缩放定律,建议将计算预算转向使用更多数据训练的较小模型,可以获得性能更好的模型。他们在拥有700亿参数的Chinchilla(2022)模型中实践了这一想法,结果显示该模型的表现超过了更大的模型。 由此可见,模型性能的好坏并不能和参数的多少完全正相关。 大模型之战正酣,亚马逊云科技从未缺席 在关注大模型参数和性能之余,大模型应用和生成式AI开发才是当前AI领域的主旋律。 日前,全球市场分析机构Gartner®发布《2023 云 AI 开发者服务魔力象限》报告,亚马逊云科技被评为“领导者”,且在执行能力轴上排名最高。 榜单之外,Amazon SageMaker功不可没。 今年4月,亚马逊云科技还重磅推出了Amazon Bedrock托管服务和Amazon Titan模型。借此,亚马逊云科技提供了非常简单的途径,让开发者借助基础模型构建和扩展生成式AI应用程序。 Amazon Bedrock让开发者可以通过API访问AI21Labs、Anthropic和Stability AI等热门AI公司的预训练基础模型,还提供对亚马逊云科技开发的基础模型系列Amazon Titan的独家访问。 Amazon Bedrock提供的无服务器体验可以让客户轻松找到适合自身业务的模型,快速上手,在确保数据安全和隐私保护的前提下,使用自有数据基于基础模型进行定制,并使用已经熟悉的亚马逊云科技工具和能力,将定制化模型集成并部署到应用程序,无需自己管理基础设施。 此外,亚马逊云科技的AI编程助手Amazon CodeWhisperer面向个人开发者免费开放。 Amazon CodeWhisperer从数十亿行公开代码中学习之外,还基于亚马逊的代码进行了训练,可以为Amazon EC2、Amazon Lambda和Amazon S3等云服务生成最准确、最快和最安全的代码。开发者使用Amazon CodeWhisperer,完成任务的速度平均快57%,成功率高27%。 埃森哲已经开始用 Amazon CodeWhisperer 加快编码任务,作为其Velocity 平台软件工程最佳实践计划的一部分。CodeWhisperer可以帮助不太熟悉亚马逊云科技的开发人员更快地熟悉使用亚马逊云科技服务开发的项目。借助 CodeWhisperer,埃森哲新的开发人员就能够为Amazon S3和 Amazon DynamoDB 等亚马逊云科技服务编码。在短时间内,他们就能够高效工作并为项目做出贡献。
3,611
1,686,221,335,492
InfoQ
23
工作10年的老程序员,参加ArchSummit会议的感悟总结
作者:王栋年很有幸参加了2023年3月在北京举办的ArchSummit架构师峰会。虽然时间比较久了,但是参会体验,还是要慢慢回味的,会议上的内容,也值得回味,俗称反刍,想想会议上的一些演讲话题,我仍然觉得对工作对个人是有帮助的。个人觉得这次大会比较有吸引力的地方是,一方面内容都来自真实的实践,可以看到 Top 级的公司遇到了哪些问题,用了些什么技术,以及对这些问题和技术是怎么思考的;另一方面,汇聚了较多的架构师或技术管理者,是个不错的交流平台。得益于帝都密集的头部企业以及人才,北京大会的讲师阵容和主题内容可谓豪华。总共2天时间,由于是3场并行同时开讲,再加上第一天下午我自己也有一个分享topic,所以只能选择一些自己感兴趣的话题,或者相关性较强的话题去听一下。这里记录一些所见、所闻,以及个人所想,仅供参考,欢迎交流。1- 第一天上午的Keynote主题演讲,这部分都是大咖出场。蚂蚁研究院长,清华大学陈文光教授(国家杰青)分享了 AI 与数据融合的基础设施技术展望,内容比较有深度,也有可能是段位相差太大,哈哈,所以只能按照自己的肤浅理解来做个简单总结:陈老师主要围绕AI和大数据的融合方面的研究以及实践,介绍了蚂蚁集团对在线离线一致性,以及基于 JVM 的数据处理系统性能问题方面的一系列优化实践。关于AI和大数据的融合,以我粗浅理解,白话点说就是"Python和Java的融合":AI领域以Python生态为主,大数据处理领域以Java生态为主。那孤立有什么问题?• 2套独立生态的系统带来的更多开发运维成本• 对工程师要求会增加(比如同时会Python和Java)在今年AIGC的特别加持下,AI将会进一步加快普及,相信融合的需要应该会越来越强,也越来越迫切。2- 谭坦分享了施耐德电气数字化演进,高屋建瓴,从一个非常全面和宏观的角度,讲述了人(组织)、业(业务)、技(技术)3方面在数字化中转型中的演进和适配。非常好的感受到了企业发展过程中不同要素的有机融合以及相辅相成。3- 人瑞人才的CEO张建国分享了数字化转型与人才策略的话题,这部分挺有趣,围绕着数字化的大方向(数字产业化和产业数字化),从市场和管理角度,讲了数字化人才的供需和发展情况。感受到程序员处在一个非常好的时代,学好技能,冲就对了,钱多多!4- 多云&多数据中心,在听讲或者交流中发现,有越来越多的企业已经在做或者计划做多云了,并且确实是用来解决成本、稳定、合规等现实问题。针对不同的问题或需求,有不同的多云架构模型:• 合规多云。主要解决数据安全或合规问题• 业务多云。主要解决成本问题• 弹性多云。主要解决容量问题• 容灾多云。主要解决可用性问题无论是那种模式或形态,本质都是从中心化(单云)到分离化(多云混合云)的方向走。随着多云的普及,开始出现对多云基础设施的研究和落地,其中比较有影响力的当属 UC Berkeley 的 Sky Computing了,目前已经有雏形的是 Skypliot。有兴趣的话同学可以自行查阅资料了解。5- 最后,感谢专题出品人蚂蚁大安全首席架构师陈锣斌大佬,结合我们公司(酷家乐)多云架构的 topic,对未来发展的一些建议和指导。6- 其他时间呢,我也听了一些其他的话题,例如数据架构,主要包括大数据和数据库等,有京东、字节、小红书、蚂蚁(OceanBase)、MatrixOne等公司的分享。7- 先说下云原生。大数据和数据库的云原生,是这几年非常热门的话题,且已经逐步落地到了实践中,产生了一些可见的价值。实现数据(库、仓等)的云原生,就要基于云的架构和底座(包括软硬件),对数据库等进行重构,使其更加适合云环境。这样的架构有2个明显特征:存算分离,Serverless。注意云原生不是 Kubernetes Operator!为什么要投入重构。这里从云原生这个架构的好处说起(前提是处在云时代这个大环境):• 首先是存算分离。CPU、Mem、Storage 等资源可以分别独立扩容,终于不再受一体运行的强绑架限制(结果就是很多时候,存储负载和计算负载失衡严重或错配。之所以越来越凸显是因为大数据时代的到来)。同时因为计算节点无状态,使得数据库秒级扩缩容等成为可能。相信所有做数据库的同学,对突如其来的扩容需求,都深有感触。• 另外是动态按需利用。比如为了应对自然流量的波动,我们现在的数据库一般会预留一定Buffer的容量,这个看上去很合理。但大部分时候,这些资源确实都是空闲多余的,很多场景下夜间时候更是如此。Serverless产品,可以真正做到on-demand,scale to zero。保证了资源的实时利用率。其次云原生数据平台。简单说,就是基于云来构建云原生数据平台,比如存储层以对象存储(容量无限,单价很低)为代表的云存储(如果是 IDC 私有云,一般是 HDFS 或MinIO 等),计算层有 Spark、Flink、Ray 等。存算分离后为了提升性能可能加个 JuiceFS/CubeFS 类的中间层(通俗点说就是对象存储缓存层)。存算分离后再进一步,就是 Serverless化了,比如国内阿里云的 MaxCompute 等已经做到了这点。 最后云原生数据库。在最经典的 RDBMS 领域,自业内首个云原生关系数据库 Aurora 问世(堪称革命,此前40多年里关系数据库架构确实没有大的根本性改变),发展到现在,有近10年之久了,国内的厂商都先后完成了跟进,比如阿里云 PolarDB、腾讯TDSQL-C 等,最大数据容量可以到上百T,并且支持了 Serverless。目前来看,关系数据库是率先完成云原生化的,接下去就是我们如何更好的理解并运用到我们的应用架构中,产生更大的价值。总体来说,数据架构已经完成了从托管服务(1.0)到存算分离(2.0)的转变,正在向Serverless(3.0)演进。无论从成本(越来越低),还是生产力来说(越来越高),这个应该都是发展的必然。 当然了除了上面提到的存算分离、Serverless外,构建云端数据架构还有其他一些重要的思路或模式,比如 Spot Instance,Tiered Storage 等。对于 Tiered Storage 我们已经有一些不错的实践,详见 https://mp.weixin.qq.com/s/5tLY9K2MBV_CT7QBmFfbyQ 8- 混合负载,数据库方面,这几年最大的感受应该就是国产化了。从达梦完成IPO,到TiDB、OceanBase 等很多 infra 的成功出海,都印证了国内这几年数据库发展都确实不错,颇有百花齐放,百家争鸣的味道。把一些较有名气或影响力的数据库介绍读一遍,会发现大部分的国产数据库,选择的都是分布式 + HTAP 这个方向(希望国产数据库能在数据库这个领域,成功换道超车)。再放眼全球,Google 的 AlloyDB,Snowflake 的 Unistore,以及开源第一数据库 MySQL 支持 HeatWave,这些都说明AP 和 TP 的融合在越来越近,数据库在努力朝着 All Data In One 的方向前行。不过亚马逊云科技(AWS)目前采取的是另一种做法,没有直接给 TP 数据库增加 AP 的支持,而是通过集成 Aurora 和 Redshift 实现 Zero-ETL,不知道是不是在练一个更大的招,让我们静静的等待 2023 re:Invent 大会。 回到现实,不得不说,天下苦同步或者 ETL 久矣,拿我们来说,每年都多少会有数据同步延迟或不一致导致的线上问题。在不同组件或引擎间转移数据,除了运维负担外,多处存储和计算确实是费钱。在简单或中小规模场景下,通过一个 HTAP 数据库同时满足 OLTP 和 OLAP 需求;通过分布式数据库消除现有的物理分库分表,都是可以实现进一步的降本增效。 9- 混部,这不是一个新概念了,在大数据或成本优化的主题里比较多提到。主要是利用不同业务潮汐的特征,通过时空上的"削峰填谷",来充分有效的利用资源。特别是在当下降本成为很多企业的新常态下,混部就会被格外关注。10- 微服务和高可用。主要是阿里、斗鱼、京东、字节等带来的分享。在高可用领域,经过多年的发展,已经比较透明,没什么秘密,从宏观到微观,工具到技术,基本是大同小异,区别可能就是做的是否到位,是否正确。另外随着云原生架构的深入,构建高可用可能会有一些差异或者新要求,近年来也出现了一些云原生高可用方面不错的话题和实践。 11- 高可用,对高可用topic中一些有启发的内容,做个简单的提炼总结: 细节决定成败⾼可⽤需要⼀套持续迭代的体系来保障,体系是通过企业级架构的升级来实现提升可⽤性降低复杂度性能优化请求数据精简缓存有效运用 这些内容,让我再次想起了蔡超在某次会议上演讲上的一些话:• 那些看上去简单朴素的,往往是最有用,最可靠的。• 简单不意味着容易,很多简单的可能还是被做错了。 12- 关于性能优化,总体原则,应该是一个 Top-Down 的过程,从业务到实现,从整体到局部,从架构到具体组件。业务层和应用层的优化一般来说更容易有收益,越是靠近末端,发挥的空间越小。同样的,对于架构设计有缺陷的系统,我们不能指望把马车优化为飞机。13- 微服务。字节分享了抖⾳⽹关的探索和实践。其中有2点可能值得学习借鉴:BFF 支持(基于GraphQL):做接⼝聚合、数据编排、字段裁剪等API Workflow:IDL 规范与流程约束,提⾼ API 变更效率和稳定性14- 架构师成长这块内容主要是两部分: 第一部分是如何成为架构师的晚场开放交流,基于现场听众的提问和互动,综合京东康杨,Intel 汪彬等架构师的观点,总结3点常见困惑以及个人见解: ① 业务和技术• 不是独立甚至对⽴,而是统一和相互促进• 沟通和尊重,尊重不同角色或岗位人员的专业性② 短期和长期• 站得高:了解愿景,关注长期收益或价值• 接地气:基于实情,解决现实问题或矛盾• 短期 → 长期:有路径、有节奏③ Everything is a trade-off• 架构设计或实现总是在条件限制下进行 第二部分是关于架构师成长的专题。主要听了2场: ① 神策数据张铎大佬,以"ToB 服务 - 私有化部署"为例,通过分析其中的挑战和解法等,阐述了架构师的“变与不变”:• 变:(拥抱)业务、技术的变• 不变:架构师的职责② 阿里巴巴郭亮大佬,以广告应用中台建设过程中的具体实践和经验介绍为主线,分享了架构思维成长:• 架构师的要求:知识、人格、沟通、管理• 代码是资产还是负债?(大家可以想想这个问题)• 面对新技术:实用主义 2023,不管我们处在什么样的技术浪潮中,作为技术人,关注技术趋势是我们的本能,也是保持技术敏感度的重要一环。除此之外呢,所做的事也要贴近业务,业务才是企业生存之本。 【嘉宾介绍】王栋年:群核科技(酷家乐)资深专家先后于 RingCentral、阿里巴巴等大型企业从事技术研发工作。目前负责群核科技(酷家乐)中间件的研发和团队管理工作,期间完成了多款中间件的开发建设以及升级换代。成功主导了多云架构、全球化部署等多个复杂项目的设计以及实施。 【活动推荐】 7月21-22日,ArchSummit(深圳站)全球架构师峰会,将在深圳·博林天瑞喜来登酒店举办,这次会议还是会围绕架构技术实践来展开分享,例如:智能化数据治理、可持续软件、DataOps、Data Fabric等高效数据开发与服务模式、Mesh 技术实践案例、QUIC传输和架构优化、跨境数据安全与合规等等。感兴趣的可以点击“阅读原文”查看官网。购票请联系票务经理瑞丽 18514549229
4,165
1,685,274,335,574
InfoQ
24
“一个人就是一个团队”?AI 编程工具真的可以成倍提效吗?
活动推荐: # 生成式 AI 先锋开发者集结令 #免费体验编程神器,丰厚大奖等你来拿!👉🏻👉🏻https://jinshuju.net/f/rVuKYa近年来,随着人工智能技术进步和基础设施建设的不断完善,人工智能应用场景不断丰富,各类 AI 产品和工具层出不穷。其中,面向开发者的 AI 编程工具也在不断迭代,并因宣称能“帮开发者写代码”而引发关注。粗放来看,现在可以为开发者提供编程建议的常用工具有两类,一类是以 Kite、GitHub Copilot 为代表的 AI 代码补全工具,另一类是以 ChatGPT 为代表的生成式 AI。前一种 AI 代码补全工具在上个月又有新势力入场——亚马逊云科技正式推出实时 AI 编程助手 Amazon CodeWhisperer,免费提供给所有开发人员使用。作为后起之秀,Amazon CodeWhisperer 有哪些不同?是否在实战中具备提高效率的能力?为了获得更多开发者真实反馈,提供给开发者更加友好的 AI 代码补全工具,亚马逊云科技《云上探索实验室》近期推出 Amazon CodeWhisperer 产品体验活动,广邀开发者参与测评。让我们一起来看看 Amazon CodeWhisperer 在实测中的表现。Amazon CodeWhisperer 使用实测我们综合整理了开发者们在使用门槛、代码建议能力(上下文联系能力)、安全扫描以及在实战中是否真的具备提效能力方面的反馈。开发者容易上手吗?Amazon CodeWhisperer 官方 教程简单明了,开发者安装亚马逊云科技的工具包插件,在 Amazon CodeWhisperer 弹出窗口使用电子邮件地址注册并使用亚马逊云科技账户登陆即可开始功能测试。部分开发者通过 Jetbrains 的 plugin 功能,查找亚马逊云科技工具包插件,点击“install”完成安装,均反馈安装过程比较方便。有新用户觉得账户注册、填写 secret key 的过程还是有些麻烦,但大部分的开发者都可以通过原有亚马逊云科技的账号授权顺利登陆。部分开发者使用 Goland 的插件功能安装,也可以一键顺利安装。少数开发者觉得登陆入口有点深:如果错过了登录的弹窗,用户就需要使用 config 配置登陆凭证。总体来看,基本上所有开发者都可以顺利安装并开始使用。代码建议速度和实用性怎么样?代码建议能力是 AI 编程工具的核心能力,广受开发者关注。绝大多数开发者都对此项能力进行了专项测试。代码建议能力测试在现有代码中,输入一行注释,“create a function,get response from openai”,测试 Amazon CodeWhisperer 会给出怎样的反馈。测试小结:Amazon CodeWhisperer 可以完成整个功能的书写,做到以下几点:自动生成方法名称,命名比较符合规范可以基于上下文,获取引用的项目,有较强的上下文联系能力可以读取到上下文的配置文件,在这个例子里,可以正确拿到 open_ai_key上下文联系能力测试测试小结:联系上下文,Amazon CodeWhisperer 的代码建议用上了开发者自定义的函数。有开发者表示:“当我遗漏了一个括号、忘记了引入某个模块或使用了错误的函数参数时,它会立即给出相应的警告。”大部分开发者认为 Amazon CodeWhisperer 编辑器功能很实用,不仅能够根据使用的变量、函数和类名提供相应的补全选项,还可以提示潜在的错误和问题。有https://zhuanlan.zhihu.com/p/629624015谈道:“Amazon CodeWhisperer 让我们可以实时共享代码并进行编辑,这样可以减少文件来回传输的麻烦;提供的版本控制功能,让我能够轻松创建分支、合并更改和回滚代码,让团队在开发过程中更加灵活和有序。”参加测试的开发者们普遍反馈:开发者的注释描述越准确,Amazon CodeWhisperer 生成的代码质量越高。整体而言,Amazon CodeWhisperer 给出代码建议的能力和速度基本达到开发者预期,也可以根据联系上下文给出符合开发人员开发风格的代码建议,只是对于中文的理解和交互体验上还可以进一步优化。弹窗有些遮挡代码安全扫描能否提高代码可靠性?一些开发者对于 AI 编程工具持观望或者“不信任”态度,原因之一可能是担心代码安全无法保证。Amazon CodeWhisperer 内置的安全扫描,是一些 AI 编程工具没有的功能。这个功能可以帮助开发者扫描 Java、JavaScript 和 Python 编程语言中难以发现的漏洞。安全检查功能不仅检测开发者自己写出的代码,还会检测 Amazon CodeWhisperer 给出的建议代码,力求最大程度上保证代码的安全准确。在实际测试时,Amazon CodeWhisperer 安全检查功能使用简单方便,很快就可以给出修改意见,只需开发人员点击开始检测即可。如果安全检测后的反馈是“nothing to show”,就表示安全检测顺利通过。开发人员可以在编写代码时随时使用 Amazon CodeWhisperer 的安全检查功能保证代码质量。测试小结:Amazon CodeWhisperer 提示开发者将此处的标识设置改为“True”。是否具备实战中的提效能力?大部分开发者给出的反馈是肯定的。有开发者表示:“有个很实用的功能,就是语法检查。我写代码的时候,它会实时检查语法错误,并给我标记或提示。这样我就能及时发现和改正错误,避免在编译或者运行时出现麻烦。尤其是在大型项目里,这个功能对于代码的稳定性和一致性非常重要。”其实已经有不少开发者正在使用不同的 AI 编程工具了,比如 Amazon CodeWhisperer 已经帮助埃森哲 Velocity 团队的开发工作量减少了 30%。除了参加产品体验活动的开发者外,我们还特意邀请了 3 位长期使用 AI 编程工具的开发者进行体验。他们表示, Amazon CodeWhisperer 可以解决简单的编程需求,提高开发效率,期待 Amazon CodeWhisperer 交互体验提升、安全扫描方面支持更多语言等方面还可以更进一步。“人人都可以是开发者”回到开篇的问题:AI 编程工具可以成倍提效吗?答案是肯定的。根据对社区开发者的走访,我们发现,部分开发者已经开始使用 ChatGPT 等类似产品生成大段代码建议,再使用 AI 编程工具来进行精细化调整。可以看到,各类 AI 开发工具的出现正在进一步降低开发门槛,不少非 IT 开发人员已经也可以经过快速学习,尝试使用 AI 工具进行简单但是可以满足自用的软件开发了。“人人都是开发者”的大趋势下,我们可以从尝试一款 AI 编程工具开始,感受 AI 改变编程的力量。6 月 27-28 日,2023 亚马逊云科技中国峰会即将在上海落地,你可以来现场参与体验!在本次 Amazon CodeWhisperer 产品体验活动中获奖的开发者,将有机会受邀来现场分享实测心得!点击此处,立即参与活动!
5,241
1,685,075,235,319
InfoQ
25
亚马逊云科技 Lambda引入响应有效负载流
亚马逊云科技最近宣布,AWS Lambda函数可以将响应有效负载以流的方式逐步传回客户端。新特性提高了Web和移动应用程序的性能,目前在Node.js 14.x及以上版本的运行时以及自定义运行时中可用。 响应流帮助开发人员将响应从他们的函数以流的方式传输给他们的用户,而不必等待整个响应完成。对于这项期待已久的特性,可以使用Lambda函数URL和SDK来调用其API,但目前还无法使用API网关或应用程序负载均衡器(ALB)对响应有效负载进行流式处理。对于它的优势,首席开发大使Julian Wood是这样说的:在传统的请求-响应模型中,在将响应返回给客户端之前,需要完全生成和缓存响应。客户端等待响应生成会降低TTFB(Time To First Byte)性能。Web应用程序对TTFB和页面加载性能尤其敏感。 响应流是为图像、视频、大型文档或数据库结果等大型有效负载而设计的,它需要用streamifyResponse()装饰器封装Lambda函数处理程序,如下所示:exports.handler = awslambda.streamifyResponse( async (event, responseStream, context) => { responseStream.setContentType("text/plain"); responseStream.write("Hello, world!"); responseStream.end(); } ); 其中,新的responseStream对象提供了一个流对象,函数可以向该对象写入数据并立即发送到客户端。开发人员可以选择设置响应的Content-Type报头来传递关于流的额外信息。Datadog工程团队负责人AJ Stuyvenberg测试了这一新功能。他评论道:这次发布可能看起来微不足道,但它解锁了几个关键的用例——对于希望利用服务器端渲染并减少第一字节时间的Next.js和React开发人员来说尤其如此。 新特性目前支持的最大响应大小为20MB(软限制),流函数的最大带宽吞吐量限制为16Mbps(2MB/s)。目前,响应流仅在Node.js SDK中原生提供,不过开发人员可以在支持其他编程语言的自定义Lambda运行时中实现它。虽然有些开发人员关注的是它的局限性,但Ampt首席执行官兼联合创始人Jeremy Daly在其新闻通讯中写道:该特性不仅让Lambda函数可以将响应流逐步返回给客户端以减少TTFB,而且还允许开发人员超过标准的6MB负载限制。 云咨询顾问、亚马逊云科技无服务器英雄Yan Cui写了一篇文章,演示了如何使用新的流式响应返回大型对象,而无需将结果存储在S3中。 Lambda的响应流并不是云计算领域中第一个可用的选项,Vercel最近就在Node.js(Lambda)和Edge运行时中提供了HTTP响应流支持。 亚马逊云科技在无服务器模式集合中发布了Lambda流应用程序示例。这些应用程序支持用AWS SAM来构建和部署资源。流式响应增加了Lambda的网络传输成本,不过,除了每个请求的前6MB之外,亚马逊云科技免费套餐现在还包含每月100GiB的HTTP响应流。原文链接:https://www.infoq.com/news/2023/04/aws-lambda-response-streaming/相关阅读:亚马逊云科技开源 Mountpoint for Amazon S3,通过挂载点技术简化 Amazon S3 对象存储的使用容器与无服务器,是竞争对手还是队友?
3,295
1,684,886,400,365
InfoQ
26
Java近期新闻:JDK 21的JEP、Spring Cloud AWS 3.0以及OptaPlanner转移至Timefold
OpenJDKJEP 448,Vector API(第六轮孵化),已经从JDK 21的Candidate状态提升至Proposed to Target状态。这个JEP位于Panama项目中,它纳入了前五轮孵化反馈的改进,即JDK 20交付的JEP 438,Vector API(第五轮孵化)、JDK 19交付的JEP 426,Vector API(第四轮孵化)、JDK 18交付的JEP 417,Vector API(第三轮孵化)、JDK 17交付的JEP 414,Vector API(第二轮孵化)和JDK 16交付的JEP 338,Vector API(孵化)。该特性的目标是增强Vector API,从而能够根据JEP 424, 外部函数与内存API(预览)的定义,从MemorySegment中加载和存储Vector。该轮审查预计会在2023年5月9日结束。JEP 445,无名类和实例主方法(Unnamed Classes and Instance Main Methods)(预览)已经从JDK 21的Candidate状态提升至Proposed to Target。这个特性的JEP以前被称为灵活主方法和匿名主类(Flexible Main Methods and Anonymous Main Classes)(预览)以及隐式类和主方法增强(Implicit Classes and Enhanced Main Methods)(预览),提议“改进Java语言,以便于让学生无需了解为大型程序所设计的语言特性,就能编写出第一个程序”。这个JEP进一步推进了甲骨文的Java语言架构师Brian Goetz在2022年9月份所发表的博客文章“Paving the on-ramp”。甲骨文技术团队的顾问成员Gavin Bierman发布了规范文档的第一个草案,供Java社区审查。该轮审查预计会在2023年5月12日结束。InfoQ会以更详细的新闻报道进行跟踪。JEP 441,switch的模式匹配,已经从JDK 21的Candidate状态提升为Proposed to Target状态。该JEP最终确定了这一特性,并针对前四轮预览的反馈添加了一些改进,即JDK 20交付的JEP 433,switch的模式匹配(第四轮预览)、JDK 19交付的JEP 427,switch的模式匹配(第三轮预览)、JDK 18交付的JEP 420,switch的模式匹配(第二轮预览)以及JDK 17交付的JEP 406,switch的模式匹配(预览)。该特性通过对switch表达式和语句进行模式匹配,增强了语言的功能。该轮审查预计会在2023年5月11日结束。InfoQ会以更详细的新闻报道进行跟踪。JEP 440,记录模式(Record Patterns),已经从JDK 21的Candidate状态提升到了Proposed to Target状态。该JEP最终确定了这一特性,并针对前两轮预览的反馈添加了一些改进,即JDK 20交付的JEP 432,记录模式(第二轮预览)和JDK 19交付的JEP 405,记录模式(预览)。该特性使用记录模式来解构记录值,以实现对语言的增强。记录模式可以与类型模式结合使用,以“实现强大的、声明式的、可组合的数据导航和处理形式”。类型模式最近通过JDK 18 交付的 JEP 420,switch模式匹配(第二次预览)和JDK 17交付的JEP 406,switch模式匹配(预览)扩展到了switch case 标签中。JEP 432最重要的变化是移除了对出现在增强型for语句中的记录模式的支持。该轮审查预计会在2023年5月11日结束。InfoQ会以更详细的新闻报道进行跟踪。JEP 439,Generational ZGC,已经从JDK 21的Candidate状态提升为Proposed to Target状态。该JEP建议“通过扩展Z垃圾收集器(ZGC)来提升应用的性能,使年轻对象和老对象保持独立的分代。这将允许ZGC更频繁地收集年轻的对象,这些对象往往会在较为年轻的时候就已经死亡了。”该轮审查预计会在2023年5月10日结束。InfoQ会以更详细的新闻报道进行跟踪。JEP 404,Generational Shenandoah(实验阶段),已经从JDK 21的Candidate状态提升到了Proposed to Target状态。该JEP建议“通过分代的收集功能增强Shenandoah垃圾收集器,以提高可持续的吞吐量、负载高峰的韧性和内存利用率。”与其他垃圾收集器(比如G1、CMS和Parallel)相比,Shenandoah目前需要额外的堆头部空间(headroom),并且更难恢复不可达对象占用的空间。该轮审查预计会在2023年5月12日结束。InfoQ会以更详细的新闻报道进行跟踪。JEP 450,紧凑的对象头信息(Compact Object Headers)(实验阶段)已经从JEP Draft 8294992提升到了Candidate状态。在Lilliput项目的支持下,该JEP草案建议将Java对象的头信息从96或128比特减少至64比特。Lilliput项目由亚马逊云科技的首席工程师Roman Kennke创建,该项目在2022年5月实现了64比特的头信息,这是其第一个里程碑。甲骨文的编程语言设计师Daniel Smith已经宣布,原名为空限制值对象存储(Null-Restricted Value Object Store)(预览)和基本类型类(Primitive Classes) (Preview)的JEP 401改名为值对象的扁平化堆分布(Flattened Heap Layouts for Value Objects)。Smith提供了一份更新的规范文档供社区审查。JDK 21JDK 21的早期访问构建版本Build 21发布,该版本是对Build 20的更新,包含了对各种问题的修复。关于该版本的更多细节,请参阅发布说明。对于JDK 21,鼓励开发人员通过Java Bug数据库报告缺陷。Spring FrameworkSpring Boot 3.1.0的第二个发布候选版本提供了一些新特性,比如,将DockerComposeProperties类中的默认关闭设置为stop;自动应用TestcontainersLifecycleApplicationContextInitializer类进行上下文测试;增加对SQL Server、Oracle Database、Liquibase、Flyway和Cassandra数据库的Docker Compose服务连接支持。同时,Couchbase SSL的keystore属性spring.couchbase.env.ssl.key-store和spring.couchbase.env.ssl.key-store-password被弃用,转而使用Couchbase中对SSL绑定的支持。关于该版本的更多细节,请参阅发布说明。Spring Modulith 0.6提供了缺陷修复、依赖性升级以及值得关注的新特性,例如,如果启用了事件发布注册表,则自动配置MongoDB事务;事件发布注册表支持异步处理和关闭行为;@EnableScenario注解,用来在@SpringBootTest集成测试中使用Scenario Testing API;支持Application Module Canvas中的jMolecules架构类型。Spring Modulith团队还决定将该项目提升为顶级的、非实验性的Spring项目,并计划在Spring Boot 3.1的GA发布后发布1.0-M1版本。关于该版本的更多细节,请参阅发布说明。Spring Cloud for Amazon Web Services的3.0.0版本发布,其新特性包括,与Spring Boot 3.0兼容;构建在AWS SDK V2 for Java之上;重写的SQS集成模块;对DynamoDB的重新集成。关于该版本的更多细节,请参阅发布说明。Spring Cloud Data Flow 2.10.3发布,主要解决了传递性依赖中的安全性问题,比如,spring-security-oauth2-client-5.4.2、spring-expression-5.2.11、spring-webmvc-5.3.25、json-smart-2.3和jettison-1.51。此外,还有Spring Boot 2.7.11和Spring Cloud子项目的依赖性升级。关于这个版本的更多细节,请参阅发布说明。Spring Tools 4.18.1发布,其特性包括,支持在探查@Value注解时导航到Spring属性文件;支持属性导航中的@ConditionalOnProperty注解,以及使用Eclipse 2023-06里程碑版本构建。Spring Tools团队预计4.19.0版本将在2023年6月底发布。关于这个版本的更多细节,请参阅发布说明。InfinispanInfinispan 14.0.9.Final发布,其重要变化包括,修复Infinispan第三方集成测试与JDK17之间的问题;文档记录如何监控跨站复制;删除对Jaeger测试容器的依赖,并修复属性文件中的端口号。关于这个版本的更多细节可以在变更日志中找到。Open LibertyIBM发布了Open Liberty 23.0.0.4,其特性包括,为ARM64架构以及现有的AMD64、PPC64LE和S390X架构提供容器镜像;解决了CVE-2023-24998,即Apache Commons FileUpload中的一个漏洞,由于请求部分的数量没有进行限制,攻击者可以通过恶意上传触发拒绝服务攻击。QuarkusQuarkus 3.0.2.Final是第二个维护版本,其中有一些值得注意的变化,比如,在Infinispan Dev Services指南中把server-list文件改名为hosts;修复Dev UI2显示错误Java版本的问题;解决Kubernetes Dev Services指南中没有正确记录k3s名称的问题;修正RESTEasy Reactive流资源方法导致原生模式下出现NoSuchMethodException异常的问题。关于这个版本的更多细节,请参阅发布说明。Quarkus 2.16.7.Final发布,其特性包括,修复了OIDC代码加载令牌解密密钥时的算法对比缺陷;OIDC UserInfo类的一个微小更新,如果给定名称的字符串或布尔属性不存在,会抛出NullPointerException;解决Quarkus dev模式在使用@ApplicationScoped注解时无法与某种类型的项目目录树协同运行的问题;修正如果OIDC客户端无法获取令牌会抛出异常的问题。关于这个版本的更多细节,请参阅发布说明。Helidon甲骨文发布了Helidon 3.2.1,其新特性包括, JpaExtension类的启用标志,以允许后续的重构和替换;与MicroProfile Rest Client和Fault Tolerance规范进行集成的变化,以处理因Weld规范中的默认调用上下文问题而产生的异步调用;支持与Jaeger OpenTelemetry不同传播器的集成。关于这个版本的更多细节,请参阅发布说明。Apache软件基金会Apache Camel 4.0.0的第三个里程碑版本包含缺陷修复、依赖性升级和功能增强,例如,改变默认的Micrometer指标名称以遵循Micrometer命名约定;支持Micrometer Observation;在Spring Boot实现中直接使用HTTP服务器;为添加/删除的HTTP端点添加监听器,使运行时(如Spring Boot)更容易使用Camel的platform-http和自己的HTTP服务器。关于这个版本的更多细节,请参阅发布说明。ArquillianArquillian 1.7.0.Final发布,其特性包括,支持Jakarta Servlet 6.0;支持@ArquillianResource注解注入的URL使用HTTPS;修复了使用TestNG 7.5+时LoggerFactory类出现的NoClassDefFoundError异常的问题。关于这个版本的更多细节可以在更新日志中找到。OptaPlanner转移至TimefoldOptaPlanner是一个面向软件开发人员的开源人工智能约束解算器(constraint solver),它将转移至Timefold,这是一家由Maarten Vandenbroucke(联合创始人兼CEO)和Geoffrey De Smet(联合创始人兼CTO)创建的新规划优化公司。OptaPlanner是De Smet在红帽公司担任高级首席软件工程师时创建的,在红帽公司的支持下,OptaPlanner已经发展成熟,提供了他们自己的版本。InfoQ会以更详细的新闻报道进行跟踪。原文链接:Java News Roundup: JEPs for JDK 21, Spring Cloud AWS 3.0, OptaPlanner to Timefold
6,043
1,684,800,000,577
InfoQ
27
字节跳动开源ByConity:基于ClickHouse的存算分离架构云原生数仓
采访嘉宾 | 陈星、翟鹿渊作者 | 蔡芳芳、王一鹏 热闹纷繁的OLAP赛道,又迎来一个开源新玩家。 这几年OLAP赛道持续火热,国内外不少开源项目和商业公司活跃其中。在一众玩家中,ClickHouse凭借彪悍的性能表现、活跃的开源社区和相当快的迭代速度,市场普及率一路狂飙。 围绕ClickHouse,最近有两则新闻颇引人关注:一个是阿里云官宣与ClickHouse商业公司合作,成为 ClickHouse 在中国独家的云服务提供商;另一个则是字节跳动ByteHouse与亚马逊云科技合作推出新一代云数仓服务。两种不同的组合,背后其实是国内外市场对ClickHouse云原生化产品和应用的浓厚兴趣。 作为国内极具代表性的ClickHouse大规模采用者,字节跳动在历经数年的ClickHouse云原生化改造和应用中沉淀了许多宝贵的实践经验和思考。2021年8月,字节跳动将经过多年定制化改造的 ClickHouse,沉淀为 ByteHouse对外提供服务。自那时起,就有人猜测:ByteHouse会不会开源? 其实字节跳动为开源准备已久。今年,字节跳动将ByteHouse内核向社区开源为ByConity,并于近日正式官宣发布0.1.0版本。 ByConity定位为开源的云原生数据仓库,采用Apache 2.0许可协议,基于ClickHouse内核,但采用了存储计算分离的全新架构,支持多个关键功能特性,如存储计算分离、弹性扩缩容、租户资源隔离和数据读写的强一致性等。通过利用主流的OLAP引擎优化,如列存储、向量化执行、MPP执行、查询优化等,ByConity可以提供优异的读写性能。ByConity适合用于 Online Analytical Processing(OLAP)场景和轻载数仓场景,包括但不限于交互式分析、实时日志监控、流数据处理和分析等。 ByConity项目 GitHub 地址:https://github.com/ByConity 用户手册:https://byconity.github.io/zh-cn/docs/introduction/background-and-technical-architecture 借此机会,InfoQ独家采访了ByConity背后的技术团队,深入了解ByConity开源准备过程、架构亮点、ByConity与ClickHouse的差异,以及ByConity后续规划等问题。这也是ByConity开源后团队首次接受采访。开源准备为了和早些推出的商业品牌作区分、避免用户混淆,团队为开源版本取了新名字ByConity。新名字由三个英文单词组合再生而来:By来自Byte,代表存储数据的基本单位,也比喻海量数据;Con来自Convert,代表改变和革新;Conity也来自Community,代表一群人,也就是开源开发者社区。 从采用ClickHouse遇到痛点进而自研改造,到推出商业化服务ByteHouse,再到现在推出开源项目ByConity,陈星认为这是一个自然而然的过程,ByteHouse和ByConity背后实际也是同一个技术团队在支持。在他看来,行业内有很多公司和团队存在使用ClickHouse的痛点,对于解决这些问题并进一步拓宽其使用场景感兴趣。开源能够带来更多技术层面的合作,也能帮助ByConity更快地扩展到更广泛的不同行业中去,这是推动团队将ByConity开源出来的重要动机之一。 在决定开源之前,团队也考虑过是否能将自研修改合并回ClickHouse社区,并围绕向社区完整贡献和联合开发,与ClickHouse核心研发团队、ClickHouse创业公司负责人做了几次闭门沟通,但得到的反馈是架构差异过大、合并难度和代价大、无法联合开发。最终按照ClickHouse社区给到的建议,团队决定独立开源,并跟ClickHouse社区进行了消息同步。 2022年5月,团队启动ByConity开源相关研发和准备工作。到正式开源这期间,技术层面关键迭代主要有以下几点:升级ByConity Codebase,和社区ClickHouse 21.8版本代码做同步,因为最初字节跳动引入ClickHouse的时候用的还是早期版本,但ClickHouse社区在版本19到22之间做了比较大的重构,导致整个执行model发生了一些变化,这部分需要做不少代码重写工作,将整个代码基线提升到社区新的LTS版本;移除公司内部依赖组件,寻找对应的开源替代方案做兼容和适配,比如FoudationDB适配、ClickHouse-Keeper适配等;基于Processor Model重构MPP实现,提升性能与稳定性:主要解决了 ClickHouse 对于复杂 Query 的执行支持不好,功能也比较局限(Join 只支持broadcast join)等问题;适配 ClickHouse 新版本基于 Processor Push Mode 的执行模式;优化器迭代,重点迭代了优化规则(RBO),CBO方面重点增强统计信息自动收集等:比如当用户表有改动时,后台任务会检查统计信息表的修改行数,当达到一定阈值时触发自动收集;云原生架构设计下,增强数仓场景的查询性能,数据能够自动预读,避免被动cache在实时场景下缓存命中率低的问题:支持HDFS/S3等分布式文件系统或者对象存储系统,并针对不同的分布式存储系统做了读写性能优化,存储系统中也实现了基于本地磁盘的二级缓存系统,可以采用高性能本地盘来进一步加速存储读写性能。 前两点主要是为对外开源做准备,后三点则是在原来内部版本基础上进一步优化升级。除了技术层面的准备,还涉及公司开源流程、代码合规、工程质量、配套部署工具开发等一系列相关准备。 据陈星介绍,ByConity开源非常彻底,引擎核心能力都开源了,只有因公司合规要求受限的部分做了一些裁剪。本质上ByteHouse云数仓的内核就是ByConity,引擎能力基本一样。后续ByteHouse研发新功能,也会直接在ByConity基础上用开源的模式做,这对于团队的研发模式来说是一个非常大的改变。 作为正式官宣开源前准备工作的关键一环,今年1月,团队发布了ByConity beta(v0.1.0-beta)版本,并在社区小范围征集用户试用。过去四个月陆陆续续已经有不少团队试用ByConity并在GitHub上提issue反馈,其中有一些团队已经在验证生产场景中的数据和工作负载。翟鹿渊表示,希望通过这样的小范围试用,确认ByConity能真正帮助大家解决问题、带来好处,再正式开源,让更广泛的用户知道该如何使用ByConity、能真正把ByConity用起来。比起一开始就官宣开源,这可能是一种相对谨慎但更务实的做法。社区反响 Beta版本推出后,ByConity团队从社区得到了不少反馈。好的一面是,有不少团队和开发者对ByConity表现出浓厚兴趣,其中不乏知名科技公司和团队,比如传音控股、电子云、华为、美团、天翼云、唯品会等,都在积极测试和验证。据翟鹿渊介绍,目前国内采用了ClickHouse的公司中,ByConity大致覆盖了头部的三分之一,都是使用规模相对比较大的。其中华为终端云团队已经参与到了ByConity部分研发工作中,比如这次发布的0.1.0版本中有一个对象存储集成功能的预览版,就是华为终端云团队参与共同开发的。 当然难免也会出现一些挑战。在知乎ByConity相关问题下面,有网友反馈代码风格对开发者不是很友好,一个方法里几百上千行代码,批评ByConity肯定是延续了ClickHouse开源代码的问题。对此,陈星表示虚心接受批评,ByConity本身就是基于ClickHouse内核开发,因此CH的代码风格问题,ByConity难以避免,再加上早期内部研发更多追求快速上线使用,对于代码风格可能没有特别高要求和统一规范。目前ByConity团队已经在规划和推进代码重构工作、希望做出好的示范,也希望后续社区能够一起推进这项工作。 类似的问题,翟鹿渊也被问到过,比如有开发者认为ByConity的代码和ClickHouse重合度比较高。潜在的质疑或挑战点在于,ByConity不是一个完全自主研发的项目。对此团队的态度很坦荡,ByConity的起点是ClickHouse,这是事实,作为ClickHouse的下游项目,ByConity会在向上兼容性方面做基础保证,并在开源许可的header文件中对受益于哪些开源项目给到完整的说明。 ByConity不会为了体现差异而做代码调整(比如重命名一些函数、在命名空间上做些修饰等)。ByConity希望能够继承ClickHouse的长处和优势,比如性能上的优势、工程设计上的亮点等,ByConity都会继续保留;同时针对实际业务场景中需要解决的问题,ByConity会在新架构上做延展,以求在更广泛的场景上发挥出更大作用,让更多公司或团队受益。架构亮点与差异 从2017年引入ClickHouse至今,ByConity团队基于ClickHouse内核做了深度改造和大量升级优化,不管是技术难度还是技术投入程度都非常大。具体的优化思路在早前的采访和白皮书做过详细说明,近期ByConity社区也会联合InfoQ陆续发布一系列ByConity技术解读文章。 目前ByConity 整体架构如下图所示,分为 3 层:服务接入层、计算层和存储层,其中服务接入层响应用户查询,计算层负责计算数据,存储层存放用户数据。详细介绍可查阅ByConity的整体架构说明文档。ByConity最新架构图 基于从外部收到的反馈,翟鹿渊将ByConity相比传统MPP架构的亮点概括为以下三点:首先是存储计算分离的改造。传统MPP很难对计算资源做隔离,据翟鹿渊介绍,现在业界大多数使用ClickHouse方案的公司和团队,采用的隔离方式基本是靠物理集群隔离,运维管理成本极高。存算分离之外,ByConity依托于虚拟化容器调度能力,既能实现业务和业务之间的隔离,又能非常灵活地调配硬件资源,这其实是很多公司想解决,但可能只解了一半或者暂时还没有好解决方案的严重问题。其次是自研的面向ClickHouse runtime执行层、与之完全匹配的查询优化器。基于四个大方向(基于规则、基于 cost、基于数据依赖、基于反馈)提供极致优化能力,能极大提高查询性能,特别是在复杂查询场景下能带来数倍至数百倍的性能提升。虽然业界成熟的数仓引擎都会配备查询优化器,但据了解,从ClickHouse技术方案衍生出来的查询优化器,目前在业界应该没有第二个方案。然后是对元数据存储和管理的优化。使用ClickHouse比较多的团队可能都会遇到一个问题,随着集群管理的元数据越来越多,ZooKeeper/Keeper会面临很大的coordinate压力,可能出现元数据不一致的问题,轻则查询报错,重则整个集群宕机。这类问题在ByConity从系统层面得到了解决。ByConity基于高性能的分布式 key-value store(FoundationDB)做元数据管理,并在 catalog api 上层实现了完备事务语义(ACID)支持,提供了高效可靠的元数据服务,能够将元数据吞吐拉升到百万级别。 除了架构上的差异化亮点,ByConity和ClickHouse在使用过程中又有哪些异同?社区也有不少开发者对此有疑问。前不久ByConity社区组织了一场直播,从使用角度对两者差异做了介绍,主要从以下几个关键维度展开:在资源隔离与扩缩容设计上的架构与组件差异在库表创建、数据导入与查询上的差异在事务支持与特殊表引擎上的差异ByConity与ClickHouse的差异总结(来源:ByConity社区) 感兴趣的读者可以查看直播回放视频进一步了解。 后续规划 随着ByConity正式官宣开源,后续项目会遵循开源社区的模式来运营和治理,社区治理原则相关的文档目前已经同步到项目GitHub上,并面向整个社区开放讨论。 对于ByConity接下来的技术发展路线,团队基于自身现状初步做了一些规划,今年下半年侧重点会放在权限控制、数据安全和组件高可用等方向。还有一些社区关注度比较高的问题,比如对数据湖分析的支持,包括对接Hudi、Iceberg等功能,也在Roadmap规划之中。 ByConity 2023年技术路线Roadmap 陈星表示,未来ByConity希望从一个只面向即时型分析的轻量级数仓,向一个能够处理更多复杂工作负载、更成熟的数仓去演化。当然,这其中挑战非常大,也不是短时间内能够做好的,需要与社区共同努力。 对于一个新的开源项目,社区往往会非常关注项目的长期投入和发展问题。翟鹿渊表示,字节去年成立开源委员会,就是字节更加重视开源的一个信号,而开源委员会有一条原则是做精品项目,从公司层面会聚焦少数重点项目做长期的战略投入,ByConity是其中之一。另外,如前所述,ByConity和ByteHouse研发团队基本是完全重合的,只是每个人的工作有一部分在做商业版、一部分在解决开源社区相关反馈,开源和商业版融合度非常高。未来ByConity会朝着一个更加开放的引擎开发模式去发展,今年年中会将内外部代码层面完全拉齐,后续对ByteHouse的改动会基于ByConity源代码用开源的方式来开发,即先在上游开发,开发完成后在再往回拉。这个开发模式调整可以说是大动干戈,但也从侧面印证了字节长期投入ByConity的决心。 未来除了ByConity社区自身的代码贡献,字节内部业务场景、ByteHouse的客户场景带来的迭代和改进也会反哺给ByConity,帮助ByConity持续迭代优化。比如,字节内部使用规模还在逐步增大,可能会打破以往设计方案的一些假设条件,导致调度策略或者资源分配策略要适应内部业务做优化和调整,这些优化都会输出到ByConity。商业化产品同理,商业版用户在使用中遇到的问题或反馈的修改,也会同步到ByConity。 写在最后 对于一个开源项目,引入更多参与者、让社区往多元化方向发展往往是重要目标之一,ByConity也不例外。从发布 Beta 版开始,ByConity团队就公布了社区路线图,并积极与社区成员共同探讨和解决大家在试用过程中遇到的问题,团队有耐心、也有信心,更是非常期待未来能够与更多开发者和合作伙伴一起共建共享,激发更多创造力。 对于社区多元化可能会给项目创始团队带来的新问题,比如项目无法按照最初规划的技术发展路线演进等,陈星和翟鹿渊都表示,希望这个幸福的烦恼早些到来。 ByConity项目 GitHub 地址:https://github.com/ByConity 用户手册:https://byconity.github.io/zh-cn/docs/introduction/background-and-technical-architecture 采访嘉宾介绍: 陈星,火山引擎分析型数据库负责人,具体包括ClickHouse、Doris、下一代云原生数据库,支持内部多种业务场景背后分析引擎。加入字节跳动数据平台之前,在IBM从事DB2内核研发工作,对数据库技术有一些了解。 翟鹿渊,火山引擎 ByteHouse 产品经理,主导 ByteHouse 海外商业化和引擎ByConity 开源。之前在Kyligence 做 Apache Kylin 商业产品。 在字节内部,ByConity 的内部版本被广泛用于各类实时分析领域。5月26-27日,字节跳动ByteHouse 资深研发工程师游致远将在QCon全球软件开发大会·广州站介绍 ByConity 的整体架构和核心功能及字节内部的应用案例。扫描二维码联系票务经理了解大会详细日程:18514549229(电话同微信)。
6,554
1,684,740,717,273
InfoQ
28
Community Day 社区嘉年华 · 深圳站|极客社区与技术大咖的双向奔赴,这一次走在技术迭代之前
如果你不断追逐前沿技术,就会发现,很难追上技术发展的脚步。从去年的元宇宙,到今年的 AIGC,技术迭代的速度越来越令人瞠目结舌。在如此瞬息万变的时代,程序员该如何适应,找准自己的节奏?最高效的方式一定是沉浸式的学习体验 + 与社区中同样优秀的开发者相互交流。5 月 28 日 即将举办的 Community Day 社区嘉年华 · 深圳站就为中国开发者提供了这样一个机会。活动报名入口极客聚集,User Group 社区再掀风暴你平时参加的多数技术分享活动都是由技术厂商官方发起的,开发者去现场以听为主。Community Day 则不同——它是由亚马逊云科技 User Group 社区领袖和技术粉丝发起的活动。亚马逊云科技 User Group 社区在全球拥有 470 多个组织,覆盖 100 多个国家和 50 多万成员,是名副其实的全球技术社区。正是由于 Community Day 的社区属性和全球性质,它更加开放,也更具极客精神。依托亚马逊云科技可链接到的全球技术资源,Community Day 总是能够汇聚到来自全球的专家和行业领袖,与开发者一起探讨云计算的最前沿技术。当然,在 Community Day 上,专家和大咖从来不是主角。对于技术抱有高度热忱的开发者才是。专家和大咖出现的目的是帮助开发者解决他们所遇到的技术挑战,激发新的创意和灵感。将各地的开发者连接一起,共同获取知识,相互学习,打造积极和活跃的开发者社区氛围,才是 Community Day 举办的意义所在。(往期 Community Day 精彩瞬间)活动报名入口追着技术跑,不如走在技术迭代之前很多了不起的创意和技术,都诞生于开源技术社区中开发者们的交流和碰撞,比如 Linux 操作系统、MySQL 数据库、TensorFlow 机器学习框架…… 它们都是通过众多开发者的开放讨论和广泛协作逐步发展的。面对层出不穷的前沿技术,与其在后面拼命追逐,不如找准节奏,开辟出自己的一方小天地。本次 Community Day 将围绕哪些技术方向展开呢?我们一起看看这次的主论坛和四大主题分论坛的内容:主论坛特别邀请到了亚马逊云科技首席布道师 Danilo Poccis。他将分享《From Complexity to Innovation (从复杂性到创新)》。应用程序复杂性急剧提升严重困扰很多开发者,如何应用复杂性和系统性原理将其转化为创新的动力?Danilo Poccis 将为开发者提供新的思路。此外,四大主题分论坛也是精彩纷呈!人工智能分论坛:火爆全网的 AI 大模型技术该如何应用?面对算法优化、算力突破、数据安全等挑战如何解决?人工智能分论坛将解答 AIGC 新世界中开发者们的困惑。云原生分论坛:围绕应用开发的现代化方式、无服务器应用开发、跨集群应用治理等话题展开探讨。开发者可以深入了解和探讨云原生技术应用,从而更好的应对市场变化和业务需求。大数据分论坛:在云原生与开源技术的双驱动下,如何构建新一代云数据仓库?该分论坛帮助你开启云原生数仓新篇章,真正做到数据随心取,洞见不用愁。高校分论坛:想开启云计算之旅,学习相关知识并开拓眼界?想加入全球学生俱乐部与全世界的开发者展开交流?想畅聊个人成长和职业规划?想先人一步现场拿到 offer?高校分论坛等你来!亚马逊云科技全球学生社区经理、学术开发者布道师等多位嘉宾与你面对面交流。多主题 Demo + 现场代码教学尽享科技之美对于技术所带来的颠覆如果只停留在分享与交流的环节,显然不够具象。除了主论坛和分论坛,Community Day 还设有多主题 Demo 区,等你来逛!神秘好玩的奇趣游戏、最前沿技术落地展示,带大家近距离感受技术之美。VR 游戏体验带你感受虚拟现实的魅力,云中照相馆、智能魔方带你云端漫步…… 此外,现场更有来自国际的高校开发者现场展示技术成果!感兴趣当红炸子鸡 Stability AI 如何降低 58% 的训练时间?想要构建和部署自己的文字生成图片 AI 应用,甚至机器学习模型?Community Day 不仅为开发者们提供了面对面交流和动手体验的机会,还准备了 Build On 开发者构建工坊,手把手带领大家现场构建和一步步实现!(往期 Build On 精彩瞬间)Community Led, Work for Community开发者社区嘉年华!2023 年 5 月 28 日  |  09:00-18:00深圳市南山区海德酒店11楼(后海地铁站F口)赴一场别开生面的技术之约!
3,779
1,684,725,175,370
InfoQ
29
纪念陈皓(左耳朵耗子)
2007 年我将 InfoQ 引入到国内的时候,陈皓(网名:左耳朵耗子)已经凭借酷壳网(coolshell.cn)成为知名的技术专家,是国内很多技术人心目中的偶像。所以,在 2009 年我计划将 QCon 全球软件开发大会引入到中国的时候,我就想有一天能否请耗子哥(PS,我邦同学对陈皓的昵称)来给我们站台,甚至做分享。后来不管他是在亚马逊云科技还是在阿里云,我都专程去拜访他,讨论分享事宜,有次还因此蹭了一次阿里的食堂。2014 年,他答应去 QCon 做分享,果然迎来了一个爆满的现场,把我高兴得够呛。后来有现场的参会者还写了博客记录参会的感受,里面提到“尤其是左耳朵耗子的演讲,几百人的会场爆满,根本就挤不进去。”就是这样,我和耗子哥的缘分也越来越深。到了 2017 年的时候,极客时间诞生了, 我又想找他做专栏,不过他说什么也不愿意,一会说自己没时间啊,一会说没有自己写博客自由啊……反正团队前前后后磨了他大概一个季度。他还甩出两篇英文技术论文,考验我们编辑的技术理解能力。一直到秋天,陈皓总算答应与极客时间合作,并钦点了两个接口负责人,我一看名单,哭笑不得:一个是当时极客邦科技的 COO(首席运营官)、一个是后来极客邦科技的 CCO(首席内容官)。转年一月,陈皓在酷壳网上发了一篇博客,说明这件事情的前因后果。我才知道,原来他最开始是担心精力和传播问题,觉得这事不靠谱,故意为难了我一下,还好我们团队侥幸通过了考验。其实我心里早就有预期:要说服左耳朵耗子和极客邦科技就专栏合作,是一件很难的事。首先他当时在创业,我也是创业者,深知创业的辛苦。另外陈皓在各种场合的发言里,都昭示了他是一个特别有个性的人,比如:年轻时为了有好的发展机会,可以放弃银行发的房子;他的酷壳网对读者在搜索引擎上的使用也有强烈的意见。他甚至在网站上发表了一个“痛恨手册”:痛恨各种不从研发团队出发,不从团队和项目出发的流程、方法论、咨询师、SQA、流程部门。痛恨那些为所欲为的,为了自己的商业目标牺牲用户利益的中国 IT 企业。痛恨中国的 C2C 式的那种简单的抄袭和复制。痛恨中国的某些编辑和某些作者乱出书,出烂书。……但陈皓这个人有一种魔力:即便你知道他不是一个温和的、善于妥协的合作对象,但你还是忍不住会与他合作,并成为他的朋友,并在合作之后引以为傲。他说,一个事如果想要做好,做到极致,就算再简单的事,也会变成复杂,这个世界上可能并不存在“轻模式”,只要你想做好,再“轻”的事都会变“重”。这句话我特别认同,因此将他看作我在创业路上的“战友”,是可以互为支撑的对象,后来极客时间 5 周年的时候,我还邀请他参加了直播,受益良多。技术社区这件事,本身就有其特别的奋斗价值,因为像陈皓这样的专家的存在,又变得特别有意思。陈皓从 2003 年开始在网络上分享自己的技术思考,到今年为止刚好 20 年。在他的个人网站酷壳(coolshell.cn)上,一共发布了 1424 篇文章;在极客时间专栏中,他写下 119 讲内容,吸引 16.5w 人跟随学习。这还没有计算他在接受 InfoQ 等媒体采访时,分享的个人所得;他在 QCon 全球软件开发大会会场上,分享的个人所得;他在 GTLC 全球技术领导力峰会会场上,分享的个人所得,以及他在《二叉树 · 初心》栏目里,聊及的人生思考。我想很少有人真正认识到“左耳朵耗子”这个 ID 在技术圈的意义,也很少有人真正了解陈皓声名的来源,脑海里只是浮现出一些模糊的印象:我听过他的分享、我看过他的网站、我跟过他的专栏……事实是,假如有这样一个榜单“近二十年中文互联网最佳技术内容分享者 Top 10”,陈皓有很大的希望入选。我仔细翻过《左耳听风》这个专栏的留言,很受震撼,也特别为陈皓高兴,有次还和他开玩笑说,你现在可是“桃李满天下”了啊。这里面有学生留言说:里面也有三十而立的开发者留言:这些留言,让陈皓在我心中的形象,变得特别高大。我现在还能回忆起六年前,InfoQ 的《二叉树》团队扛着摄像机去采访陈皓,他在采访中说:“我相信技术,我特别想把那种东西带到国内,(因为)国内的很多技术人员都非常苦逼,加班,然后再做一些堆砖头的一些事情。”陈皓能够按照自己的想法,改变这个时代的技术人吗?可能有点难,“社会无穷发展进程中的每一个阶段都是必然的,因此,对它所由发生的时代和条件说来,都有它存在的理由”。但负责任地说,国内至少有十余万开发者的工作、生活,被他的分享所影响。去年我和同事去拜访他,感谢他一直以来的支持,互相都说了许多宽慰的话,相约一起做大做强。上周五,团队的同学还在和他讨论合作方案,没想到今晨便突闻噩耗,其人灼灼风姿,惹人伤感怀念。中国的创业者不容易,上有老下有小,中间还有团队。除了对陈皓的纪念,我也在和团队商议怎么再做些实际的事情,希望能在这个悲伤的时刻,为陈皓的家人带去一些安慰,聊表心意。愿耗子哥在天堂安好,R.I.P。文中引用及陈皓过往分享相关链接:酷壳网:CoolShell.cn(https://coolshell.cn/)极客时间专栏《左耳听风》陈皓回忆专栏创作缘起:关于我”极客时间“的专栏(https://coolshell.cn/articles/18246.html)《二叉树 · 初心》陈皓纪录片:左耳朵耗子:技术一定会让人失业,但我没有生不逢时陈皓在 GTLC 分享:左耳朵耗子:打造高效团队的最佳实践陈皓知名分享文章:程序员技术练级攻略(https://coolshell.cn/articles/4990.html)陈皓在极客时间的文章分享:https://s.r.sn.cn/QCJNc6
9,685
1,684,207,969,067
InfoQ
30
16年等待,再见 SQL Boy,这一次数据库交互形态彻底被颠覆了!
对于程序员来说,通过 SQL 操作数据库是日常工作中经常会遇到的任务,算得上是一项基本技能。但即便是专业人员面对 SQL 编写任务也往往会头疼不已,更不要说在这一领域经验不足的初学者了。ChatGPT 大火之后,其辅助程序员编写代码的能力受到了很大关注。那么,类似 ChatGPT 这种能力能否用在数据库操作上,帮助程序员甚至是缺乏代码经验的普通业务人员,使用自然语言来完成过去需要 SQL 才能做的事情呢?在近日举办的亚马逊云开发者 Tech Talk 上,Bytebase 联合创始⼈/CEO 陈天舟就介绍了这样一款产品——基于亚马逊云科技的云服务架构,可以用自然语言与数据库交互的 SQL Chat。InfoQ 将本场演讲内容整理成文,希望对大家有所帮助。软件交互范式的演进:从命令行到 CUI回顾软件行业的交互范式演进史,大致上是从桌面到 Web 端,再到移动端。在上世纪 70 年代,用户一般通过命令后界面(CLI)与计算机交互。发展到 1979 年出现了 VisiCalc, VisiCalc 首次引入了表格布局交互界面,具有革命性的意义。这款软件还带火了 Apple 2 电脑,让很多个人用户开始采购这款 PC 来制作表格。之后到了 1984 年,苹果发布了 Macintosh,搭配键盘、鼠标并采用了 GUI 界面,这也是现代 PC 所采用的标准界面的起源。再到 1993 年,第一款网页浏览器 Mosaic 诞生。这款浏览器开启了 Web 端的时代。继续向前来到 2007 年,iPhone 的发布则开启了现代智能手机时代。这样来看,命令行 CLI 交互大概从 70 年代流行到 1984 年,GUI 的发展则分了三个阶段,首先是 1984-1993 年是桌面端,1993-2007 年是 Web 端,2007 年到现在则是移动端,每一次换代间隔大约 13 年左右。而到了 2023 年的今天,ChatGPT 横空出世。ChatGPT 的交互方式可以称为 Chat User Interface(CUI)。从 2007 年到 2023 年,历经 16 年的等待,软件行业终于迎来了交互范式的又一场革新。数据库交互与 CUI 革命软件交互范式的进化自然也会影响数据库的操作方式。以 SQL 客户端这个具体场景来为例,今天的 SQL 客户端还有很多命令行的交互工具,但业内也存在很多起源于 Windows 的 GUI 工具,比如 Navicat 等。如今,基于 CUI 的全新交互方式就完全不一样了。CUI 没有大量控件组合,只有一个简单直接的输入框。用户用自然语言问数据库问题,它会神奇地写出对应的 SQL 语句同数据库交互。这种进化能让人想到谷歌诞生之前的雅虎。彼时雅虎在做黄页目录,用户通过线上黄页查找信息;之后谷歌直接推出了搜索框,一个搜索框就能找到互联网的所有内容。现在的数据库交互软件有众多复杂的控件、树、表单,而到了 CUI 时代,所有这些元素都消失了,用户只需一个对话框来输入问题,机器人就能给出回答。SQL Chat:用自然语言和数据库交互的全新工具所谓 SQL Chat,顾名思义就是用聊天的方式写 SQL,跟数据库打交道。下图是整个产品的界面。例如向 SQL Chat 提问,问用户组织里面哪个部门有最多的员工,这个工具就能直接给出对应的 SQL 语句,还会解释这个语句的含义。如果用户对结果不满意还能纠正它,可以说这个语句不是自己想要的,给出理由让它重新尝试,它会根据用户的反馈再做调整。它的交互方式是很自然的,就像用户在和人类对话一样。例如,用户可以创建一个 Amazon Aurora 的 HR 数据库,之后先问一些基本的问题,让它回答数据库有哪些表。SQL Chat 会知道用户对员工的薪资和职称是最感兴趣的,又知道部门和员工之间是生产关系,知道员工个人信息是个人隐私。如果提问哪个部门的员工平均薪水最高,它不仅会给出 SQL 语句,还会解释这条 SQL 是什么操作。再来问它哪个经理手下人员最多,列出 SQL 代码,它会给出查询语句查到手下员工最多的经理。如果用户对这条查询不是那么满意,还想看一下这位经理到底有多少个员工,请机器人把他的员工数也包含在内,它就会给出修正的查询。但目前 SQL Chat 涉及子查询的时候还是会出现一些问题,可能会报错,提示内容未指定等。这反映出它使用的模型还是有一些局限性,陈天舟表示,这类问题在未来随着调优是可以解决的。未来,开发团队会收集一些交互数据,把这些数据进行脱敏匿名化处理后放到 Amazon S3 上,再把它灌到 Amazon SageMaker,在 Amazon SageMaker 里做整个模型的训练调优。陈天舟预计,半年后再演示新版 SQL Chat 时就能比较好地解决子查询的问题了。SQL Chat 背后的公司叫做 Bytebase,主要做数据库管理工具。如果企业需要 Schema 的数据结构变更、数据查询,或者团队之间需要有一套标准的审批流,做数据安全治理,Bytebase 的主产品都可以满足。它主要面向团队和企业级,是开源的。下图左边的二维码是亚马逊云开发者社区,右边是 SQL Chat 自己的用户群。SQL Chat 在 GitHub 上是完全开源的 (https://github.com/sqlchat/sqlchat),接下来也会有很快的迭代速度。最后,SQL Chat 后期还有望支持多模态输入,希望大家持续关注。
5,518
1,683,716,895,324
InfoQ
31
从微服务转为单体架构、成本降低 90%,亚马逊内部案例引发轰动!CTO:莫慌,要持开放心态
Ruby on Rails 之父:“即使是亚马逊也无法理解无服务器或微服务。” 来自亚马逊Prime Video团队的一个案例研究在开发者社区中掀起了轩然大波。 在该案例中,Prime Video团队将一个监控系统从微服务架构迁移到单体架构,并避免使用昂贵的服务(如AWS Step Functions和Lambda无服务器函数),并对此举所带来的降本效果进行了评估。 他们的需求是使用一个监控工具来识别“用户查看的视频流”的质量问题,因为有“成千上万个并发流”,所以这个工具必须是高度可伸缩的。团队最初构建了一个由AWS Step Functions编排而成的分布式组件解决方案,一个基于状态机和任务的无服务器编排服务。结果发现,Step Functions居然是瓶颈所在。 案例文章中写道:“对于视频流的每一秒,我们的服务都需要执行多次状态转换,所以很快就达到了账户限制。除此之外,AWS Step Functions是按照状态转换向用户收费的。”还有另外一个“成本问题”,即存在大量对S3的一级调用(用于临时存储捕获的视频帧)。 Prime Video监控应用程序的初始架构,可见成本很高,伸缩性也很差 案例文章中写道:“我们意识到分布式架构在这个特定的场景中并没有为我们带来太大的好处,所以我们将所有组件都合并到一个进程中”,从而消除了对S3的依赖。“我们还实现了在单个实例中控制组件的编排。”现在,这个解决方案运行在EC2(Elastic Compute Cloud)和ECS(Elastic Container Service)上,其中有“一个轻量级的编排层来分发用户请求”。 案例文章总结道:“微服务和无服务器组件可以被用在大规模的场景中,但是否一定要舍弃单体而使用它们则需要根据具体情况具体分析。将服务迁移成单体让我们的基础设施成本降低了90%以上,还提升了我们的伸缩能力。”文中还提到了他们通过EC2节省计划来降低成本,这说明即使是内部AWS用户也会按照与外部用户类似的模式收取费用。 众说纷纭:我们的架构设计究竟出了什么问题? 这篇文章最初是在三月份发布的,但是直到这个月才引起整个工程界和技术界的关注。 Hacker News上的一条评论说:“这篇文章的存在让我感到很惊讶,甚至都有点看傻眼了”。  在我们看来,AWS总是习惯于将微服务和无服务器架构宣扬成“现代化”应用程序的最佳实践。例如,“AWS Well-Architected”文档的“Reliability”一项下面给出了一些建议: “使用面向服务架构(SOA)或微服务架构构建高度可伸缩和可靠的工作负载。面向服务架构是一种通过服务接口让软件组件变得可重用的实践。微服务架构则进一步让组件变得更小、更简单。” 在关于.NET应用程序现代化的“AWS Prescriptive Guidance”文档中,亚马逊列出了微服务的好处,包括更快的创新、高可用性和可靠性、更高的敏捷性和按需可伸缩性、现代CI/CD(持续集成和部署)管道,以及强大的模块边界,尽管它也将“运维复杂性”列为缺点。 然而,这篇案例文章似乎证实了开发者的一些猜疑。其中的一个猜疑是,AWS推荐的解决方案可能不是最具成本效益的,因为它们总是涉及到使用多种昂贵的服务。另一个猜疑是微服务相对于单体应用的优点似乎被夸大了。 Ruby on Rails作者David Heinemeier Hansson一直在倡导减少对云服务的使用,他在评论亚马逊的这个案例研究时表示,它“对一度席卷科技行业的理论上的微服务热潮来了一次大总结。现在,这些理论的实际结果终于出来了。很明显,在实践中,微服务可能会给系统带来不必要的复杂性。而无服务器只会让情况变得更糟。一个团队,一个应用程序,却用网络调用和服务分区取代方法调用和模块分离,这在任何一种情况下几乎都是很疯狂的。”  “即使是亚马逊也无法理解无服务器或微服务。” 2020年,“Building Microservices”和“Monolith to Microservices”等书的作者Sam Newman在一次开发者大会上表示,“微服务不应该是默认的选择”,并向软件架构师提出了一些在采用微服务架构之前需要考虑的事项:“你做过价值链分析吗?你了解过瓶颈出现在哪里吗?你尝试过模块化吗?微服务应该是最后才去考虑的。” 现在,Newman在推特上对这篇案例文章做了评论:“这篇文章实际上更多的是关于函数与长时间运行的虚拟机的定价模型。这仍然是完全合乎逻辑的架构驱动,但从这个案例中学到的东西,其适用性范围可能相对要狭窄一些。”他接着写道:“人们之所以不公开谈论撤离微服务,是因为这可能会让一些人认为‘他们做错了’。视情况变化而改变你的想法才是对的做法。”    关于这篇文章的讨论随处可见,它激起了大量的思考,在Hacker News、Twitter、Reddit等平台上涌现了非常多的有意思的评论和分析。 就像一位网友在Hacker News上评论的那样:“这是一个很好的教训,一个很好的故事,而且很重要的是它来自亚马逊内部团队。” 对于该案例的初始架构设计存在的问题,一位DataDog高级软件工程师Lambros Petrou在推特上发表了分析:“Prime Video案例文章中的设计是有问题的。滥用服务并不能解决架构问题,它只会把问题暴露出来”。前首席技术官Steve Chambers在某种程度上也同意这一观点,他说:“基本上,他们(现在)使用的是相同的架构,只是将组件塞到了容器中,这样他们就不会在不同的云服务之间通过网络进行昂贵的调用和数据传输……这很明显是一种优化!” 一名工程师在Reddit上针对这个案例争论道:“微服务是有额外开销的。本来简单的进程间通信,或者系统两个部件之间的内存调用,变成了HTTPS、OAuth、JSON编码/解码,而且每次都需要发生这些简短的对话。当你的系统被分解成50万个部件,每一次通信都需要做这些事情,并且你要为每一个事务付费时,成本和复杂性就会增加。拆解单体需要一次性替换整个应用程序,这意味着开发人员需要做一些测试。但DevOps意味着不会有更多的测试,所以在生产环境中会发生故障,我们唯一能做的是让功能块变小,这样才可能快速找到和修复问题。我不认为应用程序的小功能块在不一直打开数百万个连接的情况下属于一个整体这样的说法有什么问题……” 但总的来说,这篇案例文章对于AWS来说未必是坏消息。一方面,这似乎与这家云计算巨头所宣扬的最佳实践背道而驰,但另一方面,这也是一个令人耳目一新的关于如何通过简单的架构来降低成本的实践。与许多促销案例研究不同,这个案例看起来对AWS客户真的很有用。 看看亚马逊CTO和前云架构战略副总裁怎么说 这件事情被大家传得沸沸扬扬的,甚至还惊动了亚马逊CTO Werner Vogels博士。 他对此表示,构建可演进的软件系统是一种策略,我们必须以开放的心态重新审视自己的架构。 “软件架构不像桥梁和房屋的架构。桥梁建成后就很难改变,但软件不一样。软件一旦运行起来,我们就可以更深入地了解我们的工作负载,然后再选择一个可演进的架构,在不影响客户体验的情况下进行更改。我的经验法则是,随着每个数量级的增长,你都应该重新审视你的架构,并确定它是否仍能支持下一个数量级的增长。” “Prime Video 就是个很好的例子。(架构设计)没有放之四海而皆准的方法。我们总是敦促我们的工程师找到最佳解决方案,并且我们没有强制要求特定的架构风格。”“我想重申,没有一种架构模式可以满足所有的情况……单体没有消亡(恰恰相反),可演进的架构也在不断变化的技术格局中扮演着越来越重要的角色。” 在Werner Vogels博士发表看法之后,去年已宣布退休的前亚马逊云科技可持续发展架构副总裁、前云架构战略副总裁Adrian Cockcroft也忍不住出来点评了一下。 “关于Prime Video 的案例,虽然互联网上涌现了堆积如山的意见和观点,但大多没有说到点子上。” Prime Video 团队只是遵循了一条“Serverless First(无服务器优先)”的原则:首先尝试使用Step Functions 和 Lambda 进行快速构建。通过无服务器方法,在几天或几周内构建一个原型,这是重点。然后在需要应对高流量时,再进行重构。“Serverless First”和“Serverless Only”是有区别的,“我不提倡Serverless Only”。他认为这个案例之所以会引起这么大的反应,关键是“在微服务被过度营销的情况下,大家以为Prime Video 团队返回到了单体架构”。但实际上“目前的这个调整只是构成 Prime Video 应用程序的众多微服务之一。问题是,他们称这种重构为微服务到整体的过渡,而这显然只是其中一个微服务重构步骤。” “我确实认为微服务被过度宣传了,把微服务作为解决所有问题的答案。而且这可能是因为厂商想通过简单的营销信息来销售 Kubernetes,即需要通过使用 Kubernetes 来实现云原生的微服务。大家对这种信息传递方式表示了强烈的反对。Kubernetes 的复杂性是有代价的,除非你的团队和规模非常大,否则你不需要它。(建议阅读 Sam Newman 的《构建微服务:设计细粒度系统》一书。)” 总之,Prime Video团队最初的设计还是很棒的,帮助他们快速进入市场并带来收益。而现在,他们在退后一步进行下一阶段的分析。“该团队遵循了我认为的最佳实践”,“我认为 Prime 团队发布的这篇文章非常富有洞察力……” 参考链接:https://www.primevideotech.com/video-streaming/scaling-up-the-prime-video-audio-video-monitoring-service-and-reducing-costs-by-90https://world.hey.com/dhh/even-amazon-can-t-make-sense-of-serverless-or-microservices-59625580https://devclass.com/2023/05/05/reduce-costs-by-90-by-moving-from-microservices-to-monolith-amazon-internal-case-study-raises-eyebrows/https://thestack.technology/amazon-prime-video-microservices-monolith/https://news.ycombinator.com/item?id=35811741https://twitter.com/samnewman/status/1654432661337788416https://www.allthingsdistributed.com/2023/05/monoliths-are-not-dinosaurs.htmlhttps://adrianco.medium.com/so-many-bad-takes-what-is-there-to-learn-from-the-prime-video-microservices-to-monolith-story-4bd0970423d4
12,708
1,683,531,666,429
InfoQ
32
一次电梯故障,“逼得”这个程序员在29岁时写出了 Rust
2006 年,29 岁的 Hoare 在开源浏览器公司 Mozilla 当程序员。当他回到位于温哥华的公寓时发现电梯出了故障,里面的软件也崩溃了,而这事儿已经不只一两次了。当他爬楼上去时,心里十分很恼火,因为 Hoare 住在 21 楼。“这也太荒唐了,”他心想,“我们搞计算机的,连一部正常运行的电梯都造不出来!”Hoare 明白,这类很多故障都是程序如何使用内存的问题。诸如电梯之类的设备中,软件一般都是用 C 或 C++ 语言编写的,这些编程语言以能让开发者写出快速、紧凑的代码而著称。但问题在于,这些语言很可能会在不经意间引入内存错误,从而造成软件崩溃。比如微软曾估计,他们代码中有 70% 的漏洞是使用这些程序设计语言编写代码的内存错误所致。我们中的大多数人,当发现自己要费劲爬上 21 层楼时都会感到愤怒,但随后就抛诸脑后了。不过 Hoare 还是决定做点什么。他打开笔记本电脑,开始设计一门新的计算机语言,他希望这门语言可以在没有内存错误的情况下,编写出更短、更快的代码。他以一种非常耐寒的真菌 Rust 的名字命名,并称这种真菌“为了生存而过度设计”。注:锈病菌类(rust disease fungixiubingjun)是引起植物发生锈病的真菌,属有隔担子菌纲锈菌目。17 年过去了,Rust 已经成为世界上最流行的新语言之一,也许是最热门的。有 280 万程序员使用 Rust,微软和亚马逊等公司都认为 Rust 是他们未来发展的关键。聊天平台 Discord 利用 Rust 加快了系统的速度,Dropbox 则利用 Rust 将文件与你的计算机进行同步,Cloudflare 则将 Rust 用于处理 20% 以上的互联网流量。在程序员论坛 Stack Overflow 每年一次的全球开发者调查中,Rust 连续七年被评为程序员最“喜爱”的语言,甚至美国政府也在积极推动 Rust 语言的软件,来增强其程序的安全性。和其他很多成功开源项目一样,Rust 也成为了“谷仓”:目前有数以百计的铁杆贡献者,其中很多都是志愿者。Hoare 本人在 2013 年就离开了这个项目,并且很乐意地把他交给了其他工程师,其中就有 Mozilla 的一个核心团队。凭什么脱颖而出一个人发明一门新的程序设计语言并不稀奇。许多程序员一直把创建小项目作为自己的副业。但很少有一门语言可以像 JavaScript、Python、Java 这样的著名语言一样屹立不倒。Rust 是怎么做到的?要明白为什么 Rust 如此有用,就必须要深入地研究一下程序员是怎样处理计算机内存的。你可以非常简单地将计算机中的动态存储器想象成一块黑板。一个软件运行时会在黑板上不停地写下数据,记录哪一个数据在哪里,然后在不需要的时候擦除。但是,不同的计算机语言对数据的处理方法是不一样的。传统的 C 或 C++ 等程序设计语言被设计成,程序员在软件如何以及何时使用黑板的问题上有很大的权力。这种权力很有用:有了对动态存储器如此多的控制,程序员可以让软件运行得非常快速。这也是 C 和 C++ 常常用于编写“裸机”代码的原因,也就是可以直接与硬件进行交互。没有搭载像 Windows 或 Linux 操作系统的机器,包括从透析机到收银机,都是基于这样的代码运行的。(它也适用于更高级的计算:有时,操作系统必须和硬件进行通信)Windows、Linux 和 MacOS 的内核基本上都是用 C 语言编写的。不过,虽然 C 和 C++ 之类的语言很快,但要付出一定的代价。它们需要程序员密切跟踪哪些存储器被写入以及何时进行擦除。万一你不经意间忘记擦除了些什么,那很有可能会造成程序崩溃:软件稍后可能会试图利用那些它认为是空的内存空间,而那些内存空间中却存在着一些东西。或者,你可以给数字入侵者一个潜入的方法。黑客们可能会发现,某个程序没有正确地清理它的内存——那些本应被删除的信息(如密码、财务信息等)还留在那儿,并悄悄地将其窃取。C 或 C++ 代码越长就越容易出现内存错误,即使是最细心的程序员,也会让软件充满大量的漏洞。无人机公司 Fusion Engineering 的联合创始人、Rust 库团队的负责人 Mara Bos 说:“在 C 或 C++ 中,你一直都很担心自己的代码会突然崩溃。”在 90 年代,一组新的语言如 Java、JavaScript 和 Python 开始风靡全球。这些语言采取了完全不同的方式。为了减轻程序员的压力,它们通过使用“垃圾收集器”来自动管理内存,这些组件会在软件运行时定期清理内存。转眼间,你就可以编写没有内存错误的代码了。但是坏处在于,你会丧失细粒度的控制,你的程序也会变得更慢(因为垃圾回收会占用关键的处理时间),并且用这种语言编写的软件需要更多的内存。所以,编程的世界大致被划分为两个部分。如果一个软件需要快速运行或者在嵌入式设备很小的芯片上运行,那么这个软件就倾向于使用 C 或 C++ 编写。如果是 Web 应用或移动设备应用——在代码世界中越来越壮大——那么你就得使用较新的、具备垃圾回收特性的程序设计语言。对于 Rust,Hoare 的目的是创建一门语言来这些方法的差异。该语言不要求程序员手工计算出他们在内存中放置数据的位置,Rust 会做到这一点。但是它对如何在程序中使用或者复制数据,却有很多严格的规则。你必须学会那些编程规则,它们比 Python 或 JavaScript 中的那些规则复杂得多。Rust 代码编写起来可能会比较困难,但是“内存安全”,你不必担心无意中插入了一个致命的内存错误。最重要的是,Rust 还会提供“并发安全”的特性。现代程序可以同时处理多个任务,也就是并发处理。有时候不同的线程会在同一时间对同一内存位置进行编辑,而 Rust 的内存管理机制可以避免这一问题。Mozilla 的“书呆子洞”Hoare 刚开始使用笔记本电脑设计 Rust 的时候,他就已经是一个拥有十年软件开发经验的老鸟了,当时正在 Mozilla 全职工作。Rust 最初仅仅是他的一项副业。Hoare 花费数年的时间对 Rust 进行了研究,并向其他程序员展示了 Rust,结果引起了不同的反响。他在一封邮件中说道,“有些程序员表现出了极大的热情,但也有许多程序员却对我嗤之以鼻,说‘这样是行不通的’,或者‘这根本就不管用’。”尽管如此,Mozilla 的高管们对 Rust 很有兴趣。他们认识到 Rust 能够帮助公司开发出一个更好的浏览器引擎。众所周知,浏览器是一个非常复杂的软件,存在着大量潜在的内存错误。Patrick Walton 是参与其中的一名员工,他在决定放弃程序设计语言的博士学位后,加入了 Mozilla。他记得,JavaScript 发明者 Brendan Eich 邀请他参加 Mozilla 的一次会议,“他说,‘你怎么不来,我们要讨论 Rust 的设计决定?’”Walton 想着 Rust 听上去很不错,于是他与 Hoare 以及一支不断壮大的工程师团队一起努力开发这个语言。许多人,像 Mozilla 工程师 Niko Matsakis 和 Felix Klock,都有研究内存和编码语言的学术经历。参与 Rust 构建的工程师:Patrick Walton) (1),他在决定放弃编程语言的博士学位后加入了 Mozilla;Niko Matsakis (2) 和 Felix Klock (3),他们都有研究记忆和编码语言的学术经验;Manish Goregaokar (4),目前负责 Rust 的开发者工具团队2009 年,Mozilla 决定正式赞助 Rust。这门语言将是开源的,并且仅由开发者承担责任,但是 Mozilla 愿意通过为工程师支付薪酬来启动这个项目。Rust 团队征用了 Mozilla 的一间会议室,Mozilla 研究部门的联合创始人 Dave Herman 把这间会议室叫做“书呆子洞”,并在门外挂了一张牌子。据 Hoare 的估计,在接下来的十年里,Mozilla 雇用了十几名工程师从事 Rust 研发的全职工作。“所有人都认为自己正在干一件很有意义的事。”Walton 回忆道。这种兴奋还蔓延到 Mozilla 大楼之外。到 2010 年代初,Rust 已经在全球范围内吸引了许多来自技术领域的志愿者,其中一些人还在大型科技公司工作。德国一位高中生是其中一位重要的贡献者。2010 年,在不列颠哥伦比亚省举行的 Mozilla 会议上,Eich 站起身来,表示将有一场有关实验语言的演讲,Walton 回忆说:“如果你不是真正的程序设计语言爱好者,就别去,不然会议就开不完了。”在 2010 年代早期,Mozilla 工程师和世界各地的 Rust 志愿者们逐步完善了 Rust 的核心——它被设计为管理内存的方式。他们创建了一个“所有权”系统,使得一个数据只能被一个变量所引用,这极大降低了内存问题发生的可能性。将你编写的几行代码编译成可以在计算机上运行程序的 Rust 编译器,将会严格执行所有权规则。如果程序员违反了这些规则,编译器将会拒绝编译代码并将其编译为可运行的程序。Rust 所用的许多技巧都不是什么新点子:“它们大部分都是几十年前的研究成果了。”Manish Goregaokar 说,他管理着 Rust 的开发工具团队,早年为 Mozilla 工作。但是 Rust 的工程师们善于发掘这些成熟的理念,并将其转化为实际可行的特性。随着团队对内存管理系统的改进,Rust 越来越不需要自己的垃圾收集器了。到了 2013 年,团队就将垃圾收集器移除了。用 Rust 编写的程序现在运行速度更快:在计算机进行清理时不会出现周期性停顿。Hoare 指出,有些软件工程师可能会觉得 Rust 还是有一点类似于垃圾收集的东西,像“引用计数”系统,这也是它内存所有权机制运作方式的一部分。但是不管怎么说,Rust 的性能已经变得非常高效了。它更接近于裸金属,低至 C 和 C++ 的地位,但它是内存安全的。Steve Klabnik 表示,移除垃圾收集“催生了一种更简洁、更低级的语言。”Steve 是一名程序员,在 2012 年参与了 Rust 项目,为该项目撰写了十年的文档。一路走来,Rust 社区也形成了一种以非常友好和开放的方式对待新人的文化。“在 Rust 社区,没有人喊你菜鸟,”微软首席工程师 Nell Shamrell Harrington 说,他当时在 Mozilla 从事 Rust 的工作,“没有问题会被认为是愚蠢的。”她说,部分原因是 Hoare 很早就颁布了禁止骚扰的“行为准则”,任何为 Rust 做出贡献的人都应该遵守这一准则。社区接受了它,而且 Rust 社区的资深成员表示,社区这一行为准则吸引了酷儿(指同性恋、双性恋和跨性别者)和变性者程序员参与到 Rust 中来,比例超过了其他语言。即使是程序员出错,编译器也会产生非常友好的错误信息;它们会描述这些错误,并且会很有礼貌地提出如何修复这些错误。Shamrell Harrington 笑着说:“当我犯错误时,C 和 C++ 编译器会让我觉得自己很差劲。而 Rust 编译器更像是在指导你如何编写超级安全的代码。”终于推出了第一个版本到了 2015 年,该团队执着于最终推出一个“稳定”的 Rust 版本,这个版本足以让公司为真正的客户开发软件。自从 Mozilla 将 Rust 纳入其麾下以来,已经过去了六年,在这段漫长的开发过程中,开发者们都很想试用一下这个演示版本,虽然这个版本看起来有点粗糙:“编译器总是会出现故障。”Goregaokar 说。现在是时候将“1.0”版本推向世界了。Walton 记得他花了几个小时俯身在笔记本电脑前,“在过去的两个礼拜里写了 45 页左右的文档。”他回忆道。2015 年 5 月 15 日,团队终于推出了第一个版本,成群的 Rust “书呆子”在世界各地举行派对庆祝。Mozilla 的投资很快就开始有了回报。2016 年,Mozilla 的一支团队推出了 Servo,这是一个使用 Rust 构建的新浏览器引擎。第二年,另一个团队使用 Rust 重写了 Firefox 渲染 CSS 的部分,CSS 是一种用于指定网站外观的语言,这一改变极大地提高了浏览器的性能。Mozilla 还使用 Rust 重写了处理 MP4 多媒体文件的代码,而这些代码一直面临不安全、恶意代码的风险。Rust 的开发者,开始称呼自己为“Rustaceans”(意为 Rust 开发者,Rust 用户,Rust 爱好者),他们很快收到了消息:其他公司会尝试使用他们的新语言。三星的程序员告诉在法国 Mozilla 办公室工作的 Klock,他们已经开始使用 Rust。Facebook(也就是后来的 Meta)利用 Rust 重新设计他们程序员用来管理内部源代码的软件。如今为 Meta 工作的 Walton 说:“它的重要性怎么强调都不为过。”“写 Rust 是一件很有意思的事情,虽然这听上去有些古怪,但它的语言太棒了。很有趣,你会有一种魔术师的感觉,这是在别的程序设计语言里不可能出现的,”他说。“我们肯定在这上面下了大本钱,这可是一项新技术。”有些公司发现,Rust 缓解了他们对内存错误的恐惧;Mara Bos 使用 Rust 完全重写了她公司的无人机控制软件,而该软件最初是用 C++ 编写的。其他人则发现了放弃垃圾收集的乐趣。在 Discord,工程师们一直对 Go 中的垃圾收集器(他们用来构建软件关键部分的程序设计语言)会减慢速度而感到恼火。尽管 Discord 的工程师们已经写得很仔细,没有垃圾需要收集,但他们的 Go 软件还是大约每两分钟就会执行一次程序。2020 年,他们用 Rust 重写了这个系统,发现现在的运行速度快了 10 倍。就连科技巨头的云计算平台亚马逊云科技的网络服务的高管和工程师,也越来越相信 Rust 可以帮助他们编写更安全、更快速的代码。“Rust 具有独特的优势,这是我从其他语言中无法获得的。它在一种语言中能赋予你很多超能力。”Shane Miller 说,他在去年离开亚马逊云科技之前,在该公司创建了一支 Rust 团队。对于这个云计算巨头来说,也许最关键的是,通过对基于 Rust 代码的研究发现,它的运行效率非常高,其耗电量是用亚马逊云科技常用语言之一 Java 编写的类似程序的一半。Miller 说:“所以我可以创建一个数据中心,它可以运行我今天工作负荷的两倍。”让人“不安”的成功Rust 的成功让一些长期贡献者感到有些不安。随着科技巨头们开始采用这种语言,他们对 Rust 的影响也越来越大。他们有足够的资金来支付工程师全职开发 Rust。例如,Rust 团队的几个领导人都是亚马逊和微软的员工。其他有价值的贡献者不得不在业余时间从事他们的 Rust 工作。例如,Bos 除了经营她的无人机初创公司外,还要为华为从事 Rust 方面的合同工作,但她作为 Rust 库团队负责人的角色是无偿的。Bos 表示,这在开源项目中是一种普遍趋势:大公司可以更多地参与进来,并且推动项目来解决他们所关注的问题,而小企业则可能不行。“这确实给了他们一些影响力,”她说,但迄今为止,还没有一家公司做过什么令人惊恐的举动。”Klabnik(去年离开 Rust)也表示赞同她的观点,他对亚马逊加入 Rust 提出了担忧。他说:“我担心吗?是啊。它是特别糟糕还是比其他许多地方更糟糕呢?”2021 年,各大科技公司出资成立了一家非营利性的 Rust 基金会,以资助志愿者程序员。在头两年中,Miller 负责为那些希望研究 Rust 某些重要特性的程序员提供 20000 美元的资金,以及需要短期经济需求的贡献者提供“困难”资助。同时,它还资助了托管 Rust 代码的服务器和一家科技公司,保证它们 24 小时不间断地运行。Miller 说,在传统的开源模式下,这项工作以前是由“两个志愿者完成的,他们基本上 50% 的时间都是随叫随到,其中一个是意大利的学生。”这门语言就这么不可思议地迅速成长起来。如果说 Rust 是在 2006 年诞生的,那么它现在正走出青春期、步入成熟期。汽车公司正在采用 Rust 来构建运行汽车的关键代码;航空航天公司也在采用 Rust。Dropbox 的 Timmerman 预计,“它将会得到广泛的应用。”微软高管甚至公开表示,许多其他科技公司可能正在闭门思考的问题是:微软将会更多地利用 Rust 来编写新的代码,而 C 和 C++ 则会变得越来越少。最后可能永远都不会有。所有那些已经在使用的 C 和 C++ 代码都不会消失,它们将会在未来的数十年中继续得到应用。但如果 Rust 成为编写需要快速和裸机的新代码的常用方法,我们就会开始注意到,慢慢地,我们的软件环境会越来越可靠,不会再像以前那样不稳定、不安全。没有人比 Hoare 更惊讶了。“大多数语言,”他说,“都是半途夭折了。”原文链接:https://www.technologyreview.com/2023/02/14/1067869/rust-worlds-fastest-growing-programming-language
6,911
1,683,173,592,579
InfoQ
33
软件技术栈商品化:应用优先的云服务如何改变游戏规则
云服务的发展影响了开发人员构建分布式应用程序的方式。在QCon伦敦大会上,Diagrid公司的产品经理Bilgin Ibryam谈到了原生云技术(如Dapr)与以开发者为中心的云服务之间的重叠。 Ibryam从如何看待从单体到微服务的转变以及接下来会发生什么开始。此外,他还讨论了基础设施将如何以云服务的形式发生演变,以及它将如何改变架构。  在演讲中,他从基础设施和应用程序趋势的角度讨论了在云计算时代之前或云计算早期、计算优先的云和应用优先的云时代构建应用程序的不同阶段(时间线)。 Ibryam先是讨论云计算早期或云计算之前的时代,也就是单体应用程序时代。在那个时代,云计算还没有成为主流,微服务还没有出现。开发人员必须使用任何可以实现业务逻辑的一切东西,如异步交互(消息传递)、打包程序和缓存。此外,Dev团队负责的应用程序层和由Ops团队管理的基础设施之间也存在区别。  接下来,Ilryam讨论了早期云计算时代之后的内部架构。2010年之后,人们对应用程序开发重新产生了兴趣,随后出现了一些主要的软件开发趋势,直到今天仍然具有影响力。人们可以使用C4模型或4+1架构模型视图来可视化和描述架构,这为他们提供了不同的方法来观察架构。Ibryam采用了更直接的方法,将架构分为两个层次:内部架构和外部架构。内部应用程序架构由开发人员构建,他们可以完全控制所有的东西,包括应用程序不同的层,或者如他所说的——容器镜像中的所有内容。从Ops角度来看,它就是一个黑盒。外部应用程序架构是与应用程序交互的所有内容的集合,包括消息代理、数据库,甚至是云服务。Ops让它变得可靠、可观察,等等。他讨论了一些影响单体应用程序开发的架构设计方法,例如领域驱动设计、六边形架构、洋葱架构和干净架构(Clean Architecture)。随后出现的12因素(12-Factor)应用和微服务原则让单体应用架构变成了一种反模式。 在早期的云时代之后是计算优先云,在这个时代,单体应用程序开始向微服务转变。内部应用程序架构的变化和云的出现导致了应用程序及其基础设施之间的分离集成。  在讨论“计算优先”时,Ilbryam详细介绍了应用程序内部架构和云提供的计算。它是应用程序和计算机之间的契约(集成绑定),无论是容器、函数还是无服务器应用程序。它发生在双方的API(操作调用,如资源需求、部署、配置和度量)之间。通常由Ops团队负责。 接下来,Ilbryam再次讨论了随着云计算的出现,应用程序外部架构如何随着时间的推移而发生变化。然后再次提到了应用程序绑定的概念,只是这次说的是位于应用程序之上的云服务(由开发人员负责),而不是底层的基础设施。  面向云服务的集成绑定可以移动到另一层,比如分布式应用程序运行时(Dapr)。作为对比,Ibryam提到了Google Cloud Event Arc、AWS EventBridge和Azure Event Grid,它们都是特定于云的,而Camel是语言无关的,Dapr则是两者兼而有之。 最后,Ibryam谈到了应用优先的云,网络服务正变得越来越以应用为中心,并诞生了集成云:为开发人员构建的托管服务的集合。  应用优先的生态系统将提供与事件处理服务(如Azure Eventgrid)的异步绑定、与服务(如AWS Step Functions)的有状态绑定、与服务(如Vercel Edge Middleware)的同步绑定,以及与计算服务(如AWS ECS、Azure Container Apps和Google Cloud Run)的计算绑定。通信将采用遵循OpenAPI规范的API进行。 最后,Ibryam总结他演讲的关键要点:专注于区分业务逻辑,重用无区别的商品化功能。使用支持标准可移植性的开放计算和开放集成绑定。可移植性与应用程序无关,它是关于模式、实践、工具和人。 原文链接:https://www.infoq.com/news/2023/03/application-first-cloud-services/相关阅读:不只是黑盒测试:测试工程师如何识别和消除代码坏气味?ThoughtWorks CTO:2025 年之前,我们会看到架构的演进,但不会看到革命有状态自动扩展系统的设计模式提议
6,329
1,682,726,400,516
InfoQ
34
Ruby on Rails之父闹着要下云,亚马逊CEO:我们将重视“降本增效”
亚马逊云科技销售和支持团队目前正将大部分时间用于帮助客户优化 AWS 支出,确保他们能够平衡度过这个不确定性的经济时期。这是 Amazon.com CEO Andy Jassy 在写给公司股东的年度信件中的原话。Jassy 解释道,“与我们的其他业务一样,AWS 也不会单纯针对一年或者一个季度做优化。”相反,整个亚马逊都在“努力建立起全方位的持久客户关系(和业务);因此我们的 AWS 销售和支持团队正将大部分时间用于帮助客户优化 AWS 支出,确保他们能够平衡度过这个不确定性的经济时期。”“不少 AWS 客户告诉我们,他们从未像本轮成本优化这样认真削减过运营开销,由此节约下的资源将被投入到他们正在规划的全新创造性客户体验当中。他们对这种以客户为中心的策略深表赞赏,这对于客户和 AWS 来说也是通往双赢的好态势。”Jassy 补充道,“尽管种种短期不利因素削弱了我们的业务增长率,但我们对 AWS 体系内的各个基本面仍然相当看好。”而这里提到的基本面,包括吸引新客户和推进主动迁移的“强大”管道。“在这样充满动荡的时期,很多企业会选择退后一步,重新审视自己的战略规划。我们发现,越来越多的企业选择放弃自主管理基础设施,转而迁往 AWS 以享受更好的敏捷性、创新、成本效率和安全优势。”但这些优势当中并不涉及成本节约。SaaS 供应商 37Signals 正是出于成本考量而退出了云计算,37signals 的文章提到,该公司曾经使用云计算服务来托管其在线应用程序,但最终决定将其迁回到自己的数据中心。这个决定的原因是,在云计算服务中,他们不得不支付更高的成本,而且他们无法完全控制应用程序和数据。通过自己的数据中心,他们可以更好地控制成本和应用程序的稳定性,并且可以更好地满足客户的需求。软件供应商 Ahrefs 甚至估算称自有托管数据中心提供的硬件为其节约下 4 亿美元,他们在文章中指出,避免使用云计算可以降低成本。云计算的价格通常很高,而且随着使用量的增加,费用也会增加。相比之下,购买和维护自己的服务器可以更加经济实惠。而自主管理服务器可以提供更好的灵活性和控制。对于 Ahrefs 来说,他们的业务需要处理大量数据,而自己的服务器可以更好地适应这种需求。Ahrefs 强调,如果将产品百分百上云,那么 Ahref 将不再有利润,甚至也不再会存在。面对媒体,不少硬件供应商也给出了类似的结论,称确实有不少客户出于成本节约而放弃云计算。尽管目前的经济环境令投资者感到不安,但 Jassy 对未来仍充满信心,因为他发现“全球约 90% 的 IT 支出仍然集中在本地,尚未真正迁移至云端”。这意味着 AWS 仍有巨大的上升空间。他在信中指出,亚马逊旗下还有很多比 AWS 开发更早的业务。所以虽然目前的经济环境确实令投资者们心生不安,但亚马逊仍在一步一个脚印投资于推动未来增长的新业务。AWS 本身就是这项战略的实际成果。亚马逊当初在 2007 年到 2008 年全球金融危机期间的投资,最终成就了傲视同侪的云计算帝国。总之,云计算可以是一个有效的降本增效的工具,但企业需要根据实际情况选择最适合自己的解决方案。对于某些企业,云计算服务可能比自己的数据中心更适合,因为它可以提供更高的弹性和可扩展性,同时可以降低 IT 成本和风险。而对于其他企业,自己的数据中心可能更适合。但无论选择哪种方案企业都需要实施一些策略和实践来最大化云计算的降本增效潜力。参考文章:https://www.theregister.com/2023/04/17/amazon_annual_shareholder_letter_aws/https://dev.37signals.com/bringing-our-apps-back-home/https://www.aboutamazon.com/news/company-news/amazon-ceo-andy-jassy-2022-letter-to-shareholders相关阅读:多云之下,京东云的降本增效之道降本增效不是“盲目减脂”,利用亚马逊云科技达成云成本正循环我们在华为云上实现了降本增效数字经济下的“降本增效”之路怎么走?
3,686
1,682,565,049,874
InfoQ
35
谷歌云业务有史以来首次实现盈利
本周二,谷歌母公司Alphabet 发布的财报显示,2023 年第一季度,谷歌云收入为 74 亿美元,高于去年同期的 58 亿美元,增长 27.5%。同时,该公司还报告称,去年谷歌云业务亏损7.06 亿美元,而今年报告截至Q1 取得了 1.91 亿美元的收益。据悉,这是谷歌云业务首次实现盈利。 2020 年时,云计算部门亏损高达 56 亿美元。“对于 2008 年 4 月开始的谷歌云来说,这是一个重要的里程碑。它在十五年后实现了盈利。这表明新玩家进入该领域有多么困难,”Constellation Research 创始人兼首席分析师 Ray Wang 表示。 Insider Intelligence 高级分析师 Max Willens 表示,“谷歌云业务扭亏为盈是值得注意的,这证明了管理层在引导云业务实现盈利方面的努力。但现实情况是,谷歌云仍然落后于其两个最重要的竞争对手,而且其增长速度正在放缓。”据悉,谷歌在美国云基础设施市场排名第三,次于亚马逊云科技和微软。 谷歌云的业务包括出租云基础设施和服务,企业可以使用它们来构建和运行自己的应用程序。目前,该业务合计占 Alphabet 总收入的 10%。谷歌云的客户包括德意志银行,、美国职业棒球大联盟和贝宝等。谷歌一直在争夺大公司和政府机构的业务。据悉,这些大公司和政府机构在从传统数据中心转向云端并依赖更多涉及人工智能的计算密集型应用程序时,正在主要技术供应商之间做出决定。  参考链接:https://abc.xyz/investor/static/pdf/2023Q1_alphabet_earnings_release.pdfhttps://techcrunch.com/2023/04/25/google-cloud-turns-profit-for-the-first-time/
4,186
1,682,503,288,222
InfoQ
36
一天就花 500 万元,运行 ChatGPT 太烧钱!微软为省钱已秘密自研 AI 芯片 4 年,今年或发布
ChatGPT每日运行费超70万美元以ChatGPT为代表的AI大模型爆火后,每天都有数百万用户使用ChatGPT这类大模型。如此高的使用需求导致了ChatGPT的运行成本非常昂贵。 近日,研究公司SemiAnalysis的首席分析师Dylan Patel在接受媒体采访时表示,考虑到AI需要昂贵的技术基础设施才能顺畅运行,用户们在ChatGPT上撰写求职信、生成课业规划和在约会应用上润色个人简介等操作,每天可能烧掉OpenAI多达70万美元,每次查询要花掉36 美分。 为了根据用户的提示词快速做出响应,ChatGPT需要一刻不停地消耗大量算力。 Patel解释道,“大部分成本来自AI模型所依赖的昂贵服务器。” 在接受媒体采访时,Patel表示现在的运营成本可能会更高,因为他的初步估算考虑的只是OpenAI的GPT-3模型。相比之下,家庭最新成员GPT-4的服务开销只会更高。 OpenAI并未在立即回应媒体的置评请求。 在发布仅两个多月后,今年1月份,ChatGPT的活跃用户迅速飙升至1 亿个,这是此前许多科技品牌需要耗费数年时间才能实现的壮举。 ChatGPT背后那些大语言模型的训练、运营和推理成本很可能已达数千万美元。而Patel和SemiAnalysis的另一位分析师Afzal Ahmad认为,“在以合理的规模部署这类模型时,实际运行开销甚至要远高于训练成本。目前,ChatGPT的每周推理成本就已经超过了当初的训练成本。” ChatGPT还一直在努力应对超高访问量的问题,类似这样的问题导致其服务器速度减慢甚至崩溃。该公司试图通过引入每月20美元的付费ChatGPT Plus服务来解决这个问题,但并没有多少用户为此买单。 多年以来,使用OpenAI语言模型的企业一直在支付高昂的服务费。Latitude是一家使用提示词自动创作故事情节的AI地牢游戏初创公司,CEO Nick Walton表示为了让AI回应数百万用户的查询,2021年他们每月运行模型和租用亚马逊云科技服务器的费用高达20万美元。 为了回避这笔夸张的开销,Walton决定转向由Al21 Labs支持的语言软件服务商。他说此举帮助公司将AI成本削减了一半,目前为每月10万美元。 “我们开玩笑说公司既有人类员工、也有AI员工,而且两边的年薪水平都差不多。我们每个月要在AI身上花几十万美元,考虑到Latitude的体量并不大,所以这绝对是一笔相当夸张的支出。” 目前,OpenAI使用的是英伟达GPU来维持运行,有行业分析师预计,在2023年剩余时间里,该公司可能需要额外的 3万个英伟达的 GPU 来维持其商业性能。微软自研AI芯片降成本面对每天如此高的运行成本,财力强大如微软也有些吃不消了。有媒体报道,微软目前正在开发自己的专有 AI 芯片,以协助维护 OpenAI 的 ChatGPT 运行,降低运行成本。 The Information最早发表报道,微软正在开发的这款AI芯片名为Athena“雅典娜”。该项目于 2019 年在微软与 OpenAI 达成 10 亿美元的交易后启动,该交易要求 OpenAI 在微软的 Azure 云服务器上独家运行其人工智能模型。如今时间已经过去近四年,目前仍有300多名微软员工在开发这款芯片。 微软目前使用的AI芯片是对外采购,而非自家产品。微软希望Athena AI芯片的性能能够超越供应商的芯片,以进一步降低开发AI所需耗费的资金成本和时间。随着生成式AI大爆发,包括亚马逊和谷歌等科技巨头都已推出自研AI芯片。 “与英伟达的产品相比,Athena 如果具有竞争力,可以将每个芯片的成本降低三分之一,”Patel 告诉The Information。 简单地说,潜在的节省可能是巨大的。 Athena项目背后的原因有二:其一,微软高管意识到,他们在自主研发芯片方面落后于谷歌和亚马逊;其二,微软正在寻找更便宜的替代品,该公司目前的人工智能模型是在英伟达的图形处理单元芯片上运行的。 虽然目前在机器学习领域,NVIDIAGPU市占率高达95%以上,至今没有对手可以匹敌。但是,随着众多的云服务巨头纷纷自研AI芯片,以及英特尔在GPU上的持续发力,或将对NVIDIA造成一定的压力。 有两位知情人士向The Information证实,该芯片最早可能在明年发布以供微软和OpenAI内部使用。 虽然自研了AI芯片,但微软可能并不打算全面取代英伟达的 AI 芯片,因为两者最近同意了进行为期数年的 AI 合作。 参考链接:https://www.businessinsider.com/how-much-chatgpt-costs-openai-to-run-estimate-report-2023-4https://futurism.com/the-byte/chatgpt-costs-openai-every-dayhttps://www.digitaltrends.com/computing/chatgpt-cost-to-operate/
3,526
1,682,477,916,655
InfoQ
37
深度入局AIGC!亚马逊云科技宣布Amazon EC2 Inf2实例全面可用
随着足够的可伸缩算力的就位、海量数据的爆炸,以及机器学习技术的快速进步,各行各业的客户开始对业务进行重塑。最近,像ChatGPT这样的生成式AI应用引起了广泛的关注,引发了诸多想象。 从业务的重塑到数据收集和使用方式的更迭,这预示着我们正处在一个令人激动的机器学习被大规模采用的转折点上,毫无疑问,生成式AI将会重塑大量用户体验和应用程序。 在这样一个历史节点上,谷歌、微软、Meta等科技巨头纷纷推出自家AIGC模型,力求通过这类大模型在竞争中淘汰对手,脱颖而出。眼看着这场AI竞赛逐渐进入白热化,亚马逊云科技坐不住了。 多年来,人工智能和机器学习一直是Amazon关注的焦点。Amazon提供给客户的诸多功能都是由机器学习驱动的,例如电商推荐引擎、Prime Air(亚马逊无人机)和Amazon Go等产品内部的计算机视觉技术都使用了深度学习。 近日,亚马逊云科技打出了一套AI“组合拳”, 推出了生成式AI服务Amazon Bedrock和Amazon Titan大模型,并宣布基于Amazon Inferentia2芯片的Amazon EC2 Inf2实例全面可用。 Amazon Bedrock是一个新颖的完全托管服务,用于构建和扩展生成式AI应用,从而让客户可以通过API访问AI21Labs、Anthropic和Stability AI等AI初创公司的预训练基础模型,还提供对亚马逊云科技开发的基础模型系列Amazon Titan FMs的独家访问。 Bedrock 是客户使用基础模型构建和扩展生成式AI应用程序的最简单方法,降低了所有开发者的使用门槛。它的优势可以总结为以下几点: 第一,Bedrock是全托管的服务,用户不用担心后端所使用的各种基础资源的申请、管理和各种运营的服务,可以完全把这些工作交给亚马逊云科技,交给Bedrock来执行。 其次,通过提供亚马逊云科技自身所实现的这些大模型,以及第三方的模型,用户可以为其场景选择最适合自己应用场景的模型。 第三,Bedrock的一个重要特点是,它可以帮助用户定制模型。由于每个用户的场景需求和业务逻辑都不同,用户也需要通过自身积累的业务数据来训练一个最适合它场景的模型。亚马逊云科技通过多年积累的云能力,在Bedrock中特意加强了数据训练的隐私和安全性,确保数据安全和隐私保护的前提下,用户可以使用自身的数据来对模型进行定制。 第四,在安全加密方面,所有用户的环境都基于它自身的VPC(私有网络环境),与其他客户完全隔离。同时所有数据都进行加密。这意味着用户不仅可以使用Bedrock,还可以方便且安全地使用亚马逊云科技多年以来发展的各种类型的云服务,对整个业务进行定制化改造。 Bedrock已经预设了一些模型,包括亚马逊云科技通过多年实践所开发的两个基础大模型:Titan Text和Titan Embeddings。这两个模型它们是分别基于不同的场景来实现的。同时,亚马逊云科技还预设了三个来自于AI21 Labs、Anthropic、Stability AI等第三方合作伙伴的模型。 为了更好地支持AIGC,亚马逊云科技还宣布了基于Amazon Inferentia2芯片的Amazon EC2 Inf2实例全面可用,打造兼具成本效益的生成式 AI 云基础设施。生成式AI推理工作负载的要求很高,Inf2实例为在亚马逊云科技上大规模运行这类工作负载提供了良好的性价比。亚马逊云科技大中华区产品部总经理陈晓建表示:“亚马逊云科技让基础模型和生成式AI惠及广大客户。通过亚马逊云科技,客户可以选择自己的方式来构建生成式AI:利用专门构建的机器学习基础设施来构建自己的基础模型;利用预训练的基础模型构建应用程序;使用内置生成式AI的服务而无需具备专门的基础模型知识。” 
2,779
1,682,254,800,727
InfoQ
38
去年元宇宙、今年 ChatGPT,我要跟不上技术快速变化的节奏了怎么办?
 文末有惊喜彩蛋哦~ “在2014、2015年,如果你不提移动互联网,显得你特别 low;2015年,如果你不谈O2O,好像都不好意思去创投的所有场合;从2016年底到2017年初,如果你说话时口里不带着大数据,显得你多少有点不合群;2017年上半年,很多人连AI是什么都不知道,嘴里就挂着这个词到处讲。”猎聘网CEO戴科彬虽然在说创投泡沫,但也切实反映出了互联网行业变化之快。 但互联网技术有一个特点:只要种下一粒种子,总会在某个时间开花。“咸鱼翻身” 没人会怀疑,2017年左右的 AI 赛道吸引了大量关注和资金。典型如格灵深瞳的故事。有报道称,当年在一个饭局上,真格基金的徐小平和红杉资本的沈南鹏、联创策源的冯波聊到格灵深瞳的估值。徐小平说起码5000亿美元,沈南鹏说1000亿美元,冯波在争执中给了一个折中价格 3000 亿美元。 但当这些 AI 企业纷纷奔赴IPO时,真相也透过一份份招股书暴露出来:连年亏损、难以商业化。自2019年以来,AI赛道投融资能力下滑明显,旷视科技印奇还在2020年指出所有AI企业都已经步入到“死亡之谷”。整个2022年,AI 四小龙依然活在质疑中。 但没人想到,2022年底,OpenAI 凭借 ChatGPT 再次盘活了 AI 市场,国内外大厂纷纷在控制成本的情况下大力投入AIGC。据民生证券统计,短时间内,国内至少已经有30多家大模型亮相,其中不乏参数规模甚至超过ChatGPT规模的大模型,厂商涵盖了互联网巨头、AI上市公司、服务器龙头企业、科研院所与一级市场创业公司。去年大热的元宇宙、Web3 似乎已经被人遗忘。 AI 起起伏伏,我们能做的永远是打好基础、注重积累、耐心等待。2023年《中国卓越技术团队访谈录》第一期重磅访谈团队中关村科金 AI 平台能力中心,推荐了《知识中台:数字化转型中的认知技术》一书,希望帮助读者快速搭建一套知识中台,实现人工智能和大数据技术在知识管理层面的落地。 另外,该团队还推荐了《人工智能哲学十五讲》。这是一本以哲学的方式把人工智能讲清楚、讲通透的书,书中还探讨了AGI的可行性及伦理影响、军事机器人的伦理是非、儒家与人工智能等多个话题,语言风趣,论证详实。 中关村科金 AI 平台能力中心团队表示, 随着大规模语言模型的火热,“基础大模型+领域知识”的应用将会在企业数字化过程中起到重要作用。“戳破泡沫” 有一些行业正处于挤泡沫阶段,比如国内的数据库行业。数据显示,2021 年,新成立的数据库公司就超过 30 家,获得新一轮融资企业多达 20 家。这一年,中国数据库资本可谓处于泡沫的最顶峰。 虽然资本的青睐带来了数据库厂商的井喷式增长,但产品能力参差不齐、同质化现象严重、技术储备力量不足等问题也阻碍了该行业的发展。多位专家曾对 InfoQ 表示,未来三到五年间,数据库厂商数量将会越来越少,因为客户和应用开发商不可能用那么高的成本去适配和选用不同的数据库,这个市场不可能容得下上百种数据库。 2023年《中国卓越技术团队访谈录》第一期重磅访谈团队的深圳计算科学研究院YashanDB研发团队总监欧伟杰表示,数据库作为基础软件,其产品的易用性往往容易被忽视,数据库开发者更多思考和讨论的是架构、技术或性能等话题。产品的体验提升不是技术的堆砌,需要面向用户的持续打磨。 “像数据库管理系统这样的产品,大部分开发人员自己都不太熟悉,又怎么能做出较好的用户体验。”欧伟杰说道。 因此,欧伟杰推荐了卡耐基·梅隆大学教授Takeo Kanade的《像外行一样思考,像专家一样实践》,并分享道,“研究与开发的有效方式就是要像一个没有专业背景的外行人一样去发挥自己的思考方式,想出点子、创意,然后像专家一样缜密地将其实现。” “从个体角度能亲身体验现代信息科技,身处从未有过的突飞猛进、日新月异的伟大历史阶段是被赋予的幸运。”YashanDB解决方案架构师王义寅说道。 他认为,自从上世纪70年代E.F. Codd奠定了关系模型的理论基础,经过了数十年的发展,数据库管理系统领域仍然充满了发展的活力。他从理论、架构、技术的角度推荐了非常优秀的数据库管理系统理论巨著《Foundations of Databases 》、数据库内核研发人员必读书籍《Database System Implementation》和图灵奖获得者Jim Gray的《Transaction Processing》,希望读者可以获得全面的了解。 2023年《中国卓越技术团队访谈录》第一期重磅访谈的飞轮数据SelectDB团队则为数据库领域开发者推荐了《Fundamentals of Data Engineering》一书,开发者可以了解如何从数据工程的整个生命周期出发、评估并完成可用的最佳技术选型,并通过各种云技术的结合构建稳健的系统架构以满足组织和客户需求。 同时,随着云对数据库影响的深入,飞轮数据SelectDB团队还推荐了从云工程师视角,分享从架构设计到安全合规等多方面实践经验的《97 Things Every Cloud Engineer Should Know》,“(这本书)对于立志打造出伟大云产品的设计者而言提供了许多有价值的参考和启发。“危机四伏” 成熟如云计算,也依然面临着危机。 “我们用过亚马逊云科技、也用过谷歌云,试过裸虚拟机、也体验了 Kubernetes 容器编排。我们知道云能提供哪些功能,其中大部分都有实际应用。现在我们终于得出结论:对于像我们这样一家增长稳定的中型企业来说,租赁基础设施资源总体上看是笔糟糕的买卖。云服务商做出的降低复杂性、控制运营成本等承诺从来就没能实现,所以我们正在筹划脱离云端、重归本地。”Ruby On Rails 之父、Basecamp & HEY 联合创始人 David Heinemeier Hansson 去年的决定,引发了大家共鸣:大家被云成本背刺很久了。 “云计算时代让算力、存储、网络原子化,极大加速了企业软件开发流程。但时代的进步,并不是点状的,算力进步的同时,管理方案也要跟上。”2023年《中国卓越技术团队访谈录》第一期封面故事团队腾讯云原生团队的王涛说道。 为此,他推荐读者可以借鉴《Cloud FinOps》,从诸多现实世界中大型云用户成功或失败的真实案例中吸取经验,给出了如何在组织中建立运营成本优化的现实路径,团结企业多种角色,给出循序渐进的指导方案,助力云上企业降本增效,发挥上云的每一份价值。 于广游则推荐了《公正:该如何做是好?》,这是一本科普书籍,对于生活中很多常见的观念进行探讨。“(这本书)启发了我对任何一个常见的概念的重新思考,进而打开了批判性思维和深度思考的答辩。让我能够更加深入、立体、辩证的看待任何技术。” 而面对云带来很大冲击的运维岗,2023年《中国卓越技术团队访谈录》第一期重磅访谈的阿里云原生可观测团队推荐了《掌握分布式跟踪:微服务和复杂系统性能分析》,运维同学可以通过本书了解分布式跟踪及其相关应用的基本原则和设计思路,从而找到将其应用到自己的项目和系统中的有效方法。 另外,阿里云原生可观测团队还推荐了《性能之巅》一书。“Brendan Gregg 将业界普遍承认的性能方法、工具和指标收集于本书之中,运维、SRE同学可以学习到分析和提高系统与应用程序性能的方法,将之应用于大型企业与云计算这类复杂环境的性能分析与调优。” 正值世界读书日,识别下面二维码,参与免费抽奖活动,大家均有机会获得上述技术团队提到的图书!更重要的是,还有机会获得InfoQ编辑部送出的微信读书年卡!每位参与抽奖的小伙伴都将获得《中国卓越技术团队访谈录》早鸟福利包! 除了2023年《中国卓越技术团队访谈录》第一期技术团队的推荐,InfoQ编辑部还为大家准备了: 《华为团队管理之道》,揭秘了华为如何让20万人的超能组织持续保持活力和高绩效;《腾讯大数据构建之道》,腾讯首次对外披露大数据体系建设,汇集了腾讯几十位一线技术专家铢积寸累的思考和实战精髓; 《架构即未来:现代企业可扩展的Web架构、流程和组织(原书第2版)》,从人、过程、技术三个角度深刻而广泛地讨论了技术管理和技术架构的具体实践经验;《基于NLP的内容理解》,揭秘大模型底层技术,详解文本内容理解和生产的技术细节;《认识AI》,2023不可不读的AI趣味概述,海量漫画帮你轻松发掘ChatGPT带来的商机;《淘宝交付之道》,淘宝官方20年经验总结,8个维度总结淘宝持续、快速、高质交付的方法论和实践;《B端产品方法论:入门、实战与进阶》,系统讲解了B端产品设计、运营、标准化、商业化以及B端产品经理职业成长;《人本:从工业互联网走向数字文明》,作者清楚地解构了工业互联网建设机理与路径,适合中国国情企情,具有现实指导意义。 以上图书,参与抽奖活动均有机会获得哦,快来试试吧! 
6,250
1,682,236,793,425
InfoQ
39
华为投入数千人实现自主可控ERP;SpaceX星舰爆炸了,马斯克:祝贺!谷歌合并旗下两大人工智能部门,加速力战ChatGPT| Q资讯
华为实现自主可控 MetaERP,任正非:今天软件落后但终会强大;SpaceX星舰爆炸了,马斯克:祝贺!宣布裁员2.1万人之后,扎克伯格:未来不排除继续裁员;最新论文显示,ChatGPT 生成的代码安全性远低于最低标准;谷歌合并旗下两大人工智能部门Brain和DeepMind,加速研究力战ChatGPT;三家AI公司要求美国法院驳回版权诉讼:AI生成图像与艺术家作品不相似;杭州一家公司开出320万年薪抢AIGC人才;亚马逊编程助手 CodeWhisperer 正式可用,面向个人开发者免费开放;Stable Diffusion背后团队发布开源大语言模型,可用于本地部署;微软副总裁参与起草,业内最新报告称ChatGPT或会暴露企业机密信息;iOS 17 将支持应用侧载以遵守欧盟监管规定...... 科技公司 华为实现自主可控 MetaERP,任正非:今天软件落后但终会强大 4 月 20 日电,华为宣布已实现自主可控的 MetaERP 研发,基于华为欧拉操作系统、GaussDB 等根技术,并已完成对旧 ERP 系统的替换。ERP 是最关键、最重要的企业级 IT 应用,2019 年受美国制裁后,华为决定启动对旧有 ERP 系统替换,并开启研发自主可控的 MetaERP 系统。 三年来,华为投入数千人,联合产业伙伴和生态伙伴攻坚克难,研发出面向未来的超大规模云原生的 MetaERP。目前,MetaERP 已经覆盖华为 100% 的业务场景和 80% 的业务量,经历了月结、季结和年结的考验,实现了零故障、零延时、零调账。 在华为 MetaERP 表彰会上,华为董事、质量与流程IT部总裁陶景文表示:“面对包含ERP在内的企业作业和管理核心系统的断供停服,我们不仅能造得出来,还换得了,用得好,现在终于可以宣布,我们已经突破了封锁,我们活了下来!”华为创始人任正非则表示,今天在软件上我们还是落后的,但是有一天我们可能会变强大。我们跟合作伙伴在一起共同奋斗,加强合作,为这个国家的安全共同奋斗。 SpaceX星舰爆炸了,马斯克:祝贺! 4月20日,马斯克旗下SpaceX(太空探索技术公司)星舰发射升空,星舰在发射之初姿态正常并成功升空,直至约1分钟时发射现场还响彻观众掌声。但在持续上升的过程中,星舰姿态发生变化,其中3分钟左右时已经能够看到星舰姿态出现明显异常。在飞行不到四分钟后,上级火箭未能按照设计与下级超重型助推器分离,星舰在飞行到接近20英里的高度时剧烈解体。  马斯克此前估计,开发“星舰”耗资约50亿美元,并且这些资金大部分都是来自公司内部。在飞船遭遇“猛烈的计划外解体”后,马斯克在Twitter上说:“祝贺SpaceX团队进行了一次激动人心的测试发射。他们从中学到了许多,有助于几个月后的下一次发射。”同时,NASA局长比尔·纳尔逊(Bill Nelson)在发射后也表示:“祝贺SpaceX的‘星舰’进行了首次综合飞行测试。” 对此,有很多人不理解为什么发射失败还会欢呼庆祝,而SpaceX则表示测试即使失败,那也是成功之母。  宣布裁员2.1万人之后,扎克伯格:未来不排除继续裁员 4月20日,Facebook母公司Meta,进行了最新一轮的4000人裁员,并准备在5月份进行又一轮裁员。今年3月,扎克伯格已表示,该公司将在未来几个月内再裁员1万人。此前,该公司已在去年11月裁员1.1万人。扎克伯格表示,4月份的裁员将影响技术部门,而5月份的裁员将影响公司的业务部门。 扎克伯格告诉员工,公司还可能大幅放缓招聘速度,并表示Meta在未来几年面临着不确定性,不能保证裁员已经结束。他说:“总的来说,我对目前的形势感觉良好,但考虑到市场的波动性,我不想承诺未来不会出现任何问题。我能说的是,我们现在没有什么计划,如果我们做些什么,也会在那个时间框架内。” 扎克伯格在一个问答环节中说道:“从新技术中获得的效率而言,这可能是我们期待的正确模式,这将是一种不同的运营模式,我认为我们可以做得很好。”他还表示,本周对技术人员的裁员“永远是最困难、最具争议的一次”。  谷歌合并旗下两大人工智能部门Brain和DeepMind,加速研究力战ChatGPT 4月21日消息,据报道,谷歌母公司Alphabet将合并旗下的DeepMind和谷歌大脑两个人工智能研究部门,从而结束伦敦和硅谷这两大人工智能研究基地之间的内部竞争,在生成式人工智能领域夺回被微软和OpenAI抢走的失地。 DeepMind成立于2010年,是谷歌在2014年收购的英国公司。此次调整后,DeepMind英国主管蒂米斯·哈撒比斯(Demis Hassabis)将负责合并后的部门。现在的前谷歌人工智能部门负责人杰夫·迪安(Jeff Dean)现在将成为谷歌的首席科学家,并向皮查伊报告。DeepMind和谷歌大脑之前都曾取得过重大研究突破,从而将人工智能变成自互联网诞生以来整个科技行业最重要的新技术。DeepMind最大的突破包括AlphaGo系统,它曾在2016年击败围棋世界冠军李世石。该公司开发的AlphaFold系统则能预测蛋白结构,有可能对医学行业产生深远影响。 此番合并是让Alphabet最先进的研究资源更集中于人工智能建模领域,并直接应用于谷歌的互联网业务。这主要是受到OpenAI旗下的ChatGPT聊天机器人大获成功的刺激。微软多年来一直试图挑战谷歌在互联网搜索行业的地位,但却未能成功,而OpenAI的出现却对谷歌构成了巨大挑战。 三家AI公司要求美国法院驳回版权诉讼:AI生成图像与艺术家作品不相似 此前,一群艺术家指责人工智能企业Stability AI、商业人工智能图像生成服务Midjourney公司和展示用户制作各种艺术品的大型国际社群网站DeviantArt在生成式人工智能系统中使用他们的作品,侵犯了他们的版权。本周二,三家企业对此进行了回击。这些企业认为,人工智能生成的图像与艺术家的作品不相似,而且该诉讼没有指出涉嫌侵犯版权的具体图像。艺术家回称,这些公司未经授权就复制他们的作品来训练系统,并以他们的风格创建人工智能生成的图像,这些行为侵犯了他们的权利。 杭州一家公司开出320万年薪抢AIGC人才 4月15日,据杭州网消息,位于杭州未来科技城一家公司,开出了最高320万年薪,招聘AIGC方向算法工程师一名。ChatGPT在全球掀起了AI热潮,国内互联网大厂纷纷加入战局打造国内版ChatGPT。很多人在担心失业的同时,AI人才则站上了“风口”,遭到爆抢。 最高开出高薪招人的公司,位于杭州未来科技城欧美中心。月薪在10万至20万之间,16薪,相当于一年最高可以拿到320万。根据招聘的岗位要求,计算机、数学相关专业博士,具有扎实的计算机或机器学习算法基础,在相关方向知名国际会议发表过论文;熟悉VAE、GAN、Stable Diffusion等基础生成模型,及相关跨模态模型,熟练使用主流LLM并了解其原理等。  在猎聘上,AIGC方向热招的职位除了图像算法工程师、产品经理,还包括应用研究员、海外运营主管等。月薪普遍在20k-200k之间。另外,AI测试也是急需人才,最近达摩院招聘对话机器人测试开发专家,开出的月薪是50-80k。主要为阿里巴巴人工智能应用平台阿里小蜜提供各种软件测试、白盒测试和性能测试。   IT业界 亚马逊编程助手 CodeWhisperer 正式可用,面向个人开发者免费开放 4月17日,亚马逊云科技宣布,正式推出实时 AI 编程助手 Amazon CodeWhisperer,包括 CodeWhisperer 个人套餐,所有开发人员均可免费使用。开发人员可以通过在他们最喜欢的 IDE(包括 Visual Studio Code、IntelliJ IDEA 等)中使用 CodeWhisperer 来提高工作效率并简化工作。在为常规任务或耗时、无差异的任务创建代码、使用不熟悉的 API 或 SDK、正确有效地使用 AWS API 以及其他常见的编码场景(例如读写文件、图像处理、编写单元测试等),CodeWhisperer 都可以提供帮助。 目前,免费版本可以编写多种语言的代码,包括 Python、Java、JavaScript、TypeScript、C#、Go、Rust、PHP、Ruby、Kotlin、C、C++、Shell 脚本、SQL 和 Scala 。而且,亚马逊云科技特地指出,CodeWhisperer 提供的代码建议并不专门针对使用 AWS的情况。另外,CodeWhisperer 也具有安全扫描功能,可以发现难以检测的漏洞并提出修复建议,扫描生成的代码和开发人员编写的代码,寻找漏洞,例如开放式 Web 应用程序安全项目(OWASP)中列出的前十大漏洞。如果发现漏洞,CodeWhisperer 会提供建议,帮助修复问题。 Stable Diffusion背后团队发布开源大语言模型,可用于本地部署 4月19日,开发AI图像生成工具Stable Diffusion的创业公司Stability AI宣布,发布并开源该团队训练的大语言模型StableLM。根据该团队的公告,目前StableLM的“阿尔法版本”中拥有30亿和70亿参数的模型已经可以从GitHub等开源平台上下载,后续还将推出150亿至650亿参数的版本。 与Stable Diffusion类似,StableLM同样支持知识共享4.0协议,开发者可以在遵守协议的情况下,将这个模型用于商业或研究活动。Stability AI介绍称,StableLM可以生成文本和代码,并将助力一系列下游应用。并且与GPT-4等超级大模型不同,Stability AI的产品可供每一个人下载并部署在本地。这家公司在去年发布的Stable Diffusion,使得AI“文生图”赛道成为AIGC领域商业化前景最为明朗的行业。 微软副总裁参与起草,业内最新报告称ChatGPT或会暴露企业机密信息 本周,以色列网络安全公司Team8在一份最新报告中表示,使用ChatGPT等生成式人工智能工具的公司,可能会将客户信息和商业机密置于危险之中。 该报告指出,新型人工智能聊天机器人和协作工具的广泛推广普及,可能会令一些公司面临数据泄露和法律风险。许多人眼下已担心,黑客可能会利用人工智能聊天工具,来获取敏感的企业信息或对企业发动攻击。此外,目前投喂给聊天机器人的机密信息,未来也有可能会被AI公司所利用。 这份报告的发布方——Team8在全球网络安全领域享有盛名,这家以色列公司成立于2014年,由前以色列国防军精英部队“8200部队”的成员创立,专注于网络安全、数据分析和人工智能等领域。巴克莱、微软、沃尔玛和思科等多家全球巨头企业都与Team8有着合作和投资关系。 根据媒体看到的信息,微软公司副总裁Ann Johnson参与起草了这份报告。微软已经向ChatGPT的开发者Open AI投资了数十亿美元。微软发言人表示,“微软鼓励就安全和人工智能领域不断发展的网络风险进行透明讨论。” iOS 17 将支持应用侧载以遵守欧盟监管规定 苹果将在 iOS 17 中首次加入对应用侧载(sideloading)的支持,允许 iOS 用户安装从官方商店 App Store 之外下载的应用,比如应用的官网,这意味着应用开发商不需要向苹果支付 15% 到 30% 的分成。 欧盟的数字市场法 Digital Markets Act (DMA)于 2022 年 11 月 1 日生效,要求苹果等担负起守门人角色的巨头向其他公司和开发商开放其服务和平台。为了遵守欧盟的监管规定,苹果计划在明年前支持侧载。首先,侧载变化将仅限于欧盟的客户,但随着其他国家通过类似于欧洲数字市场法案的立法,苹果可能会扩展该功能。  最新论文显示,ChatGPT 生成的代码安全性远低于最低标准 4月21日消息,在对大型语言模型的狂热兴趣中,加拿大魁北克大学的四名研究人员深入研究了 ChatGPT 生成代码的安全性。 在题为“ChatGPT 生成代码的安全性如何?”的论文中,计算机科学家 Raphaël Khoury、Anderson Avila、Jacob Brunelle 和 Baba Mamadou Camara 的研究基本等于是说“ChatGPT的安全性不是很好”。四位作者在使用C 、C++ 、python、html和 Java 五种编程语言,生成 21 个程序后得出了该结论。 “结果是很令人担忧的,”作者们在他们的论文中说。“我们发现,在某些情况下,ChatGPT 生成的代码远低于适用于大多数情况的最低安全标准。”事实上,“ChatGPT 能够识别到,而且确实很乐意承认,它的代码中存在严重漏洞”, 但除非被要求评估其代码安全性,否则它自己不会指出。 他们还引用了一个 Java 反序列化漏洞示例,其中“聊天机器人生成了易受攻击的代码,并提供了如何使其更安全的建议,但表示无法创建更安全的代码版本。”
3,368
1,682,215,200,685
InfoQ
40
3年不用云能节省4亿美元!想知道我们为什么敢不用AWS吗?
最近,用于 IT 基础设施的云非常流行,上云也已经成为一种趋势。基础设施即服务(IaaS)云提供了多种优势:灵活性、短部署时间、易扩展、可全球诸多地区即时存在……云服务提供方通过提供方便且普遍易用的服务已经成为资深技术服务外包,凭借其出色的营销、大会、认证和精心挑选的的用例场景,轻易地让人们相信云才是现代企业技术的唯一合理目标。但有时,这些外包云效益的成本却能高上天。如此之高的成本让我们开始忧虑,如果将基础设施百分比上云,我们的业务是否还能存在。由此引出了我们对此切实的比较,答案就在本文之中。Ahrefs 自身硬件概览Ahrefs 在新加坡租用了一个基础设施相当单一的主机托管数据中心。因此,我们选择汇总这个数据中心的所有费用,除以服务器的数量,并与可以被看作是世界领先的 IaaS 示例的亚马逊网络服务(AWS)云中等价安装模式的费用进行比较。Ahrefs 的服务器我们的硬件还算是比较新。2020 年中新冠封锁高峰期签订的代管合同,其他所有安装的设备都是在这之后购入的。数据中心的服务器上也有类似的配置,唯一的区别在于两代核心数量相同的 CPU。我们用的是高核心数的 CPU,2TB 内存,以及每台服务器的 2x 100 Gbps。平均下来,我们的服务器有大约 16x 15TB 的驱动。对至于每月的成本,假设所有的硬件将只使用五年,超过五年的使用都视作是“免费”,那么,每月初始设备的成本是就是原始价格除以 (5 * 12 = 60 个月)。目前,包括租金和电费在内的所有费用都是统计截止至 2022 年 10 月之前的,虽然我们也受到通货膨胀的影响,但把这点也考虑进去只会让计算更为复杂,因此我们暂时忽略了这一点。我们的主机托管费用包括两个主要部分:租金和事实消耗的计量电力。自 2022 年初以来,电价已大幅上涨。我们这里计算使用的是最近、也最为高昂的电费,而非使用整体租凭期间的平均电费,因此,计算结果会相较实际略高。这对 AWS 来说算是优势。此外,我们的费用还包括数据中心和我们的所在点之间的网间结算(IP Transit)以及裸光纤。下表展示了我们平均每月每台服务器的支出情况。服务器硬件占据整月支出的三分之二,而数据中心租金与电力(DC)、互联网服务提供商(ISP)与网间结算、暗光纤(DF)和内部网络硬件(Network HW)则占剩余的三分之一。我们自身的公司内硬件成本结构AWS 的成本结构我们这次分析的主机托管位于新加坡,因此我们会对比 AWS 在亚太(新加坡)地区的价格。AWS 的成本结构与主机托管不同。可惜 AWS 没有与我们核心数量相同的 EC2 实例,因此我们选择两个具有一半数量的内核加上 1 TB 内存的 EC2 配置成本,对比一台 Ahrefs 服务器的成本。此外,考虑到 EC2 的长期使用,我们会将保留三年的 EC2 实例最低价格与使用五年的内部服务器进行比较。除了 EC2 实例外,我们还加上了弹性块存储(EBS)。相较我们在服务器中所用的大且快的 NVMe 驱动而言,并不算是直连存储的完美替换。为了简化计算,我们选择更为廉价但也更慢的 gp3 EBS,其成本由两部分组成:存储大小和 IOPS 费用。在服务器上,每个数据块都留有两份副本,但我们在 EBS 上只购买了用于解决复制问题的可用空间。因此,我们要考虑的是 gp3 存储大小应是我们驱动器大小除以 2 的等价:(1*1TB+16*15TB)/2≈120TB 每服务器。计算中没有算上更高 IOPS 的成本,同时也摒弃了 EBS gp3 的多种限制。举例来说,gp3 最大吞吐量每实例为 10GB/s,而每个 PCIe Gen 4 NVMe 驱动器的性能是 6-7GB/s,我们有 16 个后者这样的驱动器并行运作。这不是完美对称的比较,但会大幅降低 AWS 的存储成本,让其占据进一步的优势。与主机托管的按带宽收费不同,AWS 是按下载的 GB 数收费。因此,我们会粗略估计每台服务器的平均下载量,并按照这个数字来计算 AWS 的网络。将所有三个部分结合起来,我们得出 AWS 的成本分布如下:AWS 成本结构自有硬件对比 AWS从上面的表格中我么可以看出,预想之中的 AWS 成本要高上许多。自有硬件对比 AWS EC2 每月开销将 EC2 实例用 AWS 中类似可用的 SSD 空间替换,花销基本等同于主机托管数据中心的 11.3 个服务器。这也就意味着,我们的 20 台服务器的机架将变成只有两台左右的服务器。20 台 Ahref 服务器对比 AWS 的 2 台服务器假设我们在数据中心实际使用的两年半时间中,运行这 850 台服务器,那么按完计算器后我们就能清楚看到其中巨大的差异:30 个月内 850 台服务器使用 AWS 对比使用公司内情况我们需要额外支付 AWS 高达 4 亿多美元的费用,才能确保我们在新加坡的基础设施能自 2020 年起持续运转。你可能会问,“也许 Ahref 能承担得起这个费用?”的确,Ahref 是一家盈利且持续发展的公司,那么让我们把 Ahref 的利润纳入计算的考量中看看。但即使如此,Ahref 作为私企没有义务公开我们的财政数据。不过,《海峡时报(Straits Times)》中刊登的 2022 和 2023 年新加坡发展最为迅速的公司文章中,也包含了 Ahref 在 2020 年和 2021 年的收入数据。我们可以据此,线性计算 Ahref 在 2022 年的收入,虽然只是粗略估计,但也足以让我们得出部分结论。Ahrefs 于 2020 年至 2022 年收入估算从上表中我们可以看出,Ahrefs 在过去三年间的总收入约为 2.57 亿美元。但根据上文中的计算,转换至 AWS 数据中心将带来约 4.48 亿美元成本。由此可得,公司的收入甚至无法覆盖两年半的 AWS 使用成本。真是惊人的结果!那么 Ahref 的这么多利润都花在了哪里呢?正如这篇 20 年前由 LJ Hart-Smith 为波音公司撰写的报告中所述:“如果主制造商或系统集成商无法通过输出工作机会而发财,那还有谁会赚钱?当然是分包商。”别忘了,我们已经给了 AWS 不少计算中的优势。我们的主机托管数据中心的电费花销是高于平均值的,也只计算了 EBS 部分的存储,还忽略了 EBS 存储极其缓慢的速度。再加上这个新加坡的数据中心也不是我们唯一的成本中心,我们在其他数据中心、服务器、服务、人力、办公室、营销活动等等方面也都有开销。因此,如果云计算是我们的主要基础设施目的地,Ahrefs 将很难生存。其他考量本文中没有纳入考量范围的其他方面只会让计算更为复杂,这些因素中包括人员技能、财务控制、现金流、取决于负载类型的能力规划等等。结论在过去的两年半间,Ahref 通过确保其基础设施百分百地不在 IaaS 云中,已经节省了约四亿美元,这个数字还将继续增长,因为我们正使用新硬件启动另一套大规模主机托管数据中心。虽然 Ahref 在全球各地的前端托管会因使用 AWS 而受益,但 Ahref 基础设施的绝大部分都隐藏在自有硬件的主机托管中。如果将产品百分百上云,那么 Ahref 将不再有利润,甚至也不再会存在。我们可以将百分百上云导致的十倍有余基础设施成本节省下来,用于实际的产品开发和优化。由此带来更快更好的结果会让我们的服务器比云计算在其局限内能提供的快上许多报告。因此,我建议对可持续增长感兴趣的 CFO、CEO,以及企业主重新思考并定期评估云的优势与其实际的成本。虽说云计算是早期创业公司的首要选择,但随着公司及其基础设施的发展,百分百留在云上的基础设施可能会导致公司沦陷。这就是困境所在了。一旦上云,再想离开就会非常复杂。云虽然方便,但也是锁定性质的。此外,因为成本提高便抛弃云基础设施,这大概不会是工程团队所希望的,后者可能会偏见地认为云环境相比老式带有物理服务器的实体数据中心而言,是要更容易且更灵活。对更为比较成熟的公司而言,从云端迁移到自己的基础设施并不轻松。如何在迁移过程中保持公司的活力也将会是个挑战。但这种痛苦的迁移可能就是拯救公司的关键,如此一来公司无需再向云服务提供商支付越来越多的收入分成。FAANG(Facebook、Apple、Amazon、Netflix、Google)等大公司多年来在就业市场中吸收了大量工程师,用于管理他们庞大的数据中心和基础设施,只给小公司留下一点点肉汤。但随着近几月科技巨头的大规模裁员,这或许是一个重新评估云计算方法的机会,可以考虑从云计算反方向迁移,并雇佣数据中心领域经验丰富的专业人士。而如果你要创建一个新公司,或许可以将购入的机架和服务器放在你的地下室里。这大概会从第一天起便改善了公司的可持续性。原文链接:https://tech.ahrefs.com/how-ahrefs-saved-us-400m-in-3-years-by-not-going-to-the-cloud-8939dd930af8相关阅读:如何将 AWS Lambda 与 Spinnaker 集成AWS 发布 180 项新服务与功能AWS 加速西门子智能家居系统的云上构建AWS Graviton2 | 匠“芯”定制,性能为王
6,548
1,681,988,337,981
InfoQ
41
都是做 AIGC,亚马逊云科技怎么就那么“不一样”?
去年起,生成式 AI 技术的发展引起了广泛关注,其中就包括 OpenAI 的 ChatGPT 模型,ChatGPT 模型甚至可以算为自然语言处理领域的重要里程碑之一,不仅在各种应用场景中得到了广泛的应用,同时也激发了各大科技公司的竞争热情。4 月 13 日,在 AIGC 圈内一直处于“隐身”状态的亚马逊云科技突然加入生成式 AI 竞赛。不鸣则已一鸣惊人,与大多服务 C 端用户的科技公司和那些选择在热点期发布 AIGC 产品不同的是,拥有丰富企业服务经验的云厂商亚马逊云科技打出了一套组合拳,结合多年对企业需求的观察,依托自己在云资源、云计算、机器学习技术研发等多方面的优势,从大模型到生成式 AI 工具,为大家交上了一份漂亮的答卷:推出 Amazon Bedrock 服务和 Amazon Titan 大语言模型,以帮助云企业提高效率和创新能力;提供两款基于自研 AI 训练 (Trainium) 与推理芯片 (Inferentia) 的专门针对生成式 AI 优化的高性价比的虚机实例 EC2 Trn1n 和 EC2 Inf2,帮助企业大幅节省生成式 AI 训练和推理的成本;发布 AI 编码助手 Amazon CodeWhisperer,面向所有个人用户免费开放,不设任何资质或使用时长的限制!一、意料之中:亚马逊云科技基于 2B 经验及 ML 优势交出“漂亮答卷”在过去几个月,全球的科技公司几乎都发布了自家的 AIGC 类产品,生成式预训练语言模型更是成为了各家技术的博弈点。在这个过程中,亚马逊云科技的动作显得慢了一些,但其实一直在背后憋大招。上周五亚马逊云科技终于发布了生成式 AI 系列重磅产品,性能都颇为强悍,但也都在意料之中。为什么会这样说?以 ChatGPT 为代表的 AIGC 日益火热,让大家对 AI 技术产生了新关注。AIGC(生成式 AI)其背后的核心技术之一就是机器学习(ML),机器学习算法可以根据用户的输入和提示生成内容,这些内容包括但不限于文本和图片;机器学习模型则是基于大量数据进行预先训练的大模型,被称为基础模型(Foundation Models)。而机器学习创新一直是亚马逊云科技的 DNA。我们能看到,亚马逊云科技多年来一直在不断降低机器学习技术的使用门槛,为机器学习提供高性能、可伸缩的基础设施和具有超高性价比的机器学习训练和推理,在人工智能和机器学习堆栈的三个层级都投入了众多技术研发成本,产出了不少重磅的产品组合。亚马逊云科技拥有超过 20 年人工智能和机器学习的实践经验,在赋能自有业务与千行百业创新方面做出了很多成绩。亚马逊云科技给企业提供的许多功能都是由机器学习驱动的,比如电商推荐引擎、运营中心捡货机器人的路径选择以及供应链、预测和产能规划等;又比如亚马逊云科技自己的 Prime Air(无人机)和 Amazon Go(线下无人零售实体店)中的计算机视觉场景中也都使用了深度学习技术。这些技术上的积累,让亚马逊云科技站在了机器学习领域前沿,他们观察到目前机器学习技术正处于“拐点期”,计算能力提升、数据增长、模型复杂度提高三大因素正在驱动着机器学习技术的下一步演进。机器学习技术的演进直接带来了基础模型的爆发式增长,据亚马逊科技公开演讲中的数据,该类模型通常包含数十亿个参数或变量,像 2019 年最大的预训练模型是 3.3 亿个参数,但现在最大的模型的参数已超过 5000 亿,这相当于在这几年间,变量增加了 1600 倍。同时,亚马逊云科技在与 Intuit、汤森路透、阿斯利康、法拉利、德甲联赛、3M 和宝马等数以万计的企业打交道的过程中,发现了许多企业对于生成式 AI 的诉求。根据当前大多业务的发展,企业需要能够直接找到并访问高性能基础模型,这些模型需要能够给出最匹配业务场景的优秀反馈结果。紧接着企业希望无缝与应用程序集成且无需管理大量基础设施集群的同时,还不会增加太多成本。在落地过程中,企业还需要自己的技术团队能够快速上手,能够基于基础模型利用自己具有“弹性”的数据构建差异化的应用程序。此外,企业需要在保证数据安全和隐私保护的同时,还能够控制数据共享和使用。当下的企业需求确实比较复杂,但“复杂性”也不是一朝而成的,而亚马逊云科技作为行业发展的观察者,也早早就在机器学习方面做不同程度的技术探索,将这些企业痛点逐一击破。可以说,我们今天看到的亚马逊云科技发布的生成式 AI 和大模型产品,其实早就有迹可循。图:在亚马逊云科技平台上构建生成式 AI二、与众不同:亚马逊云科技的生成式 AI 主要面向企业亚马逊云科技的天然基因就是有足够丰富的企业服务经验,所以与其他家推出的面向大众的 AIGC 类的产品不同,亚马逊云科技此次推出的产品,主要是瞄准了企业,深入对云基础设施和应用程序的变革,以推动生成式 AI 的创新。为了解决企业需求,亚马逊云科技的生成式 AI 技术在过去几年里主要做了以下 5 方面的技术探索:灵活性:从 AI21 Labs、Anthropic、Stability AI 以及 Amazon 构建的基础模型中选择,以找到适合企业使用的模型。安全自定义:仅需数个已标记样本,就可为企业企业定制基础模型。由于所有数据均已加密,不会从亚马逊云科技虚拟私有云(VPC)泄露企业数据,所以数据将始终保持私密且机密。成本效益不错的基础设施:利用由亚马逊云科技设计的机器学习芯片和 NVIDIA GPU 驱动的基础设施,可为生成式人工智能带来最佳性价比。经济有效地扩展基础设施,以训练和运行包含数千亿个参数的基础模型。轻松上手基础模型构建:使用熟悉的控件与亚马逊云科技能力和服务,如 Amazon SageMaker 和 Amazon S3 的深度和广度的集成,快速将基础模型集成并部署到企业在亚马逊云科技上运行的应用程序和工作负载中。生成式 AI 技术支持的解决方案:由于内置生成式人工智能,如 Amazon CodeWhisperer(一种人工智能编码伴侣)等服务可帮助企业提高效率。此外,可使用亚马逊云科技样例解决在方案部署中常见的生成式人工智能案例,如调用归纳总结与问答。此类解决方案将亚马逊云科技人工智能服务与领先的基础模型相结合。在企业的期待中,亚马逊云科技在本次发布会中推出了 Amazon Bedrock 和 Amazon Titan 模型,借助基础模型构建和扩展生成式 AI 应用程序的最简单途径。Amazon Bedrock 既提供自研的大语言基础模型—— Amazon Titan Text 、Amazon Titan Embeddings,也与 AI21 Labs、Anthropic、Stability AI 等基础模型提供商广泛合作,助力企业轻松灵活构建生成式 AI 应用,降低所有开发者的使用门槛。展开来讲就是,在 Bedrock 上,用户可以通过可扩展、可靠且安全的亚马逊云科技托管服务,访问从文本到图像的一系列强大的基础模型以及 Amazon Titan 基础模型。凭借 Bedrock 所带来的无服务器体验,企业可以快速找到适合自身业务的模型,在确保数据安全和隐私保护的前提下,使用自有数据基于基础模型进行个性化定制,将定制化模型集成并部署到他们已有的应用程序中,不需要管理其他任何基础设施。Bedrock 最突出的能力就是极易定制模型,企业只需要向 Bedrock 提供 Amazon S3 中的 20 个标注好的数据示例,Bedrock 就可以针对特定任务完成模型微调,整个过程中,用户数据不会离开 VPC,有效地保证了用户的数据安全与隐私。另外值得一提的是,Bedrock 还允许用户通过 API 访问来自 AI21 Labs、Anthropic、Stability AI 和亚马逊云科技的基础模型,Bedrock 的 serverless 方案,让用户只需调用 API,不需要关心底层基础设施,就可以轻松获得多语言 LLM 用于生成西班牙语 / 法语 / 德语 / 葡萄牙语 / 意大利语 / 荷兰语文本、LLM 用于会话和文本处理任务、文生图等大模型能力。左:来自亚马逊云科技的基础模型;右:来自 AI21 Labs、Anthropic 和 Stability AI 的基础模型为了持续推动生成式 AI 在企业落地更多优秀实践,亚马逊云科技发布的 Titan 基础模型可以识别和删除客户提交给定制模型的数据中的有害内容,拒绝用户输入不当内容,过滤模型中不当内容的输出结果。本次亚马逊云科技的发布会上主要发布了两个 Titan 模型——针对总结、文本生成、分类、开放式问答和信息提取等任务的“生成式大语言模型”及能够将文本输入翻译成包含语义的数字表达的“文本嵌入(embeddings)大语言模型”。虽然这种大语言模型不生成文本,但在个性化推荐和搜索等应用程序上面的表现却十分亮眼,因为相对于文字匹配,编码对比可以帮助模型反馈更相关的结果。三、技术革命:生成式 AI 也需要生态事实上,无论运行、构建还是定制基础模型,除了这些业务需求,企业技术的底层需要还是离不开高性能、低成本且为机器学习专门构建的基础设施。于是,亚马逊云科技不只是在模型上下功夫,在生态方面也做了一些努力。亚马逊云科技扩大了对定制芯片的创新,在本次发布会上,亚马逊云科技全新推出了两款专门针对生成式 AI 优化的计算实例 EC2 Trn1n 实例和 EC2 Inf2。图:亚马逊云科技专为生成式 AI 设计的加速器其中需要说明的是,训练实例 EC2 Trn1 由其自研芯片 Trainium 支持,与其他任何 EC2 实例相比,可节省高达 50% 的训练成本,历经优化后,已经可以在与高达 800Gbps 的第二代 EFA(弹性结构适配器)网络相连的多个服务器上分发训练任务,但 Trn1n 实例更为强悍它可以提供 1600 Gbps 的网络带宽,专为大型网络密集型模型设计,其性能比 Trn1 高出 20%。企业在超大规模集群中部署 Trn1 实例时,数量就已经可以扩展到在同一可用区中 3 万个 Trainium 芯片,相当于超过 6 exaflops 的计算能力。Helixon、Money Forward 和亚马逊云科技的搜索团队曾在使用 Trn1 实例后,将训练大规模深度学习模型的时间从几个月缩短到了几天。所以,如果不出意外,此次亚马逊云科技发布的性能全面提升的全新网络优化型 Trn1n 实例将会带给我们更多惊喜。无独有偶,2018 年亚马逊云科技发布了首款推理专用芯片 Inferentia,亚马逊云科技使用 Inferentia 运行了数万亿次推理,节省了数亿美元的成本,此次推理实例 Inf2 则是基于其自研芯片 Inferentia2,针对运行数千亿个参数模型的大规模生成式 AI 应用程序进行了优化,吞吐量提高了 4 倍,延迟降低了 10 倍,从这个数据来看,亚马逊云科技再次帮助企业大幅节省了生成式 AI 训练和推理的成本。此外,Inferentia2 还可实现加速器之间的超高速连接以支持大规模分布式推理,与同类 Amazon EC2 实例相比,这些能力将推理性价比提高了 40%,并把云中的推理成本降到最低,企业利用 Inferentia2 可将部分模型的吞吐量提升至原来的两倍。除了在芯片方面的创新,亚马逊云科技还发布了 AI 编码助手 Amazon CodeWhisperer,这是一款面向个人开发者免费使用的辅助代码编写工具,是一种人工智能代码生成扩展,目标是提高软件开发者的工作效率。开发者可以在没有亚马逊云科技账户的情况下,用邮箱完成 CodeWhisperer 的注册后开始使用,同时该工具对开发者不设任何资质或使用时长的限制。图:CodeWhisperer 三大能力CodeWhisperer 可以更快地完成更多工作,避免软件开发人员花费大量时间编写非常简单且无差别的代码,CodeWhisperer 作为 AI 编码伴侣,它使用引擎盖下的 FM 通过根据开发人员的自然语言评论和集成开发环境 ( IDE ) 中的先前代码实时生成代码建议,从根本上提高开发人员的工作效率。在软件供应链安全问题频发的今天,CodeWhisperer 有一个非常突出的亮点,其可以增强代码的安全性,该工具利用了亚马逊云科技在安全方面的积累来扫描各种安全问题,能自动扫描代码中的安全漏洞并帮用户修复。目前该工具提供 Python、Java、JavaScript、TypeScript、C#、Go、Kotlin、Rust、PHP 和 SQL 等十余种开发语言供开发者选择,同时开发者还可以通过在 VS Code、IntelliJ IDEA、Amazon Cloud9 等集成开发环境中的 Amazon Toolkit 插件访问 CodeWhisperer。构建像 CodeWhisperer 这样强大的应用程序对开发人员来说是变革性的,但是从整个生成式 AI 生态的发展来看,利用正确的基础模型进行构建相关工具是非常有必要的。生成式 AI 的发展永远不仅仅是大模型,它需要在基础设施、一站式应用开发工具等层面“全面开花”,而亚马逊云科技已经为行业做出了一个很好的表率。纵观整个行业的发展,对于云厂商来说,只有打造生态协同效应,切实帮助企业实现降本增效,才能走得更远。而形成“大小生态”的良好闭环是打造生态协同的必由之路,亚马逊云科技似乎就是在探索这样的一条路。人工智能作为云计算的一部分,人工智能产品构建自己的“AI 小生态”,通过“小生态”的构建去推动“云平台大生态”的发展,云厂商再利用“大生态”的势能反哺“AI 小生态”,转而促进单一 AI 能力的发展。从目前亚马逊云科技搭建的“AI 小生态”来看,这些生成式 AI 能力和工具,不再是那些冰冷的性能提升数字,而是卓越性价比,为企业解决问题提供了切实可行的企业技术解决方案。回溯本身,亚马逊云科技之所以能够实现这些突破,源于将每一个客户的难题都视为一个新的探索方向,将“探索精神”和“创新精神”贯彻始终,输出接地气的技术能力和解决方案。不积跬步无以至千里,亚马逊云科技凭借其多年来积累的企业服务经验,深刻理解企业需求,并在实际业务中持续获取洞察,这必定能帮助亚马逊云科技在市场竞争中脱颖而出。据悉,近期亚马逊云科技在生成式 AI 能力方面的发声不仅只有这一次发布会,有内部消息称,5 月 25 日将举办亚马逊云科技大模型及生成式 AI 发布深度解读大会,感兴趣的同学可以立即点击此处进行报名。
4,125
1,681,971,057,702
InfoQ
42
亚马逊云科技开源Mountpoint for Amazon S3,通过挂载点技术简化 Amazon S3 对象存储的使用
在Pi Day活动期间,AWS发布了Mountpoint for Amazon S3,这是一个开源文件客户端,可以提供Amazon S3的高吞吐量访问。该工具目前处于Alpha阶段,其本地挂载点提供了很高的单实例传输速率,主要用于数据湖应用程序。 Mountpoint for Amazon S3将本地文件系统API调用转换为S3对象API调用,如GET和LIST。它支持对文件进行随机和顺序读操作,支持列出文件和目录。但该Alpha版本不支持写入操作(PUT),预计将来只支持新对象的顺序写入。 AWS学者、德克萨斯大学助理教授James Bornholt、AWS高级产品经理Devabrat Kumar和AWS杰出工程师Andy Warfield承认,该客户端不是一个通用的网络文件系统,并且在文件操作上有一些限制,他们写道: Mountpoint是为大规模分析型应用程序而设计的,它们可以并行读取和生成大量的S3数据,但不需要向现有对象中间写入数据。Mountpoint允许你将S3存储桶或前缀映射到实例的文件系统命名空间,遍历存储桶的内容,就像它们是本地文件一样,并实现对对象的高吞吐量访问。 这个开源客户端没有模拟目录重命名等操作,因为那会产生S3 API调用,或者说需要S3 API不支持的POSIX文件系统特性。 Mountpoint for S3并不是第一个将S3作为文件系统呈现的客户端,我们也可以使用Goofys和s3fs这些流行的开源选项通过FUSE挂载桶。在Reddit上,有一些开发人员质疑新客户端的必要性,并担心它会被用在数据湖之外的领域,Bornholt、Kumar和Warfield写道: Mountpoint并不是第一个用于访问S3的文件客户端——有几个开源的文件客户端,我们有客户使用过。然而,我们从这些客户那里都听到过的一个话题是,他们希望这些客户端能够提供与S3 REST API和AWS SDK相同的稳定性、性能和技术支持。 新客户端使用Rust在大多数AWS SDK都使用的公共运行时(CRT)上构建,它依赖于自动推理来验证文件系统语义。The Duckbill Group首席云经济学家Corey Quinn在推特上写道: 哦不,AWS做了什么?15年来,我之所以没有呼吁人们不要将S3用作文件系统,就是希望S3团队自己来做这件事! 云专家和AWS无服务器英雄Ben Kehoe提醒说: 使用文件概念来考虑S3会使你对API的语义产生误解,最终做出错误的假设,当系统总是因为这些假设不成立而出现轻微的故障时,你就要难过了。 Mountpoint遵循Apache License 2.0许可,尚不能应用于生产工作负载。GitHub上提供了初始Alpha版本和公共路线图。  原文链接:https://www.infoq.com/news/2023/03/mountpoint-amazon-s3/相关阅读:通过 Amazon Managed Microsoft Active Directory 运行混合 Active Directory 服务亚马逊云科技为蓝绿及金丝雀策略引入 CloudFront 持续部署
2,732
1,681,948,800,620
InfoQ
43
GPT-5根本不存在!OpenAI CEO表态;王小川讽刺李彦宏活在平行宇宙,百度肖阳回击;阿里、亚马逊等相继发布大模型产品|Q资讯
科技公司OpenAI CEO Sam Altman 近日确认,公司目前没有训练 GPT-5,并且“短期内也不会训练。” 近日一封公开信要求像 OpenAI 这样的实验室暂停开发“比 GPT-4 更强大”的 AI 系统。在 MIT 的一个活动上,Altman 表示,这封信“缺少大部分技术细节,无法了解需要暂停的地方”,并指出“我们现在没有训练,也短期内不会训练 GPT-5。” 然而,没有在训练 GPT-5 并不意味着 OpenAI 不再拓展 GPT-4 的能力。Altman 强调,他们也在考虑这项工作的安全性问题。“我们正在 GPT-4 之上做其他事情,我认为这些都涉及到安全问题,这些问题在信中被完全忽略了,”他说道。 王小川讽刺李彦宏活在平行宇宙,百度肖阳回击 据报道,对于李彦宏关于“百度的文心一言和OpenAI差距可能在两个月左右”的说法,王小川直言称,这肯定是平行宇宙里的李彦宏说的,不是我们这个世界里的。王小川表示,文心一言不可能和OpenAI差距只有两个月,如果真是如此,那肯定是另一个宇宙。 对于王小川的评论,百度集团副总裁、搜索平台负责人肖阳发表回应称:百度做AI,始终相信长期主义的价值。我们向来不回避与国外的差距,但这个差距到底在什么位置,一线的都懂。“天上一天,人间一年。”王小川脱离一线太久,确实跟我们不在一个宇宙,自然对国内人工智能技术的发展缺乏了解。 百度打假:各种商店的“文心一言”都是假的,将起诉苹果 近日,百度AI官方通过微信公众号发布声明称:目前文心一言没有任何官方App,在公司官宣前,凡是在AppStore和各种应用商店看到的文心一言App都是假的,凡是声称有文心一言源代码的都是骗子。同时百度还表示,公司已向北京市海淀区人民法院对苹果公司及相关开发者团队发起诉讼。 马斯克表面呼吁暂停,暗中购买上万个 GPU 推进 AIGC 项目 据知情人士透露,尽管马斯克签署了公开信,呼吁暂停先进人工智能研究六个月,但其却暗中在推特推进新的AIGC项目,并为此购买了上万个 GPU(图形处理器)。 截至 3 月初,马斯克已经正式从 Alphabet 旗下人工智能研究子公司 DeepMind 聘请了工程师Igor Babuschkin和Manuel Kroiss。至少从 2 月份开始,马斯克就与包括Igor 在内的人工智能领域人士接洽,希望开始自己的人工智能项目,以与 ChatGPT 竞争。 战况正酣!阿里、亚马逊等相继发布大模型产品 4月11日,阿里云峰会正式推出大模型产品“通义千问”。据悉,阿里所有产品未来将接入通义千问进行全面改造,钉钉、天猫精灵率先接入测试,将在评估认证后正式发布新功能。阿里云智能CTO周靖人介绍,未来每一个企业在阿里云上既可以调用通义千问的全部能力,也可以结合企业自己的行业知识和应用场景,训练自己的企业大模型。 4月10日,商汤科技宣布推出大模型体系“商汤日日新大模型”,包括自然语言生成、文生图、感知模型标注以及模型研发功能。此外,商汤科技还宣布推出了商汤自研中文语言大模型应用平台“商量”(SenseChat)。 4月14日,亚马逊云科技宣布,推出生成式人工智能服务Bedrock以及自有的大语言模型Titan。对于该模型与OpenAI发布的GPT-4在表现上的差异,亚马逊并未给出说明,但其强调,AIGC技术总体上仍处于“早期阶段”。 Databricks 公司两周前发布了它的指令遵循(instruction-following)大语言模型 Dolly,本周三它发布了 Dolly 2.0——可授权商业使用的开源指令微调大语言模型。Dolly 2.0 有 120 亿参数,基于 EleutherAI pythia 模型家族,使用高质量的人类生成的指令遵循数据集进行微调。Databricks 开源了 Dolly 2.0 的整个系统,包括训练代码、数据集和模型权重,全都适合商业使用。而目前开源社区流行的 LLaMA 衍生模型使用的是非商业使用授权。 图源:广发传媒互联网 另外,近期市场频繁传出“华为云官网即将上线盘古系列AI大模型,分别为NLP大模型、CV等,已被标注为即将上线状态”的消息。对此,华为云方面暂未回应。与此同时,经从华为云官方微信、微博等官方渠道查证,华为云从未明确表示4月将发布新的大模型,也从未透露过有关盘古大模型的产品计划。知情人士透露,华为云即将上线盘古系列AI大模型疑似资本炒作。 首度超越腾讯、阿里,字节跳动成中国最赚钱互联网公司 据英国《金融时报》报道,字节跳动在2022 年又一次实现了业绩快速增长,盈利指标已经盖过老牌巨头腾讯以及阿里巴巴。据两位获得公司报告的投资人透露,字节跳动的息、税、折旧、摊销前利润(EBITDA)在 2022 年达到近 250 亿美元(约 1717.5 亿元人民币),较前年的 140 亿美元(当前约 961.8 亿元人民币)暴增 79%。字节跳动的这项财务数据在 2022 年已经超过老牌科技龙头腾讯和阿里巴巴。 据统计,腾讯和阿里巴巴这两家公司在 2022 年的 EBITDA 分别为 1640 亿元和 225 亿美元。投资人同时透露,字节跳动营收也维持近 30% 的同比涨幅,达到 850 亿美元,展现出广告主们继续在短视频平台抖音、TikTok 上加码投入。 腾讯定性此前微信QQ故障为一级事故,多位高管遭处罚 此前3月29日凌晨,腾讯旗下的微信和QQ等业务曾出现崩溃状况,包括微信语音对话、朋友圈、微信支付,以及QQ文件传输、QQ空间和QQ邮箱在内的多个功能无法使用。对此,腾讯开出了堪称严厉的处罚单。 腾讯管理层认为,这次事故暴露出容灾设计方案和应急预案不完善的隐患,有关业务部门的风险防范意识不到位,所以对大量相关领导做出了处罚,其中包含公司高级执行副总裁、TEG(技术工程事业群)总裁卢山(LS)和WXG(微信事业群)副总裁周颢在内的管理者承担领导责任,被予以通报批评。值得注意的是,卢山目前为腾讯总办(腾讯总经理办公室,为公司最高决策机构)成员。据了解,本次事故是由广州电信机房冷却系统故障导致,腾讯将它定义为公司一级事故。 推特公司“没了”,马斯克开始用它做“世界版微信” 4月12日消息,在推特所有人马斯克对该公司进行了新一轮改组之后,推特已不再作为一家独立的公司继续存在。马斯克创建了一家新的名为“X公司”的壳公司,并将推特的所有业务打包加入其中。此举引发市场对马斯克下一步意图的热议。有市场人士认为,马斯克可能从腾讯旗下的微信平台得到了启发并有意效仿之,使推特当前的母公司“X公司”成为一个无所不包的多功能应用集合平台。 IT业界 替代ChatGPT?AutoGPT迅速走红,GitHub标星5万 近日,代码托管平台GitHub上线了一个新的基于GPT-4的开源应用项目AutoGPT,凭借超50k的Star数在开发者圈爆火。 AutoGPT能够根据用户需求,在用户完全不插手的情况下自主执行任务,包括日常的事件分析、营销方案撰写、代码编程、数学运算等事务都能代劳。比如某国外测试者要求AutoGPT帮他创建一个网站,AutoGPT就直接调用React框架生成了一个前端页面。有人称AutoGPT将会替代ChatGPT。 Kubernetes 1.27 正式发布 Kubernetes 1.27 正式发布,这是2023年的首个版本,该版本包括 60 项增强功能。其中 18 项增强功能进入 Alpha、29 项进入 Beta,还有 13 项升级为 Stable 稳定版。Kubernetes 1.27 的版本主题是 Chill Vibes,值得关注的特性有冻结 k8s.gcr.io镜像仓库、SeccompDefault 升级到稳定版、Jobs 可变调度指令 GA、DownwardAPIHugePages 升级为稳定版。 
5,657
1,681,525,800,594
InfoQ
44
Kyligence Zen 正式发布 GA 版,打造人人可用的敏捷指标工具
4 月 11 日,Kyligence 指标平台产品发布会成功召开。发布会上,一站式指标平台 Kyligence Zen 正式推出 GA 版,该版本定位于更加完善、成熟、稳定、且人人可用的敏捷指标工具,旨在一站式解决企业面临的指标管理、分析和应用痛点 ,从而实现指标驱动的管理与决策。同时,Kyligence Zen 宣布启动合作伙伴招募计划,以开放、赋能、合作为目标,携手合作伙伴在产品、解决方案、市场和业务等方面展开多项合作。 Kyligence Zen项目地址:https://cn.kyligence.io/zen/Kyligence Zen 是 Kyligence基于过往在多行业所积累的实践经验,创新推出的产品。该产品以指标为切入角度,为更多企业提供整合的、轻量的、开箱即用的指标分析和管,目前可供试用和购买。  当前的市场环境下,全球企业都充满不确定性,面临着如何生存、如何更好更快发展的挑战。随着数据意识与应用的普及,越来越多的企业希望从数据中洞察未来,构建精细化管理,并找到答案。目前,指标作为衡量目标的量化参数,通过对目标进行多维度、全局性、有体系的监控和评估,已成为提升管理和运营效率的有效手段。Kyligence 联合创始人兼 CTO 李扬指出:“上一代数据分析技术产品,为技术人员提供了便捷。而今天每个人都是数据的生产者和消费者,需要有一款创新的数据应用作为统一的‘入口’和‘出口’,以支撑企业的管理和运营需求。” 构建指标体系,对企业来说有三大益处: 首先,指标作为通用的数据语言,帮助企业高效沟通,让数据说“普通话”。每个业务场景都有专属的指标口径,通过统一的平台可以构建精准且有共识的指标口径,访问者无需重新定义指标。 其次, 用指标表达业务逻辑,记录分析过程,数据知识不再口口相传。指标平台支持在一个知识领域里定义一套统一的、标准的指标体系,用户再记录数据知识则无需口口相传。同时,还可以清晰地看到指标表达的业务逻辑和其他人做的分析过程,这将极大地利于数据技术的知识普及。 再有, 用指标体系建立数据信任,积淀数据文化,开启更广泛的数字产能和创新。大数据时代,数据已成为企业重要的资产,它们是数据创新应用的基石。例如手机银行年度报告,都是基于宝贵数据资产产生的创新应用,为用户提供更加优质的体验。 总结来说,一站式指标平台的价值在于解决企业普遍面临的数据语言不统一、数据门槛高、技能普及度低、置信成本高以及数据产能低等共性问题。通过将数据工具提升到业务面,并开启更广泛的数据协作和共享,指标平台可以让所有业务用户、数据消费者和决策者使用一致的指标口径,最终实现人人可用、全民识数的目标。Kyligence Zen 产品架构图 Kyligence Zen 提供集业务模型、 指标管理、指标加工、数据服务于一体的一站式服务。Kyligence 产品总监肖牧云指出,该产品可以大幅降低技术门槛,实现人人可用。通过提供低代码指标构建,让每个人可以敏捷的利用指标开展工作,灵活响应业务变化;自动化指标计算简化了指标定义到数据计算的流程,降低开发成本;此外,该产品还无缝对接了 Kyligence 成熟的 OLAP 多维数据分析引擎,即使面对 PB 级别的数据量,仍能实现亚秒级的响应速度。总结来看,Kyligence Zen 一站式指标平台的敏捷好用通过以下四点核心能力得到展现: ZenML (Zen Metrics Language):通过类 YAML 描述性语言构建语义层,让工程师像写代码一样去定义和管理指标,通过将技术语言转换为业务语言,非技术用户也可以轻松获取数据洞察;指标目录:帮助用户进行统一的指标定义和管理,基于一致的基础指标灵活生成复合指标及衍生指标,保障一致的指标口径;模板市场:行业专家打造海量指标模板,支持用户一键导入,省去 80% 以上的调研和搭建时间,加速开展分析工作;Excel/WPS 直连分析:用户无需改变原有习惯,在 Excel/WPS 中即可快速连接 KyligenzeZen 进行指标分析。 目前,Kyligence Zen 已支持多家云平台,同时提供云上私有部署版本,并根据实际算力计费。2022年,Kyligence 作为唯一的中国厂商入选 Gartner 《指标平台创新洞察报告》。 Kyligence Zen 已于近日上线亚马逊云科技 Marketplace SaaS 产品目录。本次发布会上,亚马逊云科技大中华区数据分析产品总监 Troy Cui 也详细介绍了无服务器化数据分析的优势。如今,企业部署多套业务系统,且生成的数据不断增长,但是这些系统之间存在严重的数据孤岛和烟囱,无论是数据仓库还是数据湖,都难以满足生产级别的分析和管理需求。Kyligence Zen 可以架构在企业的数据湖之上,改变传统离线处理数据和指标的方式,实现随时随地的在线处理,从而提高人员效率,降低成本,并帮助企业通过指标优化业务决策。   
4,500
1,681,291,793,959
InfoQ
45
国产替代潮来了,这与京东云已“养成”的混合多云有什么关系?
“目前,大众正处于数字化新纪元的开端。”比尔·盖茨曾在采访中说道,“回顾过往时,我们会把 2020 年 3 月作为一个时间拐点,从那时起,数字化发展进程开始加速。”时至今日,数字化的重要性已经不需要再多做赘述,但究竟如何做、从哪里下手却是企业转型路上需要解决的首要问题。中国电子技术标准化研究院的数据显示,全国企业的数字化转型整体水平还处于初步探索阶段。虽然开始主动求变,但技术、成本等问题仍是悬在企业头上的达摩克利斯之剑,一不小心就可能做成无效转型。全国数字化转型整体水平,图源:中国电子技术标准化研究院在数字化转型技术栈中,有着更高效、更便捷、资源配置更弹性优势的云原生是怎么也绕不开的一个领域。云原生化实际上是云和应用在网上数据的结合,帮助企业将更多精力放在业务而非基础设施搭建上。但是在数字化转型过程中,企业需要什么样的基础设施、云原生又需要达到什么样的能力呢?我们有幸采访了京东云团队的成员来为我们解答更多关于企业数字化转型中云基础设施的系列问题。在京东云团队看来,云是被类比为“水电煤”提出来的,那意味着企业无论用的单云还是多云、混合云,使用方式都不能复杂。而云原生化作为数字化转型的重要技术领域,必须可以促进企业基于云原生进行创新,这意味着云要没有绑定、随取随用。同时,在数字化转型过程中,IT 组织需要完成从资源消耗型组织到运营组织,甚至是数字化能力管理组织的转变。数字化转型,云原生需要解决什么问题要回答企业数字化过程中对云的需求是什么,就要先明确当前业内对云的应用情况。云计算发展至今已有十几年的时间。最初,企业由于弹性需求而选择使用单一的公有云或私有云,但由于业务扩展、云厂商绑定严重等原因,大都逐渐演进到多云、混合云阶段。如今,公有云、私有云和边缘云等典型云都有了各自比较明确的使用场景,比如公有云的海量弹性资源可以加速获得 AI 能力,私有云对资源控制、数据合规等要求高的金融、政企等用户来说必不可少。企业更多是将不同的云配合使用。报告显示,高达 85% 的企业使用两个或多个云平台,有 25% 的企业至少使用五个云平台。再看云计算依赖的通用服务器市场,有 X86、ARM、RISC-V、MIPS 等多种不同指令集类型的芯片共存的现状。起初云厂商为加强自研芯片的市场化进程提出了“一云多芯”,后来在数字化转型重点国产化领域中,“一云多芯”除了解决利旧问题外,还让不同的国产化产品都能在项目中发挥其特别作用,故而被广泛应用。因此,数字化转型下的云原生建设,更多要面临“多态、多地、多芯、多栈”的情况。混合多云下的基础设施需求但在“多云”时代,企业的数字化首先需要云上操作更丝滑、协同更高效。这就要求数字基础设施要屏蔽底层各类差异,提供多云一致的操控,同时通过数据统一管理和有效共享来解决数据烟囱问题,还要横向打通各业务应用,实现应用跨平台的统一分发和运维管理。其次,基础设施必须是开放兼容的。当前,单一技术已无法有效解决问题,技术与技术的融合创新更能满足产业的真实需求。基础设施要开放兼容,需要向下可兼容各类异构基础设施、屏蔽多云差异、实现应用一致运行;向上可广泛接入各类行业应用,以 PaaS 方式输出各类组件,从而实现对应用资源的便捷调用。再者,根据边际效益递减规律,随着程度加深,数字化带来的效果会日益减退,但数字化建设本身在某种程度上已经成为企业的重大成本开支项。因此,通过技术降本真正带来极致性价比、向数字化要利润,已经成为产业的重要命题。最后,数字化进程要提升安全合规水平,面向多云环境提供整套安全解决方案,需要利用公有云的安全能力,同时配合业务场景定制安全体系,形成一体化的安全能力。其中尤为重要的是保证稳定安全的国产化替代,渐进式完成国产化的真替、真用。针对上述问题,企业如果有自己对应的基础设施团队也可以解决,但多数业务型公司的研发资源有限,需要更多地放在支持复杂业务上,建设基础设施能力对这些企业来说并非优势,反而是附加的成本。因此,很多企业选择使用厂商提供的混合多云方案。理论上看,混合多云可以确保企业不丧失议价权、不绑定资源消耗量,同时避免自身技术栈与云厂商深度绑定,运维上也可以减少单个服务商响应速度慢、受重视程度低等带来的影响。但实践起来还有一些麻烦,比如很多解决方案最大的问题就是只做了多个云之间的单云资源管理,云与云之间在数据层、应用管理、运维管理等方面都缺少联动,并不能满足企业要求。有的企业用了不同的公有云产品,但相互之间没有联系,形成了“数据烟囱”;有的企业使用的多云平台间可能有联系,但也只是做了接口实现数据层面的共享。而理想的多云是可以让企业在多个云平台之间无缝协作的。从以应用为中心的全生命周期管理视角看,要做好混合多云需要包括以下能力:IaaS 层,即统一的 controller,多云的 IaaS 被抽象为统一的 IaaS;云原生的技术栈,包括容器、Kubernetes、基于 Kubernetes 延伸出来的混部、GPU、HPA 等;T-PaaS 层,即所谓的技术中台,包括数据库、消息队列中间件、微服务等;应用层,也被称为 A-PaaS,主要帮助企业基于云基础设施做自己业务的代码。另外,还需要具备其他常见的,如安全、控制台、账号权限、计量计费等功能。可以看出,混合多云是一个复杂、庞大的技术体系,想要实现真正的混合多云并不简单。面对这样的艰巨挑战,该如何解决呢?混合多云能力的“养成”毋庸置疑,混合多云能力需要大量的技术和实践积累。从 2006 年 IBM 和谷歌联合推出云计算概念至今,云技术已经发生了多次重大演进。此前已在内部大规模使用像 Cgroups 这样容器技术的谷歌,在 2008 年将 Cgroups 合并到了 Linux 内核主干。2013 年,Docker 项目正式发布;2014 年,Kubernetes 项目也正式发布,并迅速发展成为业内的事实标准。谷歌提出的“容器设计模式”思想也在影响国内企业在解决业务问题时的技术选型。2014 年前,京东的应用直接部署在物理机上,APP 上线准备时间过长、缺乏隔离机制、资源利用率不足、调度机制也不够灵活,物理机失效后需要花费数小时迁移应用。为解决这些问题,京东在 2013 年正式布局虚拟化技术方向并在 2014 年打造了第一代容器引擎平台 JDOS 1.0。实际上,京东内部每一步的云原生发展,都与其本身的业务发展需求息息相关。2015 年京东 618 时,容器第一次扛大旗,业务与流量 100% 弹性计算,之后京东逐渐开始将所有业务容器化,并启动自研 JDOS 2.0。2016 年,京东所有的核心业务均已迁至弹性云上,内部也对云资源做了统一整合,打造了京东公有云和同源同栈的私有云 JD Stack。在譬如大促时候,京东需要快速将业务从私有云拓展到公有云。但是,私有云和京东公有的底层架构是不一样的:私有云更多地是在裸金属或者物理机裸金属上,而京东公有云大部分是虚机里面,两者在网络、存储,甚至包括某些性能都不一样。为此,京东用了半年的时间来屏蔽私有云和京东公有云间差异,这也成为后来京东混合多云操作系统云舰的雏形。与此同时,京东业务在飞速发展。根据财报,京东 2017 年全年 GMV(网站成交额)突破万亿大关,接近 1.3 万亿元人民币;年度活跃用户数达 2.925 亿,较上年同期增长 29.1%。对应到技术层,底层需要拥有处理更加复杂资源调度的能力。另外,此前大促前各个业务主要靠新增机器来应对高峰瞬时流量,由此造成的大量服务器资源浪费也引发了内部关注。于是,京东在 2017 年引入 Kubernetes 来重构相关技术栈,对技术进行了全面升级,同时用了大半年的时间构建了阿基米德调度系统,来负责整个京东数据中心的资源调度与驱逐。阿基米德用批处理任务进行统一填充式调度,以达到资源碎片的充分利用和资源的时空复用效果。阿基米德调度系统后来也成为云舰的核心调度系统。当时,京东也开始了海外扩张,由于自建 IDC 成本较高,部分业务就要在一些海外云平台如谷歌云和国内友商的云平台如华为云等上面布局。各公有云在大部分情况下计算能力相差无几,但底层资源的调度却不太一样,京东业务从私有云搬到其他公有云上的改造量非常大。京东云认为此刻已经到了适配多云的时候了。为了不被一朵云绑定,京东云便与其他主流云平台做了适配,无论业务扩展到什么地方,都可以在各个云之间迁移。该能力后来也放到了云舰上。事实上,此前京东内部也有“好几朵”公有云、私有云,但底座不统一给业务带来了许多麻烦,于是内部开始逐渐统一云原生底座,这为云舰的诞生打下了基础,后续京东云做了更多标准化工作,并把各种混合多云能力都放到了云舰上。国内外很多混合多云只是做资源的统一,京东云起初也是这样,但发现这没有彻底实现多云的联动性,因此思考应该在架构层面对上层应用做统一。按照这个思路,京东云在 2021 年正式推出了混合多云操作系统云舰。在服务京东内部业务中,借助全面容器化带来的标准化以及阿基米德智能调度,云舰 2.0 能够完成超千万核资源秒级调度,实现超大规模异构基础设施资源的敏捷调度,CPU 平均使用率提升 2 倍,每年节省 IT 成本数亿元。对外开放2016 年,京东云正式开始对外开放商用。如前文所述,在内部混合多云已经被广泛应用后,京东云将积累了十多年的云原生技术融合到了云舰上。一定程度上,京东云的混合多云服务集合了全集团的研发能力。京东内部有统一的底层基础设施团队,在抽象出各种标准后再由数据库、中间件等 PaaS 团队改造适配,整个过程大概涉及了两千多研发人员。那么,经过多年积累,京东云的混合多云能力究竟如何呢?在京东云看来,现在需要给混合多云做“减法”,即企业使用混合多云时,不必关心资源到底来自哪里,当成“一朵云”来用。在内部,京东云将这一概念称为“统一云”。要做“统一云”,混合多云的开放性就非常重要,这也是数字化基础设施的要求之一。因此,京东云基于各个平台开放出来的 OpenAPI 做了更多的风险管理和调度抽象,在 OpenCloud 层做了各家 IaaS 的统一纳管和兼容。现在,云舰可以兼容亚马逊云科技、谷歌云、腾讯云、华为云等国内外众多云厂商。在多云之间的数据联动方面,业务应用可以在公有云、专有云、边缘云,甚至线下 IDC 的基础设施之间统一流转。虽然各家底层数据库基本是标准格式,但不同厂商的应用平台千差万别。京东云从各应用管理平台统一抽象出了应用标准,最核心的是基于 OAM(Open Application Model)标准封装统一的应用标准,并在各种基础设施场景做了适配,另外加上应用迁移、数据同步等能力,实现了用一套标准进行多云间的数据流转。多活是云舰的重要优势。在京东云的设计里,多活承载了保障业务连续性、负载均衡、优化云成本、弹性扩展等多个功能。多活最核心的应用场景之一就是提供业务连续性保障。京东云以用户应用为中心构建云原生容灾架构,可以帮助用户在同城或异地机房建立一套与本地生产系统相对应的应用多活系统,保障系统的高可用性。当灾难发生时,RPO 基本可以做到数据零丢失、RTO 时间则保证在两分钟以内。云舰可以利用多活能力,将流量按照百分比或来源等分配到不同的云平台。流量入口的负载均衡器可以做基础的流量均分,更加细粒度的配置策略则由多活系统完成。用户还可根据不同云厂商的价格和优惠措施,利用多活系统随时动态调整各机房的业务流量和相应的云资源,来有效控制总体成本。应用多活提供了全生命周期的业务架构管理,支持用户业务的跨云发布,提供了业务容灾架构的上线、演练、发布、切换等流程,并集成了数据同步、流水线编排、监控大盘等管控运维能力。另外,在京东云应用多活系统中,所有机房内的应用可同时对外提供服务。成本是企业在数字化过程中面临的重要问题。在这个方面,京东云主要从以下三个方面进行优化:资源成本,使用云基础设施付出的资源费用。除了用多活方式,京东云还在 IaaS 层进行资源池化、进行资源超卖,做针对离在线不同业务类型的混部等;运营成本,这是一种隐形成本,主要取决于企业是否有高效、统一的运营运维管理平台,如果没有则会增加运营、运维成本。比如没有及时解决故障带来的品牌信誉损失等。京东云为此提供了针对混合多云场景的、标准统一的运维运营平台,支持问题的快速定位、快速修复等;使用成本,即使用设施所耗费的成本,主要是在数据库、中间件这一层提供一致的产品能力及调用接口,减少开发人员适配学习成本。在备受重视的安全方面,京东云有统一数据访问权限管理认证平台,针对不同的租户做细致的、粒度不同的权限管理,同时有全平台的审计功能,可以查找到底整个平台进行了哪些具体操作、谁有对应权限等。数据传输上则是在云舰内部、多云之间进行了全链路加密,数据的每次读写也是基于 TDE 做了加密处理。在对外服务后,京东内部的技术能力仍然在源源不断地输出到混合多云产品上,比如 2018 年便开始做的离在线混部,到现在做 GPU 虚拟化等都会放到云舰上。与此同时,服务外部用户过程中,产品各方面的能力再次得到加强。如何为业务带来效益“用了你的混合多云,除了降本增效,还能在业务上给我带来什么价值?”现在用户越来越多地会提出这样的问题。2020 年时候,企业的数字化更加关注技术转型。然而,如今企业增速放缓,开始更加关注降本增效、精细化管理。有些企业在数字化转型路上走了弯路,长时间的技术投入没有带来直接的产出,逐渐产生消极情绪。另外,鉴于部分企业研发能力有限,对产品不能有很好的理解,他们更加需要厂商的咨询团队、实施团队,与他们一起把路趟出来。因此,技术转型看似性感,但如何支持业务转型变成如今企业更为看重的事情。在京东云混合多云服务里,与业务支持紧密相关的就是 PaaS。京东云做了数据、智能等相关的 D-PaaS,低代码、研发等相关的 A—PaaS,云舰上承载更多的 T-PaaS 等。这为解决原有基础资源以及 PaaS 组件异构多样、管理复杂、无法高效利用异构资源、运维学习成本高等问题,提供了系列工具。这里,更值得一提的是 B-PaaS。B-PaaS 是京东云在业务层面做的能力抽象。比如,京东的业务中台藏经阁就是抽象出的数字化社会供应链体系。供应链首先是京东的优势,其次在大部分行业如农业、工业等有类似的体系,因此京东云从中抽象出共性能力,添加到了 B-PaaS 层,然后针对不同行业的差异再做个性化方案补充。而像应用架构这块需要业务和应用一起做,并长期演进。B-PaaS 的作用就是让企业的 PaaS 能力、IT 管理能力越来越丰富。另一方面,京东云认为,企业不仅可以内部使用混合多云,更重要的是还可以借此完成 IT 能力转型,做对外的能力输出。根据京东云的设想,这套体系未来可以变成企业自己的 PaaS 平台:用户按照需要随意在这个平台上集成各种组件,然后进一步沉淀到自己的平台上,最后自己做 IT 能力输出。这其实也是企业的现实需要。现在已经五百多家国央企成立了自己的科技公司,这是他们技术转型的路径:一方面服务好集团内部,另一方面对外做商业化运营,逐渐变成经营中心甚至利润中心。在逐步演进到多云过程中,IT 组织也从资源消耗型组织转变成了运营组织。目前,云舰已经融合了国内一百多家企业,这些企业可以根据业务需要灵活敏捷调配,一定程度上市场上所有的云厂商都可以是自己的资源,可以随取随用。可以看到,如今京东云的 PaaS 能力可以分为两类:一是京东自己从业务中锤炼出来的,或自研或是基于开源做增强;二是生态里融入的 PaaS,比如流程引擎既有京东云的也有生态里的。此外,京东云也在整理 SaaS 体系的相关能力,通过与用户体系的结合来呈现京东云在服务用户数字化转型的价值。渐进式的国产化替代值得一提的是,在当前的国际背景下,国内企业正在加速从基础设施层、芯片层到软件层,进行全面的国产替代,尤其是国产化企业。在之前国产化替代主要是从 OA 等管理系统入手,但现在的国产替代已经到了新的阶段,即从管理系统深入到了业务系统,开始影响到企业的日常运营。这种情况下,国产替代必须保持企业业务的延续性。所有的企业都是一边换轮子,一边还要保证业务高速运转。因此,渐进式国产化替用是大多数企业的选择。整个混合多云是一个庞杂的体系,企业要允许这种复杂性的存在,允许过渡的存在。京东云看来,渐进式的国产化可以分两步走:第一步先上线混合多云操作系统;第二步是借助操作系统,对接各类国产化替代的解决方案,包括硬件、系统和应用,一旦证明方向可行,再持续增加国产化份额,逐渐完成从小规模试点验证向大规模真替真用的转变。转型期间,企业会经历新老系统共存的阶段。比如国产化企业转型过程中就会有国产化和非国产化设备共存的时候,此时就非常需要应用多活的能力,一部分流量可以保留在原来的基础设施上,另外一部分新增流量则可以逐步切换到国产化基础设施上,以此逐步完成国产化基础设施的替换。一般情况下,国产化企业的研发人员要更多聚焦到自己本身的业务和开发,基础设施方面可以直接迁移到适配改造后的产品上,而这些产品不只是“能用”,更要“好用”。在京东云看来,在国产替换进程中,数字基础设施需要具备多云、多芯、多活的特征,即整个系统可以同时适配传统开发与国产化环境,全面兼容全球化基础设施,使用多朵云就像使用一朵云,应用在多朵云之间灵活调度。为此,京东云从底层 CPU 架构、X86 及 ARM 架构,到国产化操作系统,再到各个云产品都做了适配改造,现在已经基本改造完成。京东还以全栈国产化云的方式,在京东集团零售、物流、金融、健康、工业等业务板块的上百个应用中进行试点,结果高达 80% 的应用在国产化基础设施上稳定运行。目前,京东云已构建起全面适配国产化应用的全栈产品矩阵,包括混合多云操作系统云舰、云原生理念自主研发的新一代分布式存储系统云海、自研软硬一体虚拟化引擎京刚、旗舰级国产芯片双路机架式服务器天枢、国产分布式数据库 Star DB 等,并且已经被外部用户使用,切实解决了他们数字化过程中亟待解决的问题。比如,我国五大国有独资发电集团之一、全球最大的光伏发电企业国家电力投资集团(简称“国电投”),由于规模庞大,存在管理复杂、迁徙困难、上线缓慢、安全薄弱等技术难点。比如随着越来越多的业务上云,汇集大量产业链信息和数据资源,亟需打通资源并进行统一管理,还要解决数据安全问题。为解决上述问题,国电投选择借助云舰的统一底座能力,对当前异构环境和未来电投云的异构迁移做了屏蔽,通过统一 PaaS 组件和应用实现了更广泛兼容及高可用,极大降低后期的管理和运维成本的同时,也为后续迁移到电投云打下了基础。此外,面对像爱回收这样面临微服务规模依赖关系复杂、用户基数大而对业务连续性和容灾要求高、跨云迁移要兼顾交易数据和业务数据一致等需求的客户,京东云可以帮助其完成公共基础服务多活部署、上层应用分批次完成平滑迁移等的实现。需要明确的是,企业现在“用云”阶段还是存在差异的。企业决策部门首先要做好战略选择,明确混合多云是否符合当前的需求。如果战略不清晰,后续落地就会有很多问题。战略明确后,企业才好继续明确落地路径、解决具体问题。结束语现在,数字化已经从单个企业行为转变为成产业性、地域性的发展要求,在这个浪潮里没有人会愿意掉队。但这必定也是一次缓慢、长期的变革。对于企业来说,经历一段时间的阵痛不可避免。比如,前期对混合多云的理解不到位,仅当作基础设施对待,而对此带来的云化理念、IT 转型等影响没有做好准备,后期必定会出现问题,而这种理念的改变需要更多的实践和时间。另一方面,对于云厂商来说,数字化带来的巨量需求既是机遇也是挑战。虽然需求市场很大,但面对各色企业落地中多种多样且无法预设的需求,云厂商需要不断加速自身技术能力的迭代来快速满足企业需要。要知道,这并不容易。用户需要某一个能力的背后,云厂商无法直接做解耦轻量化输,必须考虑到周边几十个能力的联动。但数字化不仅仅是技术变革,背后更是一整套组织文化、流程的大更迭。因此,云厂商还需要将各种服务经验形成系统性的解决方案,来缓解企业在转型中的焦虑,帮助企业用有限的成本获得更多的收益。云厂商要用混合多云做好数字化助力,现在可能只是开始,未来还有很长的路要走。采访嘉宾:贺皓,京东云混合多云产品负责人张金柱,京东云混合多云研发负责人周光,京东云云原生总架构师何小锋,京东云混合多云首席架构师张志君,京东云通用解决方案负责人
2,647
1,681,282,058,237
InfoQ
46
大规模语言训练模型应用,如何让文档问答系统快速拥有“高智商”?
信息爆炸的时代,更需要我们拥有高效获得文档信息的能力。随着人工智能技术的快速发展,智能问答系统已逐渐成为提升这一能力的重要手段之一。2022 年以来,以 GPT-3 模型为代表的大规模语言模型能力的不断提升,为智能文档问答带来了新的机遇,前不久 GPT-4 模型的震撼发布更是再次颠覆人们的认知。GPT 爆火后,人们往往聚焦于其巨大的模型和令人惊叹的自然语言生成能力,而少有人谈到如此具体的技术解析。近日,亚马逊云科技联合 Jina AI 举办 Tech Talk 主题活动。Jina AI 联合创始人兼 CTO 王楠从论文到工程实践,深度分析了如何将 GPT 模型更加高效地运用于智能文档问答系统的方法。现代文档问答系统的发展史文档问答系统是指从大规模文档数据中查找到与用户问题相关答案的一套完整的系统。系统会接收文本输入的问题 Q,并在给定文档集合 D 的情况下,自动提取信息并生成对应的答案 A。文档问答系统和一般的问答系统是有明显区别的。问答系统通常是多轮对话系统,而文档问答系统更像是多轮对话的一个子问题,只考虑当前问题,并根据这个问题给定的文档集合进行回答。问答系统的研究自上个世纪 60 年代就已经开始了,而直到 2017 年后,深度学习方法才逐渐成为问答系统的技术核心。2017 年斯坦福团队率先提出全新的基于深度学习的问答系统 DrQA。DrQA 被普遍认为是第一个在问答系统里使用深度学习模型的算法,它开辟了一个问答系统的新范式,被称为两阶段方法。两阶段方法两阶段方法将问答过程分为两个阶段。第一个阶段称为召回阶段,系统会根据用户的提问从文本库或知识库中检索相关的文本片段或知识点,利用传统的检索技术去召回可能的文档候选。第二个阶段称之为阅读理解阶段,会利用深度学习的机器阅读理解模型,从对应的候选文档里将答案抽取出来。两个阶段分别用到不同的技术。在召回阶段,原始的论文里使用的是基于 TF-IDF 的方式去进行召回。TF-IDF 会评估问题的关键词,并通过静态计算的方式评估每一个 Term 的重要度,然后,根据每篇被召回的文档的 TF-IDF 得分进行排序,选取得分最高的前 K 篇文章,将其输入到第二阶段的机器阅读理解模型中。在论文中,一开始使用了 RNN 模型,思路是将问题转化为序列标注问题,即对于给定文档中出现的每个词,判断其是否应该出现在答案中,以及它在答案中是开头、中间还是结尾。两阶段方法的优点在于准确率相对较高、效率高、不容易出错。但缺点也较为明显,因为它使用了传统的召回技术,一些语义近似的文档虽然与原文意思相近,但未完全出现在原文中,无法通过此方法召回。端到端方法在两阶段方法的基础上,端到端方法进行了召回阶段的提升。从模型上看,端到端方法依旧是分为召回和阅读理解两个阶段,区别在于,它使用了向量检索的方式来替代传统的检索技术用于召回。用向量去召回是指将所有文档通过一个映射函数映射到一个空间中,这个空间可以是二维的。同样地,当用户提出一个问题时,可以将这个问题映射到同样的二维空间中。在这个二维空间中,可以找到与问题语义相似的文档,因此可以将这些文档召回作为答案的候选项。与传统的关键词匹配不同,这种方式可以通过语义相似性来匹配文档,从而提高召回率。上图是召回阶段常用的模型。在召回阶段,我们通常使用的模型是 Meta AI 推出的 DPR 模型。该模型的实现方法是使用两个不同的 BERT 模型分别处理答案和文章,并计算它们对应的向量表示。在训练过程中,目标是尽可能地使相关的问题和答案在向量空间中处于相同的位置,而不相关的答案和文章则应该在向量空间中处于不同的位置。在向量空间中,我们通常使用余弦相似度来衡量相似性。使用这样的模型进行召回的优点不仅在于它可以扩大召回的范围,而且它还可以通过专门的模型针对具体的文档进行训练,从而提高召回的效果。因此,整个召回阶段成为一个可训练的过程。在阅读理解的部分,采取的仍然是抽取式的方式,把整个问题转换成一个序列标注的问题。只不过 BERT 模型的出现替代了 RNN 模型在该任务上的应用。端到端方法还有一个改进的版本——RocketQA,其创新点在于 RocketQA 通过将答案和问题拼接在一起传递给第三个 BERT 模型,再计算相似度,来提高准确率。这种方法可以确保在提高召回率的情况下,准确率也能得到较好的效果,但最大的问题是需要针对语料进行微调,如果不进行微调,整个系统的效果并不理想。另外,和前面说的两阶段方法一样,在阅读理解的部分使用的是一个抽取式的模型,只能返回文章中已经有的答案,而不能去生成答案。这就导致如果问题是一般疑问句,它没办法直接回答是或者否。此外,这个模型也没有一个很好的拒绝回答问题的机制。无召回方法为了回答一般疑问句和解决拒绝回答的问题,第三类方法应运而生,即无召回的方法。这类方法的代表是 GPT 模型,它通过训练大规模的语言模型来记忆知识,不需要外部的存储机制来存储索引。GPT 模型的关键在于它可以生成答案,因此它可以回答一般疑问句和拒绝回答问题。GPT 模型使用了 Transformer 模型的 Decoder 部分来生成答案,它不会局限于输出输入中出现过的内容,这使得它的答案更加灵活。但是,由于 GPT 模型需要生成完整的答案,因此需要更大的模型。GPT 模型有多大呢?GPT-1 是 2018 年发布的,有 1.17 亿个参数,与 BERT 模型的参数大小差不多。而 GPT-3 具有 1750 亿个参数和 96 层 Transformer。GPT-4 的参数量没有公开披露,但据估计是 GPT-3 的大约 600 倍。当模型变得更大时,通常需要更多地训练数据。在 GPT 发布之前,迁移学习的范式主要以像 BERT 这样的模型为代表。这种方法是先预训练一个模型,然后根据不同的下游任务设计不同的模型结构和目标函数,再进行微调。GPT 模型的思路非常新颖,它放弃了微调的方式。它假设所有任务的输入都是相同的,不管是什么任务,都可以使用同一个模型结构。这种方法的好处在于,一旦模型训练好了,我们就可以直接用它来处理各种各样的任务,而不需要进行微调。此外,这种方法还可以共享各种各样的任务语料,从而有效地扩展可用的语料范围。另外,无召回的方法采用 Reinforcement learning with human feedback(RLHF)和 Ru base reward model(RBRM)技术 ,很好的实现了拒绝回答问题,确保所生成的结果是有效且合理的。简而言之,无召回方法的优势是非常明显的,唯一的不足是无召回方法中,基于 GPT 的方法存在 token 长度限制,输入长度不能过长,长度过长会增加开销。从论文到实践,文档问答系统的挑战与技术实现理论方法即便已足够完善,但在转化为具体实践的过程中仍会面临很大的挑战。Jina AI 作为一家开源软件公司,和其他开源公司面临着同样的困境。首先,使用端到端方法对每个模型进行微调会导致运营成本非常高,如果不进行微调,则准确率会相对较低。其次,使用 GPT 模型直接处理问题既开销高,又受到长度的限制。此外,大部分文档都已经有一个问答库,如何将其融入已有的系统中也是一大问题。基于上述挑战,Jina AI 从算法设计和工程实践的角度提出了一系列解决方案。在算法方面,Jina AI 将前面提到的三种方法进行融合。具体来说,当问题输入后,首先使用意图识别来判断用户是否真的在询问问题。接着,分为两条路径解答问题:一条是针对问答库的,将用户的问题与问答库中的问题进行匹配;另一种则是采用传统的问答系统方法。第一条路径本质上是一种问题匹配的方法,其出发点是用户的问题,通过在问答库中匹配与用户问题相对应的问题。DocsQA 使用了 Sentence Transformer 提供的 paraphrase-mpnet-base-v2 模型。将问答库中的所有问题转换为向量,同样地,用户的问题也被转换为向量,然后在向量空间中寻找相似的问题。如果找到了匹配的问题,则将相应的答案返回给用户。这条路径的最大优点是准确率非常高,缺点在于严重依赖于问答库。因此,这条路径非常适合处理高频出现的重复性问题。第二条路径的本质是在整个文档中查找答案,然后使用 GPT-3 模型生成答案。这里有两种具体的实现方式。第一种是关键词检索,使用 TF-IDF 方法召回包含可能答案的候选文档。它的优点是准确率很高,但召回率可能有所不足。第二种是将问题和答案转换成向量,然后在语义空间中进行召回。这种方法使用了 Meta AI 提供的 DPR 模型,主要解决召回率不足的问题。这两种方式都不需要微调模型,避免了过高的成本。此外,Jina AI 还提供了一个名为 PromptPerfect 的自研工具,它可以优化 Prompt 背后的思路,获得更好的答案效果。欢迎试用:promptperfect.jina.ai由于 Jina AI 是一家开源软件公司,且问答系统并非主要业务,因此 Jina AI 的目标是尽可能快地上线整个项目,同时要以尽可能低的成本来维护。然而,DocsQA 的算法使用了三种不同的方式,并依赖于多个 AI 模型,而这些模型的使用频率并不高,如何保证系统的运行成本控制在一个合理的范围内呢?基于 Amazon 服务的 DocsQA 工程方案  DocsQA 的系统架构分为三部分。第一部分是控制台,用于 DocsQA 的配置和更新,开发者可以在控制台上创建和更新问答系统。第二部分是前端组件,是一个交互式的前端插件,用于访问对应的后台服务,第三部分是后台服务,Jina AI 使用自己的 Jina 框架来搭建后台服务。基于 Amazon API Gateway 的控制后台设计控制台的功能相对简单。它允许用户创建自己的问答服务并填写一些基本信息。此外,我们提供了一个简单的监控后台,可以提供当前的统计数据。控制台的技术栈 Jina AI 采用了亚马逊云科技的 Serverless 框架,具体使用了 Amazon API Gateway 和 Amazon Lambda 来实现。由于创建、维护和更新整个文档问答系统的动作是非常低频的,因此  DocsQA 不需要一直在线的服务。通过 Amazon API Gateway,可以轻松地实现这一点。当开发者发起请求到达 Amazon API Gateway 时,Amazon API Gateway 会调用相应的 Lambda 函数。实际上,Amazon API Gateway 和 Lambda 函数之间的映射关系是通过 Serverless 原生的 API Gateway Event 来实现的。同时,DocsQA 还使用了 Lambda Proxy Integration 来完成整个 Serverless 构建。此外,由于创建索引需要耗费较长时间,不能让用户请求一直等待,以免超时。因此,可以在 Lambda 函数中触发相应的批处理作业,使用 Amazon Batch 模块。该模块会在云端启动一个容器,容器会完成相应的任务,任务完成后,容器会自动销毁。DocsQA 执行的任务是将用户要索引的文档拉取下来,然后将其以请求的形式发送到 JCloud 中。这种方式不仅可以节省整个系统的运营成本,而且 Serverless 加上 Amazon API Gateway 和 Amazon Lambda 是一套非常快速的开发框架。这大大缩短了产品上市的时间,使产品能够快速推向市场。在后台服务方面,当控制台收到用户的请求时,会触发后台服务。DocsQA 的后台服务是基于 Jina 框架搭建的,它是一套云原生的 MLOps 框架,旨在帮助开发者更高效、快速地开发各种多模态的应用。Jina 的核心是 Flow 的概念,即一个多模态的应用,由各种 Executor 构成。Executor 是 Flow 中的一个小模块,专门完成特定的任务。Flow 将这些 Executor 串联起来,构建了一个完整的系统。Jina 解决了网络传输、分布式部署等复杂性,能够帮助开发者更快地进行开发。GitHub:github.com/jina-ai/jina文档:https://docs.jina.ai/在 DocsQA 文档问答系统中,建立了两个 Flow,一个用于索引数据。当收到用户请求时,就会创建这样一个 Flow。另一个用于查询,其任务相对简单,即把刚才建立的 TF-IDF、问答,还有向量的索引都加载起来,同时把需要的深度学习模型也加载起来对外提供服务。值得一提的是,考虑到降低成本的需求,Jina 不同的问答服务可以共享同一个模型,这大大提高了模型的使用效率。使用 Amazon Batch 实现低成本快速部署服务最后是真正的部署。JCloud 背后实际上是以 Kubernetes 的形式进行部署的。每个 Executor 都被封装成一个 Kubernetes Deployment,这样我们就可以保证每个 Executor 可以根据实际流量的情况单独进行缩放。此外,不同的 Deployment 可以放在同一个 node 上面,以节约成本。JCloud 的实现逻辑如下图所示。JCloud 是一个 Python 包,安装后开发者可以直接使用 "JCloud deploy" 命令来运行对应的 Flow。该命令将向 API 发送一个请求。API 依然使用的是 Serverless 的方式,和控制台构建的方式类似,同样使用 Amazon API Gateway 和 Lambda Function 进行构建。一些比较重的任务会直接交给 batch job 处理,而轻的任务,如查询已部署的服务,则由 Lambda Function 自己处理。最后,服务将部署在 Amazon EKS 上。DocsQA 系统的第三个组成部分是前端组件。它是一个前端的 UI 库,Jina AI 开源了所有的代码,王楠表示,感兴趣的话大家可以进行二次开发,也可以直接应用在工作中。Jina AI Cloud:cloud.jina.ai在分享的最后王楠总结,搭建文档问答系统的算法解决方案已经非常成熟,没有太多创新。然而,在工程实践中,需要考虑如何实现更好的线上效果,以解决问题。因此,可以将不同的算法进行融合。此外,在上线时,DocsQA 大量使用了 Amazon API Gateway、Amazon Lambda 以及 Amazon Batch,结合 Serverless 框架,使系统能够快速上线,以最低的成本运营,并减少推向市场的时间。相关链接:Tech Talk 完整视频:戳这里亚马逊云开发者官网:https://dev.amazoncloud.cn/#Jina 官网:https://jina.ai/Jina Github:oss.jina.ai全球社区:jina.ai/community/
5,907
1,680,856,414,257
InfoQ
47
Serverless时代,如何应对不确定性?
3月30日,亚马逊云科技举办了“全面拥抱Serverless时代”创新大会,分享了亚马逊云科技17年引领Serverless发展的技术创新、应用场景以及全球客户的创新实践。 Serverless 是描述云服务、应用开发实践和云原生应用架构的一种方式,能够帮助企业更加敏捷地构建应用程序,从而更快地创新和应对变化。具体而言,Serverless主要四大优势特征: 无需管理服务器:用户不需要关心底层的物理资源。自动扩展与缩减容量:用户不需要关心底层的物理资源是如何规划的,甚至不用担心当业务的流量和负载发生变化的时候,底下的物理资源如何去反应。按使用量付费:如果企业的波峰波谷有非常明显的征兆,可以采用Serverless降低成本。更高的安全与可用性:Serverless架构从根本上改变了安全性。 当前,Serverless 覆盖的技术场景正在不断变广。亚马逊云科技大中华区产品部总经理陈晓建表示,“当前很多应用都可以使用Serverless来实现。开发者无需花费太多力气去了解新服务,或是更改架构即能实现。” 据了解,亚马逊云科技Serverless服务广泛覆盖计算、存储、网络、容器、数据库、数据分析等多方面。其中,亚马逊云科技的全部的分析服务已全面实现Serverless化,包括交互式查询服务Amazon Athena、大数据处理服务Amazon Managed Streaming for Apache Kafka (Amazon MSK)、实时分析服务Amazon Kinesis和Amazon MSK、数据仓库服务Amazon Redshift、数据集成服务Amazon Glue、商业智能服务Amazon QuickSight以及运营分析服务Amazon OpenSearch Service。 据陈晓建介绍,今天,全球已经有数百万的客户在使用亚马逊云科技的Serverless服务。以美国电影评价网站IMDb为例。IMDb最早采用的是传统的基于虚拟机的方式,随着企业意识到Serverless的价值,IMDb把所有的服务进行了Serverless改造。通过Amazon Lambda,可以在1分钟进行80万次调用,企业无需担心业务资源的配置,节省开支。 那么,Serverless将如何应对不确定性? 1、快速创新响应不可预测。Serverless 应用无需管理 API、消息队列、存储、数据库,企业只需要专注于业务逻辑,将更多的精力放在业务创新上,加速应用推出时间。以Amazon Lambda Snapstart为例,可将Lambda函数的冷启动时间降低90%,实现10倍的快速启动性能,消除在系统启动的时候带来的突发延时,企业不需要做任何的代码改变,也无需支付费用。 2、全栈Serverless应对错综复杂的诉求。Serverless可以消除业务不稳定起伏带来的隐性成本,轻松应对峰值、非频发的复杂工作负载;还可以消除数据管理系统按需扩展的复杂实施难题,无需考虑计算和存储资源的比例,也不会出现节点读写状态不一致等问题。 3、故障隔离,应对潜在风险。Amazon Lambda融入了潜水艇隔离仓的安全理念,满足企业级生产所需的99.99%高可用。无服务器消除了管理基础架构的需要,也就是说使用无服务器架构,更多的责任例如给服务器扩容或者打补丁,由亚马逊云科技承担。 陈晓建表示:“如同云计算将客户从复杂的物理基础设施中解放出来一样,亚马逊云科技进一步通过Serverless将这一过程延展到了云上的虚拟基础设施和云服务领域。我们希望客户写的每一行代码都是业务逻辑,Serverless正在让它变为现实。过去17年,我们持续推进Serverless的发展,将Serverless提供的极致弹性和自动扩展能力带给越来越多的客户。此外,亚马逊云科技大规模云服务的运营能力以及标准、安全的产品API体系,确保了我们的Serverless服务为客户提供极致的瞬间并发能力,应对极端业务激增,并帮助他们实现大规模部署,把应用快速部署到全球。”
4,866
1,680,600,898,372
InfoQ
48
Java近期新闻:JDK 20发布、Spring多个版本发布、Quarkus、Helidon、Micronaut和Open Liberty
OpenJDKJEP 431,序列集合(Sequenced Collections),在JDK 21中已经从Proposed to Target状态提升到了Targeted状态。该JEP提议引入“一个新的接口系列,代表了元素能够以明确的序列或顺序排列在集合中的概念,使其作为集合的结构化属性”。该JEP的动机在于集合框架(Collections Framework)中缺乏定义良好的排序和统一操作集。关于JEP 431的更多信息,请参阅InfoQ的新闻报道。JEP 443,未命名的模式和变量(Unnamed Patterns and Variables,预览)已经从JEP Draft 8294349状态提升到了Candidate状态。该预览JEP提议“使用未命名模式和未命名参数对语言进行增强,未命名模式与record组件匹配,但不用说明组件的名称或类型,未命名参数可以被初始化但不使用”。这两种模式都是由下划线来进行表示的,如r instanceof _(int x, int y)和r instanceof_。JDK 20甲骨文发布了Java编程语言和虚拟机的20版本。更多细节请参阅InfoQ的新闻报道。JDK 21JDK 21的早期访问构建版本Build 15发布,它是对Build 14的更新,包含对各种问题的修复。关于该版本的更多细节,可以参见发布说明。对于JDK 20和JDK 21,鼓励开发人员通过Java Bug数据库报告缺陷。Amazon Corretto亚马逊云科技发布了Amazon Corretto 20,这是他们的OpenJDK 20的下游发行版,可用于Linux、Windows和macOS。开发人员可以从该网站下载这个最新版本。Liberica JDK与之类似,BellSoft也发布了Liberica JDK 20,这是他们的OpenJDK 20的下游发行版。开发者可以从该网站下载这个最新版本。Spring Framework对于Spring项目团队来说,最近是非常忙碌的,他们发布了Spring Boot、Spring Framework、Spring Data、Spring Integration、Spring Vault、Spring for GraphQL、Spring Authorization Server、Spring HATEOAS和Spring Modulith的里程碑版本以及小版本。其中一些版本解决了公共漏洞和暴露(Common Vulnerabilities and Exposure,CVE):CVE-2023-20859,当撤销令牌失败时,会将敏感信息插入到日志中(Insertion of Sensitive Information into Log Sourced from Failed Revocation of Tokens),该漏洞会在应用试图撤销Spring Vault批处理令牌时,将敏感信息插入到日志文件中。CVE-2023-20860,特殊匹配模式下身份认证绕过漏洞(Security Bypass With Un-Prefixed Double Wildcard Pattern),当Spring Security使用MvcRequestMatcher配置并将“**”作为匹配模式时,在Spring Security 和 Spring MVC 之间会发生模式不匹配,最终可能导致身份认证绕过。CVE-2023-20861,Spring表达式DoS漏洞(Spring Expression DoS Vulnerability),在该漏洞中,攻击者可以提供特制的Spring表达式语言(SpEL)的表达式,从而可能导致拒绝服务(Denial-of-Service)的情况。Spring Boot 3.0.5发布,该版本带来了文档改进、依赖性升级和重要的缺陷修复,比如,当嵌入式服务器未配置时,EmbeddedWebServerFactoryCustomizerAutoConfiguration类不应该被调用;@ConfigurationProperties注解不再用于可变的Kotlin数据类;使用@EntityScan注解导致AOT实例供应者出现代码生成错误。关于该版本的更多细节,请参阅发布说明。与之类似,Spring Boot 2.7.10发布,该版本带来了文档改进、依赖性升级和重要的缺陷修复,比如,在使用SnakeYAML 2.0时,加载application.yml文件会出现NoSuchMethodError异常;如果classpath包含“.”字符,StandardConfigDataResource类的实例可能会导入同一个文件两次;在使用project.build.outputTimestamp属性时,一个Maven插件使用了本地时区的时间戳。关于该版本的更多细节,请参阅发布说明。Spring Boot 3.1.0的第二个发布候选版本提供了一些新的特性,比如,SanitizableData类的新方法withSanitizedValue(),它会返回一个脱敏(sanitized)值的新实例;支持GraphQL分页和排序的默认配置;支持Spring Authorization Server。关于该版本的更多细节,请参阅发布说明。Spring Framework的6.0.7和5.3.26版本发布,主要解决上述的CVE-2023-20860和CVE-2023-20861漏洞。这两个版本还提供了新的特性,比如,在SpEL中改进了对matches运算符和重复文本的诊断;更新了HandlerMappingIntrospector类;允许兼容SnakeYaml 2.0运行时。关于这两个版本的更多细节,请分别参阅6.0.7版本和5.3.26版本的发布说明。Spring Framework 5.2.23的发布也解决了CVE-2023-20861漏洞,并提供了与Spring Framework 5.3.26相同的新SpEL特性。关于这个版本的更多细节,请参阅发布说明。Spring Data的2023.0-M1(代号为Ullman)、2022.0.4和2021.2.10发布。这些服务版本包含了缺陷修复和文档改进,分别可用于Spring Boot 3.0.5和2.7.10。里程碑版本中的新特性包括,新的滚动API,支持偏移和基于key的分页;改进对HQL和JPQL的JPA查询解析;支持MongoDB的显式字段级加密;Spring Data REST中的聚合引用请求参数。关于该里程碑版本的更多细节,请参阅发布说明。Spring Integration的6.1.0-M2、6.0.4和5.5.17版本发布,带来了重要的变更,包括,LockRegistryLeaderInitiator类的改进,如在当前线程被中断的情况下,调用目标锁提供者将会被延迟;AbstractRemoteFileStreamingMessageSource类在远程调用方面的改进;修复与代码覆盖工具Sonar和JaCoCo的关系。关于这些版本的更多细节,请参阅6.1.0-M2、6.0.4和5.5.17的发布说明。Spring Vault的3.0.2和2.3.3版本发布,以解决上述的CVE-2023-20859漏洞,并带来了新的特性,如完善令牌撤销失败后的日志记录;在ClientHttpRequestFactoryFactory和ClientHttpConnectorFactory类中重用来自库的特定配置代码;在EnvironmentVaultConfiguration类中添加AWS IAM Authentication功能。关于这两个版本的更多细节,请参阅3.0.2 and 2.3.3的发布说明。Spring for GraphQL 1.2.0的第一个里程碑版本发布,提供了新的特性,包括,在@SchemaMapping注解标注的方法中支持分页返回值和分页请求;支持HandlerMethodArgumentResolver接口的自定义实例;依赖升级到GraphQL Java 20.0。关于该版本的更多细节,请参阅发布说明。Spring for GraphQL的1.1.3和1.0.4版本发布,其中包含了新的特性,WebGraphQlInterceptor接口中的访问请求属性和cookie;ContextDataFetcherDecorator类的实例在名称变更时忽略订阅的修复。这些版本分别可用于Spring Boot 3.0.5和2.7.10。关于这两个版本的更多细节,请参阅1.1.3和1.0.4的发布说明。Spring Authorization Server 1.1.0的第二个里程碑版本包含了缺陷修正、依赖性升级和新特性,如RFC 8628,OAuth 2.0设备授权(Device Authorization Grant)的实现;为OAuth2客户端secret启用PasswordEncoder接口中定义的upgradeEncoding()方法。关于该版本的更多细节,请参阅发布说明。Spring HATEOAS的2.1-M1、2.0.3和1.5.4版本发布。这些服务版本包括了文档改进和依赖性升级。里程碑版本包含如下特性,支持在表单上使用JSR-303定义的@Size注解的属性元数据;添加新的SlicedModel类,这是PagedModel类的简化版本,可以浏览切片,但不计算总数。关于这些版本的更多细节,请参阅2.1-M1、version 2.0.3和version 1.5.4的发布说明。Spring Modulith 0.5.1的发布提供了一个重要的缺陷修正,即spring-modulith-runtime模块意外地包含了一个只用于测试的Logback配置文件。此外,还有一个依赖性升级到Spring Boot 3.0.5。关于这个版本的更多细节,请参阅发布说明。Spring Data JPA团队为开发者引入了HQL和JPQL查询解析器,以便在Spring Data JPA应用程序中结合@Query注解更容易地定制查询。QuarkusQuarkus 3.0.0的第一个beta版本包含对管理接口的支持,该接口能够将选定的路由(即管理路由)暴露到不同的HTTP服务器上,避免在主HTTP服务器上暴露这些路由,之前的方式可能会导致对这些端点的泄漏和预料之外的访问。关于这个版本的更多细节,请参阅更新日志。Quarkus 2.16.5.Final是第五个维护版本,重要的变更包括,过滤掉执行测试类ProviderConfigInjectionWarningsTest时与RESTEasy相关的警告;修复加载工作区模块时的NullPointerException;防止来自MessageBodyWriter的服务器端事件可能会写入一个不断累积的头信息中。关于这个版本的更多细节,请参阅更新日志。Helidon甲骨文发布了Helidon 3.2.0,其中的变更包括,对WriteableMultiPart类中定义的重载create()方法的修复;对JtaConnection类中关闭数据库连接的错误行为的修复;对SnakeYAML 2.0的依赖升级。值得注意的是,在SnakeYAML 2.0中存在着破坏性的变更。如果直接使用SnakeYAML,Helidon应用程序可能会受到影响。然而,依然可以使用降级的SnakeYAML 1.3.2将应用程序升级到Helidon 3.2.0。关于这个版本的更多细节,请参阅发布说明。Open LibertyIBM发布了Open Liberty 23.0.0.3-beta,支持JDK 20、Jakarta EE 10 Platform和MicroProfile 6.0。MicronautMicronaut基金会提供了第一个里程碑版本的Micronaut Framework 4.0.0,其特性包括,对Kotlin符号处理(Kotlin Symbol Processing)的实验性支持;对虚拟线程的支持;改进了缺失Bean的错误信息;对过滤器方法的支持。Apache软件基金会正如Apache Tomcat团队所披露的,CVE-2023-28708,这是使用RemoteIpFilter类的一个安全漏洞,在通过HTTP接收到的、X-Forwarded-Proto头信息设置为HTTPS的反向代理请求时,Tomcat创建的会话cookie不包括secure属性。这一漏洞可能导致攻击者通过不安全的通道传输会话cookie。受此漏洞影响的Tomcat版本包括: 11.0.0-M1至11.0.0-M2、10.1.0-M1至10.1.5、9.0.0-M1至9.0.71以及8.5.0至8.5.85。Camel Quarkus 3.0.0的第一个里程碑版本,包含Quarkus 3.0.0.Alpha5和Camel 4.0.0-M2,它是以JDK 17和Jakarta EE 10为基线的第一个Camel Quarkus版本。其他值得注意的变化包括,废弃了ReflectiveClassBuildItem类;修复了在用Camel 4和Quarkus 3测试时使用PerfRegressionIT类抛出的异常;将Infinispan测试拆分成分别由Quarkus和Camel管理的客户端独立模块。关于这个版本的更多细节,请参阅发布说明。JBang0.105.1和0.105.2版本的JBang带来了重要的变更,包括,改进的jbang edit编辑命令,它假定支持的JBang IDE插件之一已被安装;基于modulepath进行持续改进,以替换classpath;jbang export jlink命令现在是一个选项,允许开发人员导出一个嵌入Java运行时的JBang应用程序或脚本;对Apple Silicon VSCodium下载的修正。FailsafeFailsafe是一个在Java 8+环境中处理故障的轻量级、零依赖性的库,它发布了3.3.1版本,其特性是API的变更,比如,在Failsafe JAR中增加了完整的Java模块描述符;发布了Failsafe提供的CompletableFuture类实例内部的执行引用。有关该版本的更多细节,请参阅更新日志。MavenMaven 3.9.1发布,改善之处包括,改进了“missing dependency”的错误信息;使用replace()方法替换replaceAll()方法中的所有非正则表达式模式,或使用预编译模式来提高性能;废弃Mojo插件的参数表达式${localRepository},因为${localRepository}注入的ArtifactFactory接口实例由于缺乏上下文,与Maven解析器接口LocalRepositoryManager不兼容。GradleGradle 8.1的第一个候选版本发布,该版本提供了如下特性,配置缓存的持续改进,现在可以认为它业已稳定;Kotlin DSL的持续改进,这是Groovy DSL的替代方案,包括Kotlin DSL脚本中的实验性简单属性设置;对JDK 20的支持。关于这个版本的更多细节,请参阅发布说明。原文链接:Java News Roundup: JDK 20 Released, Spring Releases, Quarkus, Helidon, Micronaut, Open Liberty相关阅读:Java 近期新闻:新 JEP、GraalVM 23 早期访问构建、Infinispan、Mojarra、Micrometer MetricsJava 20 发布,新特性一览:Amber、Loom 和 Panama 项目
12,056
1,680,589,428,887
InfoQ
49
“成本刺客”防不胜防,为何云成本如此难以驾驭?
达尔文曾说过“能够生存下来的生物, 既不是最强壮的, 也不是最聪明的, 而是最能够适应变化的物种。” 面对眼下经济的不确定性,很多企业在压力下,被动进入到“节衣缩食”的模式。推动企业减少支出,如何更好地“降本增效”更是上升为生存问题。面对成本压力,企业不再一味地追逐前沿的技术,而是更加注重数字化投资的平衡成本与收益,以确保获得最大化的商业价值。然而,可怕的是,面对屡创新高的云支出,许多 IT 团队却找不到成本失控的源头。海外的部分企业由于上云后过高的 IT 成本,甚至一度掀起了“云回迁”的声浪。如何能够在享受云计算这个巨大的创新引擎的同时又能够清晰度量云成本,不被“成本刺客”所伤?这一定是 2023 年管理者的数字化必答题。为什么云成本如此难以驾驭?事实上,云成本问题在近年来已经引起了很多企业管理者的重视,也有越来越多的企业通过优化资源使用来进行成本管控。可为什么“成本刺客”仍旧防不胜防呢?企业在云成本管理的过程中,主要面临四大痛点,可归纳为:投资看不清,成本不合理;大把资源闲置和资源浪费;难以动态响应市场创新业务需求和变化;业务 & 财务 &IT 对评估投资协作不佳 。由于本文面向的对象主要是技术管理者与开发者,因此,着重对大把资源闲置和资源浪费造成云成本失控的原因进行分析,主要有以下三点:其一,是性能的浪费。由于缺乏明确的衡量指标和应对策略,很多企业难以评估其在云端的实际性能需求,往往会过度采购云资源或使用不必要的高性能服务。此外,在使用过程中,为了保证应用程序能够正常运行,工程师在配置云计算资源的时候也通常会选择过度配置。其二,是闲置资源无法快速释放。由于企业需求的波动性,云资源的使用情况也会随之发生变化。但是,如果企业在使用云资源时没有采用自动化的管理策略,就会存在很多闲置的计算资源,导致企业付出了不必要的成本。其三,是对数据存储缺少分级和分层管理。缺乏分级分层管理会导致数据存储在云环境中不受控制地增长,从而导致云成本的浪费。同时,由于没有对不同数据类型的访问频率和重要性进行分析,数据存储和备份的策略也无法有效地优化,从而增加了数据存储的成本和复杂度。面对如此多“成本黑洞”,如果企业不谨慎管理其云计算资源,必然会付出惨痛的后果。去年,印度一家名为 Paytm 的电子商务公司就因未能有效管理云计算资源而导致云成本相比 2021 年急剧增长 400%。2022 年,美国航空公司 Delta Airlines 也因同样的原因而收到“天价”账单。对于一些初创公司而言,云成本管理不当造成的后果更为致命,海外初创公司 Milkie Way 曾因测试期间的疏忽,险些导致公司破产。以上案例并非个案,云成本管理问题是普遍存在的。Gartner 的一份报告指出,云成本浪费是全球公有云市场的主要问题,估计云成本浪费率约占总支出的 30%。451 Research 的研究表示,80%的受访者认为与云成本相关的不良管理已对其业务产生负面影响。“成本刺客”如何退!退!退!当一种现象成为整个市场的痛点,必然会催生出一系列应对的方法和举措。FinOps 的理念正是以此诞生并得到快速发展的。FinOps 是指管理和优化云计算成本的一种方法论和实践,旨在帮助组织更好地理解和控制其云计算支出。其核心理念是让所有涉及云计算成本的部门(开发、IT、财务等)更加紧密的协作,以便更好地进行成本控制,实现的手段包括建立透明度、监控和分析云资源的使用情况、采用自动化工具和流程等。早在 2017 年 Joe Kinsella、J.R. Storment 等人就在亚马逊云科技的 re:Invent 大会上提出过该理念。当时他们认为,随着越来越多的企业将工作负载迁移到云上,云计算成本管理问题将会变得越来越复杂。因此他们创建了 FinOps Foundation 社区,致力于帮助企业更好地管理和控制云计算成本。随着时间的推移 FinOps 社区吸引了越来越多的人,其中包括亚马逊云科技、Microsoft、Google 等云服务提供商代表和其他企业的 FinOps 专家。FinOps 说到底是一种概念,具体的实践与落地还是需要切实可行的工具和方案来推动。早期 FinOps 相关的产品主要是由多云管理的商业化公司推动,近两年云厂商也加入了推动 FinOps 向前发展的队伍。海外市场亚马逊云科技推出了 FinOps 工具,如 Amazon Cost Explorer、Amazon Budgets 等。国内市场头部云厂商也相继发力,阿里云推出 ACK FinOps 套件、腾讯云推出成本优化开源项目 Crane 等。一般来说,由云厂商提供的 FinOps 产品更便于与其自身的云平台进行深度整合,便于快速访问和管理资源,可靠性和安全性更高且更具价格竞争力。唯一不足的是,由于不同云厂商间存在壁垒,因此,该类产品通常只适用于特定的云平台。一个战略,七大路径,实现云上降本增效近年来,云服务提供商致力于将 FinOps 相关的工具和产品整合,形成了完整的云财务管理(CFM)战略。其中以 FinOps 领军者亚马逊云科技的云财务管理(CFM)战略最具代表性。亚马逊云科技 云财务管理(CFM )战略经历了从基础设施成本管理到应用程序与业务成本管理,再到如今提供一站式成本管理几个阶段,已发展得十分完善。整个战略有四大核心,分别是:成本可见性、成本优化、规划与预测和云财务运营。在成本可见性方面,亚马逊云科技 云财务管理(CFM)建立了查看、度量与评估的一整套体系,通过云价值成本可视化报告,提供更加细颗粒度的核算,精细化进行成本管理。在成本优化维度,该战略强调弹性优化和利用资源。通过拍卖机制,以低成本的竞价方式购买闲置资源从而降低采购成本,以分层管理的形式更有效地利用存储资源,此外,无服务器模型根据调用次数计费,避免闲置计算资源的浪费。在规划与预测的策略上,该战略采用数据驱动的预测分析,从而清晰可见地预测短期 / 长期成本,并通过架构优化服务,使云支出预测的准确性提升 35%。在云财务运营上,亚马逊云科技主张借助云财务管理(CFM)搭建云商数字化联合团队,财务、技术、业务从高层的战略目标开始合作规划,优化技术支出,把成本聚焦在可以为业务带来竞争力的 IT 计划。该战略具体是如何实践起来实现云上降本增效的呢?亚马逊云科技将其归纳为七条切实可行的方法,针对性的解决了因用量痛点导致的成本失控。避免性能的浪费选择符合应用需求和预算的实例类型上云是否能带来更低的成本?答案必然是肯定的。但误区在于很多企业只是迁移到了云端,而没有进行后续的调整,那么,效果必然会受到影响。云厂商通常都提供有多种类型的实例,仅亚马逊云科技提供的实例类型就有 600 多种,选择最适合工作负载的实例配置,并根据需求变化不断调整实例的类型,能够有效消除未使用资源的间接成本。选择最适合预算的采购模式不同的计费模式也会影响云计算资源的使用和费用。云服务提供商提供的最常见的计费模式有按需付费、预付费、混合计费模式等等。一般来说,按需付费适合于对资源使用量不确定的企业,但其成本相对较高。而预付费则适合有长期稳定的资源使用的企业,通过预先支付一定费用,获得更高的资源使用量或者折扣。混合计费模式则是将前两者进行结合,以更好地平衡成本和灵活性,企业需要合理评估不同计费模式的优缺点,选择最适合自己的模式。迁移到 Amazon Graviton,获得广泛应用的最佳性价比相比计费模式需要企业合理的对自身情况进行评估,服务的选择则更具规律性。一般来说,新的计算与存储服务,往往会拥有更高的性能与更低的成本。绝大多数的云服务都遵循这样的优化方向。例如,亚马逊云科技新一代处理器 Amazon Graviton 就比同类的前一代基于 X86 的实力的性价比提高了 40% 以上。在亚马逊云科技上构建和运行您的应用程序事实上,不仅仅 Amazon Graviton 有如此大规模性价比的提升,自成立以来,亚马逊云科技就将成本节约列为了首要任务之一,通过与处理器制造商合作、自研芯片等多样性的方式,亚马逊云科技在提升其服务性能、安全性、加速创新的同时已将价格降低了 115 次。闲置资源快速释放利用无服务器计算优化成本并加速创新云平台提供了强大、高性价比的计算和存储资源,以满足各种应用程序的需求。然而,许多应用程序在不同的时间段内需要不同程度的资源。采用无服务器技术可以将计算资源分配到需要的时间和地点,从而优化资源利用率,减少了成本。此外,无服务器计算高可用性、弹性、灵活等特点,也能够为企业提供更好的计算体验。优化你的资源能力以适应需求除了采用最新的服务和技术,优化资源适应需求的能力也至关重要。过度配置资源会导致不必要的基础设施成本,而配置不足则会导致应用程序性能不佳。利用 Amazon Compute Optimizer 和 Amazon Auto Scaling 两项服务就能够精准进行配置,帮助用户应对需求的变化。对数据存储缺少分级和分层管理利用亚马逊云科技存储,优化您的工作负载成本针对数据存储缺少分级和分层管理导致资源浪费的问题,亚马逊云科技也给出了相应的优化方法。Amazon S3 Intelligent-Tiering 在 Amazon S3 的基础上可以自动将对象分层,实现更精细的数据分层和更高效的存储资源利用。而 Amazon EBS 和 Amazon EFS 则提供了多种不同性能和成本的存储类型,用户可以根据业务需求进行选择,以实现更加精细的资源分层和更低的成本。通过 Amazon EFS 智能分层技术,最高能将存储成本降低 92%。综上可见,亚马逊云科技 云财务管理(CFM)是一套非常系统、灵活且完整的解决方案,能够帮助企业在不确定性中寻找确定方向,通过“ 云财务管理(CFM)”,真正认清云上业务价值,并持续演进。在 VUCA 时代更需敏捷转型,让“ 云财务管理(CFM)”快速匹配、指导业务发展,以抢得市场先机。在过往的实践中,亚马逊云科技 云财务管理(CFM)的效果也得到了很好地验证。MicroStrategy 是全球最大的独立上市商业智能公司,提供领先的分析和移动软件平台。该公司通过采用亚马逊云科技 云财务管理(CFM)战略,将云计算的支出减少了 30%,每年节省 250,000 美元,提高了对云计算使用和支出的可见性,并用这部分省下来的费用将培训资源和平台增加了 50%。全球拥有数十亿游戏玩家的 Wildlife Studios 公司,应用亚马逊云科技提供的战略来优化云成本,了解云上使用情况,将每年的云成本支出减少了 45%。这样的案例在亚马逊云科技的客户中不胜枚举。未来,随着越来越多企业上云进程的逐步加深,云成本管理的实践将会越来越普及。云财务管理(CFM)或许将成为许多企业必不可少的一项管理实践。当然,没有哪个战略或者方案是完美的。目前市面上的云成本管理解决方案仍面临缺乏统一行业标准的问题,使得企业难以进行比较和选择最适合他们的产品。随着新的技术的快速发展,云成本管理战略也需要持续发展和演变,以适应市场新的变化。
4,271
1,680,244,084,656
InfoQ
50
探索 17 年,亚马逊云科技重新定义 Serverless
作为云计算发展到一定阶段的必然产物,Serverless 具有最大程度利用资源,减少空闲资源浪费,降低学习、使用及运维成本以及提升开发效率等优势。目前,已经有很多企业陆续采用 Serverless 战略来解决实际业务中工作负载的难题,越来越多跨国大型企业以及初创企业正在积极尝试通过 Serverless 增加业务的敏捷性、实现成本的优化。但即便如此,围绕 Serverless 技术的争论也依然存在,其焦点在于,Serverless 是否能在不断变化的市场环境中,为企业业务创新持续赋能?Serverless 是否代表着云计算发展方向?云厂商又该如何迎接挑战,提供行业需要的 Serverless 服务……在 3 月 30 日 的亚马逊云科技创新大会上,Serverless 全栈能力再次被提及。“Serverless 有 4 个非常重要的优势:帮助企业创意更快地走向市场、成本更低、大规模适配,以及能更快地建立更好的应用程序”亚马逊云科技首席布道师 Jeff Barr 在开场演讲中即强调。整场大会也对上述业内比较关注的问题进行了解答。Serverless 全栈能力如何炼成?2012 年 Serverless 被首次提出,其中文解释为“无服务器”,但其本质并非如此,而是“服务无感化”,形容将服务器全权托管给云厂商,用户只需要聚焦于业务逻辑代码,再根据实际请求进行弹性伸缩,无需关心资源是否足够。而 Serverless 真正被大家熟知的时间节点是 2014 年。那一年,亚马逊云科技推出了 Amazon Lambda,开启了云计算的新时代。至此以后,云厂商们便开始纷纷发力,使得 Serverless 产品、服务、平台如雨后春笋般纷纷涌现。作为 Serverless 领域的先驱者,亚马逊云科技第一款 Serverless 产品可以追溯到 2006 年,在“Serverless”概念还没有产生时,亚马逊云科技已经完成了服务的搭建,发布了其第一个存储服务 Amazon S3 就是无服务架构的,允许用户创建、罗列、删除桶(Bucket),自由上传和下载文件,用 REST 和 SOAP 的方式灵活访问数据。如今 Amazon S3 几乎成为对象存储的事实标准,各大厂商基本都会兼容 Amazon S3,据统计,截止到 2023 年, Amazon S3 上存放着 280 万亿个对象,平均每秒要响应 1 亿多个请求,每秒需要执行 40 亿次校验计算来保证数据的完整性。回头看,从 2006 年发布第一款产品至今,亚马逊云科技在云计算领域的探索已走过了 17 个年头。2013 年亚马逊云科技发布了 Amazon Kinesis,可以作为一个可扩展、伸缩的消息流服务去支撑流计算的场景。2014 年对于亚马逊云科技和云计算的发展来说都是具有重要意义的一年,这一年,亚马逊云科技发布了业界第一个 Serverless 计算服务 Amazon Lambda,提出了一种事件驱动的场景,对于以前需要运行虚拟机来运行的代码,现在可以放到 Amazon Lambda 里面运行,开创了业界 Serverless 的先河。2016 年亚马逊云科技发布了 Amazon QuickSight,用来去支持 BI 的场景。同年也发布了 Serverless 的 ETL 服务——Amazon Glue,可以在运行 ETL 任务的同时,不需要管理底层的基础设施。2017 年推出适用于容器的 Serverless 计算服务 Amazon Fargate 被称为“改变游戏规则”的计算服务。2019 年,亚马逊云科技发布 Amazon LakeFormation,帮助用户快速构建数据湖,同时对数据湖和数仓的数据进行权限管理。2020 年,Amazon Aurora Serverless v2 发布,提供全托管的、按需自动缩放的关系型数据库服务。2021 年 12 月的 re:lnvent 上发布了 4 个 Serverless 数据分析服务,包括 Amazon EMR Serverless、Amazon Redshift Serverless、Amazon MSK Serverless、Amazon Kinesis on-demand,用来帮助客户企业挖掘数据,客户只需要考虑运行这些服务的基础设施以及管理集群,并未需要使用的资源付费即可。2023 年 2 月,Amazon OpenSearch Serverless 正式上线,用来帮助用户轻松执行交互式日志分析、实时应用程序监控、网站搜索等工作,当用户搜索和分析 PB 级的数据时,运行工作负载将会更容易更简单,甚至不需要考虑基础设施管理。Amazon OpenSearch Serverless 的发布,也代表着现在所有亚马逊云科技提供的数据分析服务已全部实现了 Serverless 无服务器化,让无服务器数据分析服务领域的技术创新达到了一个新的高度。亚马逊云科技从 2006 年起就开始用 Serverless 理念构建云服务,17 年间,亚马逊云科技持续进化,帮助来自各行各业不同规模的企业摆脱无差异化的繁重工作,提升业务敏捷性,降低运维及管理压力,聚焦于业务本身,实现数字化转型与持续创新。如今,已经有更多的企业使用 Serverless 服务,云计算的发展已经进入了新的时期——Serverless 时代。不止于计算,全行业拥抱 Serverless 时代如前文所述,如果将全栈 Serverless 能力看做是 Serverless 纵深发展的必由之路,那么从横向来看,Serverless 在不同领域的服务能力也十分重要。就亚马逊云科技 Serverless 而言,不断演进的 Amazon Lambda 推动了云计算用户对 Serverless 的认知,而其 Serverless 服务之旅并不止于计算,已经从计算、存储、应用集成、数据库、数据分析、人工智能等多个服务领域全面推进 Serverless 进程。本次亚马逊云科技创新大会,亚马逊云科技大中华区产品部总经理陈晓建分享了 IMDb(Internet Movie Database,互联网电影数据库)的Serverless重构之旅:通过 Amazon Lambda 的 Serverless 设计,IMDb 能够将核心业务拆分开,使业务更容易扩展维护和演进。在“应用创新”的时代,亚马逊云科技通过架构、技术、功能上的创新,将云应用更好地推向千行百业,帮助企业降本增效,聚焦业务,从而实现业务创新和增长。Serverless First,在不确定中把握确定性全栈 Serverless 和多领域的 Serverless 服务,为不同行业的企业提供了降本增效的可行性方案,但近几年,全球市场环境日趋复杂,不稳定性和不确定性因素明显增加,企业也需要学习在变化中如何自处。“当前,企业面临更多不确定性,即有风险又有机遇,不可预测、错综复杂以及潜在风险是不确定性的三个主要特征。”本次亚马逊云科技创新大会的主题演讲中,亚马逊云科技大中华区产品部总经理陈晓建总结道,并表示,Serverless 是帮助企业应对不确定性的有效手段:首先,快速 Time-to-Market 可以快速响应不可预测;其次,全栈 Serverless 服务能够应对错综复杂的诉求;最后,故障隔离能力可以应对潜在风险的挑战。陈晓建也分享了 Serverless 的三个进阶路径:第一,从迁移开始,无需代码改造;第二,拥抱事件驱动的架构设计,灵活应对不确定性;第三,采用 Serverless First 策略构建新的应用程序,降低应用成本。Serverless 理念下的事件驱动架构(Event-Driven-Architecture,简称 EDA),可以带领事物面对无序的不确定性,持续向前。具体来讲,通过构建事件驱动架构,企业可以获得一个松散耦合的系统,该系统具有较低的依赖性、更高的可用性和可进化性等优势,可以提高企业开发人员的敏捷性,帮助企业构建可靠、可扩展的应用程序,加快功能发布速度,进而更好地应对市场不确定性及市场需求变化。目前,亚马逊云科技常见的构建事件驱动架构的服务包括 Amazon EventBridge、Amazon Step Functions、Amazon Lambda 等,几乎所有亚马逊云科技提供的云计算服务,都实现了对于事件的支持,能够帮助企业客户更加轻松地构建事件驱动架构,最大化发挥其优势与价值。基于事件驱动的全 Serverless 架构,第三方客户评论网站 Trustpilot 成功支撑了类似于黑色星期五等大型购物金带来的流量,无需再担心任何流量陡增对基础设施的掣肘,帮助开发团队专注于业务代码;同时,借助亚马逊云科技各类监控与安全合规服务,Trustpilot 还能充分保证评论的合法性。此外,亚马逊云科技还提供了很多开发工具,帮助企业轻松地实现从复杂服务器架构到组件解耦的无服务器计算的转变。例如,企业可以通过 Amazon CodeCatalyst 解决软件开发和交付过程中的各种问题,加速应用程序交付,帮助开发团队节约成本;而 Amazon SAM (Serverless Application Model) 实现了对无服务器应用的标准化和模板化管理,可以极大节省 Serverless 应用的管理成本,有更多资源用于产品研发和创新;企业还可以使用 Amazon Application Composer 应用编排服务简化和加速构架、配置和构建 Serverless 应用。至此,我们已经可以回答开篇提到的问题:基于 Serverless 的极致敏捷、高扩展性和低成本的优势,企业能释放更多精力聚焦业务创新;而借助于面向于各行各业的 Serverless 服务,企业可以节约成本,便捷转型;此外,事件驱动架构则能够帮助企业面对风云诡谲的市场环境,控制风险。正如本次亚马逊云科技创新大会中所提的“Serverless First”:Serverless 时代已来,企业应当考虑借助 Serverless 的力量,为业务发展和创新持续赋能。
5,176
1,680,234,316,194
InfoQ
51
部署太慢,我们用 Warm Docker 容器将速度提高了 5 倍
背景 我们使用 Serverless Dagster Cloud 来开发和部署 Dagster 代码,无需设置本地开发环境或任何云基础架构。当提交更改到 GitHub 时,GitHub Action 会直接构建和部署代码到 Dagster Cloud,然后可以在界面上查看并与Dagster 对象进行交互。 Dagster Cloud 可以利用一个远程环境来共享部署,并且可以利用自动创建的临时环境与合作者协作,实现了个人本地开发和共享远程环境的结合。 最初,我们在 Dagster Cloud Serverless 中使用了标准的基于 Docker 的构建流程,但很快发现这个流程会使“编辑-部署-运行”的循环变得非常缓慢。为了将过程加速,我们实现了一个在 Docker 镜像之外运送代码的系统。本文将描述我们分析的问题、选择的解决方案以及在此过程中做出的各种权衡。Docker 镜像存在的问题 当我们在 GitHub 上构建 Docker 镜像并将其部署到 Dagster Cloud 时,每次提交需要 3~5 分钟才会在 Dagster UI 中显示。在每次迭代中,无服务器开发人员通常会对代码进行微小更改,但是必须等待 3 分钟以上才能看到该更改的效果,这很快就会变得非常烦人。我们分析了“当你更改一行代码并提交时会发生什么”,并发现以下问题:你可以看到,有两样东西花了最多的时间: 构建 Docker 镜像(60 ~ 90 多秒)部署 Docker 容器(90 秒) 让我们分别看一下这两个问题。 构建 Docker 镜像 有一些需要注意的关于构建 Docker 镜像的事情: Docker 镜像由堆栈中的多个层构成,每层由 Dockerfile 中的一部分命令构建。每个层有一个哈希标识。上传镜像到注册表时,只上传注册表中不存在的层(由哈希标识确定)。在 GitHub 构建机上使用 GitHub Actions 缓存重新构建镜像会将所有未受影响的层从缓存中拉取到构建机上。请注意,如果你的项目中有大量不会更改的依赖项,它们仍将在构建过程中从缓存中复制到构建机上。Docker 构建不是确定性的。如果使用完全相同的内容构建两个镜像,可能每次都会产生不同的哈希值。(虽然与本文直接相关性不强,但我们想观察这个意外的结果。作为一个极端情况,请考虑,一个刚构建的大层与已存在于注册表中的层完全相同,但仍然会作为一个新的层被上传。) 启动 Docker 容器 关于启动 Docker 容器,我们使用亚马逊云科技 Fargate,需要 45~90 秒的时间来提供和启动一个镜像。它不提供任何镜像缓存。启动一个新的容器会将所有层从注册表下载到已提供的容器中。 其他限制 在 Docker 镜像构建和启动后,我们运行用户的代码来提取元数据,并在 UI 中显示。这是不可避免的,并且可能需要几秒钟、30 秒或更多时间,具体取决于如何计算元数据(例如可能会连接数据库以读取模式)。此代码服务器保持活动状态并服务元数据请求,直到推送代码的新版本,然后启动一个新的容器。 我们有一个关键要求是可重复性:我们需要能够多次重新部署完全相同的代码和环境。使用 Docker 镜像哈希作为代码和环境的标识符非常适合这个要求。 我们的备选方案 下面是我们探索和讨论过的一些备选方案: 切换到 EC2 以加快容器启动速度。这会增加我们的运营负担,需要我们预先预配、监控和扩展集群。我们仍然会面临 Docker 构建速度慢的问题。切换到其他的 Docker 构建系统,例如 AWS CodeBuild。这需要更多的实现工作,并与 GitHub 进行更深入的集成。不确定收益是否值得。切换到 AWS Lambda,启动时间更快。Lambda 环境附带其自己的基础镜像,如果需要进行定制则更加困难。它还对执行时间施加了 15 分钟的限制,这将需要为运行时间更长的服务器实施复杂的解决方案。通过仅构建和上传更改的代码到相同的服务器,来重复使用长时间运行的代码服务器。这里的挑战是实现打包和运行时机制,以确保可靠和可重复的执行环境。我们研究了各种打包和分发 Python 环境的方法,包括 rsync、poetry、nix、shiv 和 pex。我们还考虑使用 EFS 卷以及这些工具来挂载 Python 环境。 做出这个决定的关键因素是因为我们意识到,虽然 Docker 镜像是行业标准,但在只需要同步一个小改变时,传输数百兆字节的镜像似乎是不必要的。考虑 git——它只传输差异,但却产生了完整且一致的代码库。 这让我们倾向于选择方案 4……如果我们能找到一个适合我们大部分工作工具的话。经过一些实验,我们发现 PEX 具有许多特性,非常适合我们的使用情况——在下一节中会详细介绍。 什么是 PEX? PEX 是 Python 可执行文件的缩写,是一个将 Python 包打包成名为 pex 文件的工具。这些可执行文件包含 Python 包和一些引导代码。例如,我们可以将 dagster 包和其依赖项打包成单个文件,然后运行它: % pex dagster --python=python3.8 -o dagster.pex % ./dagster.pex Python 3.8.16 (default, Dec 7 2022, 01:24:57) [Clang 14.0.0 (clang-1400.0.29.202)] on darwin Type "help", "copyright", "credits" or "license" for more information. (InteractiveConsole) >>> import dagster >>> 将整个环境存储在单个文件中非常方便,可以轻松地将其传输到 S3 中进行存储。PEX 提供了更多功能,不仅仅是“文件中的虚拟环境” - 这里是我们使用的其他功能: 隔离性 在运行时,pex 环境与其他全局包完全隔离。在环境中只有捆绑在 pex 文件中的包。我们将多个 pex 文件一起发送到同一台机器上,而不必担心环境隔离问题。 确定性 使用相同的输入包会生成完全相同的 pex 文件:$ pex dagster pandas -o out.pex | sha256sum e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 - $ pex dagster pandas -o out.pex | sha256sum e3b0c44298fc1c149afbf4c8996fb92427ae41e4649b934ca495991b7852b855 - 这让我们可以使用内容寻址来识别这些 pex 文件,从而对实现可重复性更有信心。为了实现可重复性,除了使用 Docker 镜像哈希之外,我们还使用 pex 文件哈希。 组合 多个 pex 文件可以在运行时合并,有效地将多个环境合并为一个环境。 % pex pandas -o pandas.pex % pex dagster -o dagster.pex % PEX_PATH=pandas.pex ./dagster.pex Python 3.8.16 (default, Dec 7 2022, 01:24:57) [Clang 14.0.0 (clang-1400.0.29.202)] on darwin Type "help", "copyright", "credits" or "license" for more information. (InteractiveConsole) >>> import pandas >>> import dagster >>> 我们使用这个功能将代码分成两个部分,在运行时合并起来:一个包含所有依赖项的 deps.pex 文件,和一个仅包含用户代码的 source.pex 文件。 跨平台构建 我们在 Serverless Cloud 中使用 Linux python:* -slim 衍生的基础镜像。只要有包的 wheel,pex 工具就可以在任何平台上为 Linux 构建 pex 文件。 快速部署 使用 pex 和 S3 存储 pex 文件,我们构建了一个系统,其中快速路径避免了构建和启动 Docker 镜像的开销。 我们的系统工作方式如下:当你将代码提交到 GitHub 时,GitHub 操作根据你的依赖关系是否与上一次部署不同,执行全量构建或快速构建。我们跟踪在 setup.py 和 requirements.txt 中指定的依赖关系集。 对于全量构建,我们将你的项目依赖项构建为 deps.pex 文件,将你的代码构建为 source.pex 文件。这两个文件都会上传到 Dagster Cloud。对于快速构建,我们只构建并上传 source.pex 文件。 在 Dagster Cloud 中,我们可能会重复使用现有容器或为代码服务器提供新的容器。我们将 deps.pex 和 source.pex 文件下载到此代码服务器上,并在隔离环境中使用它们运行你的代码。我们从不跨用户共享容器,容器上的所有环境都属于同一用户。快速部署的最佳时间和最差时间如下所示: 这里的要点是,在快速路径中——当我们进行快速构建并重用现有容器时——整个过程只需要大约 40 秒,而不是之前的 3 分钟多。我们称这个功能为快速部署,现在已经默认开启了所有新的无服务器注册。权衡和问题 这种方式可以显著提高部署速度(4~5 倍),但也带来了一些权衡和其他需要调整的因素: 虽然现在我们可以在一个代码服务器上运行多个环境,并且在代码方面是隔离的,但它们仍然共享相同的 RAM 和 CPU。如果我们将太多的环境放在一个容器中,而一个环境占用了太多的内存,就可能对在同一个容器中运行的其他环境产生不利影响。Docker 可以在任何操作系统上为 Linux 构建 Python 包,因为在构建过程中目标 Linux 操作系统和 Python 解释器都可用。pex 仅为提供 wheel 的包构建 Linux 的 pex 文件。如果出现问题,我们在构建过程中使用 Docker 容器来处理源分发。未来,这一步骤可以移动到单独的共享服务中。在构建 Docker 镜像时可以进行深度定制,例如,你可以指定自定义基础镜像而不是默认的 python:*-slim 镜像之一。为了实现功能的平等,我们实现了一种方法,允许用户指定他们自己的基础 Docker 镜像,我们将其用于快速部署。 GitHub 工作流和 PEX 你可能已经注意到,在最初的图表中,Download Docker based action 的操作大约需要 10 秒钟。我们是如何完全消除这个步骤的呢? 我们曾经将 GitHub action 代码打包成 Docker 镜像,并使用 Docker container action。现在,我们将我们的 action 代码打包为 pex 文件,将其检入我们的 action 存储库并直接在 GitHub runner 上运行。这消除了下载和启动 Docker action 镜像所花费的时间,同时仍允许我们打包所有依赖项。 我们做出的另一个小优化是只使用一个 GitHub 工作流作业。在 GitHub 中,每次作业启动需要大约 10 秒钟来准备一个新的 runner。 总结 将部署时间从超过 3 分钟缩短到 40 秒是一个显著的加速,我们对这个结果非常满意,特别是在测试自己的服务时。使用 pex 使我们能够在 Docker 之上构建一个可重复、一致的环境,我们很高兴能够探索使用 pex-on-docker 组合的其他可能性。 如果有兴趣,可以看 PEX 团另一篇关于使用 Docker 进行部署的博客文章,它描述了如何使用 pex 文件作为中间目标来加速 Docker 镜像构建。  原文链接: https://dagster.io/blog/fast-deploys-with-pex-and-docker
5,407
1,680,062,881,253
InfoQ
52
2023大连数字经济创新发展论坛盛大召开
2023年3月24日,由大连市企业联合会指导、大连市CIO协会主办、大连市工业互联网产业联盟协办的“2023大连数字经济创新发展论坛”在海创(大连)科技交流中心盛大召开。本次论坛围绕数字产业发展热点和关键技术,通过开放、共享的交流平台,深入探讨数字经济创新发展格局,分享企业数字经济发展成果,共同推动数字经济的多元化融合,为数字经济健康协同发展保驾护航。本次论坛得到了德泰、致远、联通、金蝶、ITC、云智慧、电讯盈科、AWS、契约锁、秘阵科技、帆软、e签宝、中望软件等合作伙伴的大力支持。论坛吸引了国内知名信息化专家、大连市诸多企业高管、CIO及信息化相关管理者、IT届精英等近400位人员积极参与。本次论坛得到了大连市政府相关部门与社会各界的高度重视。大连市工业和信息化局段洪涛副局长、大连市工业和信息化局两化融合处杨立波副处长、大连市工商联刘志林副主席、大连市总工会于春凯副主席、大连市国资委信息处温德朴处长、大连知识产权局保护中心卫国统副主任、大连市垃圾分类办宣教组、考核组组长张天宇、西岗区科技和工业信息化局吴玉红局长、高新区工会副主席、大连软件园党委书记贾翠、高新区大数据中心李强副主任、大连市中国国际数字和软件服务交易中心主任矫圣等重要嘉宾莅临会场。大连市工业和信息化局段洪涛副局长为本次论坛致辞。他在致辞中提到今年是我市数字经济加速发展的机遇期;加快数智融合,全力推进数智新城建设,是塑造高质量发展的新形式。为此他提出两点期望,一是希望协会应发挥桥梁和纽带作用,加强会员合作和信息共享,聚合政产学研各方力量,促进数字经济产业链上下游深度合作,为推动大连市数字经济发展贡献力量;二是希望参会企业立足自身优势,紧抓机遇,力争成为推动数字化转型发展、助力全市数字经济高质量发展的生力军。刘晓冰会长为论坛致辞,向所有的参会来宾与合作伙伴对协会工作的关心支持表示了衷心的感谢,同时表示协会将继续发挥平台作用,搭建好政府、企业与IT服务商的桥梁,在数字经济的大潮中,汇聚资源,提升能力,为政府和会员单位做好服务工作。张亚东秘书长向与会来宾做协会工作报告,报告重点围绕协会在信息化、数字化等面向政府、企业的咨询诊断项目、人才培养、交流合作、标准化等方面开展的重点工作,同时对协会未来的发展做了展望。张亚东表示,协会将与德泰、金蝶、致远等龙头企业开展战略合作,努力打造人工智能新生态,并发起成立大连市数字化转型发展中心,联合更多的本地数字化技术研发与应用领域企业,共同推进企业数字化转型发展。大连市人工智能产业发展战略、大连市数字化转型发展中心战略合作签约大连市CIO协会和德泰科技(超算)公司进行大连市人工智能产业发展战略合作签约大连市CIO协会分别与大连致远互联软件有限公司、金蝶软件(中国)有限公司大连分公司进行大连市数字化转型发展中心战略合作签约 论坛还邀请了相关行业的数字技术专家、应用案例实践者、优秀数字化案例服务商等与大家一起分享数字化转型和信息技术应用创新观点和理念。专家热议热点话题 微软数据科学与人工智能事业部解决方案总监王剑白认为,ChatGPT这个里程碑产品以一己之力让科技行业重新兴奋起来,为这个沉闷和内卷了许久的行业重新注入了想象力。本次演讲从chatgpt的起源开始,介绍了OpenAI的发展历程以及和微软的关系,将GPT大语言模型的发展及能力做了深入解析,并分析了本次AI的能力升级对未来行业即将引发的深刻变化。 贵州省CIO协会会长、国家工业互联网智库专家余斌做了“工业互联网赋能制造业数字化转型”的主题分享,介绍了华润集团工业互联网平台的建设历程,以及智能工厂、智慧园区等方面的建设经验和重点案例,提出了工业互联网的赋能方向“以核心企业为主体的全产业链,以工业园区为载体的产业集群”。最新数字化技术竞相呈现 致远互联副总裁李志刚在“COP重塑组织运营 使能数智化转型”分享中提到数字化转型已被提升至国家战略层面,各行各业均已迈入数字化转型深水区。致远互联新一代云原生协同运营平台 COP 可以帮助企业构建协同运营中台,加速数字化转型升级,成就高绩效组织。 德泰科技副总经理宋贵哲在“AI助力大连数字经济腾飞”演讲中介绍了人工智能发展趋势与挑战。未来大连人工智能生态创新中心将携手华为,基于计算中心的算力资源、技术资源、平台优势,持续加强人工智能基础研究及应用研究,培养并引进人工智能人才,充分利用优质创新型产业,加快营造优质产业营商环境。 大连联通政企BG助理总裁张睿在“联通云与工业互联网融合发展探讨”中“介绍,聚焦大链接、大计算、大数据、大应用、大安全是联通五大主业主责,全面整合云、大、物、智、链、安基础能力,推出超强性能的联通云7和超广聚合能力的5G全连接工厂,旨在重构创新生产关系,助力企业完美实现数字化转型。 金蝶中国苍穹架构支持部副总监闵刚带来“可组装技术引领企业现代化架构升级”的分享,他提到为快速响应市场变化,企业需要变成“组装式企业”,通过客户体验、生态系统等系列综合平台以组装方式提供数字化业务能力,并就HR、财务、制造、信创等企业在数字化转型中具体业务场景进行了分享。 云智慧售前高级经理赵铮认为智能运维是企业数字化转型的重要一环和保障支点,他本次分享汇总了云智慧在政府、能源、交通、制造型企业等行业积累的典型案例和实践方案,特别是在全链路可观测性方案、全链路业务追踪方案、数据中心统一运管解决方案的落地实践中积累了很多真实场景,总结了丰富的项目经验。 HKT香港电讯高级方案顾问樊剑程在分享中介绍HKT业务覆盖中国大陆主要一、二线超过360个城市,多路径海缆与陆缆网络骨干触达全球超过160个国家和地区。企业的数字化转型需要满足更高效的数据存储和处理能力;灵活的云计算方案;更高效的沟通和资讯获取方式;安全、高效的网络基础设施。 亚马逊云科技首席云计算企业战略顾问张侠博士从乌卡时代和数字经济谈起,面对新的时代特性,企业应该通过数字化创新创造业务价值,成为数据驱动型企业。亚马逊云科技通过“三个支柱”与“一个基座”帮助企业探索及释放数据价值。同时,以制造业智能湖仓为例,深入剖析了亚马逊云科技如何帮助企业实现全品类数据融合与资产化。 契约锁大连区总经理吕盛义提到契约锁数字化签章解决方案已经服务了3万多家中大型客户,解决了客户传统的纸质签署方式。契约锁与业务系统无缝集成,线上审批、盖章,签署完的文件可验可查,自动归档;并在公证处、司法链等权威第三方机构存证。数字化签章让组织用印更安全、高效、快捷,打通组织全程数字化最后一公里。 秘阵科技创始人孙冠华在分享中提到面对数字化转型升级过程中直面的外部风险“政策监管与合规要求”。秘阵科技为客户提供从“ID”到“I”+“D”的全流程密码技术产品解决方案、防勒索病毒产品方案;数据安全和隐私计算、密码智能硬件产品,并以国际和国密双密码算法体系,护航数字化转型升级的安全之路。数字化转型专家实践经验分享 中车大连机车车辆有限公司信息管理部副部长邹晓光分享了大连机车以数字技术赋能数字化转型,以数字技术赋能价值创造、产业链延伸。通过体制机制、产品、研发、服务、制造、管理的全面转型,以五大工程、六大能力及三舱一体系建设,打造轨道交通及相关领域最值得信赖的综合服务供应商。 喜家德信息总监黄金鑫带来“喜家德数字化转型之路”经验分享,他认为数字化是在信息化的基础上,通过数字技术赋能和驱动带来的数字化转型和新型能力。2022年,喜家德提出全面推动数字化建设,升级五大能力:数字化开发、数字化人才、数字化运营、数字化供应链和数字化管理。今年,将在数字化供应链、数据治理、数字化营销和数字化人才等能力继续深化建设。大咖论道 在精彩的数字技术分享后,张亚东秘书长与亚马逊云科技首席云计算企业战略顾问张侠博士,喜家德信息总监黄金鑫,大连深方信息科技有限公司总经理李贵念,致远互联总经理战威等四位嘉宾展开了巅峰对话。围绕企业如何通过“治理”数据、挖掘数据的价值、行业数字化营销的机遇和挑战、数字化与绿色化如何协同发展、如何构建企业的数字化营销能力等热点话题进行了激烈的讨论。思想碰撞,观点新颖,五位嘉宾各抒己见,干货满满,引发了台下倾听的一众来宾们的共鸣。 论坛最后进行了2021-2022大连市数字化转型和创新评选颁奖典礼,大连市企业联合会、大连市CIO协会领导为获奖企业及个人颁发了“数字化转型最佳实践单位”、“数字化转型最佳服务奖”“数字化转型最佳解决方案奖”、“工业互联网产品创新奖”、“年度数字化领军人物”、“年度优秀CIO”、“年度信息化先进工作者”奖项。曹建文、李荣东、李兆鹏、林乐锋、王喆、王志宇、张世强荣获“年度数字化领军人物”称号。黄金鑫、刘昊、吕照新、牛祎国、王德龙、王玉庭、赵鹤、周丹荣获“年度优秀CIO”称号。 在ITC积极投身声光电视讯行业的研发生产及发展历程,助力音视频生态链规范发展的介绍中拉开了家宴的序幕,部分嘉宾与合作伙伴共同度过了难忘的ITC之夜。推动数字经济发展,CIO是重要的践行者、创新者,也是推动企业数字化转型的主力军,大连市CIO协会愿意为全国CIO组织和企业CIO们搭建深入交流、务实合作的平台,共同推动大连市数字经济发展,为制造强国、网络强国建设作出更大贡献。
1,870
1,679,914,898,251
InfoQ
53
后摩尔定律时代,如何提升云效益的天花板
在摩尔定律失效的今天,各行各业对算力的需求却空前膨胀。大数据、AI 等趋势方兴未艾,生命科学、智能制造等行业的深度数字化,也给数据处理的规模和性能带来更高要求。云作为如今数字经济的基础设施,承载着海量的应用。云厂商不得不思考,如何才能更好地满足客户对数据处理效率越来越高的要求,对算力性能、性价比越来越高的要求?在摩尔定律失效的今天,当前云上的企业是否已经触碰到了云效益的天花板?云厂商可以做点什么,来突破传统计算架构下对算力的限制?作为一种新型的计算服务提供模式,云服务器所提供的性价比如何超越自建数据中心?本文,InfoQ 于阿里云第八代企业级实例 g8i 正式发布之际,采访到了阿里云弹性计算产品总监王志坤和阿里云高级产品专家姬少晨,试图寻求上述问题的答案。死磕“性能”,软硬一体化重塑计算架构3 月 24 日,阿里云发布第八代企业级实例 g8i。其依托于 CIPU+ 飞天的技术架构,搭载第四代英特尔至强处理器(代号 Sapphire Rapids,SPR),全核睿频 p0n 达到 3.2GHz,相比上一代实例,整机核密度提升 50%,性能提升 60% 以上。存储方面,IOPS 最高达 100 万,全面适配 NVMe 云盘,存储延时低至百微秒,同时支持共享盘。网络方面,全面升级至配阿里云自研 eRDMA 大规模加速能力,g8i 是业界首个具备大规模弹性 RDMA 加速能力的计算实例,网络延时最低 8 微秒,为数据库、大数据等常见应用带来进一步的性能跃升。这种算力服务水平的不断提升,效益的不断突破,从何而来?从阿里云弹性计算的一路演进来看,答案很明确:软硬一体化,甚至尝试重构传统计算架构。具体到本次 ECS g8i 实例,其表现为基于“飞天 +CIPU”架构。如今,软硬一体化成为所有云厂商共同的方向。如果将时间倒退到 2017 年,阿里云是孤独的。以往,企业选择上云主要是希望通过其进行商业模式的创新,云计算弹性、灵活、免运维的原始特点降低了企业的初始建设门槛,虽然这牺牲了一部分性能,但在当时的商业环境下,这样的性能损失与其带来的商业价值相比并不关键。后来,随着越来越多的企业上云,性能损耗问题越来越突出。为了解决这一问题,阿里云相关研发团队于 2017 年推出业内首款计算虚拟化损耗为零的神龙弹性裸金属服务器,深度融合了物理机和虚拟机特性,标志着神龙架构的诞生。45 天之后,亚马逊云科技在地球另一端发布了自研的云服务器硬件——Nitro。自此,云厂商开始深入硬件领域,战场开始发生转移。2019 年 9 月,阿里云正式发布第三代自研神龙架构,用户能在云上获得超越传统物理机 100% 的计算能力。2021 年,第四代神龙架构诞生,具备业界首个大规模弹性 RDMA 加速能力。2022 年,神龙架构全面升级为 CIPU,可实现对计算服务器即插即用,对数据中心内部的云计算体系架构进行改革创新,从以 CPU 为中心的体系架构进入以飞天操作系统 +CIPU 为中心的体系架构。如今,云计算所能提供的优势不单单是免运维,而是性能也就是性价比的全面提升。ECS g8i 的发布让这种能力更加普惠,让大部分云上用户都可以感受到云平台本身的性能跃迁。普惠 eRDMA 加速能力,突破场景化性能极限ECS g8i 实例的发布也标志着阿里云自研 eRDMA 能力的全面商业化,这也是本次第八代实例 g8i 的性能大杀器之一。eRDMA 能够大幅提升大规模计算通信效率,并且能够随着阿里云的集群规模动态扩展,轻松构建大规模 RDMA 高性能计算网络。RDMA(Remote Direct Memory Access)是一种高性能网络传输技术,可将数据直接从一台计算机的内存传输到另一台计算机,数据传输不经过 CPU。相比传统 TCP 网络,RDMA 能够大幅减少 CPU 的开销,并降低网络互联带来的通信延迟,有助于在云上处理更大数据量的应用。然而,搭建 IB (InfiniBand) 和 RoCE(RDMA over Converged Ethernet)等主流 RDMA 方案,存在部署周期长、维护成本高、使用门槛高和无法大规模组网等弊端,同时与现有 TCP 网络不兼容。企业需要购置昂贵的专用设备,并对应用做改造,才能用上 RDMA 能力。阿里云通过自研的 CIPU,基于云上通用设备,研发出“弹性 RDMA”,简称 eRDMA。相较于传统 TCP 网络,eRDMA 具有更高性能,同时消灭了上述弊端。基于 CIPU,eRDMA 与云上 VPC 共享同一张网络,用户可以随开随用具有 eRDMA 能力的实例;现有 Redis、Spark、AI、HPC 等应用,通过阿里云提供的接口,即可一键适配,最大程度降低企业的使用难度。同时,企业的大规模分布式计算应用将更加高效,能够以更低的成本在更短的时间内处理更大规模的数据量。与此同时,芯片厂商的王牌代表英特尔,也在用自身的方式,正在打破摩尔定律失效的魔咒。他们给出的方式,是 CPU 内置多种加速器——让 CPU 不仅仅承担通用计算的功能,而是变得擅长更多垂直场景。第四代英特尔至强可扩展处理器所配备的硬件原生加速器,搭配上阿里云的 eRDMA 能力,更是使 g8i 在大数据和数据库等场景下的性能大幅提升。“英特尔已经不是一家传统的 CPU 厂商,它也在积极地向云转型,而通过硬件辅助的虚拟化带来的性能优势是巨大的。阿里云每年都会与英特尔保持高密度的沟通,双方就如何让云计算更加普惠做深入合作,而只有当云本身达到一定的体量,这种合作的规模化效益才能展现出来,实现双赢。”王志坤表示。阿里云弹性计算产品线负责人张献涛表示,阿里云 CIPU+ 飞天的技术架构与第四代英特尔® 至强®可扩展处理器的强强联合下,阿里云第八代企业级实例 g8i 规格族性能最大提升了 60%,叠加第四代英特尔® 至强®处理器的加速器,在大数据、数据库等场景实现了数倍级性能提升,进一步为客户实现降本增效;同时,双方就机密虚拟机能力 TDX 在云上的实践进行了深度的技术合作,相信在双方的持续紧密合作之下,将会给更多各行业的客户带来更具性价比的技术红利。卷安全:将机密计算拉下神坛在性能得以持续攀升的背后,云厂商必须死守安全底线,否则皆是空谈。安全方面,本次发布的 ECS g8i 实例支持可信计算与加密计算等特性,默认内存加密(TME),并率先支持机密虚拟机 TDX(Intel® Trusted Domain Extension)能力。随着云计算的大规模部署,机密计算旨在允许将云提供商从可信计算基础(TCB)中移除,以便只有硬件和受保护的应用程序本身在可信边界内。这使得客户可以放心地、安全地将业务负载转移到公有云上。然而,过去多年,机密计算对用户来说始终是一种“看得着,摸不着”的存在。在工程落地层面,主流的机密计算技术方案要么对应用具备较大侵入性,要么性能会做出较大牺牲。作为亚太地区最早部署机密计算的云厂商,阿里云一直在持续推广可信与机密计算技术以为客户的数据提供更好的保护。ECS g8i 实例成功将机密计算“拉下神坛”,其全量搭载安全芯片 TPM 作为硬件可信根,实现服务器的可信启动,确保零篡改;虚拟化层面,支持虚拟可信能力 vTPM,提供实例启动过程核心组件的校验能力。在实例可信的基础上,配合英特尔硬件 TEE 能力和内存加密 TME (Intel® Total Memory Encryption) 技术,以及阿里云自研的加密计算隔离环境 enclave,ECS g8i 实例进一步实现数据的可用不可见,为大型互联网、新金融、医疗保健、知识产权等业务场景提供了更高安全等级数据保护能力和云上可信运行环境。内存加密 TME 技术是新一代 ECS g8i 实例独具的全新安全加密技术。在该技术的加持下,ECS g8i 实例默认全内存加密,加强内存数据的抗物理攻击能力,进一步提升云上数据的安全水位,用户无需对操作系统或应用进行任何改动,即可享受到更高一层的安全防护。同时,基于英特尔第四代至强可处理器的 g8i 实例还实现了机密虚拟机能力 TDX 在云上的实践,无需用户二次开发即可将现有应用迁移至受 TDX 保护的实例。阿里云和 Intel 在 TDX 的架构设计、功能验证、安全分析和性能优化等方面均进行了紧密的合作,并实现了 TDX 技术在云上的首次应用。目前,阿里云在全球范围内实现了该能力的首发,这将推动机密计算的通用化和平民化,并与可信技术一起成为未来云上服务器的标准能力。行进在云普惠的路上:天花板远未到达过去 14 年的发展历程中,阿里云的弹性计算演进史可以概括为云计算技术的普惠历程、算力的普惠历程,这对当今处在人工智能风暴中的企业而言具备极大的场景价值。时至今日,云所带来的已经不单单是运维优势,性能提升的背后蕴含着的是巨大的成本优势。随着阿里云这样的云厂商在核心技术层面不断做出突破,将会有越来越多的企业愿意深度用云。在政策方面,数字中国建设、东数西算等都将云计算放到了非常重要的位置。未来十年,在多方利好因素促成之下,我们有理由相信云计算将进入普惠发展期。所以,云效益的天花板远未到达,有些人尚未触顶,有些人在不断突破极限。
3,073
1,679,897,347,699
InfoQ
54
ChatGPT带火AI芯片,赚翻了的英伟达发布新核弹:ChatGPT专用GPU,让推理提速10倍!
老黄的新宣言:决胜 AI 的 iPhone 时刻。北京时间 3 月 21 日晚间,在英伟达 GTC2023 上,英伟达创始人兼首席执行官黄仁勋穿着他标志性的皮夹克,站在位于英伟达总部的垂直绿墙前,发表了一场主题演讲。这场发布会几乎完全聚焦于人工智能。演讲中,黄仁勋介绍了新一轮技术突破,从 AI 训练到模型部署,再到半导体、软件库、系统乃至云服务,分享了英伟达的加速计算平台如何推动人工智能、元宇宙、云技术和可持续计算的下一波浪潮。英伟达持续推进 AI 硬件,并重点关注这些技术在科技、医疗、金融、图像、物流配送等行业的应用场景,让各行各业的企业更容易使用其技术。“我们正处于 AI 的 iPhone 时刻,”黄仁勋表示 “初创公司正在竞相打造颠覆性产品和商业模式,科技巨头也在寻求突破。”最近站在风口浪尖之上的“顶流” — 生成式人工智能和 ChatGPT 也在本场发布会占了较大篇幅。“推动这波浪潮的引擎是加速计算,燃料则是 AI。生成式 AI 凭借令人印象深刻的能力令众多企业产生了紧迫感,开始重新构思自己的产品和商业模式。”面对逐渐放缓的摩尔定律以及各行业对于可持续性、生成式 AI 和数字化的旺盛需求,加速计算和 AI 的到来可谓恰逢其时。黄仁勋表示,“工业企业正竞相推动数字化转型,并将自身重塑为软件驱动型科技公司,保证自己成为颠覆的力量、而非被颠覆的对象。”最近 AIGC 和 ChatGPT 的走后也让英伟达成为背后赢家,大型语言模型需要规模庞大的算力,目前大模型竞赛中的很多玩家都依赖英伟达的 GPU 芯片。据悉,受益于 ChatGPT 相关产品的热度,英伟达 A100、H100 及 A800 系列 GPU 等三款针对数据中心的 GPU 代工订单增加。投资公司 Baird 认为,ChatGPT 的“有意义的”订单正在到来,并帮助该英伟达上调了下半年数据中心收入预期。Baird 分析师 Tristan Gerra 表示,英伟达的 Hopper 芯片很可能受益于大型语言模型的增长,并成为一种“长期趋势”。据悉,自今年年初以来,英伟达股价涨幅已超 80%。英伟达 2023 财年第四季度财报显示,AI 数据中心业务再次成为该公司最大的收入来源。以下为英伟达 GTC 2023 的重要发布概览:AI 的 iPhone 时刻英伟达提供的技术可以说是 AI 发展的基础,黄仁勋讲述了显卡巨头如何在生成式 AI 革命之初为其提供助力。早在 2016 年,他就向 OpenAI 交付了第一台英伟达 DGX AI 超级计算机,这也正是支持 ChatGPT 大语言模型实现突破的底层引擎。去年年底亮相以来,ChatGPT 迅速进入公众视野,吸引到超 1 亿用户,成为历史上增长速度最快的应用程序。黄仁勋感慨,“我们正处于 AI 的 iPhone 时刻 。”英伟达 DGX 超级计算机最初仅供 AI 研究,但如今已经在世界各地的企业中全天候运行,负责提炼数据和处理 AI。目前,财富百强企业中有一半都在使用 DGX AI 超级计算机。“DGX 超级计算机已经成为现代 AI 的工厂。”面向数据中心的英伟达 H100、Grace Hopper 和 Grace如今,部署 ChatGPT 这类大语言模型已经成为新的重要推理工作负载。为了更好地应对这类需求,黄仁勋公布了新的双 GPU NVLink 产品 H100 NVL。基于英伟达的 Hopper 架构,H100 内置一个 Transformer Engine,能够高效承载 GPT 这类大体量模型。与处理 GPT-3 的 HGX A100 相比,通过双 GPU NVLink 接入四对 H100,从而将速度提升 10 倍。“H100 能够将大语言模型的处理成本降低一个数量级。”H100与此同时,过去十年间,云计算年均增长 20% 并发展出价值万亿美元的新产业。英伟达为 AI 和云优先时代设计出 Grace CPU,其中 AI 负载由 GPU 加速。目前 Grace 已经向部分客户提供样片。NVIDIA Grace 超级芯片英伟达的新型超级芯片 Grace Hopper 可通过 900 GB/ 秒高速接口将 Grace CPU 与 Hopper GPU 连接起来。Grace Hopper 专为大型数据集而生,特别是用于推荐系统和大语言模型的 AI 数据库。“客户希望将 AI 数据库再扩大几个数量级,而 Grace Hopper 正是这类用例中的理想引擎。”DGX — AI 基础设施的蓝图最新版本的 DGX 采用 8 个相互连通的英伟达 H100 GPU,将其作为巨大的单一 GPU 使用。“英伟达 DGX H100 堪称全球客户构建 AI 基础设施的蓝图”,而且目前这款产品已经全面投产。H100 AI 超级计算机也已筹备上线。甲骨文 Oracle Cloud Infrastructure 宣布将先期提供搭载 H100 GPU 的新型 OCI Compute 裸机 GPU 实例。此外,亚马逊云科技也宣布即将为 P5 实例推出 EC2 UltraClusters 选项,最大规模可扩展至 2 万个互连 H100 GPU。上个星期,微软 Azure 也刚刚发布其 H100 虚拟机 ND H100 v5 的内部预览版。Meta 已经其 AI 生产和研究团队部署了由 H100 驱动的 Grand Teton AI 超级计算机。还有 OpenAI,他们在 Azure 超级计算机上使用 H100 以支持 AI 研究。其他接纳 H100 的合作伙伴还包括 Cirrascale 和 CoreWeave、Google Cloud、Lambda、Paperspace 以及 Vult。现在英伟达的客户已经可以从各领先服务器制造商处购买配备有英伟达 H100 GPU 的服务器和系统,包括源讯、思科、戴尔科技、技嘉、HPE、联想和 Supermicro 等。DGX Cloud:将 AI 引入每一家企业为了帮助初创公司和大企业运用 DGX 的强大能力加快新产品开发和 AI 战略的推进,黄仁勋还公布了 NVIDIA DGX Cloud。通过与微软 Azure、Google Cloud 和 Oracle Cloud Infrastructure 的合作,DGX Cloud 将把 DGX AI 超级计算机“通过浏览器引入每一家企业”。DGX Cloud 专门针对 NVIDIA AI Enterprise 进行了优化,这是一套全球领先的端到端 AI 开发与部署加速软件套件。“DGX Cloud 将为客户提供最好的英伟达 AI 与领先云服务商的最佳服务。”英伟达将与领先云服务商合作托管 DGX 云基础设施,第一步就是携手 Oracle Cloud Infrastructure。微软 Azure 预计将从下季度起托管 DGX Cloud,该服务也将很快扩展至 Google Cloud。企业客户可以按月租用 DGC Cloud 集群,借此轻松实现大规模多节点训练负载的开发。为生成式 AI 提供“增压加速”为了帮助生成式 AI 开发者加快探索的脚步,黄仁勋又公布了 NVIDIA AI Foundations。这个云服务系列主要面向希望构建、改进和操作定制化大语言模型的客户,能够利用专有数据训练出适应特定领域任务的生成式 AI 成果。Nvidia AI Foundations 是针对语言、视觉模型和生物学的云服务AI Foundations 服务包含用于构建定制化语言文本到文本生成模型的 NVIDIA NeMo;可利用许可或专有内容训练自定义模型的视觉语言模型服务 Picasso;以及服务于总值达 2 万亿美元的药物发现行业研究人员的 BioNeMo。Adobe 也在与英伟达合作,共同为未来的创造性工作构建下一代 AI 功能。Getty Images 则与英伟达合作训练负责任的文本到图像与文本到视频生成式基础模型。Shutterstock 与英伟达合作训练文本到 3D 生成式基础模型,希望简化 3D 资产的创建流程。加速医学进步英伟达宣布 Amgen 正通过 BioNeMo 加速药物发现。此外,Alchemab Therapeutics、阿斯利康、Evozyne、Innophore 和 Insilico 也都是 BioNemo 的早期用户。BioNeMo 能够帮助研究人员利用专有数据创建、微调和交付定制化模型。黄仁勋还宣布,英伟达已经与全球最大医疗保健技术提供商美敦力建立合作,共同构建用于软件定义医疗设备的 AI 平台。双方将合作为美敦力系统构建通用平台,将手术指引、机器人辅助手术等各类成果纳入其中。美敦力此次也公布了利用 NVIDIA Holoscan 软件库打造的实时传感器处理系统 GI Genius,能够利用 AI 技术实现结肠癌的早期检测,计划于今年年底左右正式上线。黄仁勋总结道,“市值 2500 亿美元的全球医疗器械市场,正经历一场根本性变革。”为生成式 AI 应用的部署加速为了帮助企业快速部署生成式 AI 艺术形式,黄仁勋公布了用于 AI 视频、图像生成、大语言模型部署和推荐的推理平台。这些功能将与英伟达的全栈推理软和最新的英伟达 Ada、Hopper 及 Grace Hopper 处理器相结合,包括此次推出的英伟达 L4 Tensor Core GPU 及 H100 NVL GPU。• 英伟达 L4 for AI Video 可将 AI 视频处理性能提升至 CPU 的 120 倍,能效优化达 99%。• 英伟达 L40 for Image Generation 针对图形生成和 AI 支持的 2D、视频及 3D 图像生成进行了优化。• 英伟达 H100 NVL for Large Language Model Deployment 可高效部署 ChatGPT 等大语言模型。• 英伟达 Grace Hopper for Recommendation Models 适用于图推荐模型、矢量数据库和图神经网络等用例。Google Cloud 是首家向客户交付 L4 的云服务商,此次发布了新的 G2 虚拟机内部预览版。谷歌还计划将 L4 集成至 Vertex AI 模型商店当中。把 Omniverse 带向“数亿用户”黄仁勋宣布英伟达将与微软合作,将 NVIDIA Omniverse Cloud 全托管云服务推向各个行业,为每一家企业赋予前所未有的模拟和协作能力。“微软和英伟达将把 Omniverse 带向数亿 Microsoft 365 与 Azure 用户。”同时推出的还有新的 NVIDIA OVX 服务器和新一代工作站,其中搭载 NVIDIA RTX Ada Generation GPU 和英特尔针对 NVIDIA Omniverse 优化的最新 CPU。黄仁勋还播放了一段视频,展示了英伟达为 3D 设计协作与数字孪生模型构建的这套 Omniverse 开放平台。在 Omniverse 平台之上打造的机器人模拟与合成生成方案 NVIDIA Isaac Sim,已经成功帮助亚马逊建立起高保真度数字孪生副本,同时显著节约了时间和资金。在演示中,亚马逊借此开发出首款全自动库管机器人 Proteus,它能与人类员工一道在巨大的配货仓库中将商品搬来挪去。推动 3 万亿美元的汽车产业实现数字化为了表达 Omniverse 的影响力和强大实力,黄仁勋还介绍了 Omniverse 在价值 3 万亿美元的汽车产业中发挥的数字化推动作用。到 2030 年,汽车制造商将建设 300 家工厂、生产 2 亿辆电动汽车,电池制造商则着手兴建 100 多处超级工厂。“数字化将提高行业的整体效率、生产力和行动速度。”谈到 Omniverse 在整个行业的未来应用,黄仁勋分享了 Lotus 利用 Omniverse 建立虚拟组装焊接站,奔驰利用 Omniverse 来构建、优化和规划新车型的装配线。Rimac and Lucid Motors 则使用 Omniverse 开发出能忠实反映车辆设计参数的数字商店。宝马与 Idelworks 合作,在 Omniverse 中利用 Issac Sim 生成合成数据与场景,借此训练工厂内的工程机器人。黄仁勋表示,宝马正使用 Omniverse 规划全球工厂运营,甚至在一家新电动车工厂开业两年前就完全在 Omniverse 中建立了孪生模型。另外,英伟达还宣布与全球领先的新能源汽车制造商比亚迪合作,在生产体系中广泛引入 NVIDIA DRIVE Orin 集中式计算平台。加速半导体突破面对当前生产工艺已接近物理极限的事实,黄仁勋公布了 NVIDIA cuLitho 计算光刻库,将帮助阿斯麦尔、台积电和新思科技等半导体领先企业加速新一代芯片的设计和制造。这套全新软件库已经被全球芯片代工巨头台积电和电子设计自动化领军企业新思科技集成至其最新一代 NVIDIA Hopper 架构的 GPU 软件、制造流程和系统当中。芯片制造商阿斯麦尔与英伟达就 GPU 和 cuLitho 库开展密切合作,计划在所有计算光刻软件产品中支持 GPU 集成。黄仁勋谈到,随着光刻技术逼近物理极限,英伟达推出的 cuLitho 有望帮助半导体行业迈向 2 纳米甚至更远的新节点。“芯片行业,是几乎一切其他行业的基础。” 参考链接:https://blogs.nvidia.com/blog/2023/03/21/gtc-keynote-spring-2023/https://register.nvidia.cn/flow/nvidia/gtcspring2023/registrationcn/page/sessioncatalog/session/1673303350236001hW73
5,390
1,679,455,829,803
InfoQ
55
IBM公有云:聚焦国内出海企业,重点打造行业云
 在近日的IBM大中华区云平台事业部的分享会上,IBM方面表示,其国内的目标客户主要锁定在出海企业,包括互联网行业和传统行业。 IBM大中华区云计算平台产品及生态总监崔海涛表示,与其他厂商不同,IBM既有公有云的产品,也有咨询的能力,能够提供“从业务策略制定,业务流程落地,再到技术实现”的一站式服务。 IBM还打造了专属的行业云,通过金融云、卫星云、电信云等,释放不同行业的不同能力。 根据介绍,出海对于企业来说,面临着技术、网络安全和合规三方面的问题。而云厂商在帮助出海企业解决这三个问题时,通常也会有一些挑战: 要有全球布局。公有云是个重资产低利润的行业,更多面临的是风险合规问题。中国出海的本地公有云有十几家,但通常集中布局在东南亚地区。企业要找的公有云起码要覆盖全球几个大的地区和国家,比如北美、欧洲、东南亚、拉丁美洲有站点,这样才能有效支持企业的海外业务。云计算要稳定可靠。比如游戏行业最好的上新时间是暑假和春节,这期间一旦宕机将损失惨重。网络安全。安全不仅仅是黑客的问题,有时候内部员工也会带来风险。根据IBM的调查,70%的网络安全来自企业内部,是企业员工用U盘把客户信息带走而导致的数据泄露。开源开放。大家越来越认识到一定要选择开放、相对比较透明的平台,防止被锁定。海量存储。数据爆炸带来了存储成本的爆炸式增长。 那么,IBM如何满足这些要求呢? 2013年,IBM收购了公有云供应商SoftLayer。被IBM收购前,SoftLayer已经在为中国企业出海提供全球的公有云服务。2017年,IBM将私有云和PaaS平台建立在SoftLayer的平台之上。2019年,IBM以340亿美金收购了红帽,基于红帽OpenShift把基础设施、AI、私有云、公有云以及边缘计算的解决方案整合在一起,构建了一个完整、开放和提供一致性服务的混合云平台。自此之后,IBM Cloud Platform (即IBM的公有云平台)具有了更强的开放性:有虚机也有裸机,还有VMware专属机、SAP专属机、Power专属芯片的专属机等。 IBM通过覆盖全球的数据中心,为云提供高性能、可持续性、强弹性。IBM云有传统的x86服务器,还有新的Power10处理器,每核算力提高2.5倍,能耗较上年降低52%。实现主机上云的LinuxONE架构比x86每年可减75%能耗,节约50%空间。 IBM云在达沃斯部署了60个机柜的Vela超级计算设施,以应对AI算力需求。通过IBM云,每个节点上部署了大约8个英伟达A100加速计算卡。同时,IBM将这项能力与其云上两、三百个不同的应用串联在一起,可以更好更快速地研究AI基础模型。通过这些基础模型,IBM来研发更精准、更适合2B业务的AI模型。 安全方面,IBM大型机的安全技术都可以放到IBM公有云上。IBM公有云使用FIPS140-2(NIST发布的针对密码模块的安全需求标准,作为联邦信息处理标准被政府机构广泛采用)四级标准,也是目前业界最高的安全标准。 开放性上,IBM表示,技术上以行业开放标准优先并开放接口,底层计算等资源既支持其他云厂商管理,也开放给客户自己管理,用户的工作负载可以在不同的环境之间进行迁移。 存储方面,IBM认为其对象存储提供了业界最优的技术和成本优势。IBM云对象存储通过内置的高速文件传输功能、跨区域产品和集成服务支持指数级数据增长和云原生工作负载。IBM为出海企业提供的产品矩阵 与亚马逊云科技相比,崔海涛认为IBM与其最大的区别在于亚马逊云科技有很多超级客户,比如TikTok等。IBM的用户比较平均,美国的银行、航空公司、汽车公司,还有可口可乐这样的公司都是其客户。而且,IBM云更重视中台和后台的技术赋能。 
2,907
1,679,379,705,789
InfoQ
56
软件持续交付速度提升 40%!DevOps 制品管理有何魔力?
近年来,混合云、多云正逐步成为企业用云的主流模式。据 IBM 的调查报告显示,仅截至 2021 年,采用混合云、多云战略的企业就已经接近 80%。混合云、多云战略的确能够增加企业资源配置的灵活性,但也给持续交付带来了更大的挑战。在软件发布频率持续增长趋势下,如何将版本快速分发到多个环境中去,成为令不少开发者头疼的问题。近日,亚马逊云科技联合 JFrog 举行 《DevOps 实践:混合云模式下软件单一可信源的建设方法》为主题的 Tech Talk,JFrog (中国)技术总监王青与大家分享了解决该问题的独特思路。现有的制品库正在阻碍你的快速发布IDC 研究报告显示,到 2024 年全球 APP 数量将达到 520M;2025 年后,超过 60% 的企业每天都将进行版本发布,甚至更快。在如此之快的版本构建需求下,现有的统一代码库、统一持续集成再进行不同环境分发的制品管理方式往往存在一定的局限性。研发团队面临着 Nexus 开源版私服宕机无人维护、开源组件漏洞被引入等问题;测试团队无法清晰地了解版本质量信息,同时测试报告也无法准确进行关联;运维团队在面临宕机问题时候缺乏商业技术支持,缺乏高可用和容灾;在此管理模式下,一旦发生问题,安全团队很难快速发现漏洞、对问题进行定位,从而及时响应。面对诸多问题,王青提出,建立软件单一可信源对于企业来说是至关重要的。单一可信源是指企业内部单一的,合规地存放所有软件的仓库,包括 war 包,Docker 镜像,zip 包等,以及第三方开源组件或者商业软件的授权版本和软件物料清单 (SBOM)。为什么要建立软件单一可信源建立唯一可信源的制品管理流程后,只需要不断将版本从开发流水线的 CI 服务器里建立晋级,一路晋级到生产环境的制品库,再由生产环境的制品库推送到多云环境中去。对于大型企业来说,通常会有多种云的技术栈,多种语言包都需要构建。通过制品库统一构建,把版本统一上传到 DEV 本地仓库做本地的集成测试,当开发者测试没有问题后,版本会晋级到 Test 仓库供测试来测,此后版本会进入性能和稳定性检测的环境,最终进入到生产环境的仓库中。按照这种制品的晋级流程去建设会大大提高软件交付的效率。JFrog Artifactory 遵循的正是这样一套流程。它是支持 29 种语言包的制品仓库,Maven 包、NPM 包、Docker 镜像、ZIP 文件等多种通用文件都可以进行存储。据王青介绍,JFrog 曾有一个国内大型手机制造商客户,每天单集群数据增长 20TB 左右,共有 10 多个集群。JFrog 和他们一起在研发测试区搭建了本地 Artifactory 集群,支持高并发的上传和下载,通过 5-6 个 Artifactory 节点来作为高可用集群提供服务。这种方案相比传统的需要搭建一个 Nexus 开源版作为 Docker 镜像,再搭建一个 Nexus 开源版作为 Maven 仓库,Maven 仓库可能还要管 NPM 的技术方案,投入人力成本更低且能够提供更高的可用性。对于有多套环境的大型企业来说,软件单一可信源建设的优势就更加明显了,因为多套环境维护成本会线性增长。混合云模式下单一可信源的建设方法软件单一可信源的建设有助于企业降本增效,提升软件制品的构建速度,那么,该如何构建软件单一可信源呢?王青谈到了一种区别于传统开源方案的独特方式。他说,在公司建设软件仓库的单一可信源时,最基本的是要保证它的高可用性。高可用有两层含义,一是零宕机,二是能够支持高并发的负载。Artifactory 对于生产环境的部署,天然的支持私有云和公有云的一键部署,并且提供实时推送功能。相比较来说,Nexus 开源版是没有推送功能的,因此,也就没办法实现将本地构建的版本推送到多个私有云或者多个公有云上去。假设公司的制品数量级已经达到百万级甚至是千万级,该如何应对这种大规模的读取和写入呢?JFrog 引入了两个概念,一个是读缓存层,一个是写缓存层。这是区别于开源方案的一个很重要的产品功能设计点。Nexus 开源版是没有缓存这个概念的,拉取的时候会去本地查询文件存在与否,这样的问题是,当服务读取操作系统文件的时候,操作系统文件是要耗时的,如果文件块在物理上存储的力度比较分散,实际查询效率会很低。JFrog 在 Artifactory 服务器上添加了一个叫 SSD 的缓存层,通过这个缓存层能够快速读取一些热数据返回给用户。这个设计遵循的是 LRU 的算法,会保持 500G 左右的热数据。除了读缓存,JFrog 还引入了写缓存。因为在将文件上传到服务器上的时候,是先上传到服务器的某一个目录,再通过一个进程写到存储里,有了这个设计,只要把文件成功上传到目录即可创建成功,大大减少了客户端返回的请求时间, 而后端只需建立一个异步任务,把文件存储进去,再把存储目录删掉即可。为了减少存储的压力,JFrog 还设计了冗余同步,能够让用户去配置冗余数量,如上传一个文件时用户要冗余两份,Artifactory 就会把文件从 a 冗余到 b 去,通过轮询拿到热数据返回,从而提高效率。综上所述,高可用性是建立软件单一可信源的基石。尤其是当客户的数据量超过几千万时,如果都保存在存储中,查找的效率就会非常低。在存储方面,JFrog 也进行了优化。GIT 文件存储是按照 checksum 的前两位,以目录的方式去存储每一个文件,所以 GIT 能高效地存储代码仓库里面上百万、上千万的文件,依托的是文件索引的设计。当用户寻找某一个文件的时候,它会先以索引的方式定位到文件在哪个目录,在目录里面再去辨别。相当于建立了树状的结构,因此查询效率会更高。当数据量增大后要提升效率肯定还是需要依赖数据结构,通过每种场景应用不同的数据结构提升效率。完整的高可用服务能够保证制品库建设单一可信源,可信性该如何保证呢?让制品库变得可信就涉及到安全相关的问题。王青说,尤其在面对海外用户时候,面临的最大挑战不是软件发布效率瓶颈,而是安全问题,特别是部署到公有云上的时候。他很形象地比喻,在整个程序的冰山上,代码就是冰山一角,底层有很大的 API 接口、依赖包,还有底层的基础镜像,下面会存在很多开源组件,其中客户提到最多的就是漏洞爆发之后哪些应用将受到什么样的影响,应该修复到哪个版本?对于上述问题,王青认为,现在开源软件比较多,但真正用起来会存在很多问题。如恶意依赖注入、注入恶意二进制或者代码实现勒索等。为此,JFrog 的产品中特别增加了漏洞扫描的功能。当发现漏洞时 ,JFrog 是如何快速定位,然后下线这些服务的升级版本的呢?这需要精准定位的能力。传统的扫描会扫出很多漏洞,缺乏跨语言的依赖,比如无法定位到哪一个 Docker 镜像被 Log4j 污染。JFrog 通过 SCA(software component analysis)来进行漏洞扫描,此外还对某些语言包如 Docker 镜像进行密钥探测,包括上下文分析。扫描出漏洞之后,传统的厂商只会告诉用户有哪几个漏洞,而 JFrog 则会告诉你每个漏洞的评分分别是什么以及该漏洞的影响范围。单一可信源建设要做的不仅仅是扫描,还有治理,对于扫描出的漏洞进行跟踪并精细化管理。安全部门要做的是定义规则,定义策略。公司内部一般有两个概念,一个是漏洞,一个是违规,漏洞是事实,而违规是公司策略。安全部门要定义哪些级别的版本属于违规,而开发者只需要去修复违规就可以了,不用管所有的漏洞。因此,Artifactory 设计了两个维度的管理,一个是根据团队或者软件版本进行扫描,定位到某一个团队。另一个是按照部门去修复,不同部门的安全策略可能是不一样的,所以可以根据不同部门创建 Project 进行扫描和漏洞修复,从而实现有效的漏洞治理。以上介绍的是在单一私有云或者公有云环境下的处理方式,如果要把私有云的制品同步到公有云上,JFrog 是如何做的呢?王青说,这就涉及到 JFrog 另一个功能——制品的双向同步。通过双向同步能力,能借助于亚马逊云科技的 PrivateLink 开设私有网络。只要开了 Link 之后,私有云的制品仓库就能直接推到云上的 VPC 上去,自动复制到不同的 Region,实现制品液体般的流动。除制品的双向同步之外,JFrog 还提供统一认证的功能,使云上云下保持一致。通常来说,云上的用户和云下的用户的账号是不能复用的,比如云上用账号 a 登录,云下就要用账号 b,这样用户就需要维护两套账号,导致用的人越多,账号维护的成本就越高。但是,Artifactory 实现了联合身份认证。只要在集群 a 创建用户,它会自动把用户信息同步到集群的每一个节点,用户在云下怎么登录,在云上按照同样的方式登录即可。这个功能特别适合多云环境进行软件制品的传输,能够极大节省公网带宽,提高发布速度,降低成本。轻松建立可信发布流程的实践案例某大型跨国银行,需要进行云迁移,实现应用上云。他们采用的方案是本地的关键数据库加上存储,到云上直接使用云数据库加上 Amazon S3 云存储,应用直接迁移到 Amazon EKS,Amazon EKS 的使用极大的降低了运维成本。在整个数据迁移的过程中,JFrog 有专门的工具把本地的 Artifactory 制品通过一个脚本直接传到云上的 Artifactory,这种持续的传输实现了业务的零中断,并能将构建速度提升了 30-40%。软件制品从本地推到云端会用到一个 VPC 叫 Internal Gateway。此外,亚马逊云科技在 2022 年 re:Invent 上还最新发布了一款名为 Amazon CodeCatalyst 的 DevOps 端到端工具,包含需求设计、issue 管理、构建等一系列功能,用户可以通过  Amazon CodeCatalyst 进行构建,构建完成后把版本上传到某个 Amazon ECS , 并且能够和 Artifactory 制品库进行集成。集成方式如上图所示,用户的代码 Commit 后到 GIT 仓库就能触发 Amazon CodeCatalyst 构建,构建时,通过 JFrog 的 CLI 命令行工具连接到 Artifactory 做远程依赖 PublicRepo 的下载,下载时会触发漏洞扫描,扫描完成后进行晋级,分发到多种云,用 IoT 设备进行更新。整个编排过程由 Amazon CodeCatalyst 进行负责的,并能够和 Artifactory 无缝集成,从而实现轻松地规划、开发、写作、构建和交付应用程序。王青在分享中多次强调,对亚马逊云科技技术和服务感兴趣的开发者可参与亚马逊云科技的培训认证活动,亚马逊云科技的整个培训体系建设非常完善、可进入亚马逊云科技开发者社区。
4,661
1,678,343,944,021
InfoQ
57
又一AI大神杀入大模型领域!亚马逊首席科学家李沐被曝离职,与导师搭档创业
师徒档“二搭”创业,新公司融资很顺利。李沐被曝离职创业日前,据媒体“亲爱的数据”报道,亚马逊首席科学家、“AI 大神”李沐已离职,并加入了导师 Alex Smola 的创业项目。据悉,今年 2 月,“参数服务器之父” Alex Smol 教授从亚马逊云科技(AWS)离职,创办了一家名为 Boson.ai 的人工智能公司。同月,Alex Smol 教授在领英宣布成立了新公司并担任 CEO。“我很高兴地告诉大家,我将在 Boson.ai 开始担任首席执行官兼联合创始人的新职务!” 。Alex Smol 称,公司的新目标是“scalable foundation models”(可扩展基础模型)。这被认为是,最近大火的人工智能聊天程序 ChatGPT 的挑战者。Smola 的领英资料显示:“我们正在做一件大事……请继续关注”、“如果你对可扩展的基础模型感兴趣,请联系我”。  关于 Boson.ai,目前网上的资料还很少。Boson.ai 的官网还在建设中,目前仅显示:适用于所有人的大模型,并配文:“我们正在做一件大事。敬请期待!”目前,李沐的领英履历还没有变化,李沐也并未官宣。  不过,李沐已经出现在了 Boson.ai 的 GitHub 项目主页中,据悉,Boson.ai 的 GitHub 仓库页面由李沐亲自编写。  “亲爱的数据”引用一位业内人士的消息称,李沐和 Alex Smol 是“一起创业。”更进一步的消息是:“融资也很顺利。”另据雷锋网报道,此前两个月,雷峰网与接近李沐师徒二人的 AI 行业人士交谈,获悉二人有离职打算。但直到今天,二人动态才最终确定。值得一提的是,最近几个月,随着 ChatGPT 在全球爆火,AI 大模型领域掀起创业热潮。在国内,已有多位 AI 领域大牛宣布入局大模型领域。不久前,智能语音创业公司出门问问创始人李志飞宣布在大模型领域创业,打造中国的 OpenAI。原京东集团技术委员会主席、云与 AI 总裁,京东人工智能研究院院长周伯文也投身到大模型创业中,他称,“大模型并非大厂专属”,其创办的公司衔远科技近日宣布拿到了数亿元天使轮融资。去年,快手前 MMU(Multimedia understanding,多媒体内容理解)负责人李岩在 2022 年下半年成立了 AI 公司 " 元石科技 ",主要进行多模态大模型的研发。师徒二搭创业Alex Smola 是全球机器学习领域的著名科学家,研究方向是机器学习和统计数据分析,包括文档分析、生物信息学、计算机视觉、互联网数据分析等应用领域。其专长是深度学习、内核方法、无监督模型、快速采样器、用户模型等,这里面包括高度可扩展的模型。领英资料显示,Alex Smola 自 2016 年 7 月起担任亚马逊机器学习总监,后成为亚马逊副总裁、杰出科学家。在亚马逊,Alex Smola 领导着机器学习大学团队,该团队负责向每个人教授机器学习。他还管理着 AutoGluon、DGL(深度图神经网络)、D2L.ai《动手学深度学习》项目、计算机视觉工具箱、NLP、深度学习编译器和 MXNet 框架等团队。2013-2017 年间,Alex Smola 担任卡耐基梅隆大学教授。在此之前,Alex Smola 曾在谷歌、雅虎工作过。Alex Smola 还是畅销机器学习著作《动手学深度学习》的主要作者,迄今共发表了 200 多篇论文和多本学术专著,在全球范围享有盛誉。李沐是硅谷华人技术大神,深度学习框架 MXNet 创始人之一。他在江湖人称“沐神",甚至被称作深度学习界的“米其林”。公开资料显示, 李沐 2008 年毕业于上海交通大学计算机系,大学期间,曾在微软亚洲研究院担任实习生。李沐还曾在百度担任过深度学习研究院(IDL)的主任研发架构师一职。李沐的主要研究兴趣集中在大规模机器学习,尤其是大规模分布式系统和机器学习算法的协同设计。李沐曾以第一作者的身份在计算机科学领域的大会以及期刊上发表了多篇论文,包括跨度理论(FOCS)、机器学习(NIPS、ICML)、应用层面(CVPR、KDD)、操作系统(OSDI)等方向。李沐还是一位网红 UP 主,他在 B 站开设了账号,跟李沐学 AI:https://space.bilibili.com/1567748478 ,致力于 AI 科普。关于他此次创业,有不少网友纷纷表示,支持创业,但希望不要影响沐神讲课速度,耽误解读论文。这是师徒二人第二次搭档创业了。李沐在 CMU 就读博士期间,他在国内的好友们,如戴文渊、余凯等人纷纷创业,受到他们的影响,李沐与导师 Alex Smola、同学一共五个人,也体验了一把创业。他们创办了数据分析算法公司 Marianas Labs,Alex Smol 教授担任 CEO,李沐担任 CTO。当时的创业项目是与社交媒体相关的,幸运的是,在公司成立后不久就得到了不少大客户的青睐,其中一位大客户看中了他们的项目,就一口气把整个公司买了下来。不过后来由于经营理念的不同,李沐等人选择了退出,这场创业之旅就这么短暂结束了,但是创业带来的经验却可以受用一生。“在学术界,当你有一个想法,马上就可以开始操作,并且只需要把想法实现,大概完成 90% 的工作就好;而在工业界,想法不是最重要的,重要的是要把想法落地,剩下的那 10% 的工作才是最重要的,甚至可能会花费你 90% 的精力。”“而创业,需要考虑的事情就更复杂了,除了要思考如何把想法落地,还需要考虑团队的合作、人员的调配,要决定团队的发展方向,分析整个工业环境的发展趋势等”,李沐曾谈到。2016 年 7 月,Alex Smola 教授重返工业界,加入亚马逊做主管,随后于 2019 年 3 月在 AWS 担任副总裁级别的科学家。同月,李沐紧随其博士生导师先以兼职身份加盟 AWS 成为高级应用科学家。据“亲爱的数据”此前报道,李沐直接向其老师 Alex Smola 教授汇报。后来,李沐担任 AWS 高级科学家,2020 年 10 月,晋升为 AWS 资深高级科学家。硅谷华人 AI 大神李沐的开挂人生面对被冠以的“大神”称号,他却谦虚地表示:“比我厉害的人多的是,我不是大神。”2019 年,InfoQ 有幸在对李沐进行了一次专访,了解到了他从学术界到工业界的精彩故事。名校学艺上海交通大学 ACM 班, 取名源于国际科学教育计算机组织——美国计算机学会(Association of Computing Machinery),ACM 是世界上第一个、也是最有影响的计算机组织,计算机领域最高奖——图灵奖是由该组织设立和颁发的。李沐的大学本科,就是在这样一个被寄予厚望的“特色班”里度过的。有意思的是,他当时只是对数学很感兴趣,高中的时候虽然参加过一些数学竞赛,可几乎没有接触过计算机。进到了这么一个培养计算机科学家的班里,他自己也有些拿不准:到底能不能搞定这个复杂的机器?ACM 班最大的特点在于注重实践,即使是在本科阶段,学生也需要手写大量的代码来练习,至少也是其他院校同院系实践量的四五倍。此外,ACM 班非常注重数学能力,这也给了李沐发挥所长的机会。不过,可不要觉得李沐的生活就此陷入了无边无际的“代码海洋”之中,“学霸”的生活并不枯燥,反而还充满了不少乐趣。据李沐的室友透露:那时的李沐不仅学习成绩好,还是篮球场上的一把好手,更是电竞场上的“大神级”人物。然而不久之后,戏剧性的一幕出现了:虽然踌躇满志进入了 ACM 班,并且报名参加了计算机竞赛,但是李沐最终因为训练的成绩不合格被刷了下来。这个时候,李沐遇到了他的导师:吕宝粮教授,也正是从那时起,李沐正式推开了人工智能的大门。AI 初探吕宝粮,上海交通大学计算机系教授、博士生导师,IEEE 高级会员。主要研究方向有:仿脑计算机理论与模型;机器学习理论与应用;神经网络理论与应用;生物特征识别;自然语言处理;脑与计算机界面。李沐第一次接触人工智能,就是被吕宝粮教授的一个案例震撼到了。“当时教授展示了一张他们实验室人员的合照,并用人脸识别系统把每一个人的名字都对应显示了出来,当时我们就被这个 demo 吸引住了,也就这样选择加入了这个实验室。”李沐的人工智能之路也就由此正式开始了。“本科阶段还有时间打球、打游戏,后来真的是一年比一年累,回想起来,在 ACM 班的经历就像是一个过渡期。”“过渡期”之后,李沐没有去找工作,而是选择到香港科技大学继续深造。李沐的选择是受到了 ACM 班定位的影响——培养计算机科学家,ACM 班也更鼓励人才去从事学术研究。“除此之外,当时的大环境也是影响我选择的一个原因。那是大概 2008 年左右,虽然当时计算机已经成了热门专业,但是当时的 IT 公司并没有那么厉害,尤其在 AI 方面的技术并没有那么强。”在港科大又修炼了一年多的内功之后,李沐开始了“初入江湖”的旅程。初入江湖在正式进入工业界之前,李沐已经在微软亚洲研究院“小试牛刀”了三个月左右。微软亚洲研究院被称为中国 IT 界的“黄埔军校”,这短短的三个月里,李沐也学到了很多东西:“最直接的感受就是接触了公司文化,比如公司的生活什么样、大家谈论什么话题、跟什么样的人打交道等等。”李沐真正开始与工业界亲密接触,是加入百度的那一年。那一年,本来已经拿到了美国的几个 offer,但是家人的身体情况让他选择留在国内,于是在师兄戴文渊的鼓励下,李沐进入了百度。在百度,李沐的主要工作是广告预测,利用广告数据有效地训练一个模型,使得该模型能够准确的预测用户会不会点某个广告。在百度的一年时间里,李沐积累了大量的经验,他也坦言,这些经验是在学校里学不到的:“学校的实验环境里,也许只能用到几块 GPU,跑几个 G 的数据。而在企业里,你面对的是几个 T 的数据量和上百台机器,在这种情况下,你不得不去考虑如何做分布式,或者如何让代码和系统变得更快、更简洁。”再读博士一年后,李沐再次踏上了求学之路。“在百度的经历让我学到了很多,也更清楚地发现了自己的短板。但是当时国内做系统方向的人比较少,所以我还是选择了去美国继续攻读博士。”“不过,这只是一个原因。”另一个原因是:李沐在香港学习期间,遇到了现在的妻子,她被 MIT 录取,为了不忍受异地恋的辛苦,李沐毅然决然选择同去美国。“其实她才是真学霸。”李沐笑道。那么问题来了,既然要去美国,选择哪所学校呢?李沐当时很坚定的选择了两所学校:一个是妻子所在的 MIT,另一所是离 MIT 最近的 CMU(卡内基梅隆大学)。他最后被 CMU 录取,在美国开始了事业爱情两开花的生活。在 CMU 又度过了 5 年的博士时光,李沐再次走上了求职路,而他与亚马逊的缘分也就此开始了。重出江湖李沐初到亚马逊时,人工智能部门刚刚成立,正是需要深度学习框架来支持的时候,李沐的经验正好派上了用场。除了 MXNet,李沐也参与了一些别的项目。“框架只是一个工具,更重要的是要知道如何用好工具来服务客户。”分布式系统出身的李沐感慨道:“分布式系统最难的不是如何让每个机器计算的多快,而是机器之间的通讯问题,如何减少通讯提升交互效率,这对系统来说也是至关重要的。”重出江湖的李沐早已不再是之前稚嫩的模样,在面对项目的时候,他也需要考虑项目组之间的交互问题,如他所言:亚马逊也像是一个巨大的分布式系统,部门与部门之间的交互就像机器之间的通讯一样。但是人之间的联系并不像机器那么好优化,一旦协作不畅,很容易使项目陷入瓶颈。这些都是李沐之前不曾考虑过的问题,也是李沐不断进步的动力。授人以渔在学术界和工业界来来往往多年之后,李沐把目光看向了国内:中国的人工智能开始初发萌芽。问题也随之而来:AI 虽然火,但是门槛太高,不少企业与个人想学习而不得法,层出不穷的培训班也良莠不齐,一些培训课程虽然能够让学生快速上手,但是却也只能解决短期的问题,并不能有益于长远发展。于是,李沐为自己重新规划了使命:授业解惑,让更多的用户了解 AI、学习 AI、使用 AI,让人工智能的生态圈在国内扩大。2017 年,他在国内开办了线上深度学习培训班,零基础入学,引发了狂热的报名浪潮。“当时非常令我们受触动的一点是:除了在校的学生、IT 从业者之外,还有很多非 IT 行业的人来学习,并且真的收获了不少知识。”授人以渔,这似乎成为了李沐的新目标,他随后出版的交互式书籍《动手学深度学习》也是为了实现这一目标而撰写的。面对国内网友给他冠以的“AI 大神”称号,李沐淡然一笑:“比我厉害的大神多的是,我不是大神。”李沐说,中国人工智能领域还有很多真的“大神”级别人物正在研读论文、默默实践,他们的很多成就其实并不为人所知,中国在世界各地读书的学生们也都发表过不少优秀的论文。“大神之虚名非我所愿,授人以渔乃是初心”。参考资料:https://mp.weixin.qq.com/s/EEUDKjcEgvD1lGWCXHI36whttps://github.com/boson-ai/homepagehttps://app.myzaker.com/news/article.php?pk=640706c0b15ec05cff04ff26
5,710
1,678,256,165,290
InfoQ
58
直接到云上做开发?先等等,这个方案还“半生不熟”
云中的开发环境是什么?这个问题看似很简单:不需要在本地计算机上开发软件,而是利用云托管环境中的 CPU、存储和网络。但事实上却远不止如此!云中的开发环境旨在消除“我在机器上工作”的挫折感。你不需要长期构建和维护你的开发环境,只要配置好就可以;你没有 CONTRIBUTING.md,但你有脚本;你拥有的不是部落知识,而是配置,这样确保每个开发者的环境都是相同的。如果一名开发人员的开发环境中出现问题,那么其它人也会有这个问题。只要解决了这个问题,每个人也就都能按预期工作。如果你需要在六个月前的确切状态下调试应用程序,那么按照给定的提交启动开发环境、完成,它将百分之百起作用。我们有工具来创建拉取请求预览,特别是在 Web 应用的背景下。当代码被推送到拉取请求时,对代码进行隔离的、特定于分支的部署,它非常适合收集反馈、协作、演示新特性或 Bug 修复。将这个概念应用到开发环境中,可以实现多种激动人心的用例:• 与同事共享用于结对编程的开发环境• 在向客户演示项目时,可实时处理更改• 如果你开办一个讲习班,就要在学生自己的环境中帮助他们。这就好比课堂上你在学生们的身后看着,但区别在于你可以身处世界的任何地方。云中的开发环境改善了我们的工作方式,目前为止,StackBlitz 的 Codeflow 就是最好的例子。你处理的每个任务都发生在独立的开发环境中,你开始工作、完成工作、提交并推送,而你忘记了那个特定的开发环境。注:除了 CoDeflow 的工作流演示之外,StackBlitz 仅限于 Node.js 开发,绝不是属于云类别的开发环境的产品。云上开发环境都有哪些问题任何告诉你没有负面影响的人都是骗子,他们把自己的利益放在了第一位。在云环境中开发并非一个万能的解决方案,需要逐案评估。让我们探讨一些你不会在供应商网站上看到的挑战。必须有互联网接入如果你的开发环境是在云中,那么你就要保证一直可以连接到云上,否则你可能没那么走运。尽管在欧洲和北美互联网全天候接入相当普遍,但是世界其它地方仍有一大批软件工程师没有条件或者负担不起。值得注意的是,这也适用于自托管解决方案。无论你是使用 SaaS 产品还是你自己的数据中心托管服务,一旦失去连接都意味着没有人能够正常工作。根据团队规模,有时候这种代价会很高。服务必须具有可用性、可靠性如果你的 CI 出现了故障可以继续编写代码,如果你的 Jira 出现了故障也可以继续编写代码。但是,如果你云中的开发环境出现了故障,那情况就不太妙了。如果服务出现中断,你的工作效率将会受到影响。不只是你,你团队的所有成员和任何其他依赖该特定服务的人都是如此。为了更好地理解这点,下面有一些关于 Codespaces 和 Gitpod 服务可用性的公开报告,Gitpod 是一种工作流程与 StackBlitz 的 Codeflow 类似的产品,但被托管在两个数据中心。来源:Codespaces、Gitpod产品质量依赖第三方事故只是一方面,另一方面就是产品质量。我并不知道 GitHub Codespace 已经公布了他们的 Bug 报告,但就 Gitpod 而言,其在 2022 年 7 月、8 月、9 月、10 月和 11 月中,每个月都报告了超 100 个 Bug。在同一时期,至少 30% 的报告错误仍然存在。如果你在本地环境开发,那你关心的产品质量是你笔记本电脑的硬件、操作系统、终端和编辑器。但当你的整个开发环境都在云上时,你就会被一家 SaaS 供应商锁定,并依赖他们的质量保证团队。截至 2022 年 6 月,Gitpod 没有专门负责 QA 的人员,而在 2022 年 12 月,这一职位仍然空缺。目前为止,编写软件是开发者日常工作中最重要的部分,如果第三方服务不可用或出现中断,你真的想要依靠没有可行解决方案的第三方吗?天然存在延迟如果你键入一个字符,而该操作需要 100 多毫秒才能到达开发环境,那么你很可能在放弃之前才键入少于 5 个字符。更糟糕的是,还有 100 多毫秒的时间才能从开发环境中获得响应。延迟取决于开发环境相对于物理位置的可用性。为了更好对比,我们在下表列出了两个供应商 GitHub Codespaces 和 Gitpod 的地理可用性:过去两年来,Gitpod 一直未能扩展到其他地理区域,而且这一状况还在持续。截至 2022 年 11 月 17 日,官方更新的说法是,扩展并非易事。要查看 Gitpod 的欧盟或美国数据中心的延迟,请查看 gcping.com 并查找“europe-west1”或“US-west1”区域。GitHub Codespaces 的使用范围是 GitHub 的两倍,但与南美洲、非洲任何地方和澳大利亚(最近的地区是东南亚,也就是新加坡)的开发人员距离较远。要检查你到 CodeSpace 数据中心的延迟,请查看 azurespeed.com,选择以下地区,并查看底部的“Latency Test”(延迟测试)表:West US 2、East US、West Europe、Southeast Asia。供应商锁定还记得当初我们多担心被云厂商锁定吗?我们通过开放标准(如 Docker 镜像)来减轻这种影响。不喜欢亚马逊云科技吗?那就获取你的 Docker 镜像,并在 Railway.app 上启动一个容器。这听起来不那么容易,但还是可以做到的。那么,为什么你不担心被云中提供开发环境的 SaaS 业务锁定呢?你至少应该像担心生产工作负载一样担心!对于评估锁定的程度,我认为有两个方面很重要:配置和自托管。• 配置。如何配置开发环境的自动化?它是一个专有配置还是有一个开放标准?GitHub Codespaces 凭借他们的 devtainer.json 开放标准(参见 tainers.dev)在这方面处于领先地位。Gitpod 的配置是一个自定义的私有 yaml 文件(参考文档) ,只能与 Gitpod 一起使用。• 自托管。如果担心服务可用性,你是否可以自托管产品?GitHub Codespaces 不能自托管,而且 Gitpod 也结束对自托管的支持,并将源代码转移到开放源代码 AGPL 许可证。无论怎样,即使对于目前可用的自托管产品,Gitpod 也没有提供支持生产、高可用性配置的说明。这也可以看出,自己运行 Gitpod 可能有多困难。支持的工具和框架有限你可能会认为,声称在云中运行开发环境的 SaaS 业务会支持开发者所需要的任何工具和框架。如果你是一个 Javascript/Node.js/web 开发人员,这当然是正确的。但任何在 Kubernetes 上开发全栈应用程序的人或者想利用 GPU 的数据科学家,都应该慎重。了解 SaaS 供应商的架构以及由此带来的限制是至关重要的。对于 GitHub Codespace 用户来说,好消息是厂商提供了一个实际的虚拟机,无论是运行 Kubernetes 还是利用 GPU 进行机器学习工作负载都可以支持。但另一方面,Gitpod 限制了你能在 Docker 容器中运行的任何内容。考虑到 Gitpod 本身已经是一个 Kubernetes 应用程序,作为一个工作区,你得到的只是一个运行在 Kubernetes pod 上的容器。虽然隔离性很好,但你可以与其他开发人员共享该 pod 的资源,甚至共享的人并不是你公司的。定价难本地开发购买计算机有一次性的前期费用,而云中的开发环境会根据使用情况定价,工作越多,付出的金钱就越多。与云厂商一样,提供云上开发环境的公司会在开发环境运行的秒 / 分钟 / 小时内盈利。你只要忘记关闭,那在你想起来之前就要一直付费,直到它可能会在某个时间自动关闭。我还认为,对于未来 10 亿居住在欧洲和北美以外的开发商来说,有一点值得注意:云上的开发环境将无法降低价格,这使那些没有特权的人负担不起,仅仅是因为运营成本太高。对于大中型公司来说,由于简化的工作流程和自动化的开发环境设置,很难衡量成本的节约。正如我之前所说的,每个团队都必须分别评估利弊。与任何商业采购一样,都要协商出一个合适的价格,永远不要支付广告上所宣传的价格。必须在云上吗?对于大多数开发人员来说,编写代码是很孤立的一件事。为了让大家直观地了解,让我们看看一个软件开发生命周期(software development lifecycle,SDLC)的五个阶段:来源:我在 2020 年 6 月在 InfoQ 发表的文章正如我在 2020 年的 InfoQ 文章中所写,这五个阶段中有四个已经发生在云中,为什么剩下的一个不也放到云上呢?问题是,真的应该在云上实施吗?自从那篇文章发表以来,我一直在研究云中提供开发环境的众多现有解决方案,后来得出结论:实施阶段需要一种更加动态、灵活的方法。完全成熟的解决方案是什么样的?谷歌、Facebook 和其他公司多年来一直在使用云上开发环境。尽管云上开发环境有各种各样的挑战,但它仍然适用于这个行业的每个人。最重要的好处是允许我们消除上下文切换!你可以在 my-Feature 分支中处理某个特性,同时在 prod-hotfix 分支中查看 PR。两个分支都在完全隔离的环境中签出。当你完成任务后就可以忘记以前的环境继续前进,并为下一个任务开始新的环境。作为一名开发人员,开发环境无论是在本地还是云中,都必须完全透明。不过重要的是,我们想要引入一些改进:共享开发环境来与团队成员配对编程,可以并行启动多个开发环境(例如开发一项功能并快速审查拉取请求)利用云供应商提供的更多 CPU/GPU/ 存储 / 更快的网络 / 最新的存储库来准备开发环境快照,以进一步加快开发环境准备时间。架构GitHub Codespaces 和 Gitpod 都提供了自定义架构,不过这一派的思想已经过时了。我们已经定义了一个广泛采用的解决方案,用于安装依赖项和创建独立的、可重现的环境:Nix(Nix 的一系列操作意在彻底解决软件之间依赖问题)。步骤 1:云中开发环境的完整解决方案必须基于 Nix。Nix 有什么好处?在线搜索“Why Nix?”可以看到很多答案,其中一个主要优势是 Nix 可以分离各个依赖版本。比如要处理两个 Python 项目,一个依赖于 Python2.x 和 PostgreSQL12,另一个依赖 Python 3.x 和 PostgreQL14。使用 Nix 的话,你可以安装两个版本,并根据项目使用对应的版本。这个概念适用于所有操作系统依赖项,如果应用于开发环境,那么每个开发环境都会是完全独立!配置Nix 是伟大的,但 Nix 语言有一个非常陡峭的学习曲线,以至于大规模采用配置开发环境是行不通的。下面是用 Node.js 18 配置开发环境的 shell.nix 文件(来源) :{ pkgs ? import (fetchTarball "https://github.com/NixOS/nixpkgs/archive/3590f02e7d5760e52072c1a729ee2250b5560746.tar.gz") {} }: pkgs.mkShell { buildInputs = [ pkgs.nodejs-18_x ]; } 事实上,我们真正想要的东西是这样的:简洁、易于理解,是开发人员熟悉的格式。{ "packages": ["nodejs-18_x"] } 步骤 2:完全抽象 Nix 包管理器和 Nix 语言。为了避免供应商锁定,你必须将开发环境配置作为一个开放标准导出,例如作为一个 devconter.json 规范导出,这些规范记录在 conters.dev 文档中。生命周期管理安装所需的操作系统级依赖项是一个很好的开始,不过任何应用程序都有额外的先决条件,并且需要启动数据库和应用程序服务器,还需要一种在开发环境终止时运行命令的方法。假设我们使用 PostgreSQL 数据库开发一个全栈 Web 应用程序,让我们扩展上面的 JSON 配置文件:{ "packages": [ "nodejs-18_x", "postgresql_14" ], "init_hook": [ "npm install", "sh ./scripts/start-database.sh", "npm run dev" ] } 步骤 3:提供生命周期钩子来自动化开发环境的所有方面。无论你想要安装依赖项、启动服务器还是终止到共享数据库的连接,都必须能够拦截从开发环境创建到终止的、贯穿生命周期的各种事件。托管在你附近为了获得最佳体验,云上开发环境需要尽可能靠近开发者的物理位置。Codespaces 的四个数据中心可能并不接近,而且 Gitpod 的两个数据中心肯定也不是!解决该问题的方法之一是使其能够在云供应商提供的所有区域中运行。一个轻量级、自包含(self-contained)的架构可在全球所有地区无缝扩展。不过即便如此,你仍然只能使用云供应商提供的数据中心。为此,我们有了另一个解决办法:边缘网络,在边缘网络上部署一个自包含的开发环境,它可以放置在离你稍微远一点的地方。步骤 4:在边缘网络上运行开发环境。当然,边缘网络对于开发人员来说得是无缝的。无论是在南非开普敦还是在阿根廷布宜诺斯艾利斯,我都希望我的开发环境能够以毫秒级的延迟运行。如果到法国巴黎旅行时要启动一个开发环境,我希望我附近的边缘节点可用,连接上就开始研发。放弃集中式数据库为了实现上一节中提到的托管延迟,你得放弃集中式数据库,否则即使你的代码和计算都在附近,一旦该边缘节点上的服务需要从 us-east1 数据中心请求数据,毫秒延迟的所有希望都将落空。步骤 5:使用全局复制的 SQLite。将开发环境服务供应商所需的数据,例如与认证、服务度量、用户设置等相关数据,放在边缘节点开发环境的旁边。开发人员每次启动云上开发环境时,本地 SQLite 数据库都会提供并收集必要的数据,当实例发生在该数据库时,它们将在全局范围内复制到所有其他实例中。支持离线工作只有在能够访问网络或 SaaS 提供程序可用的情况下才能访问的开发环境,100% 是没用的。开发人员应该能够像过去几十年一样,在本地运行开发环境,使用相同的配置、相同的端口和相同的自动化。如果开发人员选择离线工作,他们将无法与团队成员共享开发环境,无法使用 GPU、自动化环境快照,也不能并行多个环境。然而,无法使用这些功能应该是一种选择,而不是因为做不到。步骤 6:透明地在本地运行开发环境。开发人员可以自由配置他们更喜欢的开发环境,云中抑或本地(环境变量、CLI 标志等)。如果云上开发环境连接中断,开发人员可以收到通知并转而继续在本地工作。要实现这一点,需要在云和本地环境之间同步文件。当连接中断时,自动化脚本在本地运行并启动数据库和应用程序服务,这样对开发人员来说就是完全无缝的。同样,当云上连接恢复时,开发人员也会得到通知并选择是否切换到云环境中,这种切换是没有任何代价的。定价使用开发软件不应该让任何人倾家荡产。任何人都应该免费获得自动化开发环境、简化依赖管理和标准化配置的好处。这部分的实现要归功于上文“离线工作”中概述的内容。这本身已经是对 CONTRIBUTING.md 文档和手动开发环境设置的一个巨大的改进(虽然可能已经过时)。开发人员希望利用云特性时,供应商可以在开发人员使用期间按需付费。由于本地和云开发之间的无缝过渡(如前一章所述),开发人员从本地切换到云的开销为零,反之亦然。总结如今的云上开发环境是有缺陷的:它们需要手动设置和维护、过于脆弱,迟早会在不同团队成员的机器上崩溃。此外,它们仅限于云,并且试图利用开发者花费在开发软件或学习开发软件上的时间来赚钱。我们不能简单地展示并规定我们如何开发软件。为了保证所有开发人员的持续生产力,几十年开发的肌肉记忆需要保留。然而我们需要一种进化,先来解决最关键的挑战:自动化和可再现性,同时开发人员无需付出任何代价。以下是为云中的开发环境引入额外功能的基础:• 与团队成员和其他利益相关者分享• 利用云计算、存储和网络速度• 并行运行多个环境• 自动化环境快照可降低依赖项安装等待时间,使其接近于零总而言之,流程就是:• 步骤 1:云中开发环境的完整解决方案必须基于 Nix。• 步骤 2:完全抽象 Nix 包管理器和 Nix 语言。• 步骤 3:提供生命周期钩子来自动化开发环境的所有方面。• 步骤 4:在边缘网络上运行开发环境。• 步骤 5:使用全局复制的 SQLite。• 步骤 6:透明地在本地运行开发环境。作者声明:这篇文章使用 GitHub Codespaces 和 Gitpod 来概述当今在云端实现开发环境所面临的挑战。这是我最熟悉的两种解决方案。保证信息透明起见,请注意我为 Gitpod 做了近两年的工作。无论如何,在这篇博客文章中分享的任何内容都是基于源代码链接的公开信息。原文链接:https://www.mikenikles.com/blog/dev-environments-in-the-cloud-are-a-half-baked-solution
3,702
1,677,825,794,801
InfoQ
59
现代初创公司的架构:取决于团队的成熟度
初创公司的技术方面有时会非常多变,包含很多未知因素。使用什么技术栈?哪些组件对现在来说可能被过度使用,但在未来却值得关注?如何在保持足够高的质量标准以维持可维护的代码库的同时,平衡业务特性开发的速度?在本文中,我想和大家分享一下我们从头开始构建 https://cleanbee.syzygy-ai.com/ 的经验——我们如何根据需求塑造流程,以及当我们用新组件扩展我们的技术栈时,我们的流程是如何演变的。企业希望征服市场,工程师们则希望能够尝试酷炫的东西,拓展自己的思维。与此同时,业界涌现的新语言、框架和库的数量如此之多,以至于你无法一目了然。而且,通常情况下,如果你刮开“全新事物”的闪亮表面时,你会发现一个很好的旧概念。这很好,如果你很幸运的话。最激动人心的争论话题之一是流程——无论你是依赖主干开发(trunk-based development),还是喜欢更怪异的 GitHub 流程,或者是 Mob 编程(暴徒式编程)的忠实拥趸,还是觉得花时间在基于 PR 的代码审查上更有效率。我有过在这样的环境中工作的经验,在这种环境中,工件在没有任何标准化流程的情况下被丢弃在用户身上。在出现问题的情况下,开发人员获得了很多乐趣(并不是!)试图弄清楚组件的实际部署版本。另一个方面是永远也排不上队的 CI。在你创建了 PR 之后,你必须在最近的 30 分钟内通过打赌 CI 集群是否能找到资源对你的改动进行测试来娱乐自己。有时,平台团队会引入新的、令人兴奋的、有用的特性,这些特性可能会破坏与现有 CI 模板的兼容性。这些可能导致在等待一个小时之后,在最后一分钟你所有的检查都失败了。我坚信,像往常一样,这一切都取决于团队的成熟度,你正在构建的软件种类,以及各种业务限制,例如,是否存在错误的预算和上市时间与 SLX 的重要性。我认为,重要的是制定一套大家都认可和遵守的共识程序。如果有证据表明有更好的选择,那就勇敢地去挑战并改变它,能否做到这一点也很重要。开始塑造流程我们开始时的情况如下:仅十来名开发人员——内部团队和合同工,他们希望并且能够异步工作。完全的绿地项目——还没有写过任何一行代码。需求是模糊的,但已经开始形成了某种东西。技术方面——明确需要一个能与移动客户端对话的后端。一些简单的 Web 前端——静态页面应该足够了(并非如此)。我们已经开始使用简单的方法——在 GitHub 编写代码,使用基于 PR 的流程,只需要一个单一的需求——在 1~3 天内交付可分裂的票据。这需要一些故事切片的实践,并且似乎通过将票据移动到“done”的能力,显示了一种可见的快速行动的感觉。这对团队来说是一个很好的激励因素,可以让他们接受这一想法。Linters 和静态分析器可以跳过令人兴奋的讨论,比如每个方法有多少个参数过多。我们将逐步增加自动化测试。我们也尝试 CodeScene。他们有一种非常有前景的方法,可以突出显示代码的重要部分(那些经常更改的部分,肯定应该有更高的可维护性条!),并通过查看代码中的嵌套程度来识别复杂性。对于初创公司来说,这可能有点昂贵,但是 100% 为工程师提供了不错的提示。在架构方面,人们渴望深入到微服务的“仙境”中去。但是看看这些大玩家之间可怕的联系图,需要追踪他们之间的请求,这对于那些想要快速行动的早期团队来说,简直就是找死。通过对需求的分析,我们能够检测出三组作业:核心 API 与通常 Crud 类的活动;搜索和推荐;根据时间表做一些有用的事情的工作负载(几乎在偶尔延迟的时候是可以的)。技术栈的选择:时间有限,期望值高的情况。使用你所知道和掌握的(是的,也许对某些人来说,这是无聊的技术)。因此,Fastapi、REST、无状态、Python、redis 和 Postgres 是我们最好的朋友(是的,我们喜欢 Go 和 Rust,但我们需要多付出一点代价!)。对于移动客户端,情况有所不同。我们预见到了许多带有状态和与远程服务交互的屏幕,但没有太多定制的、特定于平台的调整。因此,为 iOS 和 Android 提供单一代码库的想法非常有吸引力。如今,框架的选择真的很广泛,但同样,由于 Flutter 的一些经验,我们决定尝试一下。在移动开发中,要更好地决定的一个重要方面是状态管理。在这里,你会看到很多缩写,这些缩写来自不同的语言和框架,会让你感到困惑。其中包括 MVC、MVVM、VIPER、TCA、RIBs、BLOC 等。我们的座右铭从最简单的解决方案开始,这些解决方案足以支持必要的功能。简单。这么说吧,我们觉得我们已经理解了。然而,我们在构建 MVP 之后肯定犯了一个错误,因为我们决定在顶部构建,而不是把它扔掉。因此,在一个阳光灿烂的日子里,我质疑自己的理智:在我注释了代码,清理了所有可能的缓存后,在新的屏幕上仍然没有看到我的改动。是的,死代码应该被删除!开始构建!在解决了这些初始手续之后,下一件必要的事情就是能够检查客户端和服务器之间的交互。API 契约是一件很棒的事情,但是当真实服务器抛出 “模式验证错误” 或因 HTTP 500 错误代码而惨遭失败时,会更明显地出现问题。后端服务最初分为两组——API 单体、搜索和推荐。前者包含或多或少与数据库交互的简单逻辑,后者包含 CPU 密集型计算,可能需要特定的硬件配置。每个服务都有自己的可伸缩性组。当我们还在考虑推广策略(并讨论买哪个域名)时,解决方案很简单:尽量减少移动工程师在处理后端(即外部堆栈)方面的困难。让我们把一切都打包到 docker 中。当我们为本地部署做好一切准备时——移动工程师可以运行 docker-compose 命令,并做好一切准备(经过几次痛苦的尝试,发现了文档中的缺陷,但这些练习的真正价值在于对每一个“卧槽”做出反应并改进它)。一切都很好,但是在空数据库上运行 API 有什么意义呢?手动输入必要的数据很快就会导致抑郁症(以及增加开发周期的风险)。因此,我们准备了一个精选数据集,并将其插入到本地数据库中,以便能够使用。我们也开始使用它进行自动测试。双赢!当你有几十个具有相似密码的假用户时,身份验证在定义测试场景时就不那么成问题了!尝试新事物或选择第三方提供商与新技术打交道总是有点危险。你和你的团队不可能什么都知道(有时你认为你知道的事情可以让你感到充实,但那是另一回事了)。尽管如此,它仍然需要评估和调查没有人接触过的东西。支付、电子邮件、聊天、短信、通知、分析等。每一个现代应用程序通常都代表着与多个第三方提供商紧密相连的业务逻辑。我们选择合作对象的方法——有时间限制的、尝试用它构建的活动,尝试通过特性、支持的语言选择最有前途的活动,对于提供者来说,还有定价。我们是怎么进入 Terraform 的?后端是数据库的一部分,也应该有一些对象 / 文件存储。迟早,我们还应该拥有 DNS,这样我们的服务才能准备好与这个残酷的大世界打交道。对云提供商的选择完全基于团队内部现有的专业知识。我们已经在其他项目中使用亚马逊云科技,所以我们决定坚持使用它。可以肯定的是,在亚马逊云科技控制台中可以做所有的事情,但是随着时间的推移,事情变成了一个典型的大泥球,每个人都害怕去触碰,而且根本没有人记得为什么存在这个东西。好吧,看来基础设施即代码的范式在这里很方便。从工具上看,选择并不多——供应商特定的亚马逊云科技 CloudFormation、谷歌云(Deployment Manager、Azure 自动化)、Terraform 以及其竞争对手。基于对 Terraform 的经验,你已经知道我们如何选择了吗?是的,初始设置将需要一些时间(如果没有控制,在 Terraform 中也很容易成为同样的大泥球),但至少它将有一些关于基础设施的文阿东和它为什么存在的可见性。另一个主要优势是,无论你通过 Terraform 管理什么,都会自动更新(当你或 CI/CD 运行相应的命令时)。秘密管理对于亚马逊云科技本身,鉴于我们在亚马逊云科技内部运行一切,我们可以依赖 IAM,并通过将必要的策略附加到虚拟机来承担角色。但是,我们需要与第三方服务整合,并以某种方式向我们的应用程序传递一些秘密,例如,数据库的密码。我们需要一些秘密管理的解决方案。亚马逊云科技有 KMS,GitHub Actions 有它们自己的秘密,除此之外,还有一堆其他提供商。所以,真正的问题是:你需要从秘密管理中得到什么:审计基于路径的访问与 Kubernetes 的集成签发凭据的能力Web 用户界面免费秘密版本控制KMS 非常方便,我们设法将其添加到 GitHub Actions 中,但 vault 的用户界面和免费使用它的能力(如果你自己运行它)在这件事上是一种破坏。通往 Kubernetes 的路径一旦我们将应用 docker 化,我们就开始考虑 Kubernetes,因为它提供了一些开箱即用的好处。最重要的是能够旋转必要数量的 pod 以满足性能需求,并且能够以声明的方式定义你的所有需求。因此,如果有足够的自动化水平,没有人应该运行 kubectl apply。亚马逊云科技从 EKS 开始,可以通过 terraform 管理。另一方面,陡峭的学习曲线(要理解它是如何准确定义应该启动和运行的)和一些可以使用的特定工具是需要重新考虑的合理理由。Helm 图表如果我们谈论 Kubernetes,并且在每次合并到 main 时发布了 docker 应用,那么 Helm 图表将成为适应现代基础设施栈的下一步。我们已经插入了亚马逊云科技 ECR 来跟踪每一个新的版本,并在专用的 S3 桶中发布 Helm 图,成为我们内部的 Helm 图注册表。将其整合在一起并不像预期的那样简单。Kubernetes 节点最初不能连接到 ECR 并提出必要的 docker 镜像,用于处理亚马逊云科技 KMS 中的秘密的 terrform 模块(aws-ssm-operator)已被弃用,并且不支持最近的 Kubernetes API,秘密和配置映射也不适合暴露在 pod 中。首次推出的服务给移动用户带来了快乐——不需要关心本地设置的说明了!在最初的一周左右,虽然,它并不是真正的稳定,但后来,少了一件需要关心的事情。你需要所有的吗?不需要。我必须承认,这种组合——Kubernetes 和 Vault 通过 terraform 和 helem ——可能不适合所有人,而且在初始阶段你很可能也不需要它。在合并到 main 时,简单的 docker 推送到 ECR,然后在 ssh 中执行 ec2 && docker pull && docker-compose 来停止启动—— 在 CICD 的发布期间可以很好地工作(至少对于一个愉快的路径)。乍一看,每个人都会很清楚。这正是我们目前重新部署静态网站的方式。我们可以关注 CI 构建的新版本,并将其复制到相应的 s3 桶中。基础设施日趋成熟亚马逊云科技很好,可以为那些愿意探索创业世界阴暗道路的人提供积分。我们可以用它在 GitHub 上节省几分钟的时间,并向 GitHub VM 公开更少的秘密和基础设施吗?如果是自托管的 Runner,也就是说,当你打开一个 PR 时,分配了一个 Pod 来运行 CI 检查的不是 GitHub VM,而是你自己的 Kubernetes?当然,为 iOS 发布准备一切是很困难的(下面会有更多介绍),但是 Android 和后端肯定可以在旧的 Linux 上运行?!我们已经通过专用的 k8s pods 构建了它,但是还有一个选项可以在现场 EC2 实例上运行检查。可观察性与 Co围绕监控和警报等术语,有很多营销上的废话。在一些公司,实现这些东西只是为了炫耀,“我们有 X 的特性!”。然而,当出现真正的问题或警报频道因包含不可操作的噪声而不得不静音时,工程师们仍然对他们的生产情况视而不见。我必须说,我们还有很长的路要走。只要你搜索这种解决方案,你会发现第一件事就是 ELK 栈和一堆付费提供商。在权衡了维护我们自己的设置所需的时间和精力后,我开始思考付费解决方案可能是值得的。当且仅当你真的能够将获取关于你的应用和基础设施状态的最重要信息的负担委托给现有的解决方案。这完全取决于他们是否有预设的指标、日志解析器和索引映射,你可以很容易地适应你的项目。对于日志记录,目前,我们依靠 ELK。是的,设置起来或多或少很简单,而且很可能,有些人发现 Elastic 的查询语言每天使用起来非常方便。在这里,我们仍然在探索各种选择,因为似乎搭配 grep 的老式 kubectl logs 可以更及时地为“app1 pod 的最后一个错误是什么”这样的问题提供见解,而不会迷失在无穷无尽的用户界面控件中。但最有可能的是,Kibana 的用户界面仍然隐藏着我们应该使用的手段,以添加适当的摄取管道,并为 filebeat 的弹性索引选择相应的映射。为了发出警报,我们设置了 Prometheus 并将其集成到 Slack 中。同样,主要是因为我们以前经历过这种情况。现在,我们为什么需要 Azure?!正如产品发展时通常发生的那样,新的需求引入了新的事物:现在,作为公开可见内容的一部分,我们需要一些仅供团队使用的资源要管理特性标志,请访问 vault UI,或使用 Elastic 来找出最后一个 API 错误当然,有付费的解决方案,或者你可以把一些 Identity 作为服务提供商(Azure active directory)与任何 VPN 提供商混合使用,以对你的团队成员进行身份验证。我们之所以选择 OpenVPN,是因为它们的免费层,并且只向内部网络公开必要的服务,以便那些应该使用凭证登录的用户能够使用这些服务。与使用亚马逊云科技栈相比,它有一个明显的优势——它是免费的(对于有限的连接数)。好吧,我们为什么需要谷歌云?到目前为止,我们主要讨论了事物的后端部分。但还有更多。你首先看到的是——移动应用程序!这是最重要的事情。Flutter 或其他的东西也必须被构建、检查、和测试。并以某种方式发布在某个地方,这样利益相关者就可以立即对新特性感到敬畏(并发现新的 bug)。如果要推广到生产中,你需要通过一系列的手续(截图、修改日志 = 新增内容、审查),这将耽误你的观众享受这些艺术作品。我必须说,商店的 API 对频繁发布并不真正友好。生成应用并签名时,发布可能需要 15 分钟以上。与其他 API 一样,应用商店的 API 迟早会失败。是的,签名可能是一场噩梦,因为它在不同的平台之间是不同的。而且,如果工程师不把时间浪费在所有这些事情上,从他们的笔记本电脑上准备发布,那就更好了。你应该考虑的第一件事(可能也是唯一的一件事)是 fastlane——最初,我确实对所有这些新术语如 gems(虽然喜欢这个名字!)和 bundle 有一些偏见,但它很有效。要从 CI 中运行它们,需要做一些努力来处理秘密,如 Android 的 jks 或 iOS 的 match。走向“黑暗”的一面接下来,你会开始考虑应用分发的问题:Testflight 是 iOS 世界的一个方便的工具,但 Android 呢?我们最终使用了 App Distribution——来自 Firebase 的解决方案——主要是因为它在第一次尝试后对我们有用。但也有其他的选择(声称对两个平台都有效)。重要的是,你可以从 Fastlane 做所有的事情!即使你的应用程序不断发展,你开始添加各种额外的东西——分析、聊天、地图、地理——很多都是直接从 Google 的 Firebase 中获得的。由于 Firebase 提供了很多好东西,所以收集分析事件是很自然的事情,在对他们的 IAM 策略进行了一些调整后,我们设置了将原始事件导出到 gs-buckets 中,以便能够与 BigQuery 一起使用。Prod 与 Staging:大分裂!对于后端,我们从一开始就有自动测试。诸如测试替身(test double)之类的各种实践证明非常有效地防止了回归,即使在复杂的业务逻辑中,通过从端服务进行集成也是如此。在移动端,由于来自 MVP 的代码共存,我们受到了一些限制,自动测试对复杂的业务场景并没有太大的帮助,比如有人想使用我们的服务,但我们不能从他们的银行卡上收费。手工测试非常耗时且容易出错,尤其是当业务逻辑动态发展,以及最近更新后数据库中的数据状态从领域规则的角度来看变得不可能。是的,所以通过点击我们正在维护的数据(并确定它是有效的)的应用程序来运行 E2E 测试会很好。如果这些测试不污染实际的数据库、S3 桶和第三方提供商,那就更好了。我们从一个主分支和一个环境(rds、redis、k8s 命名空间和 s3)开始,由第一批测试人员和开发人员使用。我们没有在公众面前公开,但随着我们越来越接近发布,很明显,对于我们可以打破事物并拥有稳定环境的地方,某种区别是必要的。在移动应用中,在构建过程中更改 API 的 URL 是一个问题。在后端,有几个方面必须做,以支持部署特定的配置:基础设施方面,通过创建专门的策略和资源,并在代码中需要特定 URL 的几个位进行参数化。除此之外,还有几个存储库,其中一些是独立的,但有些是依赖的——与共享功能的情况一样。你知道当你更新共享功能而不立即重新部署和测试所有依赖的应用程序会发生什么吗?几天后,当你完全忘记它的时候,你会在依赖的仓库其他地方做一些无关痛痒的、纯粹是表面上的改变,这将导致重新部署并拉取最新的依赖性。当然,在一个重要的 DEM 期间或之后,你会看到一些愚蠢的错误,这些错误与单个条件缺乏兼容性有关,但是你忘记再次检查。因此,拆分环境的第一个重要注意事项是,如果更新了一些基本存储库,则自动执行所有相关应用程序的整体部署。你可以要求团队这样做,每个人都同意,但忘记了拉取。第二个事项——我们需要部署什么?我们是否需要维护每个环境中的所有应用程序,包括负责发送电子邮件或通知的工作?似乎在部署中包含或排除作业的一些标志可能会有所帮助。E2E,以及之后的阶段,可能不是必要的,每个人都可以在互联网上访问。将新版本升级到 E2E 和 Staging,必须自动化。向 Prod 推广新版本,至少现在,最好有控制和手动。目前,我们有三个目标,可以实现以上所有目标:E2E:一种环境,集成测试将在精选的数据上运行,以确保基本功能仍然存在。Staging:在这里进行核心开发,测试人员可以尝试破坏我们构建的东西。Prod:乐于迎接新用户的地方。Kubernetes 集群仍然是一个单一的集群。所有内容都在名称空间级别上进行了分割。类似的事情也发生在 RDS 中,其中几个数据库共存于一个 RDS 实例中。在移动测试的自动化方面,选择并不是很多。你首先要选择是使用任何云端设备提供商还是自己运行测试。你当然可以把智能手机插入笔记本电脑并运行测试,但如果用 CI 来代替,那不是很好吗(也很正确!)?当你开始考虑提供模拟器和真实设备的提供商时,你会发现移动测试框架的选择并不广泛,但这是你必须做出的第二个选择(而提供商的选择可能会在这里限制你)。另一个重要的考虑因素——是否有特定的硬件要求,即使用 GPU 或 npu?因此,任何模拟对我们来说都是足够的。我们确定了移动 E2E 测试框架的两个主要选择——Flutter 集成测试和基于 appium 的 pytests。Firebase Test Lab 支持 Flutter 集成测试,尽管它需要进行一些调整,以允许从他们的 IP 范围(有运行模拟器的虚拟机)的请求到达我们的 E2E API。Appium,Python API 的一部分,它非常有前途,因为它就像使用 testproject 一样。你可以通过应用程序记录每个场景中的所有单击。因此,它不需要特定的编程知识,但它允许你逐步学习。到目前为止,在我们的设置中,Appium 在场景覆盖方面要全面得多。E2E 测试有一个微小的问题——在模拟器中冷启动应用程序的速度不是很快。如果我们再加上构建应用程序所需的时间以及将调试构建复制到提供商的时间,就会成为快速行动的一个真正瓶颈。到目前为止,我们已经试验过在一天内运行两次,但让我们看看情况如何。下一步是什么?许多有趣的任务仍在我们的待办事项清单上:在基础设施方面——性能测试、安全测试、尝试用于 Web 的 Flutter。在开发方面——为推荐引擎提供和更新机器学习模型,预测清理持续时间,用特征向量构建推荐缓存,混合优化问题以匹配引擎,以及调度工作和博弈论。而最重要的是,没有什么可以取代真实世界的使用。只有当你开始收集关于用户行为的真实数据时,你才会看到许多疯狂的事情,所以我们期待着即将到来的发布会!作者简介:Dmitry Kruglov,Syzygy AI 公司的首席技术官和联合创始人。原文链接:https://betterprogramming.pub/architecture-of-modern-startup-abaec235c2eb今日好文推荐马斯克猛烈抨击 ChatGPT引轰动:“这不是我想要的”选择“网红语言”值不值?使用Go和Rust的数据库公司七年经验总结OpenAI回应ChatGPT不向所有中国用户开放;字节改节奏,双月OKR改季度;马斯克称今年底卸任推特CEO|Q资讯背负着整个现代网络,却因“缺钱”放弃开源,core-js 负责人痛诉:“免费开源软件的根基已经崩塌了”
4,730
1,677,496,019,890
InfoQ
60
从用云焦虑到“深度云化”,新云原生时代带给我们哪些思考?
企业技术基础设施“云原生化”的改造速度,远超大部分人的心理预期。据 Gartner 预测,到 2025 年,云原生平台将在超过 95% 的新数字计划中作为基础,而此前 2021 年的数据只有不到 40%。这说明,今天的云原生关键词,正从“构建”、“落地”,逐步转变为“协同”、“优化”。“如何深度云化”是大家关注的重点。中国信息通信研究院云计算与大数据研究所副所长栗蔚预测,2023 年我国云计算行业应用将从“资源上云”正式迈入“深度用云”。2 月 17 日,由 CNCF、中国信通院、华为云联合主办的创原会·云原生技术创新峰会在四川成都举行,超过 150 名云原生领域的专家学者、创新企业和机构代表齐聚一堂,就深度云化的前沿技术趋势、产业机遇和创新实践展开交流。会上,华为云 CTO 张宇昕发表了主题演讲,并正式提出华为云在云原生领域的核心技术主张——上好云、用好云、管好云,成就新云原生企业。其中“管好云”的概念,首次得到如此重要地阐释。张宇昕表示,随着越来越多的企业从“搬迁上云”走向“深度云化”阶段,云上的数字化价值将得到真正释放。在这一过程中,“用好云”和“管好云”成为了企业数字化进程中的一体两面,企业不仅要投入于应用现代化、数智融合的“创新”实践,也要关注 IT 治理、云上安全、成本优化、确定性运维等“精益”方面的挑战。例如,企业在上云前会担心用云的效率、成本、安全等;上云后会担心云上资源怎么管?如何提高利用率?云上和线下的业务资源如何协调?管理体系该怎么建设?应用和数据改造后怎么运维?如何应对无处不在的安全和稳定威胁?一言以蔽之,云原生其实就是企业全方位的数字化变革,在这场“新云原生企业”的蜕变中,企业内所有的部门都将迎来转型。在这一语境下,“管好云”已不仅仅是字面意义上的管理问题,更是企业对崭新技术体系、数字思维的二次理解问题。云,作为底座支撑起门类繁多的根技术、现代化应用,几乎重构了现代企业的技术基础,让“用好云”与“管好云”成为所有企业跨越数字鸿沟的一次必经考验。技术红利浪潮下,企业在焦虑什么?降本增效压力加剧“云成本焦虑”谈到上云,不少企业的首要关切就在于成本。对云成本的最早担忧,大概来自国外部分企业在发展中的“下云”冲动,他们表示,对于一家增长稳定的中型企业来说,租赁基础设施资源有时候会让管理者承担不少额外的云支出。对于业内人士而言,这一问题并不难解答,“下云”的冲动,大部分归结于对云原生以及企业隐形成本的理解、估算不足——首先,云原生不是简单的“租赁基础设施资源”;其次, 由于云上的资源是共享的,通常单个集群可以托管多个工作负载和应用,但云厂商的账单并不会体现每个工作负载或应用消耗的资源。这意味着,多个团队如何利用或共享基础设施,往往难以被精准测算出来,因而产生了资源配置策略设置不合理、计量方式不够灵活等问题,从而导致成本浪费。Flexera 的 State of the Cloud Report 显示,部分企业的云上开支浪费明显,超过 30% 的云花费用属于“无效”开支。此外,云本身也存在“超支挑战”。根据 InfoQ 此前的报道,从 2020 到 2021 ,近 40% 的公司在云计算服务上预算超支,在预算为 200 万~1000 万美元的企业中,近半数(46%)出现了超支。三分之二的已超支受访者预计,新一年内云预算将继续超支。关于超支理由,该报告 29% 受访者给出的理由是内部事项优先级的转换, 21% 的受访者将超支与新冠疫情临时上云联系起来。也就是说,50% 的原因与技术无关。于是问题开始变得微妙起来——根因越来越复杂模糊,账单上的数字却醒目刺眼。要真正的用好云、管好云,首先就要解决此类云成本问题。代码漏洞及人为事故带来的“云安全焦虑”除了云成本挑战,云安全挑战同样是这两年行业关注的焦点。无论是 2021 年底的 Log4j 核弹级漏洞带来的行业震动,还是 Kubernetes 由于自身复杂性导致的人为事故频发,都给全行业敲响了“数字安全”的警钟。据统计,2022 年全球勒索软件事件达数千万次、平均每事件的损失达百万美元以上、全球新增安全漏洞超过 23900 例。以华为云为例,每年云上防御超过 1000 亿次的网络攻击,10 亿次 DDOS 攻击、最高攻击流量高达 3T,1 亿次的账号暴力破解。数字背后反映的是,数字化时代,每家企业可能面临同样的攻击。随着千行百业开始步入数字化转型的“深水区”,如何以云为基础,构建更加安全可靠的数字体系?云原生复杂场景背后的“云运维焦虑”云时代也对 IT 运维提出了新的挑战。过去,传统运维工程师只需要面对单个机房或者 IDC,去处理服务器、网络等硬件设备。但是在当前这样一个涵盖了私有云、公有云、虚拟化平台、容器平台的多维度、多云协同环境下,技术迭代、人员技能、产品更新的不确定性,成为了行业面临的共同挑战。一方面,云上的物理设备不可见,这对运维人员的认知转变提出了较高的要求;另一方面,云原生下的业务系统由单体变成了多个虚拟的微服务,用传统的 IT 思维已难以全面掌握业务整体运行状态。而多云环境则加剧了这一问题,也对运维人员的技术提出了更大的挑战。除此之外,部分企业手工运维导致的效率、安全等问题也层出不穷。另外,随着企业业务的调整发展,对数字化系统的可靠性、稳定性等方面的需求剧增,传统模式下基础设施运维与应用运维团队割裂,无法有效协同守护 SLA 目标。资料显示,仅 2022 年一年,IT 领域重大恶性事件超过 40 起,平均恢复时长超过 4 小时,传统的 ITIL 体系已经无法适用于云原生时代,亟需构建一套全新的运维体系。新 IT 环境带来的“云治理焦虑”传统的 IT 管理体系,在云时代的新技术需求下同样面临挑战。相比传统模式,云上的 IT 治理更重视数字转换相关的要素,重点关注整合和治理应用程序、数据和基础架构之间的互动、数字业务流程的协调与打通,以及运营可扩展性、安全性和可操作性等概念。尤其是随着多云、混合云等概念的出现,企业的 IT 治理难度进一步加大。从企业管理视角来看,当业务发展加快,众多业务单元(如子公司、事业部、部门等)遍布在不同的领域和地域时,一方面要对业务单元进行管理隔离,另一方面又需要进行集中管控,没有建立行之有效的 IT 治理体系,导致云上资源、数据和人员等要素的管理失控,进而很容易导致成本和安全失控。除此之外,近几年不少企业正逐步从单一应用上云转为全面深度云化,虚拟机数量、存储容量、业务单元数量、应用数量、访问云资源的用户数量等上升了多个数量级。大规模上云的背后,企业如何做好业务多维度管理、数据安全合规和数字治理体系建设,对于 IT 管理团队而言是一次业务“蜕变”挑战。走进“云深处”的行业探索与实践如今,针对上述伴随“深度云化”涌现出的新挑战,行业内已进行了大量探索。在精益用云方面,紧随着云成本“不可知”所带来的成本焦虑,FinOps 开始崭露头角。FinOps 本质上是把财务和整个架构技术结合在一起,弄清楚各业务对云服务使用的具体账目,然后提升资源利用率,减少成本消耗。根据信通院发布的《中国 FinOps 产业发展现状研究报告(2022 年)》,IT 资源精细化运营管理已被广泛提及,六成企业已经了解或听说过 FinOps 相关理念,其中两成企业已经实际展开 FinOps 相关实践。而云厂商们也在不断扩展和增强他们的成本管理服务,帮助他们的客户更好地管理 IT 资源及成本。比如亚马逊云科技推出了 Amazon Billing Conductor,这是其云财务管理解决方案的一部分;谷歌云也推出了计算引擎暂停 / 恢复功能和无人值守项目推荐器;华为云则更进一步,基于 FinOps 理念构建了端到端的、涵盖计划、控制、分析、优化的成本运营能力,帮助企业实现一站式成本管理、多维度成本分析、精准实时成本预测、多样化成本优化。“企业的CEO、CFO可能会关注,数字化转型能实现这么多创新,有这么多数据化需要变革,那它的成本是不是可控的?未来成本的投入是不是无底洞?”张宇昕指出,针对这一痛点,华为云 FinOps 的出现,就是为了帮助企业提升云化的成本效益,构建完整的云成本运营能力,企业据此可以建立一套云成本运营的机制和流程,持续进行成本优化,不断提升成本效益。除了 FinOps 外,“多云”架构也正在成为越来越多企业实现 IT 资源精细化运营、节省成本的选择。2022 年,国内外行业领导者们不断围绕“多云”这个话题发起具有前瞻性的讨论。借助多云架构,企业的成熟“现金牛”业务可以部署于自有云原生基础设施之上,从而降低在数据安全性和低延时流水线上的成本;另一方面,企业希望通过借助多个公有云的服务,新产品和业务能够“弹性”地拥抱新技术和生态,并且借助多个公有云也能使企业在满足合规性的同时,低成本快速将业务拓展至别的国家和地区,从而在市场上取得先机。张宇昕表示,未来,随着云成本管理的精益化加深,FinOps 有可能会与多云管理结合,作为多云管理的一个模块。在云安全方面,业内也有不少新的探索。比如,在开发阶段,华为云采用 DevSecOps 软件安全开发流程,通过安全左移,结合代码级安全深度测试,提前发现漏洞、修复漏洞,防范于未然;在运营阶段,基于“三分建设、七分运营”理念,华为云通过一个中心 + 七层防线的云原生统一安全架构,构建立体化、智能化、自动化的安全防御机制。华为云以安全云脑为中心,帮助实现一键安全合规、一屏全面感知、一云全局分析、一体全程处置,让企业安全运营效率实现 10 倍提升。在 IT 运维方面,可观测性和 AIOps 智能运维正发挥越来越大的价值。近两年“可观测性”讨论热度颇高,它为开发人员和运维人员构建了合作的桥梁,Gartner 在 2022 年度的基础设施和运维自动化技术成熟度周期图里,把“可观测性”放在膨胀期波峰最顶端位置,可以说是风头正盛;无独有偶,AIOps 成为了 IT 运维领域另一颗明珠,当企业云化不断加速,应对重复冗杂的运维活动,引入智能算法的 AIOps 则有机会帮助企业进一步解放生产力,提高运维效率,赋能业务创新。在华为云看来,可观测性、AIOps 都只是工具或手段,对业务而言,最终希望看到的是运维的确定性,由此提出了“确定性运维”的实践方向,希望通过全站可观测性、故障快速恢复、管控变更风险、韧性评估优化、一体化运维管理等方式,帮助企业将不确定性的运维风险变为确定性运维管控。此外,随着 DevOps 的大热,业内开始出现一些新的观点:DevOps 要求开发运维交付一条龙,当开发者将精力分摊到运维中去后,必然会影响开发周期,同时如今的云原生生态已经覆盖了海量不同类别的工具,这些都大大增加了开发者的认知负担。基于此,新兴技术“平台工程”(Platform Engineering)越来越受关注和热议。平台工程旨在通过减少现代软件交付的复杂性和不确定性来提高开发人员的生产力。有观点认为,平台工程是云原生软件交付的一个重要转向。Gartner 在其 2022 年 8 月发布的软件工程炒作周期中添加了“平台工程”,并将其列为企业机构 2023 年需要探索的十大战略技术趋势之一。据 Gartner 预测,到 2026 年,80% 的软件工程组织将建立平台团队,其中 75% 将包含开发者自助服务门户。不过当前国内真正在实践平台工程的企业尚属少数。“新云原生企业”的未来展望过去几年,在全球经济换挡和互联网经济转型的大背景下,云原生技术的蓬勃发展对全行业而言都称得上是一个“小确幸”。当然,经济下行等因素也给到了企业更多理性思考的空间,据 InfoQ 的观察和与行业专家的探讨结果来看,接下来无论是云原生技术的演进,还是产业实践,都会往更务实的方向发展,更聚焦于解决具体的问题,从数字化中要到真正的业务价值。如前文提到的云成本、云安全、确定性运维、IT 治理体系等相关技术实践,都是对于企业场景的需求而思考诞生。这本身就是深度云化的标志性特征,是一件好事。如果行业仍然是上了云就万事大吉,没有针对相关问题推进解决,反而才是一个值得忧虑的问题。从云原生技术的发展趋势来看,未来可能会更进一步渗透云虚拟化层,成为下一代操作系统层级的基础设施;向上则可能更深层次地融合并赋能开发、运维、数据库等云产品。“服务”的概念会进一步加深,关注云产品本身对业务的友好度、对开发者的友好度,降低软性的研发成本,兼容更多接口和基础设施。这又是“深度云化”的另一条必经之路。虽然据 Gartner 新兴技术成熟度曲线预估,完成上述技术基础建设和行业普及,至少还需要 2-5 年,但随着数字化转型的进一步深化,会有更多的企业接入云端,这极大可能会加速云服务的进化。在数字化浪潮技术百花齐放的趋势下,也许极少有行业能如云计算一样,在技术与商业的双轮驱动下,始终将“客户服务”放在第一位,由技术方牵头布道新理念、并在与行业痛点结合下,持续迭代新的解决方案。从 2020 年首次面向业界提出云原生 2.0 概念,到持续探讨“深度云化”实践,再到 2023 年全面阐释“上好云、用好云、管好云,成就新云原生企业”,华为云正在将云上创新的路径与理念不断清晰化。正如张宇昕所言,上云只是第一步,只有深度云化,上好云,用好云,管好云,以云原生思维践行云原生,才能真正释放出云的价值。相信这样的模式将成为表率,在未来牵引更多企业加快数字化转型,加速产业变革。
8,233
1,676,633,144,500
InfoQ
61
数据库内核杂谈(二十六)- 精读 DynamoDB 2022 论文(1)
欢迎阅读新一期的数据库内核杂谈。 这是兔年后的第一篇内核杂谈,祝大家新年快乐,也希望内核杂谈新一年里不断更。这一期,我们一起来学习 AWS 在 USENIX 2022 上发表的关于Amazon DynamoDB 的最新论文: Amazon DynamoDB: A Scalable, Predictably Performant, and Fully Managed NoSQL Database Service。 自2012年发布以来(见下图),DynamoDB 经历了多个版本的迭代,更新了很多功能。它作为底层的基础软件,支撑着 Amazon 和 AWS 的发展。这篇论文,汇聚了一些关键的系统设计和实现思路,介绍了DynamoDB如何从一个需要程序员自主维护,配置和使用的数据库系统,演进为一个超高可靠(highly available),超大规模(highly scale),超级稳定(predictable performant)的全自动化数据库服务(fully managed database as a service)。文中介绍了很多关键的设计细节,这些细节,不仅仅对数据库设计有帮助,对于通用的系统服务建设也很有启发。这篇文章是我很长一段时间内读到的最好的技术论文。借此博客,和大家一起学习,共同进步。 DynamoDB launch 时间线 DynamoDB历史和简介 论文的一开始,AWS肯定要先展示一下肌肉。DynamoDB是一款key-value(但同时也支持schema definition, document, secondary index等其他功能)的NoSQL数据库服务。在2021年的66个小时的Amazon Prime Day促销时,Amazon systems(包括Amazon.com, Alexa, Amazon fulfillment center等)总共调用DynamoDB 超过trillion级别(10^12次方, a million million),峰值更是将近9000万(89.2M)QPS。更大的肌肉在于,在如此高的峰值下,DynamoDB依然可以保证高可用以及几毫秒级别的返回时长(文中用的是single-digit milisecond)。 DyanmoDB最初是以自助维护(on-demand)的数据库系统的形式对外提供服务,即每个用户需要申请硬件资源,做好数据库配置,运维,甚至升级。使用DynamoDB的学习曲线非常高,团队通常需要配备一两个专业的DBA来运维DynamoDB。这使得DynamoDB的推广和使用并不是一帆风顺。 随后,AWS推出了S3,SimpleDB 等的 SaaS 服务,这些服务完全是自动化运维,对于用户仅仅暴露API调用接口(插一句题外话,SimpleDB: https://en.wikipedia.org/wiki/Amazon_SimpleDB, 是一款用Erlang编写的分布式NoSQL系统,也具备弹性,高可用,高性能的特点,但也有其局限性,比如数据量大小限制等等)。因为其易用的特点,SimpleDB的推广远比当时的DynamoDB要好得多。这也推动了DynamoDB的研发团队的转型之路,TA们希望能够让DynamoDB集Dynamo Database以及SimpleDB SaaS的优点于一身。 DynamoDB Service作为基础底层软件,是绝大多数AWS服务(包括,但不限于,AWS Lambda,AWS lake formation, AWS SageMaker)等上层应用的构建基石。这些上层的AWS服务对于很多其他用户而言,却是平台级别的基础服务。也因此,这些服务本身对于性能,高可靠,高可用,高扩展就有极大的诉求。这些诉求传递到DynamoDB后,使得条件变得更加苛刻。尤其是稳定的性能表现(consistent low latency),这里稳定的性能表现不是均值,不是中位数,而是P90,甚至是P99。因为DynamoDB作为底层服务,任何性能抖动(高latency的return)就会在上层服务中被放大,致使影响整个上层服务不稳定甚至不可用。所以,DynamoDB的一个设计目标就是要确保所有的调用都能在几毫米级别返回。除了稳定的性能外,DynamoDB的设计挑战还在于需要支持大量不同类型的服务,这也意味着需要支持多租户。且逐渐需要添加新的功能进入新版本比如secondary-index,transaction支持等等。研发团队总结了DynamoDB演进过程中始终贯彻的6个设计理念: 1) DynamoDB是一个完全自动化运维的数据库SaaS服务。对于用户来说,就是100%的Serverless API的调用。其他如软件升级,故障修复,硬件资源申请, 扩容,集群维护,故障恢复,对用户来说都是黑盒且无感知的。 2)DynamoDB是一个多租户SaaS服务。DynamoDB需要支持不同类型的用户和服务,但考虑到SaaS服务的收费模式以及服务SLA,需要保障高效的资源利用。底层的数据存储,以及计算节点在不同类型的服务和用户之间要做到物理共享,但又逻辑隔离。整体服务需要做好资源预留,服务监控,来保证不同类型的服务不会相互影响(最坏情况下造成雪崩效应)。 3)支持几乎无限制的横向扩展(典型的全球型分布式数据库)。DynamoDB并不限制一个表能存多少量的数据(表可以根据业务需求弹性地增加和扩容),也不限制有多少用户:一个表的数据会被分散存储到不同的物理机上,如果有需要,可以分配到上千台物理机上。 4)稳定的高性能(>P99):当服务和DynamoDB部署在同一个AWS region里,对于读写,需要保证几毫秒的延时。挑战在于,这种稳定的延时,即使当数据增长到百亿千亿级别,仍然能够保持(文中也给出了和MySQL的对比,见下图,很能说明情况)。通过分布式数据存储和routing,DynamoDB可以做到几乎无限的横向扩展。 调用延时无关数据量大小,始终保持几毫秒级别 5)超级高可用:数据会被复制到多个数据中心,AWS中称为 availability zones(AZ)。默认情况下,数据会有3个备份。并且,当发现某一个replica出现了节点故障,会自动申请一个新的replica来保证高可用。文中写到DynamoDB的普通表数据提供4个9的高可用保障,全域表(global table)提供5个9的高可用保障(因为全域表会备份到多个region,一个region包含多个AZ)。 6)功能丰富,支持多类型的应用和服务:DynamoDB在功能上,不像其他服务(比如SimpleDB)来限制用户使用某个固定的Data model。支持多种收欢迎的功能如支持可扩展的Schema,支持不同的数据类型(包括array类型的数据),secondary index,transaction,强一致读(strong read)和最终一致读(eventual consistency read)等等。 研发团队在迭代过程中,确保上述的6个设计理念始终被贯彻,才造就了DynamoDB的成功。其实,在平时的系统研发中,我们也需要贯彻清晰的设计理念(虽然,不需要像DynamoDB那样苛刻),好的设计理念会让系统在迭代中不会点错技能树。 DynamoDB 数据模型和high-level架构一个DynamoDB的表是一个Item数据的集合,每个Item都会分配一个全局唯一的key,即primary key。每个Item是一系列的attributes的集合。Primary key包含一个partition key或者是一个partition值+sort key(复合primary key)。Partition key的值的hash值,配合上sort key(如果存在的话)会决定这个数据存储在哪里。Partition key或者{partition value, sort key}需要保持唯一。 每个DynamoDB的表支持一个或者多个secondary index,来提升非primary key的查询速度。DynamoDB支持对Item对象进行操作的CRUD API,并且支持ACID transactions。 DynamoDB通过把一张表分成多个partitions来应对数据量增大带来的存储和读写压力。Partition可以被认作是存储和计算调度的基本单元。DynamoDB通过把不同的partition分配到不同的物理节点上来保证每个partition都分配到足够多的资源来保证读写的稳定表现,从而保证整个表的读写SLA。每个partition存储了一部分连续的key的item,而不同partition之间的item各无交集。每个partition都会有多个备份(默认情况是3备份),每个备份会被分配到不同的AZ来保证高可靠,节点间的通信和状态同步通过Multi-Paxos consensus protocol来实现。只有leader replica支持写操作和强一致读。当接受到写操作时,leader replica会先生成一个WAL (write-ahead log),并将WAL同步给其他的replica,只有当满足quorum setting的replica也存储好了WAL,这个写操作才认为被执行。除了强一致读,其他replica节点支持最终一致读。 如果leader节点因为节点硬件,网络等原因故障导致unavailable,replica group会根据consensus protocol重新选择一个新节点来做leader。就partition而言,绝大部分的分布式数据库都有类似的设计。每个标准replica节点(storage replica)除了会存储WAL,也会存储 B-tree 形式的key-value数据。DynamoDB 的一个创新是,当 replica 节点发生故障,导致 3 备份被打破时,为了保证高可靠,引入了一种新的replica节点,log replica。Log replica节点只存储WAL,而不保留key-value。因此Log replica节点不接受读写操作,也不能被选为leader节点,只是确保写操作依然能满足quorum setting,比如2/3写成功。 下面两张图展示了storage replica和log replica的区别。Storage replicaLog replica 除了replica节点,DynamoDB的组成包含了十几个辅助服务。这其中,关键的服务有metadata service,request routing service和autoadmin service(见下图的架构)。 DynamoDB architecture Metadata service存储元信息包括表,partition,index存储的路由信息。Request routing service负责授权,验证和具体的路由工作(通过查询metadata service得到路由信息)。Autoadmin service负责DynamoDB的集群控制工作来确保集群的稳定性,每个partition的读写稳定性,以及scaling request等等。Autoadmin service会持续监控集群,replica节点,表,partition的关键信息来判断是否其出于不健康状态,并通过控制命令来恢复,比如,下线某个不健康的replica节点,将上面原先存储的partition转移到其他健康节点上,对某个partition做扩容分离(split)等。这些辅助服务的具体工作在后文中会详细介绍。 总结这一期是DynamoDB 2022技术论文精读的第一篇。我们介绍了DyanmoDB的发展历史,6个具体的设计理念以及high-level架构。下一期,我们会深入学习Dynamo引入的新设计思路,看这些思路如何保证当数据规模超大的情况下,DynamoDB依然能够保证稳定的低延迟返回。感谢阅读。相关阅读:数据库内核杂谈 (二十二) 自动驾驶数据库 - Behavior Modeling数据库内核杂谈(二十三)- Hologres,支持 Hybrid serving/analytical Processing 的数据引擎数据库内核杂谈(二十四)- Hologres,支持 Hybrid serving/analytical Processing 的数据引擎数据库内核杂谈(二十五)- 数据湖前世今生
6,733
1,675,238,667,705
InfoQ
62
一个程序员的成功故事:从开源工具到75亿美元的软件帝国
一针打给年轻程序员们的奋斗鸡血。Matt Mullenweg是WordPress.com及其母公司Automattic的创始人。资料显示,Automattic在六轮融资中筹集了 8.46 亿美元。上一轮 2.88 亿美元的融资于 2021 年 2 月完成。去年8月,Automattic从现任和前任员工手中回购了价值2.5亿美元的股票。股票回购使该公司的估值达到了75 亿美元。本文将带着大家回顾Matt Mullenweg的奇妙创业旅程,一场从零开始创建WordPress的梦幻探险。统计数据显示,目前互联网上有四成的网站是由WordPress构建而成。WordPress.org最初的定位是非营利性的博客平台。作为博客和开源软件的双料爱好者,Matt的梦想就是建立一个可供任何人轻松创建博客的技术平台。Matt曾经收到不少科技巨头伸来的橄榄枝,但他几乎全都一口回绝。他知道一旦加入任何一家科技巨头,自己手中的知识产权也将被瞬间夺走。作为WordPress.com的母公司,Automattic目前在全球各地拥有约2000名员工。从Matt的童年聊起Matt和他的妹妹在休斯顿相伴长大。他母亲安心打理家庭,父亲则是一位为石油企业服务的计算机程序员。青年时代,Matt的梦想是追寻艺术、创作音乐。他对萨克斯特别着迷,因为父亲没事就喜欢来几段。于是Matt进入一所艺术表演高中,学校的氛围很棒,他还经常靠表演萨克斯赚点外快。他的演奏舞台也多种多样,比如不同的意大利餐厅。为什么放弃了职业音乐人之路?“在学校里,很多孩子是真正的神童。我也有点天赋,但得非常努力才能向他们看齐……而且我不是顶尖的那类人,越学我就越能感受到这一点。”Matt的父亲在单位有台办公用的电脑,后来又买了台家用电脑,这就成了Matt的计算机启蒙。刚开始,他在上头接触过几款游戏。但随着时间推移,他逐渐着迷于各种互联网社区。Matt回忆道:这些社区是围绕共同的关注点所形成的。社区就是结识他人的平台,我们使用的是名叫IRC的聊天系统……就是纯用文字随便闲侃。Matt的网站开发起点2000年初那会,网站的构建流程比如今要复杂得多。Matt在高中时就学会了网站开发,但过程并不轻松,翻了很多书也着实演练了很多遍。那时候的网站发布软件其实不少,有GeoCities、有Dreamweaver,还有FrontPage等等。大多数时候,他都会直接点遍软件里的所有按钮,挨个看看到底是什么作用。他就是用这种“笨”办法,了解软件的工作方式。当时的Matt创办了一个名叫footman的摄影网站。他在网站上发过不少照片,用的则是开源软件Gallery。总结来讲,这款软件就是个负责把照片发到网上的PHP脚本。至于我们如今熟知的Flickr和Facebook,在那个时代还没出现。与陌生人共同创办WordPress.org之后,Matt决定好好学学编程。他参加了一个名叫b2 cafelog的开源博客平台。他觉得这平台不错,并提议对代码做一点修改。Matt写的代码,深得b2首席开发者的好评。于是Matt按要求创建工单并提交了这批代码。贡献成果很快被接纳,成为后来正式发行版的一部分。也就是说,接下来每位更新软件的用户都会跑起Matt编写的代码。“我太开心了,天哪,有成百上千个网站在运行我亲手写的代码……真的叫人激动。”Matt就此频繁为b2平台贡献代码。除他之外,b2平台在世界各地还有很多其他贡献者。可一个致命的隐患始终存在——b2的首席开发者Mitchell掌握着整个平台的生死。2002年,Mitchell离开了b2。失去了这位“仁慈的独裁者”,b2平台再无法进行任何后续代码更新。于是,世界各地的人们只能停止贡献。属于Matt Mullenweg的高光时刻Matt有个好习惯,他一直在博客上记录当时b2所发生的一切。在一篇题为《博客软件的困境》的文章中,Matt提到他想打造一个与众不同的博客平台。他希望这个平台能美观一些,能让博文拥有高质量的排版功能。他提到平台应该跟博客本身一样简单,而且要像b2那样易于调整。代码也得既优雅又灵活。因为b2 cafelog属于开源项目并遵循GPL许可,所以首席开发者Mitchell所做的工作并没有丢失。Matt想通过此文告诉社区的其他成员,即使一个人突然从地球上消失,他写下的代码也将永远存在。人们可以直接使用这些代码,以此为基础进一步构建自己需要的功能。帖子公开之后,一位名叫Mike Little的用户评论称,如果Matt想牵头这样的项目,他很愿意一同参与。Mike与Matt的联合创业之路,就此拉开序幕。他们拿着b2 cafelog的代码进行了分叉,并以此为基础构建更多新内容。Matt和Mike曾在IRC上聊天,但至少在前三年从未谋面。他们之前曾相互发送过代码片段,还就代码注释进行过交流。不过,也就仅限于此了。WordPress.org因何而得名?Mike和Matt的b2分叉只是众多分叉中的一个。当时的b2分叉有五、六种,很多人都在尝试用b2代码开发一些有意义的成果。当时,Matt是社区里的活跃成员。之前,社区成员经常约在咖啡厅或酒吧见面,探讨博客开发技术。有一次Matt说起自己正和Mike共同构建博客平台,一位名叫Christin的博主偶然想到了WordPress这个名字。Matt很喜欢WorddPress,也就一直沿用了下去。之前不少b2社区的成员都喜欢Matt和Mike做的努力,所以其中大多数都转向了这个新项目。当我们认真回顾WordPress.org的发展历程,就会发现它从来就没有以业务作为发展思路。他们关注的永远只有一点:让博客构建更轻松、更有趣,让每个人都能为此做出贡献。正是这种纯净的追求,把项目参与者们紧密团结在了一起。一个伟大的点子,彻底改变了博客2003年5月,Mike和Matt正式将WordPress.org面向全世界公布。大多数用过各类博客软件的博主,都对WordPress的横空出世感到兴奋。此外,来自各个线上社区的开发者也对WordPress充满热情。在WordPress亮相之前,Matt曾联系过b2的贡献者,希望把分散各处的力量重新汇聚到WordPress这边。他邀请大家共商大事,加入到WordPress的贡献中来。在启动之初,WordPress项目只有五、六名稳定开发者,余下的几百人只负责对项目做微波的变更或调整。WordPress.org甫一登场,就被几百名用户用于撰写日常博客。WordPress.org人气日盛,运营总成本也在快速增长随着WordPress.org的用户规模越来越大,所需的服务器也面临着升级压力。那时候,亚马逊云科技(AWS)还根本没有诞生。所以,他们租了一台服务器,以供用户在线上与它交互。这台设备的运营和租赁总成本为每月425美元。当时,这台服务器就是项目团队的主要成本来源。为了支付这笔钱,Matt只能帮别人搭网站、配电脑,有时候还要捡回当初演奏萨克斯的老本行。雅虎与CNet等纷纷张开怀抱但好机会也一同到来,Matt Mullenweg收到了一大堆来自科技巨头的邀约。这些公司想雇用Matt,借他的手帮自己搞定各种重大项目。其中就包括雅虎和CNet。CNet是最早的互联网媒体企业之一,他们之前曾打造过一款内容管理系统。当时,CNet给Matt开出的年薪大概是9万美元。Matt那会每月只能赚个1000美元左右。对于20岁的Matt来说,9万美元的报价就如同中了彩票。Matt接受了CNet的招徕,原因如下:“他们允许我保留正在创建的代码的知识产权……一般来说,一旦加入谷歌这样的企业,那期间所开发的一切都将归公司所有……对我来说,把握住知识产权非常重要。”一个20来岁的年轻人,为什么对知识产权如此敏感?“我在网上看过很多博客,而且也有音乐演奏方面的背景。我对知识产权非常熟悉……我仍然坚定支持版权制度。”在CNet,Matt的职务是项目经理。在这里,他只负责管理某些特定项目。Matt在WordPress.org积累下丰富的助人经验,凭着这份沉淀,他帮助CNet的同事们快速完成设置流程。在此期间,他也从未间断对非营利组织WordPress.org的贡献。Matt为何推出营利性WordPress.com?Matt当时是这样向CNet CEO汇报的:WordPress.org很酷,但设置过程还是太复杂……我们可以让用户轻松点击几个按钮就建立起自己的博客。我觉得这肯定会大受欢迎……让我们马上动手吧。但CNet团队在集体讨论之后,认为不适合涉足博客托管业务。但Matt为自己的点子激动不已,所以在CNet工作期间就创办了Automattic公司。他还为公司雇用了最早的几名初始员工。他的思路是建立商业实体,借此为WordPress提供附加组件和简单的托管服务。他们想在后续的开发计划中进一步降低WordPress使用门槛,让人们无需掌握开发知识也能构建自己的博客。完成这一步,博客的大众化才能真正落地。Matt未借助任何融资就把Automattic公司运营了起来Matt Mullenweg最初独力支撑着这家新公司。他用自己的工资养活整个项目,不足的部分则借助信用卡。Matt回忆道:我确实对自己太过自信了。随着运营的推进,他逐渐意识到光靠自己的工资和信用卡已经不足以让WordPress转向商业化运营。Matt还记得,当时曾有人联系他在WordPress.org上投放广告。那会在WordPress.org投一个月广告,开价2000美元。但广告商提醒他,WordPress.org最好能提升一下自己在谷歌引擎上的价值排名。当时其他很多网站会直接照搬WordPress.org的内容,所以这位正主在搜索结果中的位次并不靠前。广告商的提议是,Matt应该在WordPress.org上开放各用户网站链接,这样就能在谷歌上获得更高排名。而且一定要注意高价值关键字,比如各种疾病,这对提升排名很有帮助。为此,Matt发明了一种向用户发送广告邮件的新方法。Matt当时是这样使用CSS代码的:如果以用户身份在浏览器内访问WordPress.org网站,则外部链接将不可见;如果通过谷歌等机器人身份访问WordPress.org网站,则外部链接可见。因为谷歌就是靠机器人来索引网站的,所以Matt的策略确实能帮广告商通过有价值关键字吸引数百万新用户。简而言之,Matt Mullenweg收了广告邮件商的钱,并向有价值的WordPress.org用户发送推销邮件。“当一个人靠不懂某事来养活自己的时候,就很难真正弄懂这件事。”后来谷歌发现了这批带有欺骗性的CSS代码。谷歌员工对这种误导搜索引擎的行为非常生气,于是决定直接从搜索结果中删除WordPress。这一举动,导致WordPress几乎从互联网上彻底消失。Matt Mullenweg的这种行为,也辜负了成千上万人的信任。此后,Matt修复了代码并发布博文公开道歉。最终,谷歌原谅了Matt并把WordPress重新放回搜索结果。离开CNet,专心开发反垃圾邮件软件Matt随后离开CNet,悉心运营自己的Automattic。公司的第一款商业产品名为AKismet,名称来自他的姐姐。这是一款反垃圾邮件软件。它有一套机器学习系统,能够分析数百万博客中的垃圾邮件模式,之后由Akismet返回放行或屏蔽的结论。如果返回放行,则邮件内容合法;若返回屏蔽,则代表是垃圾邮件、直接无视。这样,人们就能自动清理网站中的垃圾邮件,全程无需人工干预。Akismet对个人用户免费,但对商业用途则必须收费。Matt很早就决定WordPress.com要保持免费,他构想的商业模式是销售WordPress插件。Matt为何下决心筹集资金?Automattic的员工各自身在不同城市,遍布世界各地。那时候,Automattic全公司的月收入大约是2万美元。Matt意识到,一旦出点什么变故,他们的收入很可能立马中断,公司也无力支付下个月的工资。这时候的他感受到员工们的支持和信任,也深深感受到自己肩头背负的责任。业务经营倒还有钱,但Matt希望能多点现金储备,这样就能耐心开发,或者在最坏的情况下帮员工们渡过跳槽前的空窗期。Matt最初跟投资者会面时,对方总是要求他先为公司招聘齐CEO、CTO等高管人员。但Matt觉得这时候压根没有必要。后来Matt遇到了Tony Schneider,这是一位曾成功将自己创立的公司卖给雅虎的同行。两人相谈甚欢。于是Matt聘请他担任Automattic的CEO,此举终于打消了私人投资者们的疑虑。这时候的Matt,在公司里担任Automattic总裁职务。WordPress.com如何为平台和服务吸引客群?据Matt回忆:基本都是靠口口相传……我们当时唯一的宣传手段,就是在一切默认运行WordPress的网站模板中都写上“powered by WordPress”。在访问任何运行WordPress的网站时,大家都能看到一个链接,表明该网站由WordPress提供支持。单击该链接即可转向WordPress官网。在试用之后如果喜欢,用户就能轻松上手使用。另外,Matt也特别喜欢看其他人的博客。如果发现有人抱怨“呃……我的网站怎么越来越慢”,Matt都会向他们推荐WordPress.com服务。2亿美元要约收购与Automattic的当前估值Automattic团队当时已经有约20名成员。2007年,Matt拥有公司超半数股份,而当时已经有买家打算以2亿美元收购WordPress.com。对于一家刚刚成立2年的年轻企业来说,这无疑是个极具诱惑力的条件。就是说,23岁的Matt已经赚到了约1亿美元。于是他开始认真考虑这个选项。自己有必要这么年轻就退休吗?最终让他放弃收购的,是他觉得这会就退休实在太无聊。他还向姐姐、妈妈和爸爸提出了这个严肃的问题,问如果账户上有1亿美元,他们打算去干什么。他们能想到的,包括买辆超酷的车和买栋专门度假的房子。但种种梦想加起来,也只需要500万美元。那剩下的钱,要用来干嘛?他想的是每天写代码,环游世界并结识更多新朋友。他想跟自己喜欢的人们共事,仅此而已。想到这一层,他坚定了自己的念头——绝不要在这么年轻的时候卖掉公司。2009年,WordPress正式突破千万次下载2009年之前,WordPress团队新增一项功能——WordPress不仅能运行博客,还可以管理整个网站。事实证明,这也是WordPress.com最核心的功能之一。从这一刻起,WordPress不再是过去那种特定的发布或博客软件,而真正成为完整的内容管理系统。之后,更多大型企业被WordPress所吸引,并决定用它管理自己网站上的所有页面。收购扩张在不断壮大的旅程中,Automattic先后收购了WooCommerce、Tumblr、Simplenote等公司。原文链接:https://levelup.gitconnected.com/meet-a-programmer-who-turned-an-open-source-platform-into-a-7-500-000-000-company-645e14c53c8
6,680
1,675,126,800,978
InfoQ
63
我在实施蓝绿部署后遇到的问题和解决方法
前几周,我被迫拒绝“批准”了GitLab项目的合并请求。我不喜欢他们提出的解决方案,即,对我们的应用程序代码库进行特定的更改,以支持蓝绿发布。它向我发出了一个代码更改的警告:将部署与代码绑定了;在环境应该是不可见和可互换的情况下,以编写代码来支持环境。创建这些类型的依赖将我们与特定的平台和发布方法绑定了,而额外的代码会导致各种可能的缺陷和错误,这些缺陷和错误可能会因环境而异,因此极难测试。 这是怎么发生的呢?它有一个非常有趣的背景,并且这样的事情非常普遍。这一切都是从一个愿望开始的,即改进发布,从而更频繁地将变更引入到生产环境中。 我们团队的应用程序相对现代化且灵活:托管在Docker容器中,并能自动部署到云上,单元和组件测试根据更改运行,一旦通过了全套的自动化测试并满足了代码质量标准,部署就可以自动继续。我们有一个“发布”的概念,即部署到云环境中的多个服务的构建构件的标签集合。 然而,将这些构件移动到“更高的环境”中(例如预发布环境、生产环境)需要停机时间来重新启动所有服务,并且必须安排在非工作时间,而且发布要由单独的团队来执行。如果我们希望运行某些类型的更新(例如,对Liquibase来说过于复杂或缓慢的数据库更改),则需要手动执行步骤,因此,这些发布窗口虽并不频繁,但对团队来说却很痛苦。更不用说那些令人筋疲力尽的反社会工时制了。总的来说,一个好的改进候选项和蓝绿发布应该要能有助于消除其所需的加班和停机时间。 简而言之,蓝绿部署的概念是同时运行(至少)两个应用程序实例。当发布新版本时,它只能发布到一个(或一些)实例上,而让其他实例仍在旧版本上运行。一开始可以完全限制对这个新版本的访问,然后可能会发布给一部分消费者,直到对新版本产生信任为止。此时,可以逐渐限制对运行的旧版本实例的访问,当然也可以升级这些实例。这为用户创建了一个零停机时间的发布。 当然,也有需要注意的地方。对数据源或API的任何破坏性更改都意味着旧版本的请求不能被新版本处理,这就排除了蓝绿发布的可能性。这是我最喜欢问的面试问题之一,问一个人如何在蓝绿环境中处理破坏性更改,以避免有人提出了一个很好的解决方案,但它可能会涉及一些定制的路由层来丰富或调整“旧”请求以适应“新”系统。在这一点上,你必须考虑一下,保留一些旧版本的停机时间是不是更好。虽然大多数软件团队都在尽最大努力避免破坏性更改,但破坏性更改通常是不可避免的。 所以,让我们假设一下最好的情况,我们没有任何的破坏性更改。我们还假设,就像我的项目一样,我们正在将Docker容器直接部署到云服务上——一个Azure应用服务,而不是Kubernetes或另一个支持自动扩缩和路由的PaaS层。那么,我们该怎么做呢? 我们的架构由许多微服务组成的,这些微服务通过REST API进行通信,并作为单独的构件进行部署。但是当前所有的构件都在一个Git存储库中,并在单个版本中同时部署。假设我们有两个运行1.0版本的微服务A和微服务B,以及一个包含A接口的新版本(2.0版),该接口将由B中的新方法调用。假设我们在生产环境中部署了负载均衡的2个A实例和2个B实例;对于蓝绿来说,每个实例都将迁移到新版本上。  你可以立即看到问题所在:2.0版本的B实例只能调用2.0版本的A实例。如果它被定向到1.0的端点,则无法找到所需的新功能。由于这种特定的路由要求,服务B不能使用它从服务发现中所获取的负载平衡端点来调用服务A,而是需要特定的“绿”实例地址。 我们团队也面临着同样的情景。来看看我们可以用的解决方案。按依赖顺序发布 在调用API的功能之前发布API。在上面的例子中,如果我们为微服务B做了一次蓝绿发布,检查它是否正常,然后确保微服务B的两个实例都迁移到了2.0版本,那么之后我们就可以安全地对微服务A做蓝绿发布。   这种模型是一种适应增量式、非破坏性API更改的良好且简单的方式,尽管它必然会导致更多的发布,因为在发布下一个服务之前,每个依赖项都需要就位。这确实让回答“我们线上有什么版本?”这个问题变得更加困难。你的标签版本跨越了多个微服务版本。但这确实是微服务、部署复杂性和计算效率之间的权衡。微服务架构意味着,如果系统的某个特定部分需要用更多的资源,你可以只水平扩展该部分,而不必扩展整个系统,但随后你必须要单独管理所有部分的生命周期。 API调用中的版本控制 有几种方法可以将版本控制引入到API调用中。例如,一种直接的方式是在RESTful端点的实际URL中放入一个版本。另一种方式是尝试使用HTTP头等元数据来表示版本控制;然而,这只适用于你能控制所有服务的服务内通信时。否则,你不能指定服务请求必须包含的版本控制信息。 如果我们的API端点是版本化的,这对我们的发布有何帮助呢?它将允许我们的服务B的2.0版本管理任何HTTP 404“URL未找到”响应,如果它碰巧向服务B的1.0版本实例发送了一个V2请求,并且它将允许服务A托管端点的V1和V2,那么它就可以在前一个版本仍然存在时继续服务。一旦每个服务都迁移了,这将会导致一些工作,如管理和清理服务B中的V1-mitigation代码。  依赖基础设施 云原生选项。我们的团队将应用程序部署到Azure。如果你要问Azure是如何做蓝绿发布的,他们会向你介绍他们的Azure Traffic Manager产品。这是一种基于DNS负载均衡的解决方案,提供了一种加权轮询路由方法。权重可以用于逐渐向新迁移的服务器上引入流量,你还可以添加规则,以确保“蓝”服务器只路由到其他“蓝”的服务器,从而将你的蓝环境和绿环境分开。这确实是有成本的,尽管成本不是很高。 回到我们的具体问题。我们还没有构建版本化的API,正如我前面提到的,我们目前在一个版本中部署所有的微服务。我会将我们的服务归类为微服务,因为它们可以单独部署和扩展,但我们的发布过程有效地将它们合并到一个BBOM(Big Ball Of Mud,大泥球)了。 对于选项三,如果没有Azure Traffic Manager(这被认为过于昂贵),当“蓝”前端向后端微服务发送请求时,我们的团队无法检查或强制执行,它将调用“蓝”后端。这意味着,除非我们首先从后端传播更改(这并不总是可行,特别是当蓝和绿共享同一个数据库时),否则我们将面临路由无法处理请求的风险。让我非常畏缩的一个解决方法是:包含一个可以设置为蓝或绿的配置变量,然后在来自前端的请求中设置一个HTTP头,通过指定该变量来在应用程序代码库中有效地重新创建Azure Traffic Manager功能。哎唷。 代码可以在生成路由URL时使用这个HTTP头/配置变量作为标志,以决定是通过绿服务器还是蓝服务器来生成路径。因此,例如,“注销”链接将在前端配置中指定2个配置变量:一个用于绿,一个用于蓝,允许根据服务器“颜色”生成不同的注销链接......吃饱撑的吗? 我们团队知道这是一种创建蓝/绿发布流程的糟糕方式,它们是被预算和时间压力这两个常见的恶魔所逼迫的产物。我们的要求是在一个月内创建一个蓝绿部署流程,并且不使用Azure云原生服务,考虑到我们的起点,我们的选择非常有限。但是我们应该早点看到它的到来,例如,当我们一开始知道我们要构建API时,就应该考虑到API版本控制。 我们陷入了“DevOps鸿沟”,因为我们有两个优先级不同的团队,一个开发团队的首要任务是尽快将更改引入到发布管道,而另一个WebOps团队的首要任务则是确保云平台的可重复性和安全性。当有人提出构建微服务的请求时,开发团队认为WebOps团队会管理蓝绿发布之类的事情,并没有停下来考虑他们应该如何构建解决方案来帮助他们。由于这样的疏忽,它最终会反噬,从而伤害我们。 那么我们现是做到什么地步了呢?目前,我们还没有使用硬编码版本的蓝绿发布;正如我所预测的那样,当我们尝试使用我们构建的流程时,我们会发现一些非常严重的路由缺陷。我期待的是,我们最终能改用Azure Traffic Manager。到那时,我们就会开始将我们的“微服务大球”分解为多个部署管道,这样我们就可以计划一个自下而上的新变更发布了。在我们最初的示例中,我们的第一个版本将服务A升级到2.0,以在API和数据库中可以使用新的端点字段,然后第二个版本则是更新服务B,以调用服务A的新端点。 对我们来说,这是一个非常有价值的学习过程:让开发人员和WebOps团队更紧密地联系在一起,并与发布团队更密切地合作,以了解我们是如何帮助他们的。当技能组合不同时,人们很自然地会将他们认为属于其他人的任务委派给其他人(例如,负载均衡应用程序实例将委托给理解Azure云概念和各种模板语言的人来编写基础架构代码),但我们已经学会了分解这些任务,以便双方都能理解对方在做什么,从而帮助发现整个流程中的问题。  经验教训 总之,我们从早期的蓝绿设置尝试中学到了很多东西。变革架构 我非常反对“面向未来”的应用程序。如果没有性能问题,请不要构建缓存。如果你没有删除内容的要求,那么就不要执行删除。你对需求的猜测很有可能是错误的。 然而,你应该从一开始就让这些未来的变更变得可行且容易。这意味着在构建整体应用程序设计时,你应该考虑如何在数据库级别实现更改,以及如何向API中添加版本等。不要为了微服务而微服务微服务不必是设计的默认设置。如果你的架构中没有契合点,也没有比其他架构更容易被大流量冲击的点,并且如果你的组件只是彼此通信,而且部署在相同的近似位置(例如,相同的云或相同的数据中心),那么你可能无法从微服务架构中获得很大的收益。 通过减少移动部件的数量以及减少组件调用之间的网络延迟,你可能能从简化部署中获得更多的好处。不要只是随大流,要好好思考你想要实现的目标。注意团队边界对于任何需要一起协作的团队,无论是用户体验设计师和开发人员、业务分析师和QA,还是开发人员和运营团队,我们都需要意识到项目中风险最大的领域是团队之间的边界。 每个团队都会一直在做假设,例如,开发人员会假设用户体验设计师正在提供有效的HTML原型;业务分析师会假设QA团队已经根据文档化的需求进行了自动化测试;运营团队会假设他们已经收到了应用程序依赖项的通知。每当两个团队开始协作时,最好使用一些技术来消除这些假设,例如,你可以从领域驱动设计中获取一些工具,并运行事件风暴事件研讨会。 在一个项目中,越早将这些假设作为风险项提出,事情就会越好,也就越安全! 原文链接:https://www.infoq.com/articles/blue-green-deployments/相关阅读:亚马逊云科技为蓝绿及金丝雀策略引入 CloudFront 持续部署部署策略对比:蓝绿部署、金丝雀发布及其他
7,172
1,675,123,200,346
InfoQ
64
为降低“遗留技术成本” ,Capital One裁掉了整个敏捷部门,可能涉及1100人
敏捷交付(ADL)已经过时了? 今天,据《福布斯》报道,Capital One 正在裁撤敏捷交付团队,涉及到 1,100 多名技术员工,以寻求降低“遗留技术成本” 。 Capital One 是一家专注于信用卡、汽车贷款以及银行和储蓄产品的美国公司,是以专注于技术而闻名的金融企业,也是第一家全面采用云技术的美国银行。 裁员举措是在多年来投入巨资发展其云系统之后做出的,该公司在一封电子邮件中将这一努力描述为对 Capital One 的“技术转型”至关重要。受裁员影响的员工将被要求申请公开的内部职位,全公司有数百个空缺职位,而那些无法找到新职位的员工,公司将给他们提供至少 16 周的遣散费。  Capital One希望工程师和产品经理能自己负责“敏捷交付”职责,“我们技术组织中的敏捷角色对我们早期的转型阶段至关重要,但随着我们组织的成熟,下一步自然是将敏捷交付流程直接集成到我们的核心工程实践中,”Capital One 说。 随后,该消息在Linkedin、Reddit以及thelayoff.com上得到了证实,自述被裁员的人中,其职位描述包括:“Certified SAFe Scrum Master”、“Capital One 首席助理、敏捷交付负责人(Scrum Master)”、“Scrum Master (ADL)”、“Scrum 大师、发布培训工程师、产品经理”......   有人评论道:“我被裁了。我其实是一名项目经理,负责一些产品和技术工作。除了在头衔中有‘敏捷’这个词之外,我实际上并没有做任何跟敏捷相关的事情。公司瞎了眼,自从一年前来到Capital One,我就忙得喘不过气来。” “对,是真的。我是受影响的 ADL 之一。他们正在消除整个敏捷工作系列,包括 ADL、敏捷项目负责人、敏捷投资组合负责人、PO 等。” 还有说:“确认,我是 ADL 之一。我们做了很多幕后工作,但这些工作的价值不容易被看到。ADL并不是Capital One里最重要的职务,但团队肯定会受到严重影响,无论是在日常层面,还是在组织/公司层面。” 当然也包含一些对敏捷有偏见的评论:“不幸的是,ADL 已经过时了。” ...... 负责“赋能”的敏捷团队 Capital One 是敏捷和 SAFe的早期采用者。从 2010 年初开始,Capital One 投入巨资推动组织内的敏捷实践。经过多年发展,Capital One 的敏捷团队已经相当成熟,曾以其优异的敏捷实践而闻名于整个行业。 “2010年左右,我们意识到公司当时还没找到适合未来需求的正确模式。我们发现,传统的瀑布式方法无法适应未来业务需求。所以我们需要建立敏捷的工作方式,吸纳更多现场工程人才,借员工之手实现工作交付。于是我们全面转向更敏捷的交付方式。2011年底,我们开始采用Scrum、试行敏捷,同时为需要参与敏捷Scrum的团队招聘新成员。我们的试点主要侧重于数字功能,之后快速将敏捷扩展至整个技术部门。我们发现,敏捷其实是一种跨技术门类的工作方式,有着广泛的适用性。总体来看,敏捷是种通用的工作形式,能够不断迭代、根据市场需求或客户需求检查当前进展,最终构建并更新出足以占领市场的强大产品。”2016年,Capital One的CIO Rob Alexander在接受《福布斯》采访时说道。 据早期的报道,Capital One 在 2011 年的时候,敏捷开发只占交付软件的百分之一。2014年左右,85% 的软件是通过敏捷方法交付的,并借助敏捷每月发布大约 400 个产品版本,将交付时间缩短到三到六个月,“显著地降低了成本”。 Capital One 不仅在整个组织中利用了 SAFe,还进行了一些特定的定制。在 Capital One 技术组织内,每个敏捷团队由 5 或 6 名软件工程师、一名产品负责人(也称为 PO)、一名 ADL(敏捷交付负责人,或广为人知的 Scrum Master)和一名团队负责人组成。 虽然工程师只专注于特定团队,但 PO 和 ADL 角色同时支持多个团队的情况并不少见。其中,敏捷管理需要负责“建立领导力,包括培训、绩效管理、薪酬决策等”,“负责团队的交付”、“与其他敏捷角色协作以消除障碍”、“人员配备”、“负责平台/应用程序健康”、“建立信任、协作和心理安全的文化”。 在Capital One招聘网页上,是这样描述Agile Delivery Lead的职责的: 与倡议领导和团队合作,拆分工作内容并确定事务优先级,积极管理团队并保持对最高优先级事务的关注。针对需求收集与管理、积压工作细化和优先级排序等工作,为计划/项目负责人、责任主管和团队提供指导。使用Jira建立工作流程与管理实践,并利用Confluence推动工作流程、知识共享和协作的可见性。负责流程和倡议的变革管理与沟通计划。指导并敦促团队定义交付目标与关键结果,并据此衡量绩效。组织交付会议,主动管理依赖关系/障碍并上报风险。通过制定交付指标和准确报告,实现交付目标、承诺和进度的可见性。妥善管理和负责必要的运营流程,并通过适当的控制和风险缓解策略确保运营流程的高质量持续交付。利用团队反馈与指标(质量、交付率等)确定机会空间,并与团队协同以持续改进。通过影响力、问题解决和创新等手段,积极改进跨EDRM(电子发现请求)的敏捷交付实践。能够向团队成员和利益相关方解释并倡导敏捷和精益实践的助益。 据称, Capital One总共有50,000 人,其中包括 10,000 多名工程师,这次裁员没有涉及到任何“软件工程师”职位。 Capital One的技术转型 从2010年到2020年,Capital One发生了几个重要的变化:采用敏捷实践、迁移到公有云、构建DevOps实践。 Rob Alexander当时表示:“继敏捷转型之后,我们的下个阶段就是DevOps转型。这项理念的核心,就是如何打造一个生产力更高、绩效更强的组织。我们认为,转向DevOps是我们建立软件自动化构建流程,由此将软件开发、推送、测试、部署和安全保护等各个环节的执行效率全面推向顶点的关键。而其中最重要的组成部分,当然就是自动化交付管道。” DevOps这种新文化也改变了开发者对于代码质量、代码交付,特别是在生产环境下大规模可靠运行的基本态度。“高效环境不仅有助于提高生产力和质量,同时也能改善员工满意度。我们正身处这段旅程,而且作为技术领导团队,我们需要跟整个组织开展沟通——由此实现的,就是卓越软件交付。我们坚信这是一种强大的工作方式,对企业客户大有裨益,最终推动服务和被服务双方发展成高价值、高效能组织。这也再次证明了我们按照科技巨头规划自身运营的思路是正确的——要想在银行业领域胜出,我们就必须遵循这样的行事之道。”  在IT转型过程中,除了快速增加软件工程人员之外,Capital One意识到“要提高生产力,还得认真规划基础设施的交付方式。因此我们决定迁移至公有云。”亚马逊云科技(AWS)是Capital One的主要云合作伙伴,随后他们开始在云端构建所有新软件,也开始将应用程序从内部数据中心迁移至云上。2021年,Capital One宣布关闭了自己的数据中心。 根据资料显示,在交付上,Capital One也已经过渡到使用自动化交付工具上。比如采用Jenkins,这是用于构建持续集成和交付管道的行业标准工具。基于 Jenkins 的管道帮助将整个过程分解为“应用程序构建”、“集成测试”和“部署”等阶段,每次代码更新都经过一系列严格的自动化测试,包括集成测试、单元测试、安全扫描和质量检查。一旦代码通过所有测试,管道就会自动部署一个版本。 某云服务所提供的敏捷工具 而且,目前主流DevOps平台其功能已经发展得相当强大,可作为一个自助化的研发管理平台,实现缺陷管理、业务需求管理、软件需求管理、需求跟踪、代码分析、应用架构管理、代码统计等等。一般云服务所提供的DevOps平台,还包含了敏捷工具规划和跟踪工作部分,并配备图表、仪表板和报表来帮助团队监视和共享进度。Capital One敏捷团队的职责中,关于“负责平台/应用程序健康”等就可以被工具所取代,在DevOps文化中被归属到开发人员身上,由开发人员自行负责,但是文化构建、领导力等也许依然是无法替代的。 参考链接:https://www.straitstimes.com/business/us-credit-card-giant-capital-one-cuts-more-than-1100-tech-jobshttps://www.thelayoff.com/t/1kKf9jXihttps://www.thelayoff.com/t/1kLSSHrIhttps://www.linkedin.com/news/story/capital-one-to-cut-1100-tech-jobs-6130482/https://www.reddit.com/r/nova/comments/10g15mh/capital_one_layoffs_agile_division_1100_employees/https://www.banktech.com/channels/capital-one-delivers-85--of-software-through-agile/d/d-id/1296926.htmlhttps://www.agilealliance.org/resources/experience-reports/the-evolution-of-people-management-in-agile-organizations/https://diginomica.com/capital-one-closes-its-data-centres-and-goes-all-awshttps://www.forbes.com/sites/peterhigh/2016/12/12/how-capital-one-became-a-leading-digital-bankhttps://www.simform.com/blog/capital-one-devops-case-study/
13,114
1,674,199,328,317
InfoQ
65
疏通数据链条上的每个“堵点”,企业该如何利用端到端解决方案释放数据价值?
2020年4 月,国家发展改革委、中央网信办联合印发《关于推进“上云用数赋智”行动培育新经济发展实施方案》,鼓励在具备条件的行业领域和企业范围内,探索大数据、人工智能、云计算、数字孪生、5G、物联网和区块链等新一代数字技术应用和集成创新,为企业数字化转型提供技术支撑。 上云、用数、赋智,精炼地描述了企业上云的三个阶段,三重境界。上云可以相对容易,“用数”学问则比较大,“赋智”是更高的境界。在“用数”方面,数据中台的概念曾经在国内大行其道,很快又跌落神坛。很大一部分原因就在于业界没有完全准备好能让数据中台落地的技术。 事实上,让数据更好地在企业内部流通,可以有多种解决方案。 亚马逊云科技CEO Adam Selipsky曾在2022 re:Invent全球大会的主题演讲中提到,“企业需要不断从数据获得洞察,指导业务决策。” Adam指出,就像我们不断寻找新的方法来理解宇宙空间的浩瀚和复杂,比如在不同的光谱中观察同一个星云,数据的庞大和复杂也需要新的工具,将不断扩展的信息世界转化为洞察。这些工具需要有最好的性价比,需要最多的功能以支持所有用例,需要可扩展的工具以便处理如此庞大且不断增长的数据量,需要所有这些工具与零 ETL 一起工作,并且有强大的治理以便在访问和控制之间取得平衡。当企业拥有所有这些工具时,就可以构建一个完整的端到端数据策略,涵盖所有数据类型、用户需求和工作负载。亚马逊云科技是执行此操作的最佳场所,正在投资整个数据之旅,从数据的摄取、存储、查询,到分析、可视化和运行机器学习,以及端到端治理,使客户更容易释放数据的价值。” 当前,企业收集的数据达到PB甚至EB级别,这些数据来自多个部门、多项云服务、众多本地数据库以及第三方数据源(如来自合作伙伴解决方案和公共数据集)。在企业可以释放数据的全部价值之前,管理员和数据管理者作为数据生产者与管理者,需要在保障数据的管控和治理的前提下允许数据访问,确保数据只能由正确的人在正确的情境下访问。 另一方面,整个公司的员工(作为数据消费者)都希望发现和分析来自数据生产者的信息,以推动决策制定。数据需要被管控以保证安全,产生新的洞察需要允许数据访问,企业必须在二者之间寻求平衡。然而企业内数据多样,部门林立,用例不同,这些都对治理策略的落实提出挑战。 一些企业通过建立目录来管理信息,但这些目录系统维护起来相当耗时,需要数据生产者手动标记每个数据集,额外添加来源或描述等情境信息来保证数据可以被检索和发现,同时缺乏内嵌的访问控制来简化数据治理。企业很难保持数据分级分类的一致性,以及各个数据生产者必须保持自己的信息实时更新,这使得在整个企业中搜索数据变得非常困难,并可能导致数据过时。在这种情况下,数据消费者即使找到了所需信息,也无法快速通过目录直接向数据所有者请求访问权限,也就无法加载数据分析服务以及与他人协作。最终,决策者无法及时获得所需信息,或者可能根据不完整或过时的数据做出欠佳的决策。 针对上述挑战,亚马逊云科技发布了全新数据管理服务Amazon DataZone,帮助客户在整个企业内对数据进行编目、发现、共享和治理。 Amazon DataZone的作用是打通、盘活企业内的数据。首先,让管理员可以使用精细的控制工具,管理数据访问权限,确保数据不被滥用、不被非正常使用。这样,整个企业的工程师、数据科学家、产品经理、分析师和业务用户就都可以轻松访问整个企业的数据,挖掘数据价值。 数据生产者可以通过Amazon DataZone定义数据分级分类,配置治理策略,连接一系列亚马逊云科技服务(如Amazon S3和Amazon Redshift)、合作伙伴解决方案(如Salesforce和ServiceNow)和本地系统,从而创建自己的业务数据目录。Amazon DataZone使用机器学习为每个数据集收集和建议元数据信息(如数据来源和数据类型),并根据客户的分级分类和偏好进行模型训练,不断优化,从而消除数据目录维护的繁重工作。设置目录后,数据消费者可以使用 Amazon DataZone搜索和发现数据资产,检查元数据使用情境,请求数据集访问权限。当数据消费者开始分析数据,他们会创建一个Amazon DataZone数据项目,即门户系统中的一个共享空间,用户可以在其中提取不同的数据集、与同事共享访问权限、进行分析协作。 
8,594
1,674,033,498,675
InfoQ
66
每个月在云上“狂烧”180万,Ruby On Rails 之父:我们要直接买硬件!
 2022年10月,运营项目管理平台 Basecamp 背后的 37Signals 公司首席技术官兼 Ruby On Rails 之父 David Heinemeier Hansson 发文表示将要“下云”。近日,37Signals官博发文总结了自己在2022年的云支出情况。 这是一个得令人瞩目的云账单,该公司 2022 年在云上的支出费用大约为 320.15万美元(约合人民币2170万元),即每月 26.67万美元(约合180万元人民币)。其中大部分支出(75.99万美元)花在了 Amazon Web Services 的 EC2 和 EKS 服务。“恐怖“的云账单 现在的37Signals 主要经营两款产品:Basecamp和HEY,这也是他们的核心产品,对应的客户规模和收入水平也是最高的。另外,他们还运行着不少遗留服务,包括Basecamp Classic、Basecamp 2、Highrise、Backpack、Campfire、Writeboard,甚至是 Ta-da List。这些服务已经不再继续出售,但仍有几万甚至几十万用户在用,利润贡献在数百万美元上下。对此,37Signals 表示“打算永久提供支持,直到互联网不复存在。” 上述的不少应用程序并非运行在云端。以规模最大的应用程序Basecamp为例,它的最新版本和之前的Basecamp 2几乎都运行在37Signals 的自有服务器上,对应应用本体、数据库和缓存服务器。在这些服务上,只有搜索(OpenSearch)、文件存储(S3)和CDN服务(CloudFront)由云端提供。 HEY则基本完全依赖于云服务(除了某些电子邮件和图像处理服务,这部分由其自有硬件支持)。在HEY当中,37Signals 通过AWS EKS在Kubernetes集群上运行完整的Rails应用程序,借助Aurora RDS建立MySQL数据库服务器,在Elasticache上运行Redis,还通过OpenSearch实现搜索服务。另外,37Signals 的其他遗留应用程序也都运行在EKS上,数据库用的则是RDS。 “2022年全年,我们的所有云服务总开销为3,201,564 美元,每月是266,797 美元。吓不吓人!”37Signals SRE 工程师 Fernando Álvarez在博文里说道。 下面,我们看下37Signals 的详细开销: 单看HEY,纯用于生产工作负载的全年开销为106.6万美元(合每月8.88万美元)。这一项服务的成本来源可参考下图:至于其他各独立服务,37Signals 2022全年为所有应用程序数据库在RDS上花费了约47.3万美元(合每月3.9万美元)。这还不包括最新的Basecamp和较早的Basecamp 2版本,它们用的自有硬件。所以其中大部分还是来自HEY,全年数据库支出为35.59万美元(合每月2.96万美元),其余部分就是支持其他遗留服务的开销了。 至于OpenSearch,37Signals 主要用来托管应用程序搜索集群和日志记录管道中的索引存储,全年共花掉51.99万美元(合每月4.33万美元)。Basecamp和Basecamp 2也在使用这项云服务,所以其中大部分成本就来自这两者,外加HEY和Basecamp Classic。 亚马逊云科技的Kubernetes服务EC2和EKS,在2022年内共花掉75.99万美元(合每月6.33美元)。其中大部分用作HEY的生产和登台环境,总计27.23万美元(合每月2.26万美元),其余的用于其他遗留应用程序。但同样地,Basecamp和Basecamp 2不在其中。 37Signals在Elasticache身上花掉了12.38万美元(合每月1.03万美元)。其中最大占比再次来自HEY,它要借助这项服务来获取Redis支持的缓存。 最后,37Signals 在S3上存储了约8 PB的文件,2022年内总开销高达90.78万美元(合每月7.56万美元)。Hansson透露,这是单笔花费最贵的项目。值得注意的是,37Signals 使用了双区域副本策略来避免AWS整个区域及其中各可用区的突发故障。为了交付这些文件和其他静态资产,其2022年在CloudFront CDN服务身上花掉了66742美元(合每月5562美元)。 实际上,37Signals 为了将巨额支出削减至320万美元,做出大量努力。运营团队开展一项审慎的成本核查计划,每月上报并跟踪。公司还通过预留实例和长期使用承诺等方式签订了长期协议,借此享受更低的定价优惠。“但即便如此,我们在2022年内还是花掉了如此恐怖的云服务支出!” 新的”省钱计划”:购买硬件 在新的一年,37Signals 表示,计划把大量服务和依赖项从云端转移到内部硬件上,借此大幅削减这笔费用。但这个公司并不打算亲自运营数据中心,而是与Deft合作租赁其机架空间、带宽、供电和托管服务。 “虽然按我们的业务规模计算,这样的支出同样不低,但已经远优于公有云上的花费。”Álvarez说道。 虽然还没有详细的账单出来,但Hansson在推特上将这一成本与购买戴尔包含 288 个 vCPU 的服务器所需的支出进行了对比: 第一组,R6525 有256GB内存、3TB NVM、2x10G网络、2倍AMD EPYC 7513。第二组除了是 2x AMD EPYC 7443之外,其他都相同。所以288 vCPU、15 TB NVM、1.3TB RAM,3年每个月只要1287美元!  37signals表示,新方案并不会给带来太多额外的运营负担,他们不需要在数据中心架设和部署硬件或者线缆。所有设备都可以从戴尔那边直接订购,发往Deft数据中心,等到服务器显示在线后即可直接使用。 可以看出,37signals 在“下云”上表现出了非常大的决心。 正如 Hansson 当时所说,云计算在两种极端情况下大有裨益:其一是应用程序极其简单且流量很低的情况,这时选择完全托管服务能摆脱大部分复杂性要素;其二是负载波动几乎毫无规律可言、大家不知道该部署多少服务器的情况,这时上云是最好的选择。但如今37signals已经不适用于上述两种情况。“Basecamp 多年的商业模式跟自有硬件都能良好协同,业务的增长轨迹也有很好的可预测性。” 事实上,虽然近年来云计算加速增长,但企业并没有放弃本地数据中心,很多企业继续依赖传统数据中心来处理其关键任务工作负载。 根据Uptime Institute 2022 年的研究,只有 36% 的组织会将关键任务工作负载放入公共云中。虽然这一比例高于 2019 年的 26%,但企业越来越担心公共云服务的可见性和弹性。2022 年,超过四分之一 (26%) 的公司表示,出于此类担忧,他们不会将关键任务工作负载放到公有云上,这一比例高于 2019 年的 22%。 企业在延长硬件的使用周期 那么,企业总是想要最新、最好的技术来为其数据中心提供动力吗? 实际上并不是。 根据 Uptime Institute 的研究,硬件更新周期在普遍延长而非缩短。在其 2020 年数据中心调查中,最常见的更新间隔时间为五年,而 2015 年时为三年。这表明在相对较短的时间内就发生了重大转变。根据Uptime的说法,五年或更长时间的硬件生命周期正在成为常态。   是什么推动了这种延长效应?Uptime Institute 表示,数据中心硬件的电源使用效率 (PUE) 的下降削弱了更频繁更新服务器的主要动力。平均 PUE 从 2007 年的 2.5 暴跌至 2014 年的 1.67,但此后改善停滞不前,当前平均 PUA 为 1.55。 注:PUE = 数据中心总能耗/IT设备能耗,其中数据中心总能耗包括IT设备能耗和制冷、配电等系统的能耗,其值大于1,越接近1表明非IT设备耗能越少,即能效水平越好。 随着效率提高的放缓,企业对昂贵的硬件进行更换的经济动机也在放缓。摩尔定律带来的回报越来越少。  “正是这种每瓦特性能的翻倍,为增加计算能力同时通过硬件更新提高效率提供了重要机会。但在过去五年中,英特尔(以及直接竞争对手 AMD)要保持改进的步伐变得更加困难。这就提出了一个问题:我们是否还能从最近几代和即将到来的几代中央处理器中看到这些改进?否则,硬件更新的理由将被削弱。” Uptime Institute 2020 数据中心报告PUE 是更新周期延长的因素之一,还有一些其他的因素: 硬件即服务:供应商越来越喜欢将他们的硬件产品捆绑在订阅模式中。某种程度上,他们正在响应客户的需求。但当技术格局变化如此之快时,谁愿意锁定所有的资本支出呢?提高硬件利用率:超大规模(hyperscalers)已经证明商品硬件足以运行工业级工作负载。关键在于应用正确的软件层来充分利用可用硬件。中型和企业 CIO 密切关注着这些发展。预算限制:新 IT 设备的商业用途总是受到审查,毫无疑问,疫情的发生将优先事项进行了重新排列。随着远程工作成为常态,各种规模的企业都重新审视了对专有硬件的需求。针对云优先工作负载的服务和咨询支出也越来越多。 当然,硬件供应商仍然希望缩短硬件升级周期。以戴尔为例,该公司在 2019 年委托Forrester 发布的一份报告中警告说,不及时升级设备会带来机会成本。“老化的基础设施和进展有限的SDDC(软件定义的数据中心)使用,阻碍了 IT 组织满足业务需求。” 但硬件使用者正在主动延长使用周期。比如微软目前在其庞大的数据中心产品组合中运营着 400 万台服务器(并且还在增加)。微软首席财务官 Amy Hood 最近宣布该公司将其服务器的使用寿命延长至六年,而在此之前的更新周期为四年。 Hood 表示,通过对软件的投资、服务器和网络设备运营效率的提高以及技术进步,微软能够将其服务器的使用寿命再延长两年。因此,该公司估计 2023 财年第一季度可节省 11 亿美元,整个财政年度总计可节省 37 亿美元。 另外,为实现其循环经济实践的承诺,从现在到 2030 年,微软的目标是将其数据中心的电子垃圾通过维修管理、回收再利用等方式降低 90%。这种维修和再利用的趋势不仅会进一步延长硬件更新的时间范围,还将支持二手数据中心设备市场的扩张。 结束语 在企业不断追求“降本增效”,而云成本不断上升的情况下,“下云”采用传统硬件设备成为一些企业的选择。但真要下云的话,企业需要考虑是否像37Signals 一样业务可预测、没有意外的流量涌入,同时也要算好自己的账,比如要更换的设备价值多少,如何收回部分投资以抵消升级的前期成本,哪些设备可以在内部重新部署、哪些可以退役等。 世界上没有完美的解决方案,企业还是要做好评估后,根据自身业务需要进行选择。   参考链接:https://dev.37signals.com/our-cloud-spend-in-2022/https://horizontechnology.com/news/data-center-hardware-refresh-cycles/
11,803
1,674,022,568,524
InfoQ
67
直击指标分析与管理痛点,一文详解Kyligence Zen产品设计与技术实践
在工作中,我们常常会被问到,“这个月某某产品的销量如何?” “与上个月相比销量增长了还是下滑了?” “北极星指标陡降的原因是什么?”......之所以会被问及这些问题,是因为企业需要这些数据作为调整业务的参考。在数据已经被列为第五大生产要素的当下,如何利用和管理好数据对于任何一家企业来说都至关重要,而这一切都离不开指标。指标管理行业痛点指标作为业务和数据的结合,是数据统计的基础,也是量化业务效果的依据。在数据驱动的时代,指标的科学管理越来越重要。 为了用指标反映企业业务和管理情况,大量的数据分析系统和平台被广泛部署和使用,各类技术和平台不断生成海量的数据,及缺乏治理和管理的ETL任务、报表、仪表盘等。而对企业管理和业务最重要、最有价值的指标,却缺乏足够的洞见、挖掘和管理。这主要表现在以下四方面: 难以实现指标驱动管理:当业务目标没有被拆解为具体指标和数字,并分配到人,则常常会出现不同团队各自为政、各有目标,无法共同为整体业务目标合作的情况。管理层缺少以指标为核心的管理手段和工具,容易出现“ OKR都实现了,KPI却没有达成”的尴尬状况。指标口径不一致、数据信任缺失:不同业务团队通常会按照自己的逻辑定义指标和加工数据,导致不同团队或不同应用之间出现指标同义不同名、同名不同义的问题。业务用户对数据仓库中的数据缺少信任,需反复确认口径和加工逻辑,严重影响企业决策效率。指标无法复用、应用程度有限:企业往往拥有成千上万张报表,但最核心的指标可能只有数百个。这些指标往往重复地存在于不同业务报表当中,难以复用,占据重复的存储和ETL维护资源。当新的用数需求出现,又只能重复开发,造成人力和资源浪费。数据开发投入大、价值转化效率低 :随着数据需求的快速膨胀,数据部门重复建设严重,工作效率很低,导致开发成本日益增高。同时,数据价值转化效率低,数据供应和数据应用之间存在鸿沟。基于企业在指标管理上面临的上述几个痛点,Kyligence 去年宣布推出一站式指标平台 Kyligence Zen,该产品基于 Kyligence 核心 OLAP 能力打造,利用 AI 增强引擎和预计算技术优势,提供指标目录、指标治理、指标自动化、API 集成、归因分析等功能,以便捷、易用、直观的产品,帮助企业构建指标体系,从而驱动实现业务和管理目标。Kyligence Zen从0到1的技术实践据Kyligence副总裁李栋介绍,几年前例如贝壳找房、马蜂窝等在内的互联网用户就有基于Apache Kylin建设指标平台的实践经验,后来接触如平安银行这样的金融企业级客户时发现指标在数字化体系建设中已经必不可少,这让Kyligence团队看到了指标管理的市场空间。另一方面,多年来,Kyligence一直深耕OLAP引擎技术,并且在多维数据库方面有着充分的技术积累。团队希望把Kyligence的核心技术以及在社区和行业中积累的实践经验更好地复制到全球市场中,最大程度地赋能更多用户,于是便有了现在的Kyligence Zen。很有意思地是,“Zen”这个英文单词的中文含义是“禅”,这与Kyligence的产品价值主张相契合。李栋提到:“团队希望将Zen打造成为‘数据之禅’。说到大数据、数据分析这些关键词,业界往往关注在底层的技术,例如各类开源数据库、数据处理、数据存储的技术,但很少关注在数据本身。但是通过指标中台这样的产品真正从管理数据本身的角度来解决问题,让更多的人领悟到藏在数据当中的真谛。”正因为有了多年在OLAP领域的技术积累,Kyligence Zen的整个研发周期并不算长,但打磨一个产品也并非易事,团队要面临一些抉择。“ OLAP Cube的内核就是维度和度量,而这些其实就是构成指标体系的原子。” 李栋表示:”该产品底层引擎使用 Serverless 技术,并支持 ARM 架构,可有效节省计算资源 TCO。从产品规划的角度出发,我们优先做了云版本,Kyligence Zen 现已支持 SaaS 服务形态,用户也可以在亚马逊云科技等云平台上进行部署。”解决指标管理的核心问题指标,本质上是对公司业务数据的统一度量。从公司运营角度来看,指标的好坏,会对企业管理与业务经营产生影响。为了管理好指标,Kyligence Zen团队设计了四大核心产品能力:第一,要让指标能够真正和业务目标对齐。任何指标都是某个企业管理或者业务目标的数字表达,Kyligence Zen能够通过对目标的管理来实现企业内所有组织里上下目标的对齐,同时实现管理可观测性的效果。当发现指标数值异常,还可以直接通过智能归因分析进行深度洞察,寻找异动的来源。第二,统一的指标目录。统一的指标体系是企业高效管理和沟通的核心,但很多企业的指标口径并不统一,这就需要一个统一的目录去管理这些指标。通过指标目录,用户可以勘测定义和管理所有的指标,并通过标签、分类等来治理指标,从而打造统一的指标口径。第三,指标的自动化能力。在定义好指标之后,就需要通过指标来管理数据。依托Kyligence AI 增强引擎和预计算能力,自动根据指标使用特征动态建设数据集市,业务用户不再需要依赖IT开发加工指标。此外,Kyligence Zen根据指标使用记录,向业务用户自动推荐各种模式下的指标,例如最热指标等等。第四,开放的API接口能力。Kyligence Zen 提供的开放 API 接口,能够支持用户轻松定制工作流,对接飞书等管理协同平台及 Excel 等数据分析工具,真正实现“一处定义,多处复用”。目前,在数据源方面, Kyligence Zen 不仅支持 CSV 上传,还支持通过云对象存储(如 Amazon S3)接入数据仓库、数据湖或业务系统中的数据。此外,Kyligence Zen 指标可视化能力支持用户可以在该产品中创建指标看板快速查看指标数据,也可以组织内发布共享、协同维护。对于企业来说,如果要去做指标管理,传统的技术方案往往是:底层是数据平台,上面是BI报表,这种指标管理的方式可能造成业务侧的指标管理在不同的报表当中,而指标计算是通过 ETL 管理在底层的数据平台,两者是割裂的。但 Kyligence Zen能够通过一个一站式的平台把指标管理和指标计算结合在一起,同时提供一种简单易用的方式,让用户自助使用,并且在该平台上用户一键即可对基础指标、复合指标以及衍生指标的异常波动进行归因分析、快速获取洞察。从这点上来讲,是技术上一个很大的突破。门店管理、云成本管控等多场景正在实践指标分析与管理去年11月,Kyligence Zen 上线了海量指标模板,涵盖零售业、金融、建筑、市场与销售、人力与组织管理、IT 与科技等诸多领域,模板包含指标体系、业务目标体系和分析仪表盘等内容,支持用户一键导入,帮助业务高效搭建指标体系。指标模版为更多业务人员提供了便捷的指标分析与管理指导。以连锁茶饮企业为例,李栋介绍到,对于连锁门店来说,经营活动往往与成本、营收息息相关。在数字化转型的环境下,门店店长都需要定期整理 Excel 数据向相关负责人汇报相关情况。以库存管理场景来说,店长需要清晰知道库存报废率,包括食品、辅料、主料等维度。但是门店没有预算配备数据团队,也因各门店间实际情况差异也很大,对于总部和大区来说更多的是督促执行,没有精力为每家门店来单独分析,在这样的情况下,Kyligence 就可以提供一套和库存成本分析相关的指标体系做归因分析。店长构建属于自己门店的指标模版,可以清晰地看到从总部 / 大区再到各门店形成了统一的指标口径,而这些基础指标也是企业核心数据资产的业务呈现。如上图所示,该门店库存报废率比较高的就是辅料,新品促销券核销情况比较糟糕,即针对新品的促销券使用率都不到一半。整个过程借助Kyligence Zen,店长从引入数据和指标到做出初步的判断,既高效又可以自助完成,大大降低了通常对于数据或IT团队的依赖,大幅度缩短从数据到决策的时间,并第一时间给到业务决策合理、可信的依据,帮助准确调整市场策略。可想而知,对于千万级的成本损耗,这里即使能快速地降低 10%,对于TCO(整体拥有成本)也是很可观的。另外还有一个典型场景就是云成本管控。据 2021 年 CNCF FinOps Kubernetes Report 调研报告显示,68% 的受访者表示所在企业计算资源成本有所增加,36% 的受访者表示成本飙升超过 20%。云成本迅速增长,管理具有滞后性:对于管理者而言,最头痛的事之一就是云成本在无形中迅速增长。如果成本的监控和管理不善,IT 人员的某个误操作,就可能会给公司带来经济损失。Kyligence Zen 可以对云账单数据和指标进行评估和分析。业务用户可以实现自助定义和使用指标,云成本相关的数据需求无需再依赖开发人员;数据工程师可以节省大量数据开发和治理的精力;管理层可以直观一览所有云成本相关的经营和管理指标。Kyligence Zen 提供的指标数据服务,也正在简化企业的云成本数据分析和优化成本,而降低的云成本有助于企业利润的增长。要做大而全还是小而美?在依托Kyligence OLAP技术能力支撑后,Kyligence Zen好比是站在了巨人的肩膀上,起点也更高。但在数据指标管理这一蓝海市场中,同样高起点的产品也不在少数。阿里、网易、快手等互联网大厂纷纷研发了自家的指标规范化管理系统,并已经投入到规划生产中。那么,相比同类型产品,Kyligence Zen又以何特别之处,突出重围呢?据李栋介绍,Kyligence Zen与其他产品的差异性主要有三个:第一,体现在对趋势的把握上。Kyligence Zen的设计更加迎合当前企业全面上云的大趋势。无论是国内还是国外,上云的趋势是不可逆的,Kyligence Zen从一开始就是选择去拥抱云原生架构,它是一款更加偏向未来的产品。第二,是服务的目标行业有所不同。目前市场上一些同类产品可能只是专注于某个行业,而Kyligence Zen团队将其打造成一款通用的产品,让它能够服务零售、快消、互联网等多行业,服务的客户角色主要有管理者、数据工程师等角色。第三,是Kyligence Zen的标准化属性。因为标准化订阅制的产品更容易触达到客户的核心需求,也便于Kyligence Zen能够被全球各地的用户接受。任何一款产品,在满足行业需求的时候都需要讲产品定位,也就是说要做大而全还是小而美?面对这样的提问,李栋称:“Kyligence Zen是依托于Kyligence OLAP核心能力打造,OLAP本身没有行业之分,它“大”在是全行业通用的技术能力,并且这种技术能力已经在金融、零售、互联网等行业得到了充分验证。同时,Kyligence Zen 是一款非常聚焦的产品,专注在指标分析与管理领域。先前,Kyligence指标中台技术解决方案建设多年来已经沉淀出一套成熟的、可落地的方法论,并且已经应用在了很多头部金融、零售客户的业务中,所以Kyligence Zen在更细分的垂直领域里也具有竞争力。‘全’在行业,‘美’在聚焦,这是我的看法。”李栋称,自Kyligence Zen推出以来,已经收到了不少客户的正向反馈。未来Kyligence Zen团队的目标是希望将它的生态构建得更加完善,让指标分析与管理未来能在生态中占据更核心的位置。 
5,529
1,673,517,027,743
InfoQ
68
摆脱“不确定”带来的焦虑,2023年巅峰相见|InfoQ合作伙伴年度盛典
2023年1月5日,InfoQ合作伙伴年度盛典正式召开。本届盛典以“微光成炬·破晓而出”为主题,共分为“Memory / 回溯”、“Manner / 瞻望”、“Moment / 灵感”三个环节,与生态伙伴们一起探讨了科技、营销以及个人未来一年可能的前进方向,让大家在新的一年摆脱“不确定”带来的焦虑,携手巅峰相见。Memory / 回溯:科技热词背后的未来世界2022年,我们被太多的技术热词所围绕,也让很多企业和开发者对未来的科技世界越来越迷茫。PingCAP联合创始人、CTO黄东旭在分享中提到了三个关键词“云原生”、“AIGC”、“全球化”,既是回溯,也是展望。PingCAP联合创始人、CTO黄东旭 第一个关键词是云原生。黄东旭表示云原生已经开始进入下一个阶段。今年在美国看到的情况是几乎所有公司都在做云/云原生方向的转型,这并不是需要讨论的事情,而是已经完备的状态。 展望云原生的下一个阶段,其本身会越来越自洽,并会逐渐形成全栈的云原生,这种全栈的云原生将会催生Serverless的发展。Serverless的本质很简单,依旧是帮助开发者更进一步地隐藏基础设施的复杂性。总结来看,未来几乎所有在云上的软件都会形成一个自洽的Serverless生态。 第二个关键词是AIGC。黄东旭表示:“在ChatGPT出来之前,我一直认为AI存在过度炒作的成分,但ChatGPT是真的让我感到惊喜,让我体会到AI的价值,这不是直接取代工程师,而是提升工程师的生产效率。而这类工具与企业内部现有业务的结合将会是接下来非常值得关注的趋势。” 第三个关键词是全球化。过去一年,我们已经看到中国的很多技术、项目、开发者在全球产生了一定影响力,我也看到了广阔的全球市场在向中国企业招手。未来,越来越多来自中国的技术会逐渐走向全球,构建属于自己的全球影响力。极客邦科技创始人&CEO霍太稳(Kevin) 极客邦科技创始人&CEO霍太稳(Kevin)发表了新年致辞,表示: 过去三年,大家过得都不容易。2020 年是第一年,把大家直接打蒙了,没有任何的准备,疫情就来到我们面前。我现在很清晰地记得,在2020 年初,我告诉 InfoQ 极客传媒的小伙伴,说咱们必须减员,很痛苦的一个决定,最后很多相熟的小伙伴离开极客邦科技。挺过 2020 年,2021 年算是有了转机,还算比较正常地就走过来了,长舒了一口气。然后在2022 年初,摩拳擦掌,要大干一番,该招人的招人,该投资源的投资源,结果 4 月份的上海封城,这么一个黑天鹅事件,又把很多企业打回原型。 今天是 2023 年 1 月 5 日,疫情好像已经过去,一个崭新的未来好像已经展现在我们面前。但我想说的是,我们依然不能过于乐观,在前进的路上,我们依然需要小心甚微,战战兢兢,如履薄冰。任何事情都有一个过程,过去的三年我们习惯了疫情的生活,那么从这个习惯再回到从前,也需要一个过程。就像比尔盖茨说的那句话一样,人们总是高估了未来一到两年的变化,而低估了未来十年的变革。 我希望我们每一个合作伙伴,在坚信事情正在好转的同时,也一定要小心不要倒在黎明前的黑暗中。设定 23 年的目标还是要务实,手里的预算还是要看紧。虽然您的预算看紧,对我们 InfoQ 极客传媒来说不一定是个好事情,但是我们团队也深切理解“唇亡齿寒”的道理。只有我们每个合作伙伴都活着,我们才有可能联手创造一个更好的未来。 在此,我也和大家分享下我和极客邦科技 23 年工作重点,也算是我对自己过往三年的一个总结,和您共勉。OKR 第一条是回到经营的本质,给业务要利润。一路狂奔要增长的时代已经过去,我们回到健康的持续的增长上来,这也是保证极客邦科技自己能够活下去的关键。OKR 第二条是将2023 年定位为内容产品年,目的是持续夯实基础,坚持以客户为中心,基于客户的实际场景优化迭代我们的内容产品。OKR 第三条是数据基础设施建设,我们自己是做数字人才发展的,为有数字化转型需求的企业提供服务的,我们自己先要走在数字化转型的路上,重视数据,并给数据要价值,要产值,才能更好地为客户服务好。 最后,我以 InfoQ 极客传媒从成立第一天起,就对客户的一个承诺作为结尾:请大家放心和 InfoQ 极客传媒合作,在合同规定的范围内,我们服务到您满意为止,如果没有达到要求,则继续免费服务。这儿有一个我的微信号,如有对我们服务不满意的地方,随时联系我,我来帮您解决。 在盛典现场,霍太稳颁发了2022 年度数字化技术领军企业以及2022年度科技产业化推动者奖项。  2022 年度数字化技术领军企业获奖代表顺丰科技市场生态负责人冯杨表示,作为国内最大的物流公司,顺丰科技的数字化转型历程共分为三个阶段:全要素数字化、全链路数字化以及全场景数字化。在这个过程中,顺丰科技不仅满足内部的业务诉求,还需要满足客户侧的业务诉求,帮助物流领域的众多客户逐步实现数字化转型。未来,顺丰科技将继续夯实技术实力,并继续更好地服务客户。  2022年度科技产业化推动者的获奖代表——允度软件CEO、TGO 鲲鹏会上海负责人陈冲表示,自2018年加入TGO鲲鹏会,在这里收获了很多,非常感谢这个组织,同时也非常荣幸可以获得这个奖项。Manner / 瞻望:未来一年的大方向2023年,我们再次开启频繁的面对面交流,我们有了更多机会走到线下,面对面去发现,去摸索。过去三年,这不可能;未来三年,这将成为常态。浙江商人包机去欧洲,就是一个明确的信号。企业的探索方向,决定了“打工人”的工作方向,我们相信,这一切都将酝酿出疫情三年来最大的行业变革 —— 数字经济高速发展,虚实融合初步完成。我们相信,这可能是未来几年的创新源泉。极客邦科技事业合伙人、InfoQ 极客传媒总经理汪丹 极客邦科技事业合伙人、InfoQ 极客传媒总经理汪丹表示,在2023年,我们不仅关注早期技术的创新,也将关注成熟技术在千行百业的落地应用。未来一年,我们将继续按照数字人才发展粮仓模型从多个视角为用户带来真正有价值的内容,这将通过InfoQ的内容产品、QCon、ArchSummit、GMTC、GTLC等形式向大家呈现。面向2023年,我们将为客户提供六大解决方案,解决企业品牌建设、传统企业数字化品牌升级、产品影响力提升、开发者生态建设、技术雇主品牌建设以及年度整合营销方面的问题,同时感谢所有合作伙伴在2022年对InfoQ极客传媒的支持。 InfoQ总编王一鹏 InfoQ总编王一鹏在展望中表示,2023年,我们将继续通过大量的媒体文章和大家分享我们所关注的内容方向,但这是远远不够的,我们还将通过更多样的形式和渠道与大家见面,比如专注SaaS类型产品评测的《InfoQ测评室》、致力于将新的产品和技术发布第一时间解读给用户的《InfoQ技术解读视频》栏目以及前段时间刚刚结束的中国技术力量榜单评选。此外,我们也将通过报告的形式为大家描绘数字化、金融、制造等领域的发展进程,云计算、大数据等热门技术的发展,架构、人工智能等领域的生态图谱。在该环节,InfoQ极客传媒颁布了2022 年度最具影响力技术领航人、2022 年度科技向善先锋奖以及2022 年度最佳生态建设奖。2022 年度科技向善先锋奖的获奖代表金蝶中国苍穹平台市场营销负责人宗慧娟表示,金蝶在取得长足发展的同时以感恩的心回馈社会,与福州市相关机构合作开发了农民工工资监管平台,累计发放工资8亿元人民币。金蝶让技术更有温度,保障了农民工群体的老有所得。未来一年,金蝶将继续为提升企业的数字化能力而努力,助力更多企业吹响数字化转型的号角,新的一年希望和InfoQ携手与共,推进科技向善。 亚马逊云科技资深开发者运营专家郭悦表示在感言中提到,科技向善应该是每一个公司的行为准则,也是亚马逊云科技长期践行的准则。亚马逊云科技为此投入了大量资金和人力,比如开发了与碳足迹排放管理相关的工具,通过云计算、Serverless等技术等问题解决企业在可持续发展过程中存在的问题,并让技术回归社会价值,为社会带来了老年人远程医疗诊疗、登山人员的安全、遗失宠物的查找等解决方案,真正将科技应用到实际场景中。2022 年度最佳生态建设奖的获奖代表人瑞人才华北大区负责人陈娟(Meggie )表示过去一年选择与InfoQ合作是非常正确的决定,并希望在接下来一年继续与InfoQ携手走向更美好的未来。Moment / 灵感:跨界让灵感迸发困,则变!2022年,很多品牌热衷于放飞思绪、大开脑洞,与不同的文化、体系、产品相互碰撞。中国邮政跨界开卖咖啡、喜茶 x 藤原浩跨界联名、瑞幸咖啡×椰树椰汁跨界联名、茅台上线冰淇淋… 谁又说得好科技企业的下一个跨界对象会是谁呢?科技企业为什么不能从运动项目、传统文化中汲取灵感呢?极客邦科技董秘王智鹏极客邦科技董秘王智鹏在《培养一个运动爱好:如何入门滑雪?》的分享中提到了滑雪中的三大心流要素,分别是掌控感,明确的目标,即时的反馈、多变的奖励,而尽快进入到滑雪的心流状态就需要集齐上述提到的三大心流要素,这反推到我们的很多工作中亦可复用。 读史明智,知古鉴今。最近几年,我们越来越倾向于从中国传统文化中汲取营养,茶文化便是其中之一。其历史最早可追溯到公元前2700年之前,当时茶叶被当作一种草药使用,而茶叶被正式当作饮品大约在公元前59年。鲲鹏会32组的组长卢东明在《从茶道看商道》的分享中提到在创业的过程中体会到了茶带来的商业文化,在品茶中形成交流,形成礼节,形成了解,形成信任,形成共赢,这其中个体与个体之间的“化学反应”便是商道的体现之一。从茶道中慢慢了解一个人,从一杯杯茶中交换彼此的世界观和人生观,从茶的文化中寻找启发点,这或许就是传统文化的魅力之一。 盛典临近尾声,InfoQ 主编赵钰莹、InfoQ企业服务运营总监Jessie以及InfoQ销售总监Summer分别了颁发了2022 年度杰出开源运营团队、2022 年度最佳合作伙伴奖、2022 年度新锐技术品牌奖以及2022 年度最具锋芒营销团队。2022 年度杰出开源运营团队获奖代表PingCAP 开发者关系负责人刘辰也分享了过去一年与社区生态伙伴一起将TiDB落地到更多业务场景的故事。2022 年度最佳合作伙伴奖的获奖代表艾比森刑剑也对过去一年与InfoQ的合作过程进行了简单回顾并表达了自己的认可。 2022 年度新锐技术品牌奖的获奖代表天谋科技运营负责人秦楚晴表示可用、好用、管用的软件让其可以发挥更大的社会价值。未来一年,天谋科技将继续收集客户的实际诉求,并将其推进到产品研发中,同时坚持生态建设,与合作伙伴共赢。在颁奖典礼最后,嘉宾们共同完成了由智源研究院旗下AIGC创作平台FlagStudio生成的拼图,AI已经给我们带来了太多惊喜,由此开启的未来会充满更多惊喜,InfoQ将携手生态伙伴共同奔赴2023年的战场! 守得云开见月明,我们相信并祝愿所有伙伴 2022 年的沉淀就像一束束微光,终将在 2023 年汇聚成光芒! 最后,特别感谢 InfoQ的老朋友、本届盛典的品牌挚友——火山引擎开发者社区以及金山云对本次活动的大力支持。 火山引擎开发者社区是火山引擎的 toD 社区,致力于链接火山引擎和广大开发者,为大家提供前沿技术内容和丰富的技术活动,打造更好的开发者文化和氛围。 金山云创立于2012年,于2020年5月在美国纳斯达克上市,并在2022年12月以介绍形式于香港完成双重主要上市(股票代码:KC.NASDAQ;3896.HK),业务范围遍及全球多个国家和地区。依托金山集团30多年的企业级服务经验,金山云坚持技术立业,逐步构建了完备的云计算基础架构和运营体系。通过与云计算、大数据、边缘计算、AR/VR等前沿技术有机结合,在所深耕的行业提供超过150种解决方案,已广泛用于互联网、金融、医疗、公共服务等领域,为515+头部客户提供高品质的云服务。 
6,804
1,672,916,347,142
InfoQ
69
亚马逊云科技公布亚马逊安全湖的预览版本
在re:Invent大会上,亚马逊云科技宣布了亚马逊安全湖的预览版本。这项管理服务可自动将组织在云端和内部的安全数据自动中心化,并存储于其账户下的专门数据湖中。 亚马逊安全湖可自动进行存储分层,定制化留存期限以管理数据寿命,并对集成的AWS服务及第三方服务规范化。这项服务可从AWS服务(如CloudTrail、Lambda)及安全工具(如AWS安全中心、GuardDuty,以及AWS防火墙管理)中收集数据。此外,亚马逊安全湖还支持全新开放网络安全模式框架(OCSF),后者为安全遥测数据提供了一个开放规范,从而允许该服务从思科、CrowdStrike、Okta、Orca和Palo Alto网络等第三方解决方案中提取数据。 Orca安全的主管Ty Murphy近期在一篇Orca安全的博文中写道:安全湖作为支持开放网络安全模式框架(OCSF)这一开放行业标准的众多解决方案之一,让源自AWS及数十种企业安全数据源的安全数据更容易规范化整合。 来源:https://aws.amazon.com/security-lake/ 此外,安全湖会自动切分转换原始数据至OCSF及高查询效率的Apache parquet格式,使数据无需后期处理便可广泛且即时用于安全分析。该服务还支持与IBM、Splunk和Sumo Logic等分析合作伙伴集成,以解决威胁检测、调查及时间相应等安全用例。 Splunk作为安全湖的早期使用者及应用OCSF标准的社区成员领导者,在其内容市场Splunkbase上发布了公开评论,《亚马逊安全湖可用的Splunk附加组件》。Splunk首席架构师Paul Agbabian在其近期的Splunk博文中写道: 亚马逊安全湖通过将数据以满足OCSF的格式存储,取代了AWS或其他亚马逊安全湖的安全合作伙伴多种服务来源的形式,以单一feed的形式进行管理,简化了其在Splunk内部提取及分析安全数据所需的工作量, Constellation研究公司首席分析师兼副总裁Holger Mueller也参与了re:Invent大会,他告诉InfoQ的记者: 数据湖是2020年信息存储和处理的赢家。它们价格适中,存储数据时无需额外设计即可获得洞察力。因此,它们是安全产品的完美平台。数据湖可以提取并存储所有信息,适配查询以获取相关洞察力,从而触发正确的安全行动。 除此之外,亚马逊云科技首席开发倡导者Channy Yun在AWS的一篇新闻博文中阐释了安全湖的优势: 通过减少安全数据管理的操作开销,我们可以更轻松地从组织上下收集更多安全信号,并对这些数据进行分析,从而改善对数据、应用程序和工作负载的保护。 最后,亚马逊安全服务目前在美东(俄亥俄)、美东(北弗吉尼亚)、美西(俄勒冈)、亚太(悉尼)、亚太(东京)、欧洲(法兰克福)和欧洲(爱尔兰)地区均可用,关于该服务具体定价请查询价格页面。 原文链接:AWS Announces Preview Release of Amazon Security Lake 相关阅读:亚马逊云科技为蓝绿及金丝雀策略引入CloudFront持续部署AWS Lambda 现可支持 Node.js 18 运行时亚马逊云科技向 Well-Architected Framework 添加容器透镜
4,689
1,672,531,200,757
InfoQ
70
亚马逊云科技2022 re:Invent:“云的力量”加速底层技术创新
近日,亚马逊云科技在刚闭幕不久的2022 re:Invent全球大会上发布了一系列涵盖底层基础架构、计算、数据库、数据分析、AI/ML、安全、行业应用等新的服务及功能,通过不断创新帮助全球客户重塑未来。亚马逊云科技持续加速底层技术创新,推出了三种新的自研芯片——第五代虚拟化芯片Amazon Nitro5、Amazon Graviton3E处理器、Amazon Inferentia2机器学习加速推理芯片,以及由新的自研芯片支持的三种实例,为客户广泛的工作负载提供更高性价比。在大数据层面,亚马逊云科技构建了云原生端到端的数据战略,让客户可以更便捷、安全地获取数据洞察。新服务及功能重点包括数据管理服务Amazon DataZone,帮助客户实现“Zero-ETL”的全新服务集成功能;五项数据库和分析服务全新功能;Amazon SageMaker以及Amazon QuickSight等的多项新功能。亚马逊云科技还推出了安全数据湖Amazon Security Lake,方便客户针对安全数据做出快速行动。针对行业需求,亚马逊云科技推出Amazon Supply Chain,帮助企业更好地管理供应链; Amazon Clean Rooms助力企业更高效地处理组合数据集等。亚马逊云科技于今天正式开启2022 re:Invent中国巡展活动,展示2022 re:Invent全球大会的最新产品和技术、前沿趋势以及最佳实践。 亚马逊云科技大中华区产品部总经理陈晓建表示:“亚马逊云科技在每年的re:Invent全球大会上,都会发布许多重磅的新服务、功能和应用,来支持遍及全球各地、来自千行百业的客户进行不断的创新和重塑。面临全球经济的不确定性,各种规模的客户都希望能进一步消减成本、增强业务的灵活性并加速创新。我们希望能通过技术的不断创新,让全球包括中国的客户能凌云驭势、重塑未来。”软硬件协同发展,加速底层技术创新    亚马逊云科技自2013年推出Amazon Nitro系统以来,已经开发了多个自研芯片,包括五代Nitro系统、致力于为各种工作负载提升性能和优化成本的三代Graviton芯片、用于加速机器学习推理的两代Inferentia芯片,以及用于加速机器学习训练的Trainium芯片。定制化的芯片设计帮助客户运行要求更高的工作负载,包括更快的处理速度、更高的内存容量、更快的存储输入/输出(I/O)和更高的网络带宽。 在本次2022 re:Invent全球大会上,亚马逊云科技再次推出了一系列底层技术更新,包括第五代虚拟化芯片Nitro5、Gravition3E以及机器学习推理芯片Inferentia2,并推出了由三款自研芯片支持的Amazon Elastic Compute Cloud(Amazon EC2)最新实例。其中,Amazon EC2 Hpc7g实例采用了Amazon Graviton3E芯片,与当前一代Amazon EC2 C6gn实例相比,浮点性能提高了2倍;与当前一代Amazon EC2 Hpc6a实例相比,性能提高了20%,为高性能计算工作负载提供了超高性价比。Amazon EC2 C7gn实例采用Amazon Nitro5,与当前一代网络优化型实例相比,为每个CPU提供了多达2倍的网络带宽,同时将每秒数据包转发性能提升50%,为网络密集型工作负载提供了超高的网络带宽、数据包转发性能和性价比。Amazon EC2 Inf2实例采用Inferentia2,是专门为运行多达1,750亿个参数的大型深度学习模型而构建的,与当前一代Amazon EC2 Inf1实例相比,可提供高达4倍的吞吐量,降低多达10倍的延迟,且成本更优,延迟更低。 亚马逊云科技还对核心的底层亚马逊云科技SRD网络协议(Scalable Reliable Datagram,可扩展的可靠数据报)进行了创新,推出了高速虚拟网卡ENA Express,提供一致的更低延迟和更高网络吞吐量。SRD协议是亚马逊云科技开发的一种网络协议,专为亚马逊云科技环境中实现一致且低延迟的网络而构建的,具备多路径传输、微秒级重传和Nitro芯片提供专用资源三大优势,能够显著降低网络延迟,提高网络吞吐量。 针对负载巨大且高度复杂的模拟应用场景,亚马逊云科技推出了Amazon SimSpace Weaver服务,帮助客户构建、操作和运行大规模的空间模拟仿真系统。客户使用该服务可模拟出100万个以上、实时交互的仿真对象,创建比以往更加复杂的环境,并且将模拟仿真系统部署的时间从数年缩短至数月。构建云原生端到端的数据战略,应对海量数据挑战 数据是企业业务决策流程的中心,是构建数字化转型的基石。随着数据规模和增长的不断加速,企业需要一整套完整的数据工具来应对海量的多样化数据;需要整合来自于不同部门、不同服务和不同应用中的所有数据,以获取更全面的数字洞察;需要通过数据治理保障人员和应用快速访问所需数据并同时确保数据安全;还需要改善发现和分享数据的方式以提升获取洞察的效率。 亚马逊云科技在2022 re:Invent全球大会发布了全新的数据管理服务Amazon DataZone,帮助客户更快、更轻松地对存储在亚马逊云科技、客户本地和第三方来源的数据进行编目、发现、共享和治理,同时提供更精细的控制工具,管理和治理数据访问权限,确保数据安全。 针对ETL(数据的提取、转换和加载过程),亚马逊云科技在本次大会上发布了两项全新的集成功能,帮助客户实现“Zero-ETL”(零ETL)。业务数据往往需要通过ETL才能进行分析从而提供洞察,但这一过程往往耗时且枯燥。现在,客户可以使用Amazon Redshift近乎实时地分析Amazon Aurora中的数据,无需在不同服务之间进行ETL。 亚马逊云科技还新推出五项数据库和分析服务全新功能,让客户能够更快、更轻松地管理和分析PB级数据。Amazon DocumentDB Elastic Clusters可将客户的文档工作负载扩展到支持每秒数百万次请求,并支持PB级数据存储;Amazon OpenSearch推出了Serverless无服务器功能,可帮助客户在无需配置、扩展或管理底层基础设施的情况下运行搜索和分析工作负载,这一更新也标志着亚马逊云科技数据分析服务的全面无服务器化;Amazon Athena for Apache Spark能让客户开始使用Apache Spark进行交互式分析的时间从数分钟缩短到一秒以内;Amazon Glue Data Quality可以跨数据湖和数据管道自动管理数据质量; Amazon Redshift现在支持跨多个亚马逊云科技可用区(AZ)的高可用配置。 此外,亚马逊云科技在本次大会上推出了机器学习服务Amazon SageMaker的八项全新功能以及Amazon QuickSight的五项全新功能。其中,新的 Amazon SageMaker 治理功能可以在整个机器学习生命周期中提供对模型性能的可见性;新的 Amazon SageMaker Studio Notebook 功能提供了增强的Notebook体验,让客户只需点击几下即可检查和解决数据质量问题,促进数据科学团队之间的实时协作,通过将Notebook代码转变到自动化作业,加速机器学习实验到生产的过程;其他一些新功能可自动执行模型验证,并且让地理空间数据处理变得更容易。Amazon QuickSight 新功能可以支持业务人员直接用自然语言提问各类预测问题,并能够给出预测依据,降低了企业从数据中获取业务洞察的门槛。 
3,636
1,672,414,312,954
InfoQ
71
亚马逊云科技为蓝绿及金丝雀策略引入CloudFront持续部署
亚马逊云科技宣布CloudFront现已支持持续部署,可用部分实时流量测试并验证配置变化。AWS内容交付网络的新功能简化了蓝绿及金丝雀部署策略。CloudFront的持续部署是为部署后验证、向后兼容,仅使用小部分请求验证新功能等场景而设计。AWS高级解决方案架构师Joe Viggiano,首席解决方案架构师Carl Johnson,以及首席产品经理Vishal Anand如此解释:当前行业上对于测试CDN配置变化已有的解决方案是需要在客户端注入自定义头信息、覆盖客户端DNS设置,或者实施单独的测试域。这一切都让大规模测试充满挑战。客户可能会不得不在应用程序中建立复杂的功能标志(……)这种方式缺乏可扩展性,且不能百分百引导生产流量,无法确保新引入的变化不会对工作负载产生负面影响。 借助CloudFront的持续部署,客户向主要分布中发送请求,CloudFront基于持续部署策略中的权重或头配置,将其中部分请求路由到暂存分布。基于权重的配置会将特定百分比(最高可至15%)的Viewer请求路由到暂存分布,而基于头的配置则会根据特定HTTP头将请求路由到暂存分布。来源:https://aws.amazon.com/blogs/networking-and-content-delivery/use-cloudfront-continuous-deployment-to-safely-validate-cdn-changes/ 两种方式都可用于测试同一部署,以基于头的配置验证已知测试用户和设备的第一条变更,随后在借助基于权重的配置引入生产流量。这一功能通过将Viewer会话与环境绑定,让监控标准及实时日志变得可行,一旦变更对服务有影响,可即时回滚回先前的配置。Viggiano、Johnson及Anand写道: 在需要进行测试时,CloudFront现在允许创建一个与生产分布相关联的暂存分布 。可在暂存分布中修改原点、原点组、缓存行为、客户错误响应、默认根对象、日志和地理限制等设置,未来还会增加更多可更改的设置项。 开发者们对于AWS CDN上对蓝绿及金丝雀部署的支持期盼已久,无论是在红迪还是Server Fault上都有很多讨论串。云顾问及AWS无服务英雄Yan Cui则对这个名称发出来质疑:非常赞,但我不太理解为什么要叫CloudFront“持续部署”,而不是叫CloudFront金丝雀部署之类的名字。 主要分布和暂存分布不共享缓存。在资源使用高峰期,CloudFront可能会无视持续部署策略,将所有请求全部发送到主要分布。基于当前限制,CloudFront持续部署不支持启用了HTTP/3的分布。 该新功能可在所有AWS边缘,通过控制台、SDK、CLI或CloudFormation模板使用。 原文链接:AWS Introduces CloudFront Continuous Deployment for Blue-Green and Canary Strategies by Renato Losio相关阅读:AWS Lambda 现可支持 Node.js 18 运行时亚马逊云科技向 Well-Architected Framework 添加容器透镜
4,164
1,672,358,400,046
InfoQ
72
谁才是数字化转型时代具备真正实力的项目/团队?| InfoQ年终榜单颁奖典礼
刚刚,以“深入数字经济·洞见技术价值”为主题的【InfoQ 2022 中国技术力量年终榜单】颁奖典礼正式召开。十大开源新锐项目、十大高价值技术团队、十大云原生创新技术方案三大榜单正式公布获奖名单。在数字化转型过程具备重大价值的项目和团队实体经济与虚拟经济的融合已经成为必然趋势。在“十四五”规划中,数字经济被视为核心发展目标。过去几年,我们看到越来越多的企业通过开源、上云等模式,加速融合与转型。不过,对于企业而言,如何确定一个好的选型策略?哪些技术方案,在数字化转型中呈现出更鲜明的业务价值?什么样的技术团队,才是能够适应未来挑战的数字人才团队?都是需要被进一步解答的问题。为了让更多优秀解决方案的价值被发现,InfoQ 2022 中国技术力量年度榜单评选正式开启。本次榜单聚焦选择为数字化转型做出实际贡献的项目和团队,分为【2022 年度十大开源新锐项目】、【2022 年度十大高价值技术团队】、【2022 年度十大云原生创新技术】三大榜单。其中,【2022 年度十大开源新锐项目】希望从企业软件供应链打造视角出发,关注开源项目的易用性、社区活跃性、成熟度、产品优越性、代码健康度等关键指标,致力于评选出那些在研发、治理、生态层面都足以称为标杆的新锐开源项目;如果该项目在实体经济场景有成功标杆案例,在其领域、赛道,对数字化转型有关键意义和价值,将获得专家评委的特别青睐。【2022 年度十大高价值技术团队】的设立初衷是企业如今需要的不仅是能解决技术问题、实现技术创新的研发团队,更需要帮助企业完成业务发展目标、勇于探索数字化转型前沿领域、大胆深入实体经济场景的团队,他们能够帮助企业在下行周期稳固发展,在上行周期创造增量,在新趋势下的业务场景中拿下战略标地。【2022 年度十大云原生创新技术】的设立初衷为云原生改造程度现已成为企业规划数字化转型的重要参考标准,其中对各类方案的集成,是企业将场景问题抽象为技术问题,并加以解决的核心手段。本奖项聚焦能够发现并抽离某一(类)场景的需求痛点,并通过云计算的相关技术方案加以解决,对企业数字化转型的进程推进起到关键作用,并对行业具备重大借鉴意义的解决方案。经过一个半月的打磨、万余名开发者、20 余位专家评审团及 InfoQ 主编团的共同抉择,三大榜单的获奖名单现已出炉。为保障评选的程序正义,我们建立了严格的评选流程和标准。针对每一项评选分别建立二级指标体系并赋予相应权重,为消除评分过程中的不确定因素和最大程度保持公平,打分环节对每个打分团体分配相应的权重系数,专家评审团不对所在公司项目进行评分,保障打分环节公平。最终,经过多轮测算,三大榜单的前十名脱颖而出。(以下排名不分先后,按照提报顺序展示)在颁奖典礼的现场,我们特别邀请了三大赛道的评委专家代表为我们分享个人的评审标准及评审感受。开源新锐项目榜单的专家评审代表北京开源创新委员会常务副主任兼秘书长宋可为在颁奖典礼中表示:在不同的领域、行业中,每年都会涌现出很多开源项目。可以看到,中国开源正在快速发展,并以领先全球的速度持续快速地缩小与国际开源生态的差距。在本次参选的 60 多个开源项目中,既有科技龙头企业孵化的开源项目,也有中小企业、创业团队孵化的开源项目,这展现了当前中国开源领域蓬勃发展的势头。此外,无论是头部企业、腰部企业、中小企业还是创业企业,无论是“卡脖子”相关的数据库、芯片、操作系统领域,还是前沿的人工智能、云计算等领域,中国的开源项目都在快速的发展。这些迹象表明:在 2022 年这样一个“冬季”,我们依然可以看到中国的开源生态发展欣欣向荣。这对其中所有的参与者而言,绝对是一个好消息。高价值技术团队的专家评审代表矩阵起源 CEO 王龙在颁奖典礼现场接受采访时表示:我在 2017 年从美国归国时,看到国内两大赛道呈现蓬勃发展的趋势:一是企业服务软件,二是核心技术软件。直到今天,这两大赛道仍充满希望。在本次参选名单中,有很多项目来自 2017、2018 年成立的公司,很高兴能看到这些公司在不同的赛道中开花结果,展现自身的技术竞争力。这也代表着,国内开源土壤已经成熟。当前,企业服务软件、核心技术软件百花齐放,相信未来会越来越好。云原生创新技术的专家评审代表用友集团副总裁 ,平台和数据智能事业部总经理罗小江在颁奖典礼中表示:越来越多的中国企业在基础侧投入更多力量,在生态供给侧提供了更多可能,这是一个不错的趋势和方向。在本次评选中,既有 TO B 项目,也有 TO C 项目,百花齐放。另外也有很多创新型项目,如在云原生领域就有不少创新的产品和方案出来。目前在云原生领域,有几个问题亟待企业解决,如云原生如何做融合,如何在统一的云平台搭建基础架构,SaaS、函数服务在云时代如何继续创新等。在数据库领域中,企业也需要解决数据库融合这一难点。此外,可观测性也是企业关注的重心,对于大型企业而言,随着 IT 变得愈加复杂,如何有效地管控底层 IT 至关重要。在云时代,企业需要解决这些痛点问题。期待未来能涌现出更多的创新方案,结合客户实际需求,为中国企业的数字化转型贡献技术力量。在众多获奖项目中,InfoQ 邀请到了三位代表为广大企业和开发者分享各自在项目、团队层面做了哪些事情以保持优秀。开源新锐项目的获奖代表 Apache Doris PMC 张家锋表示:Doris这么多年的发展主要得益于两点:Doris自身技术领先,性能突出,架构简单,运维也非常简单,上手极快。凭借这些特点,Doris 得以在竞争无比激烈的赛道中成功走出来,而且收获了很多用户的认可。此外,Apache 开放自由平等的社区文化也助力了它的发展,社区现在聚集的用户和开发者数量已将近1万人,社区为开源用户提供义务的技术支持,用户也会用自身的业务需求和场景来丰富Doris 系统功能的边界,很多用户也参与到社区的建设和贡献中来,这形成了一个良好的自增长氛围。因此,Doris 已经成为国内大数据和数据库领域最活跃的一个开源社区。开源最大魅力就在于此 — 你可以与很多素不相识的人一起完成一件很伟大的事情。期待一起努力,让Doris 变得更好,期待Doris能成为全球数据分析技术的实施标准。高价值技术团队的获奖代表腾讯云音视频专家工程师、腾讯云直播海外技术负责人胡仁成表示:多年来,腾讯音视频围绕自身优势,构建起了技术和产品上的竞争力,以及在国内市场的市场份额和用户口碑。一直以来,团队也没有止步探索,还在不断地进行技术创新。希望这些创新出来后,能够形成一些完整的产品,交付到市场,帮助用户带来业务上的提升,实现降本增效。我们还在将产品更多地推向国际化。作为高价值技术团队的获奖代表,胡仁成为不断探索技术创新的技术同仁送上祝福和寄语:技术人还是要保持初心,要有一定的定力,踏踏实实地做好技术创新,然后辅助产品而实现创新,最终在业务上取得更大的收益。云原生创新技术的获奖代表亚马逊云科技资深 Serverless 产品专家孙华表示:很高兴本次亚马逊云科技有两个解决方案上榜,亚马逊云科技将这些解决方案提供给用户,也愿意在这些开源解决方案上投入时间。这些解决方案中,有 90% 来自客户的反馈与需求,结合客户需求,亚马逊云科技也在做一些创新,帮助客户更好地解决自身的问题。亚马逊云科技有一套系统的产品研发流程,开发一套新方案前通常需要回答几个问题:这个方案的客户是谁?客户的问题是什么?怎么能解决客户的问题?然后再不断地迭代,产生相应的解决方案。孙华还分享了云原生方案的演变趋势。其中,他观察到的一个趋势是:近几年客户已经了解了什么是云,如何将企业业务搬到云上;下一步需要让客户了解如何用好云,如何通过云服务实现业务创新,降低成本。尊重开发者的选择,特别设置三大特别榜单本次 InfoQ 中国技术力量年终榜单的设立初衷是希望选择出在数字时代能够实实在在解决产业中的问题,推动产业发展的项目和团队,因此我们针对开源新锐项目和高价值技术团队两大榜单特别设立了用户投票,希望广泛听取一线落地的开发者群体们的意见,并在云原生创新技术方案榜单的评选维度中着重考察【落地案例】方面的能力。我们参考用户投票环节广大开发者的意见特别设立了【十大开发者最喜爱的开源新锐项目】和【十大开发者最向往的高价值技术团队】两大榜单,针对专家评审中【落地案例】单项分数优异的项目特别设立了【十大云原生场景化落地方案】榜单。在颁奖典礼现场,极客邦科技事业部合伙人、InfoQ 极客传媒总经理汪丹公布了三大特别奖项的获奖名单(以下排名不分先后,按照提报顺序展示):感谢所有参与方在榜单全过程对 InfoQ 的信任和支持,同时感谢本次榜单的指导单位——企业数字化发展共建共享平台、中国开源软件推进联盟、北京开源创新委员会的指导,东方富海、寒智资本、GGV、迈空间、浦软创投、南京软件谷、天河软件园、微软加速器等战略合作机构的大力支持,以及社区生态伙伴的信任。本次颁奖典礼,我们也请到了指导单位的代表——中国信通院云大所政企数字化转型部副主任,中国通信标准化协会 TC608 委员会副主席徐恩庆为我们分享数字化时代所需要的技术方案应该具备的特征。在分享中,徐恩庆谈到:现在产业数字化在数字经济的整体分量中占到了80%左右,也就是说,在当前整个数字经济蓬勃发展的进程中,掀起了巨大的产业数字化的浪潮。可以看到,在当下这个时间当口,中国对于金融、制造等传统企业,以及对于中小企业的数字化转型陆续出台了很多政策,各地也有很多试点工作在做。因此,从整体上看,这是一场非常全面的、大规模的、覆盖各行各业的数字化行动,大家都在体系化地推进数字化转型。这个时代,产业数字化应该是恰逢其时。中国在基础软件方面仍然面临很多挑战,今天看到这些优秀的相关技术产业案例不断涌现,作为一个数字化领域的研究人员,我感到充满信心。榜单上的这些项目代表了行业的数字化阵营中非常关键的一些力量。未来希望他们再接再厉,发挥他们的技术优势,发挥他们在开源上的活力,在各行各业中能够扮演起更重要的角色,为整个行业、整个国家的数字化转型工作,发挥更大的贡献。最后,感谢 160 余位项目方及万余名开发者对本届榜单的信任、支持、理解和包容。InfoQ 2022 年度中国技术力量榜单仅仅是 InfoQ 极客传媒年终盘点及展望中的一环,我们还针对数据库、数字化转型、操作系统等众多技术领域邀请了一众技术专家为我们共同盘点 2022 年度值得关注的进展,邀请了矩阵起源、观测云的专家带来云原生数据库、可观测领域的年终盘点以及展望 2023 年,不同角色的工程师应该如何更好地成长,请大家持续关注 InfoQ 官网、公众号及视频号。在未来,InfoQ 将不忘初心,延续中国技术力量,为数字经济时代遴选更多优秀的项目、团队或个人。
3,164
1,672,225,043,973
InfoQ
73
2023,可观测性需求将迎来“爆发之年”? | 解读可观测技术的2022
本文是 “2022 InfoQ 年度技术盘点与展望” 系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦可观测技术领域在 2022 年的重要进展、动态,希望能帮助你准确把握 2022 年可观测技术领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。“InfoQ 年度技术盘点与展望”是 InfoQ 全年最重要的内容选题之一,将涵盖操作系统、数据库、AI、大数据、云原生、架构、大前端、编程语言、开源安全、数字化十大方向,后续将聚合延展成专题、迷你书、直播周、合集页面,在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。随着 5G、云计算、微服务等技术的广泛应用,企业所面临的 IT 运维环境越来越复杂,需要运维的系统不仅数量多,而且网络架构复杂、基础设施多样。在信息化建设日益普及的当下,快速提升企业 IT 资产管理能力开始成为企业迫切解决的问题。过去一年,可观测技术得到了极大关注,并被 Gartner 列为 2023 年十大战略技术趋势之一。然而,企业在实际落地可观测的过程中依旧面临很多问题,比如如何选择合适的方案、平衡新旧系统之间的关系等等。其实,一个企业 IT 系统的可观测性建的好不好,在新员工入职时就能看出来。如果新员工去看文档时,看的是公司某个架构师画的系统架构图,显然这个公司技术系统是缺乏可观测性的。因为企业系统一直在迭代,而系统的架构图却很难及时更新。如果新员工看到的是完整的可观测性平台数据看板,那这个公司的“可观测性”构建的应该算是比较完善的。当企业的可观测性构建趋于成熟后,开发者可以快速定位系统问题,精准的“观测性数据”可以帮助开发者完成包括自动化巡检在内的各种各样的 Control 或者是金丝雀发布的控制等等。所以,可观测技术目前发展到哪个阶段了?开发者们对可观测性平台的需求到底是怎样的?带着这些问题我们对观测云 CEO 蒋烁淼进行了专访,我们一起对可观测技术过去一年的发展做了一个盘点。一、国内外“可观测性”的认知尚存在较大差异当我们想要盘点一项技术过去一年的发展状况时,首先要看它过去一年的应用率是否有所提升。去年,领域里有相关数据表明,大部分公司都在进行可观测实践,但国外也仅有 27% 的公司实现了全栈的可观测,国内可能更少,可能 10% 的比例都不到。而今年,这个比例似乎并没有提高。正如蒋总所说的那样,“在中国,真正地构建了完全可观测性的企业非常的少,做的好的企业少之又少。”放眼过去,目前国内确实很缺乏好的可观测性的服务商和技术提供商,这让中国的可观测性技术发展与国外产生了不小的距离。包括字节、阿里云等大厂在内的国内大部分厂商在可观测性方面都还是处于“零散拼装”的状态,他们大多把开源的 Prometheus、Loki、OpenTelemetry Collector 组装在一起形成“可观测性套件”,然后提供一个开源的托管版本给开发者使用。很少有人敢称自己为“可观测性平台”,因为没有一个完整的可观测性的概念。然而,过去一年里,无论是在国外还是国内,企业 CTO 们对于可观测性的关注度有了明显大幅提升。从全球视角来看,不管是 Grafana 的 ObservabilityCON,还是今年谷歌云举办的 Google Cloud Next'22 Recap、北美的 KubeCon 2022 大会,亦或者是前不久亚马逊云科技举办的 re:Invent 全球大会、NGINX 举办的 NGINX Sprint China2022,可观测性话题的探讨比例都有了明显提升,像 Google Cloud Next'22 Recap 大会谈可观测性几乎占到了大会整体内容的三分之一。切回国内视角,当我们和国内的企业 CTO 们去聊天的时候会发现,他们今年明显会更关注可观测性这件事,无论是因为业务层面譬如 B 站 713 事件带来的启发,还是受行业大会演讲内容的影响,国内在可观测性方面没有明显的技术发展,大多是因为疫情下的市场经济不景气、企业预算不足下的“按兵不动”之举。聚焦到具体的业务需求上,目前企业技术决策者正处于一个认知迭代的过程中——“将监控升级为可观测性”。原来的“监控”大多都是分裂的,可能是每一个项目都有一套监控工具,可能是是一个项目中的日志平台、APM 平台单独运行。所以现在不少开发者会认为可观测性就是新瓶装旧酒,他们认为把传统的监控工具整合在一起,就是可观测性了,甚至不少创业公司的 CTO 会将一些 K8S 监控工具或者 APM 混同于可观测性。事实上,可观测性相关的工具如果被称为“下一代监控”的话,它的投资占 IT 的比重并不小,可观测性的应用场景远远要超过目前大部分开发者的认知。“可观测性”这件事在大部分 CTO 的意识中,无论是横向扩展还是垂直扩展,大家的认知都还需要有一个“求同”的过程。就像现在许多人会把“可观测性”定义为是一个降本增效的好工具,很多相关产品厂商会将“降本增效”作为产品的推广利益点,这让许多开发者认为安装了可观测性平台,就可以降低成本、为业务创造价值。事实上,可观测性工具从来不是一个“便宜”的东西,可观测性平台除了基本的工具投入,还需要有一套完整的数据存储方案,企业自研一套优秀的可观测性解决方案投入成本并不低。以美国企业的可观测性相关投入为例,其会占企业整体 IT 支出的 5%-10%。而且,它的“降本增效”不是短时间内就可以显现出来的,而是通过长时间的应用,为业务提供大量的数据支撑进行技术性优化,从而产生价值。总体来说,真正的可观测性平台应该是,能够将各种各样对于系统的形态、实时的状态进行有结构性的收集并提供一系列的观察、测量手段的平台。简单来说,就是用各种各样的技术,像传感器一样,能够让开发者们的开发、测试、运维过程变的更容易,能够即时了解系统的运行状态,而并不是简简单单的“监控”。可观测性平台一定是数据组织统一化的,否则分开的日志系统、链路系统、指标系统很难实现数据与数据的关联。比如日志里的字段,主机系统中叫 host,在指标系统里叫 host name,然后有的系统用 IP 地址,有的系统用主机名,那在做关联分析和连接查询时会发现根本无从下手。有的公司也会将不同系统的数据分散开进行监控,利用“数据中台”的一个构建方案将所有数据汇聚到同一个平台中去做分析,但在实践过程中会发现,数据缺少实时性的结构化,无法做实时预警预测,只能做事后故障定位。二、全球可观测性技术演进主要聚焦在 6 个方面1、OpenTelemetry 逐渐成为行业标准OpenTelemetry 作为一套由 CNCF 主导的云原生可观测性的标准协议,目前已经是海外企业在该领域的实践标准。从数据收集的角度来说,基于 OpenTelemetry 或者兼容 OpenTelemetry 的方案,从今年到明年都应该会逐步成为主流。OpenTelemetry 已迭代到了 1.0 版本,作为一个客户端,日志和网络等部分也都正在得到逐步补强,严格意义上讲,OpenTelemetry 1.0 已经算是完成了整体的标准化,OpenTelemetry 标准协议已称得上是一个行业标准。反观国内,虽未形成类似的标准,却也涌现了诸如 CAT 和 SkyWalking 等一系列国产开源的 APM 系统,通过实时监控企业的应用系统,系统化地提供应用性能管理和故障定位的解决方案,在运维中被广泛使用。得益于对业务代码无侵入,性能表现优秀,社区活跃,中文文档齐全等众多优秀特性,SkyWalking 在国内异常火爆。2、Grafana 8.0 修改了 AGPL 协议开源项目背后的商业公司只有在商业上取得成功,才能更好地为开源项目提供新特性的开发、支持与维护,形成良性循环,这样开源项目的维护才会更加长久。Grafana 在云原生技术领域的监控工具中几乎是标准一般的存在,而在可观测性的投资方面,Grafana 也写下了浓墨重彩的一笔,推出了 Loki 日志存储、时序引擎 Mimir 和调用堆栈的存储引擎等一系列产品,力图通过提供一个复刻 DataDog 所有功能的开源方案,打包售卖 Grafana Cloud 服务。因此在 Grafana 8.0 后修改了 AGPL,允许甲方有技术实力的公司基于它的开源方案做二次开发,而不允许乙方在没有商业授权的时候拿着 Grafana 的产品包装出售,此举对国内不少的信创公司都造成了巨大的冲击。3、eBPF 技术日趋成熟内核通过文件系统或系统调用暴露出的信息有限,单纯从用户态切入无法抓取这些信息,只有从内核本身调用的过程中获取调用信息才可以补足相关能力。eBPF 是一项革命性的技术,它可以在 Linux 内核中运行沙盒程序,而无需更改内核源代码或加载内核模块。通过使 Linux 内核可编程,基础架构软件可以利用现有的层,使它们更加智能和功能丰富,无需继续为系统增加额外的复杂性层。eBPF 促进了网络,安全性,应用程序配置 / 跟踪和性能故障排除等领域的新一代工具的开发,这些工具不再依赖现有的内核功能,而是在不影响执行效率或安全性的情况下主动重新运行。在对内核无侵入的前提下,它通过动态地向内核中插入一段自己的代码,实现定义监控及跟踪能力。随着内核的发展,eBPF 逐步从最初的数据包过滤拓展到了网络、内核、安全、跟踪等领域,并且它的功能特性还在快速发展中,通过内核虚拟机,所有的 IO 包括程序运行、进程的网络通信等各种细部数据尽收眼底,大大加强了系统的可观测能力。然而,目前大多数的只通过 eBPF 获取数据并把自己标榜为可观测平台的公司,也仅仅是做了一个 eBPF 的支持而已。从第三方视角看,eBPF 是对传统观测能力一个非常好的补充,可以通过它拿到更多的数据,用户获取内核丰富观测指标的门槛被极大降低。4、可观测性开始更“注意安全”云原生数据库等新兴概念的出现,大大消除了大家对于存储成本方面的顾虑,使得企业可以更聚焦于提升观测能力本身,而不必在成本和性能方面分神,这方面的发展也有迹可循。比如今年 DataDog 推出了一个名为哈士奇的存储架构,它是一个完全云原生面向可观测性的数据库,得益于云原生的存储能力,可以在同等价格下多存储 5-10 倍数据,以往即使收集到了海量的数据,但面对高昂的存储成本,这些数据也只能被丢弃或者针对这些数据进行采样,本质上看,这对客户需要的结果也是有浪费的。但这也并不意味着使用这种新技术之后并不需要进行采样,只是新的更低成本更高性能的数据库技术,可以大大提升可观测性能够覆盖的范围,降低存储成本,这也是一个很重要的发展。安全和可观测性的合并,已在全球范围内形成一种趋势。摩根士丹利在《安全分析和可观测性》文章中也提到,在国外,以 DataDog 为代表的公司在上市之后发布的新增功能中有 70% 都是安全相关的,这其中的道理非常简单,可观测性是通过检查其输出来衡量系统内部状态的能力,它收集了系统的方方面面,通过这些数据可以分析出系统的故障,自然也就能够分析出系统有没有被入侵。比如 DataDog 就提供了通过分析当前访问请求,区分哪些可能是黑客在嗅探,或者准备未来做 DDoS 攻击的接口的功能。也就是说,采集的数据在安全方面也能够发挥作用,而不像传统安全工具那样,需要针对安全场景再进行一次数据采集。所以,安全和可观测性的合并在全球范围内已经成为一种趋势,当然抗 DDoS 、挖防火墙这些并不会合并,针对攻击现场的追踪,比如国内的态势感知、国外的 SIEM 这些安全产品都选择了和可观测性进行融合。5、建立“业务的可观测性”越来越重要可观测性的概念起源于工业领域,在该领域中,可观测性被定义为从系统外部输出推断系统内部健康状态的能力;在软件产品和服务领域,可观测性就是从应用系统中收集尽可能多的遥测数据,以便可以调查和解决新出现的复杂问题,确保企业能够主动观察系统,在影响客户体验之前解决故障及问题,安全地进行测试并实施优化,它可以更好地管理和控制业务风险,有助于我们了解“正在发生什么”以及“为什么会这样”。可观测性使团队能够更有效地监控现代系统,帮助他们找到并连接复杂链中的影响,并将其追溯到原因。此外,它还使系统管理员、IT 运营分析师和开发⼈员能够了解他们的整个架构。如今的 IT 系统,迭代发布更迅速,业务系统更庞大,网络链路更复杂,运行环境更动态。在“业务至上”的互联网时代,技术工程师们保障的核心其实并不是这套 IT 系统或软件,他们保障的核心其实是业务,一笔业务可能会涉及到多个微服务系统,技术工程师们不再追踪一个 API 的全链路调用关系,而是要追踪到整个 API 关联的订单、用户甚至具体到哪一笔交易,这也是可观测性和业务结合的一个重要发展趋势。Gartner 也提到,“未来一切业务皆需可观测性”,简单地讲就是把运营人员、运维人员、IT 人员看到的数据做统一,而不是互相甩锅。6、多个“新玩家”入局随着微服务架构的流行,一些微服务架构下的问题也日渐突出,比如一个请求会涉及到多个服务,而服务本身可能也会依赖其他业务,整个请求路径就构成了一个网状的调用链,而在这个调用链中,一旦某个节点发生异常,整个调用链的稳定性就会受到影响。据此,我们需要一些可以帮助理解系统行为、用于分析性能问题的工具,以便发生故障的时候,能够快速定位和解决问题。近年来,各种调用链监控产品层出不穷,呈现百花齐放的态势,各家你方唱罢我登场,比如 New Relic 收购的那家叫 PIXIE 的公司可以称得上是一个新玩家,又如最近出现了一个面向 K8S 的叫做 Kubeshark 的公司,它专门研发用于网络分析的开源组件。此外,随着 eBPF 的出现,未来会涌现越来越多的解决方案,尤其是面向整个 K8s 生态环境,这也是全球可观测性技术的一个演进方向。三、具有“4 个统一性”的可观测性平台是企业刚需当我们盘点完可观测性的行业趋势,所以到底什么样的平台才是目前企业所需要的呢?国内首批获得中国信通院颁发的「可观测性平台技术能力」先进级认证,新一代云原生全链路数据可观测平台——观测云给出了答案。观测云能全环境高基数采集数据,支持多维度信息智能检索分析,及提供强大的自定义可编程能力,使系统运行状态尽在掌控,故障根因无所遁形,实现了统一采集、统一标签、统一存储和统一界面,带来全功能的一体化可观测体验。观测云平台从技术层面主要实现了 4 个统一 —— 统一采集、统一治理、统一分析和统一编程:第一个统一,是统一的数据收集。数据采集是数据关联的基础能力,现今,国内外都有大量的数据采集器,但大多数采集能力单一,比如 Telegraf 仅支持指标,Filebeat 只服务日志,OpenTelemetry 的 Collector 对非云原生的组件并不友好,需要大量安装 Exporter 插件。为了实现系统的可观测性,一台主机上可能需要安装无数个 Agent,这既引入了管理上的问题,又产生了成本的问题,一定程度上造成了资源的浪费。观测云的 DataKit 是目前唯一的真正一体化实现各种环境(如传统环境、云原生等)统一数据采集平台,它通过一个进程或 Daemonset Pod 就可以实现全方位的数据采集,配置体验良好,开源且拓展性强,涵盖了更为全面的数据采集类型,有海量的技术栈的指标收集能力,采集器的配置更简单,数据质量更好。第二个统一,是数据采样格式实现统一。可观测性数据的一个重要特性就是实时性,Logstash 等传统的开源方案均在中心或边缘中心完成数据治理工作,而受限于中心处理的延迟和 delay,在日志收集方面通常有很大的时延,实时性也就无从得到保障。而在观测云的解决方案中,客户只需多拿出 5% 的 CPU 用于数据的处理,一方面可以发挥可观测数据的实时性。另一方面,还可以利用数据本身的现状还原。比如当把所有数据收集到中心的时候,实际上很多环境信息或多或少的都会存在遗漏或缺失的情况,如数据来源于哪个容器、哪个 pod、哪个部署单元或者哪个项目等,在边缘侧可以随时获取这些数据作为补充。行内人都知道,观测云是一个 SaaS 方案,在边缘侧还可以实现采样功能。比如数据中存在的一些电话号码、金额、用户 ID 等信息,完全可以通过边缘脱敏或者删除掉一些不需要上传或者不易上传的数字。这样一来,数据在上传前就已经完成了脱敏、加密或者丢弃,在丢弃情况下,还能大幅降低传输的带宽;数据无需上传到中心再做治理,这也进一步提升了客户的信任。此外,由于减少了一个中间处理模块,系统的整体实时性也得到了很大的保障。目前观测云也在考虑把端上的统一治理能力做成一个插件,贡献给 OpenTelemetry,使得 OpenTelemetry 的 Agent 也具备边缘计算的能力。据悉,目前观测云平台完全兼容 OpenTelemetry,单一采集器即可实现容器指标采集、应用链路追踪和日志采集。同时能和各种常用采集器实现串联,包括 Promethues、Skywalking、Fluentd 等十几种常见工具,可以替换更可以共存,轻松实现数据高密采集。第三个统一,是统一的数据治理。用户的数据在被传输到中心后,将会被统一存储、统一压缩、统一部署,保存在观测云自己定义的逻辑数据存储架构中,相较于开源方案,观测云主要有两个优势:在存储的整合性角度,观测云的成本低于开源方案;不论是指标数据、日志数据、链路数据、用户行为甚至未来开展到安全数据,区别于其他厂商平台,观测云通过自研的 DQL (Debug Query Language) 语言在数据分析平台进行整体分析,甚至针对不用用户使用不同时代的存储技术。第四个统一,是统一的拓展开发平台。当 DQL 或者软件本身的能力无法满足用户的需要时,用户可以通过 DataFlux Function 平台进行无限的拓展。比如出于中大型公司的安全合规要求,直接通过第三方平台发送 SaaS 平台的告警邮件到内部邮箱,会被直接屏蔽掉,而如果用户把自己的发件服务器注册到 DataFlux Function,就可以实现向内部邮箱发送告警邮件,类似的能力还有短信、电话等等。除此之外,DataFlux Function 平台还可以实现对各种云平台甚至业务数据的载入,最近,观测云使用 DataFlux Function 帮客户实现了业务对账系统和 IT 代码调用间的关联。据悉,未来观测云会基于 DataFlux Function 平台推出一个抢占型实例量化交易的 Demo。除了这四个“统一”,观测云还提供 Site Reliability Engineering (SRE) 和 Observability Engineering 的最佳实践,支持智能推测算法,可自动识别基础设施和应用程序的潜在问题。坚持每两周迭代升级,使工程师们可随时体验最前沿的技术和最尖端的能力。是目前市面上少见的,真正意义上做到了“观测性”实现的平台,真正地满足了企业系统及开发者们在观测性方面的需求。百闻不如一试。当我们回溯平台选型的根本,发现当前市面上的可观测性平台质量良莠不齐,大多还处于“监控”状态,系统整体性较差,无论是对于企业来说还是对于开发者来说,试错成本高。而目前观测云 SaaS 版完全按量计费,没有初始成本,拒绝为闲置功能付费,可提供专属服务经理,让初创团队也能体验一流的全链路系统可观测能力,切实地解决了平台选型难的问题。正如蒋烁淼所说的,“一个好的系统首先要做到采集、治理、分析、变成这四个方面的统一;其次,需要尽量兼容开源,将整个技术栈和开源进行一个双向的连接。观测云在未来将进一步下探存储成本,最终让利用户。”四、国产可观测性的未来需要更多厂商共同努力  目前,可观测性还在发展初期,很多产品仍在探索阶段,也有很多问题亟待解决,未来人们对可观测性的需求只会越来越高。谈及“可观测性”的未来,蒋烁淼认为,可观测性未来主要有四大趋势。观测性平台的开发厂商未来需要在以下几个方面做出改进和优化:提供更大的技术环境支持能力,支持标准的可观测协议;引入更多的算法,以智能的方式做数据的巡检;连接安全产品;进一步降低存储成本。这与媒体第三方视角观察到的趋势保持相似。然而,纸上得来终觉浅,绝知此事要躬行。虽然国内像观测云等厂商紧跟行业需求及技术发展趋势,提供了自定义数据大盘、基础设施监控、日志分析、用户访问监测、应用性能检测、Profiling、云拨测、智能巡检等多种解决方案,力图打造可观测性最佳实践。但是,仅仅是一家或者几家的努力,是远远不够的。行业的发展需要更多的人参与进来。观测性平台开发厂商需要挖掘更多用户需求,而普通开发者也应该将更多的注意力放到“可观测性”上,让可观测性工具成为业务优化的得力助手。如果你对本文感兴趣,欢迎在文末留言,或加入 InfoQ 写作平台话题讨论。后续,迷你书、专题将集合发布于 InfoQ 官网,登录InfoQ 官网注册并将 InfoQ 添加进收藏夹,精彩不错过。更多内容可点击查看系列专题文章。同时,InfoQ 年度展望直播周将于 2023 年 1 月 3 日首场开播,并持续输出精彩内容,关注 InfoQ 视频号,与行业技术大牛连麦~
14,439
1,672,223,217,212
InfoQ
74
Java近期新闻:JDK 20进入Rampdown阶段,JDK 21专家组,Apache Tomcat,JakartaOne
OpenJDKJEP 429,作用域值(孵化器),已从JDK 20的Proposed to Target状态提升为Target状态。这个正在孵化的JEP,最初名为范围局部变量(孵化器,Extent-Local Variables),由Loom项目赞助,提议在线程内部和线程之间共享不可变数据。这优于线程局部变量,尤其是在使用大量虚拟线程时。 JEP 436,虚拟线程(第二次预览),已从JDK 20的Proposed to Target状态提升为Target状态。在Loom项目的支持下,该JEP基于JDK 19中提供的JEP 425,虚拟线程(预览版),提出了第二次的预览,以便有时间为该功能的演进提供更多的反馈和经验。需要注意的是,除了少量在JDK19中被固化的JEP 425 API外,本预览版本没有进行任何更改,因此没有在第二次预览中提出。 JEP 437,结构化并发(第二个孵化器),在JDK 20中从Proposed to Target状态提升为Target状态。该JEP也是在Loom项目的支持下,提议基于从JDK 19中提供的JEP 428,结构化并发(孵化器)中重新孵化该特性,以便有时间提供更多的反馈和经验。唯一的变化是更新了 StructuredTaskScope 类,以支持在任务作用域中创建的线程继承作用域值。这简化了跨线程不可变数据的共享。 JDK 20JDK20早期访问构建版本中的第27版也已于上周发布,其中包括对第26版各种问题的修复和更新。有关该版本的更多详细信息,请参阅发布说明。 根据JDK 20的发布时间表,Oracle Java平台组首席架构师Mark Reinhold正式宣布JDK 20已进入Rampdown第一阶段。这意味着主线源代码库已经分支到JDK稳定代码库,并且不会为JDK 20添加额外的JEP。至此,计划于2023年3月发布的GA版本将最终包含如下七(7)个特性: JEP 429,作用域值(孵化器)JEP 432,记录模式(第二次预览)JEP 433,switch模式匹配(第四次预览)JEP 434,外部函数和内存API(第二次预览)JEP 436,虚拟线程(第二次预览)JEP 437,结构化并发(第二个孵化器) 对于JDK 20,鼓励开发人员通过Java缺陷数据库报告缺陷。 JDK 21JSR 396、Java SE 21上周提交,正式宣布JDK 21的六人专家组,分别是Simon Ritter (Azul Systems)、Jayaprakash Arthanareeswaran(Eclipse 基金会)、Andrew Haley (红帽)、Christoph Langer(SAP SE)、 Iris Clark(甲骨文)以及Brian Goetz(甲骨文)。 Clark和 Goetz将担任规范负责人。 其中值得关注的日期包括2023年6月至2023年8月的公开审查,以及2023年9月的GA版本发布。 JDK 21早期访问构建版本的第1版也已于上周发布,其中包括最初的一组版本更新。 Spring框架SpringShell的2.1.4和3.0.0-M3版本已经提供给Java社区。2.1.4版构建在Spring Boot 2.7.6之上并提供了缺陷修复。3.0.0-M3版是构建在Spring Boot 3.0之上的第一个里程碑版本,它提供了缺陷修补和新的测试框架,以消除测试shell应用程序的传统艰巨任务,在这些任务中测试更复杂,也就是说,超出了方法目标的简单单元测试。有关这些版本的更多详细信息,请参阅2.1.4版本和3.0.0-M3版本的发布说明。 SpringTools 4.17.0已经发布,其中包含对Spring Tools 4 for Eclipse 2022-12版本的更改。这个新版本还提供了对以下方面的实验性支持:Spring Boot版本验证,其中IDE将向Spring Boot项目提供更新的主要、次要或补丁版本的警报;Spring Boot升级支持,以协助将现有项目升级到更新的Spring Boot版本;以及特定于Spring的验证和重构,以指示是否可以或应该更改源代码中的某些内容,以使Spring项目与Spring中的最新建议或进步保持同步。有关该版本的更多详细信息,请参阅用户指南。 Quarkus红帽(Red Hat)发布了Quarkus 2.14.3.Final,该版本对缺陷进行了修复,更新了文档,并将SmallRye Jandex 3.0.5、Stork 1.3.3和 Apache Mina SSHD构件、 sshd-core 和 sshd-common 升级到了2.9.2版本。有关该版本的更多详细信息,请参阅发布说明。 Quarkus 3.0.0的第二个alpha版本提供了Jakarta EE 10流的第二次迭代,该迭代正在进行中,计划于2023年1月底发布下一个alpha版本。Quarkus 3.0.0.Alpha2基于Quarkus 2.14.3.Final。有关该版本的更多详细信息,请参阅变更日志。 Open LibertyIBM发布了Open Liberty 22.0.0.13-beta,支持:Jakarta EE 10规范Jakarta Authentication 3.0、Jakarta Authorization 2.1、Jakarta Security 3.0和Jakarta Faces 4.0;即将发布的MicroProfile  6.0;以及配置首次故障数据捕获(FFDC)日志以在FFDC日志文件达到指定期限后自动清除FFDC日志的能力。 IBM还提议根据Eclipse公共许可证2.0版重新授权Open Liberty,以便Open Liberty可以继续作为MicroProfile和Jakarta EE规范的兼容实现以做出贡献。为Java社区创建了一个GitHub议题,以提供反馈并监控进度。 GraalVM Native Build Tools在通往1.0版本的道路上,Oracle实验室发布了Native Build Tools 0.9.19版本,这是一个GraalVM项目,由与GraalVM Native Image互操作的插件组成。这个最新版本提供了:修复了编译任务, nativeCompile ,每当本机运行参数发生变化时,它就会过时;修复了默认情况下无法从Maven Central下载的GraalVM元数据存储库的问题;并从工作流中删除了 dev 版本。有关该版本的更多详细信息,请参阅变更日志。 Apache软件基金会Apache Tomcat的10.1.4和9.0.70 版本提供了显著的变化,其中包括: WebappLoader 类的重构,因此如果配置为在加载类时使用转换器,则它仅对Jakarta EE的迁移工具具有运行时依赖性(仅10.1.4版本);修复了当HTTP/2流被重置时当前活动流计数没有减少的问题;以及Apache Commons Daemon 1.3.3的更新。有关这些版本的更多详细信息,请参阅10.1.4版和9.0.70版的发布说明。 Apache Tomcat 11.0.0(alpha)的第一个里程碑版本提供了:与Jakarta Servlet, Jakarta Server Pages和Jakarta Expression Language规范的当前开发版本保持一致;BASIC认证现在默认使用UTF-8;从字节到字符的转换现在将触发异常,而不再是替换给定编码的无效字节序列。有关该版本的更多详细信息,请参阅变更日志。 用于Jakarta EE的Apache Tomcat Migration工具1.0.6版本已经发布,其特性包括:正确处理1.0.5版本中引入的 javax.annotation 包的回归;并允许并行使用 ClassConverter 类。有关该版本的更多详细信息,请参阅变更日志。HibernateHibernate ORM 6.1.6.Final也已发布,提供了缺陷修复和性能改进,例如:在二级缓存中发现引用时,初始化实体,避免不必要地调用属性setter方法;一个改进的方法,用于检查HQL查询结果的重复项,从而减少了内存中ORM处理的数量;以及JDK-8180450(二级超级缓存问题不能很好地扩展)中所描述的性能限制缓解措施。 Eclipse Vert.x针对在4.3.5版本中发现的大量缺陷报告,Eclipse Vert.x 4.3.6发布了新特性,例如:允许多个正则表达式在CORS中允许下游项目保留他们的配置( vertx-web 模块);对Hazelcast 4.2.6进行依赖项升级( vertx-hazelcast 模块);并为 Tuple 接口( vertx-sql-client 模块)中的 of() 方法添加了类型检查。有关该版本的更多详细信息,请参阅发布说明。 Resilience4jJava容错库Resilience4j的2.0.2和2.0.1版本已经发布,其特性包括:修复了未在 recordResultPredicate 属性上打开的 CircuitBreaker 、CheckedSupplier 和 CheckedFunction 接口的相应装饰器实现;通过 resilience4j-spring-boot3 和 resilience4j-spring6 构件支持Spring Boot 3.0;即使配置文件中没有实例条目,也可以应用Spring Boot定制程序。有关Resiliece4j的更多详细信息,请参阅InfoQ的新闻报道。 JDKMonJDKMon 17.0.41版本是一个用于监控和更新已安装JDK的工具,已于上周发布。这个新版本由Azul首席工程师Gerrit Grunwald创建,支持:对Gradle 7.6及其他版本的依赖升级;以及一个单独的GraalVM构建下载对话框,包括Gluon、Mandrel和Liberica Native Image Kit (NIK)。 KtorJetBrains发布了Ktor的2.2.1和2.2.0版本,这是一个用于创建微服务和Web应用程序的异步框架,其中包括:OpenAPI文档生成;用于创建自定义客户端插件的新API,以通过一组处理程序访问处理请求和响应的不同阶段;一个新的 RateLimit 插件,用于设置传入请求的速率限制;以及用于序列化/反序列化数据对象的新ProtoBuf序列化器。 JakartaOne Livestream 2022第四届JakartaOne Livestream 2022年年度会议于上周举行,来自Java社区的演讲嘉宾就以下主题进行了演讲:Jakarta EE Core Profile;MicroProfile 6.0;Piranha Cloud,Testcontainers;Jakarta NoSQL和Cosmos DB;和云原生Java。虚拟会议由Jakarta EE项目经理Tanja Obradovic、Jakarta EE高级营销经理Shabnam Mayel 和Jakarta EE开发人员倡导者 Ivar Grimstad主持,会议还包括Eclipse基金会执行董事Mike Milinkovich的主题演讲,以及代表Payara、Tomitribe、Oracle、Microsoft和IBM的Java知名人士进行的行业主题演讲。 原文链接:https://www.infoq.com/news/2022/12/java-news-roundup-dec05-2022/相关阅读:InfoQ 2022 年趋势报告:Java 篇Java 近期新闻:JDK 20 的 JEP 提升为 Targeted 状态,亚马逊云科技推出 Lambda SnapStart 特性
12,642
1,672,185,600,517
InfoQ
75
直面成本“刺客”、拒绝繁杂技术花样,压力之下云厂商改变方向|解读云原生的 2022
本文是 “2022 InfoQ 年度技术盘点与展望” 系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦云原生领域在 2022 年的重要进展、动态,希望能帮助你准确把握 2022 年云原生领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。“InfoQ 年度技术盘点与展望”是 InfoQ 全年最重要的内容选题之一,将涵盖操作系统、数据库、AI、大数据、云原生、架构、大前端、编程语言、开源安全、数字化十大方向,后续将聚合延展成专题、迷你书、直播周、合集页面,在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。特此感谢丁宇(叔同)、董晓聪、裴超、冯常健、柯琪、吕亚霖、王泽锋、于广游(按姓名首字母排序)对本文的贡献,他们的真知灼见,是本文能与大家见面的关键。数据显示,云原生计算基金会(CNCF )拥有超过 850 家参与组织,相较去年增长 15%,其中今年新增的 220 多个成员中,有 19 个来自中国。去年的盘点中,我们用了“抢占技术 C 位,迎来落地大爆发”的标题来总结云原生整体的发展势头。今年,云原生的发展依然可圈可点,比如开源容器编排平台采用率激增、各种行业加入到了云原生大家庭等。这次,我们将从底层基础技术和偏向场景化的应用技术两方面,对云原生今年的发展情况进行盘点,以期自顶向下地呈现出相关亮点和挑战:容器的“黑盒”打开,混部带来了效率提升,备受企业欢迎;Serverless 基于容器完成标准化,应用“元年”开启;Service Mesh 进行新尝试,落地方式还在探索;降本增效大主题下,FinOps 理念得到快速发展;越来越多的传统行业开始应用云原生技术等。基础技术篇从物理机到虚拟机再到云原生,底层基础技术对上层应用赋能的边界在不断提升,业务研发越来越从底层事物中抽离,聚焦于本身的业务逻辑。容器的“黑盒”已经打开7 月,Kubernetes 发布了 Gateway API 0.5 版本,主要组件的 Gateway API 资源首次升级为 Beta 版。同时社区还探索如何将 Gateway API 用于网格并引入新的实验概念。这也促成了 Envoy Gateway 项目的推出。12 月, Kubernetes 原生工具集合项目 Argo 正式从 CNCF 毕业。容器发展至今,已经完成了自身的蜕变。在第一阶段,容器只是在解决如何做好自己内部技术组合的问题,比如怎么与服务网格、可观测性的产品结合。这期间,企业只是选一部分比较周边的业务使用容器,而容器化业务内部系统就像一个“黑盒子”,各细分组件通过 ELB 调用实现交互,容器并不能直接与每一个部分做精细互通,致使容器化业务系统跟周边业务系统的交互效果很不理想。到了第二阶段,“黑盒子”打开,容器开始深入到整个云原生体系中,真正作为云最核心的部分,与网络、存储、数据库等做很好的结合,比如容器化业务应用可以直接与其他所有云服务通信等。作为云原生的典型代表,如今容器技术的成熟度是最高的,同时这也意味着容器技术自身很难再有非常大的突破和变化。Kubernetes 成为行业事实标准,如今定位也类似 Linux 内核,虽然没有大的功能性迭代,但已经成为云原生领域最基本的设施,也成为企业 IT 系统的基本设施。今年,容器的演化进入了“扫尾阶段”,开始解决原来不好做或不能做的场景应用问题。Kubernetes 这一年稳定更新的三个版本,更多是在 API 怎么更加健壮、流控怎么更好更安全、改进 Windows 支持等细节上做优化。另外,内核提升可以为容器带来更好的隔离和性能等,因此随着容器的广泛应用,其对内核的要求也越来越高。大厂们开始往更高内核版本 5.10 上迁,Kubernetes 社区也在落地内核方面的内容,给企业带来的直接影响就是观测性上有了很大的进步,性能和隔离性的提高也很明显。应用上,虽然容器正在大规模铺开,但如何用好容器也很有挑战,比如 Kubernetes 在调度、场景优化、降低复杂性等方面还有很大的进步空间。微软全球副总裁柯琪表示,随着容器的广泛应用,企业部署了很多 Kubernetes 集群,如何对其管理是企业面临的问题之一。鉴于这部分与多云有部分重合,我们留到多云部分再表。混部今年,容器混部取得了较大的进展,不过这个进展并不是体现在技术上。之前混部主要是各大头部企业内部使用,对于技术细节有些“秘而不宣”的意味,但今年云厂商开始把混部技术开源或者变成云产品提供给用户。混部就是要把各种不同的业务放在一起后对它们进行复用。听着简单,但混部有着较高的技术门槛,主要体现在调度、隔离和干扰处理上。具体地,Linux 操作系统内核的隔离性做得不好,但 Linux 内核面向通用场景,如果要解决隔离问题就要对内核做非常深度的改造,但国内大部分企业并没有独立的内核团队,况且这样的人才也是凤毛麟角。当然,不做内核隔离只做调度混部也可以,但对资源利用率的提高就很有限。另外,合理的调度需要有全面的应用画像,这需要大量的数据和业务去打磨算法,这在实现上也非常困难。调度实际上是一个系统性工程,并没有标准化方案,企业可以自行摸索初级方案,但更深入的可能就要使用市面上的产品。其实,企业目的不是混部,而是为了提高资源利用率、降低成本。降低成本有两种方式:一是企业已经买好资源,内部不同业务复用这些资源,这条路线的代表就是混部;二是企业直接使用云厂商提供的成本很低的产品,这条路线的代表是 Serverless,也是大家比较好看的方向。可以预见,下一年,Kubernetes 的演化依旧以解决场景化的细节问题为主。腾讯云容器技术总监、TKE 产品负责人于广游总结道,整体上,容器未来将呈现出以下趋势:第一,往更高层的抽象演进。最早用容器的时候,大家关心的是容器中的资源、pod、container,但是业务并不关心这些,他们真正在意的是应用。因此,容器平台向应用平台演进会是一个趋势。第二,不断拓应用宽度。Kubernetes 的应用已经延伸到了混合云、边缘云,在对中心、边缘、IDC 的资源进行统一调度等方面,还有技术挑战。第三,多样化应用。企业会逐渐通过采用容器技术重塑自己的业务和全部技术栈,比如监控、日志、中间件、数据库、运维等。容器带来了好处,但它跟企业之前的技术会产生割裂,这时更多的企业会选择将所有工作负载运行到容器上,容器化间接成为企业重塑技术栈的动力。结果就是,企业业务容器化后,还会把有状态应用、AI 业务、大数据业务、转码业务、离线业务等都容器化。所以现在的容器不仅仅与微服务挂钩,还在朝大数据、AI 等方向发展,这个趋势是非常明显的。第四,更下沉的方向。对于平台自身而言,如何更稳定、成本更低?还有更多的细节亟待完善。Serverless:与容器技术体系相通3 月,开源 Serverless 应用框架 Knative 成为 CNCF 孵化项目。谷歌此前曾明确 Knative 不捐给任何基金会,但去年底宣布捐赠到今年 Knative 正式成为 CNCF 孵化项目,极大促进了社区的发展。5 月,开源 FaaS 项目 OpenFunction 成为 CNCF 的沙箱项目。9 月,Serverless Devs 进入 CNCF 沙箱,这也是 CNCF 首个 Serverless 工具项目。当前用户对云服务的使用主要有两种方式。一种是把云服务作为资源使用,比如云服务器、容器等,它们不会影响用户应用的开发方式,这类就是容器化 Serverless;另一种是把云服务作为应用构建的模块,例如对象存储,消息队列等服务,用户在应用开发过程中使用这些云服务,但它们会影响用户构建应用的方式,这就是应用层 Serverless。传统意义上的 Serverless,也被称为 FaaS,即函数形态的 Serverless。2014 年,亚马逊推出了 Amazon Lambda,其将 FaaS 理念延伸到数据库、中间件等产品,让各种应用场景下的用户都不用关心资源和集群,而是直接使用 API,这是业内公认最早的 Serverless 服务。FaaS 的核心价值在于让整个云产品体系及生态形成一个有机整体,而不是只用来提供弹性资源。阿里巴巴研究员、阿里云智能云原生应用平台总经理丁宇(叔同)指出,用户可以利用 FaaS 组合其他 Serverless 云服务(BaaS)快速构建应用,这种组装式的研发模式将对研发效率带来革命性变化,是云解决大规模复杂软件研发挑战的关键。另一方面,由于单纯的 FaaS Serverless 是基于函数的,其开发模式、技术体系、产品形态与容器并不相同,不能为用户提供“原汁原味”的 Kubernetes API。该方式下,用户用提交的一个代码片断进行托管,各厂商自成体系,业内没有统一的标准,短期内也很难看到有事实标准诞生。因此在于广游看来,容器的大规模流行反而暂时抑制了 FaaS Serverless 的发展,因此落地也相对缓慢。目前,业内对于 FaaS Serverless 的发展还存在不同的看法和方向,现在也没有孰优孰劣的定论。作为应用层面的 Serverless,以 FaaS 为核心的 Serverless 体系更加强调 Serverless BaaS 的丰富度和 BaaS 之间的深度集成,用户上手快,但需要花费时间和精力去打磨整个云产品体系。但 FaaS Serverless 的核心价值依然是被肯定的,像亚马逊云科技和阿里云还在继续这方面的深研,用更被接受的方式发挥其价值。不过当前的实际生产中,不要求用户改变研发方式的容器化 Serverless 获得了更多的青睐,很多企业多少都了有一定的应用。实际上,亚马逊云科技首先提出 FaaS Serverless 后,其他云厂商纷纷跟进。但单纯的 FaaS Serverless 由于对云产品要求高等原因,在国内的接受度不如海外。这种情况下,业内也开始探索其他方式。之前,大家把 Serverless 作为一种具体的实现,而现在将其视为一种理念和价值,并尝试为这种理念和价值找到更合理的实现方式,容器化 Serverless 就是这种转变下的解决方案之一。容器化 Serverless 发展的目标是为了兼容原本容器的技术体系、降低企业迁移的成本。容器化 Serverless 将 Serverless 与容器结合,Serverless 技术兼容容器的 API,两个技术体系打通后也意味着容器化 Serverless 是标准的。因此,各云厂商的产品标准在趋于一致,能力也在逐步完善。在这个前提下,企业服务的迁移会更容易。当然,容器化 Serverless 不同厂商之间的产品策略也有差异。比如,微软的 Container Apps 支持 Dapr 分布式应用环境,运行在基于 AKS 的隐藏的抽象 Kubernetes 集群之上,甚至不向用户公开 Kubernetes API,阿里云则走在提供 Serverless 容器服务 ASK 的道路上。现状及趋势Serverless 的应用如今实现了“从点到面”的转变。现在,Serverless 的稳定性和效率已经被逐渐接受,一些企业之前只是在周边的个别业务上牛刀小试,现在开始将部分核心业务放到 Serverless 上。比如阿里云完成核心云产品全面 Serverless 化,作业帮将某部分核心业务放到 Serverless 后成本节省了 20%-30%,高德业务投放平台全面采用基于函数计算构建的 Serverless 架构来支撑百万 QPS 等。今年,很多云厂商在各自大会上都提到了 Serverless 的重要性,比如阿里云栖、亚马逊 re:Invent、腾讯数字生态大会等,但热闹的背后反而说明了 Serverless 还处于发展初期,需要推新和推广。这一年,国内 Serverless 被认为是发展元年,虽然还称不上是大规模落地,但业内在 Serverless 成为云原生未来重点方向这一点上几乎没有太多分歧。Serverless 适用于流量波动大和需要更敏捷、更灵活开发的场景。现在 Serverless 架构可以解决微服务架构无法带来足够灵活度的问题,帮助企业快速适应业务变化。Serverless 为能力不同的开发者抹平了技术鸿沟。如果将应用分为应用运行时(即计算部分)和 BaaS 化服务两部分,那么 Serverless 化后的架构会变得更简单。对于 BaaS 服务,可以进行全面托管并免运维 API 化,开发不需要关心资源等问题;对于定制代码部分则可以把 BaaS 的 API 组装起来,让应用开发更快建出新能力,同时不需要关心容量问题。成本方面,对于企业为波峰预置服务器产生浪费的费用、业务需要扩容时购买机器花费的成本和精力、机器维护成本等,Serverless 都可以将这些交给程序运行,按需使用资源、动态伸缩,为企业带来降本增效的效果。Serverless 的快速发展也会对运维领域产生一次颠覆性升级,工程师将精力更多放在开发降本等平台上,而不再关注底层的扩容、采购、网络等问题。预计下一年,会有更多产品具备 Serverless 能力,Serverless 会变得更加普适。另外,Serverless 产品的更多细节也会进一步完善,比如如何提高产品弹性、如何进一步降低成本(如从之前的包年包月到按 CPU 利用率的计费模式)、功能如何更加丰富等。应用上,以上两种方式虽是业内对 Serverless 应用的不同探索方向,但都各具优势和不足。业内现在有将 FaaS Serverless 和容器化 Serverless 结合起来提供解决方案的尝试:容器化 Serverles 解决资源层面的问题,应用层面的问题让 FaaS + Serverless Baas 解决。用户将不同 Serverless 化产品通过事件驱动等方式深度集成后,通过 FaaS 组合其他云服务来快速实现弹性、高可用。当然,Serverless 虽被认为是大势,甚至被视为云未来发展最重要的价值,但从趋势到产品、到行业普遍应用,再到真正大规模落地,还需要业内的长期投入和推动。Service Mesh:还有挑战需要解决4 月,谷歌声明将 Istio 捐赠给 CNCF,9 月份 Istio 正式成为 CNCF 孵化项目。这一事件使 CNCF 社区的确定性更强,也消除了前些年大家对社区治理、法规等方面的顾虑。5 月,Envoy Gateway 项目宣布开源。该项目旨在大幅降低将 Envoy 作为 API 网关的使用门槛。9 月,Istio 宣布引入了一种新的数据平面模式 Ambient Mesh,该模式取消了以 sidecar 为中心的架构,取而代之的是无 sidecar 的方法,同时保留了 Istio 的零信任安全、遥测和流量管理的核心功能。很多企业都是多协议、多语言栈的,他们选择使用 Service Mesh 来解决复杂的服务治理问题。Service Mesh 理念本质上是把一些非功能性的基础设施拆解到中间件中,即 sidecar。在之前的一些实践取得正反馈后,Service Mesh 使用范围也在扩大。今年的 Service Mesh 不再局限于 RPC,开始向对象存储、加解密、MySQL、Redis 等领域深入。但总体看,这一年,Service Mesh 落地还是遇到了大的技术挑战,远没有达到企业理想的使用状态。有一定研发能力的企业使用传统治理模式也可以做得不错,这时就不会选择完全换成 Mesh 架构,只会在一些新的、没有历史负担的业务上试用。归根到底,Service Mesh 只是转移了复杂度,但到了一定规模后复杂度问题就会再次显现。拿当前业内应用较多的 sidecar 模式来说,它很适用于逻辑复杂的场景,如路由、治理,灵活且对业务无入侵。但是,流量劫持和对流量进行逻辑处理需要很强的扩展能力,在规模特别大的场景下,sidecar 模式的复杂度就上来了,性能优势不再明显,资源占用也变得不可忽略。可以说,sidecar 模式天生在大规模场景应用中就有一定的局限性。为解决这个问题,今年九月,Istio 推出了 Sidecarless 的 Ambient Mesh。Ambient 是将 Istio 分成两个不同的层次:安全覆盖层(四层治理)和 七层处理层(七层治理)。但在网易数帆云原生平台负责人冯常健看来,四层治理模式将复杂度降到了 Node 级别,但可能只有对网格安全能力感兴趣的企业会尝试,而七层治理模式本质上还是独立的应用层代理,链路也并未减少。因此,对于该模式的应用,业内更多还是持观望态度。网关层面,社区基本分为 NGINX 和 Envoy 两派:Kong 、APISIX 等基于 NGINX,网易、阿里云等更多应用 Envoy 技术栈。有人认为 NGINX 及其生态已经比较成熟了,但随着 Kubernetes Gateway API 的成熟,以及社区推出 Envoy Gateway 组件,新一轮网关标准定义的争论再次掀起。Kubernetes Gateway API 对标的是 Ingress API。Ingress 的 API 解决流量从集群外导入集群内的问题,但表达能力较弱,使用场景有限,因此社区推出了 Kubernetes Gateway API,希望其提供更高级的网络能力。Kubernetes Gateway API 直接促进了 Envoy Gateway 项目的发展。Envoy Gateway 进而统一了网关的控制面 API。原先网关控制面是通过 xDS 控制数据面,现在更多会基于 Kubernetes Gateway API。实际上,现在各个企业都在从不同的方向尝试对 Service Mesh 进行完善和补充,如网易向 Envoy 社区贡献 Dubbo 核心支持能力来促进落地。虽然社区有了各种开源产品,但业内还没有形成像 Kubernetes 这样的事实标准。当有这样的一个事实标准出来后,Service Mesh 才会迎来自己的爆发。这与容器的发展轨迹是类似的。Service Mesh 也在寻找更适合的落地方式。现在,业内有尝试不再将 Service Mesh 作为一个独立的产品,而是将其与 Serverless 结合。Serverless 不让用户去关心服务器,Service Mesh 不让用户关心服务治理,如果将服务治理的 Service Mesh 容器内置到 Serverless 平台里面,企业提交一个业务的容器进项后也会拥有 Serverless 的能力。硬件与云,互相影响6 月,阿里云发布云数据中心专用处理器 CIPU,形成“倚天 + 飞天 +CIPU”组合。11 月,亚马逊发布 Nitro v5 、Graviton 3E 系列芯片。12 月,腾讯云发布了新代次的裸金属云服务器、GPU 云服务器,此外还发布了银杉智能网卡等。同月有消息称,微软以 1.9 亿美元(约 13.2 亿人民币)的价格收购了加州 DPU 初创公司 Fungible。从整个计算机发展历史看,软硬件迭代呈现出了交替螺旋的方式,即某个新技术出来后,都先用软件测试可行再进行小规模应用,当发展规模大到一定程度时,人们便开始考虑用硬件方式加速实现,云原生也不例外。如今,云已经取代传统 IDC 服务器成为新的基础设施,企业开始通过硬件进一步提高效能。企业选择云原生硬件的考量主要有两点:成本和不同应用上的性能表现。成本方面,虽然硬件开发的一次性投入相对较大,灵活性相较软件也差很多,但只要需求固化下来并开发成功后,企业采购的边际成本是非常低的。性能方面,硬件对云的性能提升包括可靠性、稳定性、安全性等方面:热操作能力。与传统业务不同,云是不能停机的,热操作能力,包括热升级、热迁移、热插拔等都是云提出的特殊要求,而传统硬件并不具备这些能力。现在,云计算领域里的自研硬件会在设计要求有热升级等功能,像 DPU 里任何一个组件都有热升级能力。租户隔离。云的特性之一是弹性共享,一个物理机上可能会有很多用户在运行虚拟机,怎么加强用户之间的隔离、避免互相影响,也是云对硬件提出的新要求。安全性。云上很多用户运行在一台物理机、一个网络里,如果某个用户恶意利用一些漏洞获取到其他用户的数据或者逃逸到云的平台层,那么会产生非常严重的后果。因此,云对硬件的安全性要求也非常高。传统 IDC 对带内、带外并没有做非常强的隔离,但在云上就不允许互通,这也是调整改造的方向之一。当前云原生领域的硬件设备可以分为通用型和专用型两类,前者如 CPU,后者有 GPU、DPU。DPU 是专门为云而生的。传统情况下,服务器的 IO 更多是通过网卡、硬盘等硬件直接实现。但在云原生领域,网卡、硬盘等都是虚拟的,用户把东西发到网络或写在硬盘的动作实际上是先交给了云平台侧的软件进行加工处理后再发到网络或写入硬盘。腾讯云高性能网络产品中心总监裴超表示,云和硬件也在彼此影响着向前发展。一方面,随着云原生应用的需求不断提高,硬件设备为了满足这些需求也在快速迭代。比如虚拟机网卡从 20G、50G,甚至迈向 100G,云原生对硬件的蓬勃发展起到了一定的刺激作用。另一方面,很多云原生软件产品的设计之初,就会有硬件专家参与进来,一起考虑未来用硬件加速的可能性。可以预计,未来的架构师、技术负责人多少都需要对硬件有所了解,以便对总体架构进行把握。目前,云厂商已经越来越多地参与到硬件和芯片的研发当中。相较之前,一款芯片可以用三四年,现在基本保持一年一更新的频率,迭代可以算是频繁。像英特尔、AMD 等垂直芯片厂商也在努力直接了解终端客户需求,尽快推出新的芯片。产业落地篇行业主题:降本增效“降本增效”无疑是今年行业的大主题。在这个背景下,整个行业不再像之前那样去追逐前沿技术,而是回归到了云的最基本价值上。这一变化也可以从今年云厂商讲故事的角度上看出来。往年,云厂商会争相发布各种技术,努力往技术前沿方向走。但今年,云厂商追求的是“do more with less",即如何用更少的成本帮助客户获得更多的收益。FinOps谈起降本增效,之前企业常常在这年做完后不知道下一年该怎么做,本质上是缺乏方向性的指导。正因如此,这也促进了今年指导云财务管理的 FinOps 理念的快速发展。FinOps 的历史并不悠久,公有云早期传播者 Adobe 和 Intuit 在 2012 年首次描绘出了 FinOps 的雏形,直到数年后云成本问题日益严重才逐渐崭露头角,更多企业也是今年才刚刚接触。成本管理的难点在于资源并不是独享的,而是共享。通常单个集群可以托管多个工作负载和应用,但云厂商的账单无法体现每个工作负载或应用消耗的资源。缺乏对多个团队如何利用或共享基础设施的可见性造成了成本“黑洞”。FinOps 本质上是把财务和整个架构技术结合在一起,弄清楚各业务对云服务使用的具体账目,然后把资源利用率提上来,减少成本消耗。该理念要求企业首先要清楚自己具体拥有哪些资产、这些资产属于谁;其次是看这些资产的利用率怎么样,然后再结合相关的技术进行优化。实践中,企业的架构团队搭建相应平台将成本可视化,并在 DevOps 里加入管控审批等流程,用流程去约束成本。另外企业还要引入一个“成本负责人”的角色,这个角色主要由业务部门承担,负责掌握每个部门申请资源的原因、能否创造足够的利润覆盖这部分成本、资源使用率低的话是否减配等,具体执行时则主要由 SRE 把控。FinOps 相关产品之前更多是多云管理的商业化公司推出,今年云厂商也有陆续推出,如阿里云的 ACK FinOps 套件。云厂商有很多运行时数据,如闲置率、平均负载等,也可以为企业提供优化建议。但企业如果想真正控制成本,更多还是要自己去做。现在也有一些 FinOps 开源项目,如腾讯云开源的 Crane 等,这些项目本身就是一个成本管理平台,会把涉及到的成本信息汇集起来做出趋势图等,帮助企业做决策。但业内目前没有完全的开源实施标准,也很难做出一个大统一的产品,因为这样的产品需要考虑的因素是方方面面的,现在只是每个细节和分支有产品雏形。作业帮基础架构负责人董晓聪认为,FinOps 的理论体系会逐渐沉淀和完善,各企业的落地方式相差无几,不过使用的具体产品可能不同。事实上,FinOps 可能目前只要满足企业的特定需求就好,不是非要演化出这样的标准。FinOps 一定程度上会倒逼企业进行整个技术架构的演进,促进企业用更好的技术、更好的生产力工具,或者是更少的服务去支撑更大的服务。一定程度上,FinOps 会成为撬动企业增长的一个杠杆。当然,FinOps 不是万能的,因为“降本增效”也有成本。对于成本已成为不可承受之重、之前也没有进行过优化的企业,里面一定存在大量的技术浪费,这时候就需要花费人力优化,企业肯定能从中享受到优化红利。但如果一家企业处于高速发展阶段,有能力赚取非常高的利润去完全覆盖浪费的成本,那么肯定业务为王,暂时还不必在降本上花费很多精力。如今,FinOps 还处在大家都很需要、但没有做得特别好的阶段。下一年,FinOps 的趋势会延续,甚至未来几年内都会是很多企业关注的重点,其应用的领域也不会局限在互联网。多云很多企业前几年就开始考虑多云架构,直到今年开始真正在生产落实。这背后的原因也是企业对成本的考虑,还有就是对稳定性需求的提升。实际上,国内外各大云厂商都出现过大大小小的故障,很多情况下企业要依靠多云架构去弥补这部分损失。另外,只要选择了两家云厂商,选择权就到了企业手里,企业与云厂商谈判的议价关键取决于企业在云之间迁移的能力。当然,企业如果实践不好,反而会增加成本。总之,多云要做的就是云间的闭环和自由迁移,以及能够做得更高可用,抵销对云厂商的依赖。在多云的初级阶段,不同云上的应用管理是手动的,业务量多的时候管理员会非常痛苦。之后,多云才有了一定的自动调度和差异化配置能力,业务不用感知资源池细节和授权等问题,这样的资源池化能力正是企业需要的。现在社区比较流行的开源集群管理产品是 Cluster API,该产品使用 Kubernetes 风格的 API 和模式自动化集群生命周期管理,谷歌、微软等云厂商都有基于 Cluster API 的服务。华为云等多家企业联合发布并开源的 Karmada,是 CNCF 首个多云容器编排平台项目。今年,Kubernetes 多集群管理平台 OCM v0.9.0 发布,来进一步改善托管集群安全性问题。实际上,虽然每个云厂商都在自己推出产品,但很大程度上也是基于上游社区的建设。不过,华为云云原生开源负责人、CNCF 大使王泽锋也指出,现在多云、多集群的编排调度等问题还没有特别成熟的商用级解决方案。首先是多集群的负载管理。一些负载不能放到一个集群里,而是需要建立一个容错性更强的集群体系,这个系统通常由多个 Kubernetes 集群组成。多个集群间如何部署应用、主副关系还是平等,很多细节问题都要考虑。其次是多集群的流量管理。单集群内的流量管理,一定程度上是通过控制面来维护各个实例的健康状态、调整流量分布。但是到了多集群架构下,由于单集群自治属性强,控制面与各个单集群之间的联系减弱,并不能简单地通过两者的联系来判定哪个集群无法处理流量、需要重分配。如何实现数据面自治的多集群流量管理,是个很大的挑战。再者,业务部署在不同的云或集群里,业务互相访问时会有网络连通性、身份授权等问题。多云的场景是多样化的,很多用户不会接受拉昂贵的专线方式,网关方式又比较适合允许有延迟、对网络可靠性要求不高的业务场景。身份授权更为棘手,多云、多集群本就是天然屏障,如何身份授权进行全局管理就是一个很大的难点。最后,实现多云、多集群的互访后,业务还需要有较强的适应性,能够在不同的模式下工作。越来越多传统行业入场除了降本增效,今年很多企业也纷纷投入到了数字化转型当中。实践中,转型企业是用互联网技术和互联网思维方式构建自己新的数字化体系。数字化中,很多企业首选云原生技术。今年,除了有像腾讯这样业务完成全面上云的互联网企业,还有越来越多的传统企业开始上云。工业制造行业围绕业务需要主动上云,云厂商也会根据其业务需求提供配套解决方案,金融、零售、政务、能源、物流等行业也都入局云原生。根据云原生技术实践联盟(CNBPA)调查,95% 以上的受访央国企已经考虑或正在使用云原生技术,其中近 80% 的企业已经使用容器、微服务、DevOps 等云原生技术。支持一云多芯的全栈云原生是更贴近业务的技术应用架构,更能聚焦央国企的数字化转型。传统企业使用云原生技术更多会从 to C 业务入手,比如个税办理等面向个体消费者的 App。当然还有像光伏行业通过“云原生 +AI”技术提升良品率类的应用。另外,传统企业在新建或升级系统时,也会优先选择更流行和最有效的技术,而云原生就在其中。非互联网企业也积极拥抱开源,并参与云原生社区,比如波音今年加入了 CNCF 成为白金会员,中国电信、中国电子云成为 CNCF 黄金会员。在今年 3 月,波音宣布与国外三大云计算提供商亚马逊云科技、微软和谷歌,签署了协议,扩大云运营规模并减少对本地系统的依赖。波音大部分应用都是在本地服务器上托管和维护的,很多遗留系统正在老化,需要大量维护工作,阻碍了波音开发和部署新型数字化解决方案。波音选择将大部分工作负载转移到云端的方式消除基础设施带来的限制。像波音这样的非互联网企业进入云原生领域,是该技术更大规模落地的预兆之一。云安全或受去年 Log4j 漏洞事件的影响,加上 Kubernetes 安全事件频发,今年业内在安全方面的实际行动也很多,尤其是在供应链安全和模糊测试上。供应链安全更靠近企业实践。之前,企业为了安全直接做物理隔离,但由此也带来了很多问题。当前阶段,企业做的比较多的是扫描检测部署的业务应用对应的版本,对于有问题的版本进行拦截,不允许其部署到生产环境中,初步保证业务的生产系统不暴露在漏洞之下。另外,云原生给安全提供了一个新的抓手。之前的 DevOps 体系里融进安全的东西很难,而云原生的 DevOps 体系下,企业可以结合 CI/CD 技术,从软件的编码构建到测试、部署和运维的整个链路中,加入面向代码级的扫描能力、面向依赖的组件做版本的分析,并与漏洞库进行匹配,如果 CI/CD 部署对接到多云上,中间还会做防篡改等设计。不过,作业帮基础架构 - 架构研发团队负责人吕亚霖表示,云原生也打破了安全原有的物理边界,这对安全领域也是场考验。模糊测试是一种常用的应用程序安全测试,主要用来发现应用中的功能性缺陷、安全问题等。当前,大家对模糊测试的使用更偏单点技术。CNCF 中的多个项目都在使用模糊测试,如 Argo、Envoy、Fluent-bit、Kubernetes 等。这一年,Ada Logics 的团队持续努力将模糊测试集成到 Kubernetes Cluster API 项目中。今年,国外云厂商在安全方面也做了很多事情,比如微软发布的Azure AD workload identity 预览版可以在 Pod 级别进行身份托管,还宣布实现在Kubernetes中支持AMD SEV-SNP,以此保护数据安全;亚马逊云科技扩展了 Amazon GuardDuty 安全监控服务的范围,增加了对部署容器的运行时环境的威胁检测。另外,很多创业公司也在做相关工作,比如五名前谷歌员工共同创建了专注开源供应链安全的 Chainguard。云原生安全相关项目但在下一年,行业是否能延续对安全的重视其实还是未知的。实际上,还有很多除漏洞外的安全问题。比如多云和边缘都会加倍放大安全问题,多云里的资源访问权限和身份授权就是很大的问题,边缘很多是离线场景但又不是绝对的物理安全。能否继续重视安全,取决于人们的意识。写在最后今年在互联网历史上并不是高速发展的一年,甚至全球经济下行给行业发展蒙上了一层“寒霜”。但反过来,这样的环境也促进了行业不去关注各种花样繁多的新技术,而是朝着更好、更深度的方向发展,这对云来说是一种利好。这一年,我们看到有些企业出于各种考虑开始“下云”,有人认为正常,也有人认为这是“开倒车”,而新上云的企业也要面对走出舒适圈带来的阵痛。实际上,上了云和能用好云是两码事,还有各种规模的企业坚持在云上运行,现在大家都还远没有触碰到云效益的天花板。总体来看,明年,云原生领域的主旋律依旧是价值回归,业内围绕着切实可行的技术去落地、深入实践降本增效,变得更加务实。不够成熟的技术会努力找到降低门槛、找到被开发者接受的方式,相对成熟的技术继续深挖,给开发者创造更大的价值。采访嘉宾介绍(按姓名首字母排序):丁宇(叔同),阿里巴巴研究员、阿里云智能云原生应用平台总经理董晓聪,作业帮基础架构负责人裴超,腾讯云高性能网络产品中心总监冯常健,网易数帆云原生平台负责人柯琪,微软全球副总裁吕亚霖,作业帮基础架构 - 架构研发团队负责人王泽锋, 华为云云原生开源负责人、CNCF 大使于广游,腾讯云容器技术总监、TKE 产品负责人如果你对本文感兴趣,欢迎在文末留言,或加入 InfoQ 写作平台话题讨论。后续,迷你书、专题将集合发布于 InfoQ 官网,登录 InfoQ 官网注册并将 InfoQ 添加进收藏夹,精彩不错过。更多内容可点击查看系列专题文章。同时,InfoQ 年度展望直播周将于 2023 年 1 月 3 日首场开播,并持续输出精彩内容,关注 InfoQ 视频号,与行业技术大牛连麦~
8,453
1,672,128,969,138
InfoQ
76
AWS Lambda现可支持Node.js 18运行时
近期,亚马逊云科技宣布Node.js版本18支持其函数即服务(FaaS)AWS Lambda,并处于活跃LTS状态(可供一般使用)。开发者目前可使用Node.js 18中的新语言功能编写AWS Lambda函数,比如类字段和私有类方法的性能优化、JSON导入断言,以及包括Fetch API、Test Runner模块、Web Streams API在内的实验性功能。全局Fetch API在Node.js 18中默认可用,这一实验性功能中的fetch函数取代了fetch polyfills及其他三方HTTP:// index.mjs export const handler = async(event) => { const res = await fetch('https://nodejs.org/api/documentation.json'); if (res.ok) { const data = await res.json(); console.log(data); } const response = { statusCode: 200, body: JSON.stringify('Hello from Lambda!'), }; return response; }; 所有实验性功能都可通过NODE_OPTIONS环境变量启用或禁用。AWS Lambda支持目前Node.js的长期支持版本(LTS),意味着使用新版本的开发者在创建或更新函数时需要指定nodejs 18.x的运行时参数值,或者使用有运行时管理的基础镜像。除此之外,运行在基于Arm AWS Graviton2或基于x86的处理器的函数均支持Node.js 18的运行时。AWS Lambda所支持的上一版本Node.js 16自2022年十月中旬起便一直处于维护LTS状态,并将在一年后迎来生命周期的终结。来源:https://github.com/nodejs/release#release-scheduleLambda的Node.js运行时在Node.js 16及之前版本中,使用的都是JavaScript 版本2的AWS SDK,目前后者已随着对Node.js 18的升级更新至JavaScript 版本3的AWS SDK。因此,公司推荐已升级至Node.js 18的开发者将函数代码同步更新至使用SDK v3,或者也可以通过部署SDK v2及其功能代码,以在不更新现有代码的情况下使用Node.js 18的运行时。AppDev的云计算顾问Suraj Tripathi在一篇AWS计算的博文中解释道:与第二版相比,第三版的SDK为JavaScript带来了不少优势。更重要的是,它是模块化的,也就是说代码只需加载需要的模块。如果你选择将SDK与函数代码一同部署,而非是使用Lambda运行时的内置版本,那么模块化还将缩减你的函数大小。此外,bootstrapped募捐会的CTO,Steve Sanders发推表示:AWS Lambda先已支持Node 18!其中包括AWS JavaScript SDK的v3版本,如果你有用到它的话那这可是个大好消息,部署中少了一样需要捆绑的东西。开发者在使用v3 的SDK时,可以只导入需要的模块,如ListBucketsCommand或是S3Client这种服务客户端:import { S3Client, ListBucketsCommand } from "@aws-sdk/client-s3"; Node.js运行时中零一变动是,通过NODE_PATH环境变量增加了对ES模块解析的支持。Lambda的运行时会在加载ES模块时,搜索所有NODE_PATH目录下的文件夹,让AWS SDK作为ES模块,或从Lambda层加载ES模块更加方便。社区和开发者们纷纷欢迎AWS Lambda支持Node.js 18的运行时。Allianz贸易公司的首席软件工程师Jean Burellier发推表示:恭喜@AWS lambda团队推出#NodeJS 18,比其他版本都要快。我还以为得再等上几个月。同样,红迪评论串中也有人写道:点赞!推出速度比Node 16要快!不过也有声音希望Lambda能支持较新版本的Python。AWS英雄Efi Merdler-Kravitz发推表示:@jbesw 什么时候才能看到对Python 11 的支持?Node似乎抢了所有风头。最后,AWS Lambda文档中的Node.js的编程模型提供了更多关于如何在Node.js 18中编写函数的细节。此外,开发者还可以在审查代码兼容性问题后,通过修改运行时配置至nodejs16.x,将其现有的Node.js函数迁移到新的运行时。原文链接:AWS Lambda Now Has Support for Node.js 18 Runtime相关阅读:2022 re:Invent InfoQ 特别报道AWS数据库迁移服务:将Oracle数据库迁移到MySQL
4,690
1,671,926,400,947
InfoQ
77
面向 OLTP 场景,火山引擎跑在 Kubernetes 上的数据库有何不同?
几年前,行业内关于是否可以把数据库跑在 Kubernetes 上就不乏讨论。Google Cloud 解决方案架构师本杰明·古德(Benjamin Good)曾发文讨论了这件事情的可行性:想要讨论这个问题,开发者们需要先明确需要通过把数据库 Kubernetes 上解决什么问题,再来看下可行性。如今,业内不乏有将数据库跑在 Kubernetes 上的产品出现,火山引擎数据库系列产品也是其中之一。我们可以从火山引擎数据库产品出发,了解云时代大规模场景下数据库跑在 Kubernetes 之上有何不同。为什么选择在 Kubernetes 之上跑数据库?火山引擎存储 & 数据库产品解决方案架构师魏巍告诉 InfoQ,业内不少存算分离的数据库采用的是基于物理机或者虚拟机的方式进行部署,不管是 CPU、内存还是存储的调度方式都偏传统,而字节跳动的 veDB 完全基于 Kubernetes 进行部署。目前我们可以看到也有一些企业把数据库部署在 Kubernetes 上,只是更多是放在容器里了。业内对于云原生数据库的理解有共同之处:面向应用,不再关注底层需要多少 CPU、内存等等,而是更关注应用的状态,比如是否高可用。这些就可以通过 Kubernetes 自带的 Operator 来实现。在魏巍看来,部署在 Kubernetes 上的数据库,比部署在虚拟机或者物理机上的数据库,云原生的程度更高一些。“我们完全是基于 Kubernetes 做了深度整合的数据库系统。”魏巍提到的火山引擎跑在 Kubernetes 上的数据库产品,主要面向 OLTP 场景,包括关系型数据库 RDS、云原生数据库 veDB MySQL、缓存数据库 Redis、文档数据库 MongoDB、表格数据库 HBase 和图数据库 veGraph。据他介绍,火山引擎数据库团队并不是从一开始就想要自研在 Kubernetes 上跑数据库的。内部在进行整体的数据库产品开发的时候秉承着这样的思路:最开始是效率优先,使用开源的产品来满足业务需求,后来发现因为字节跳动内部数据规模越来越大,尤其像 2021 年春晚红包雨活动时,使用开源的数据库产品无法满足业务需求,才开始在开源产品的基础上进行迭代和优化。可是新的问题又来了。由于开源产品的架构设计有自己的规则,有一部分的性能就无法进行优化。所以火山引擎数据库团队开始寻找其他的办法——从架构层面对数据库进行改造,比如云原生数据库 veDB MySQL,改造成计算、存储分离的架构,让整体的性能更高,峰值集群达到百万级别的 QPS。2015 年到 2017 年间,火山引擎数据库处在相对初级的阶段,仅依赖人工和脚本的方式进行数据库管理运维,就足以满足业务量的需求;2018 年到 2021 年,火山引擎开始改造云原生数据库 veDB MySQL、缓存数据库 Redis 等。从今年年初开始,火山引擎开始在内部大规模推广自研的 veDB,融入了很多像 AI for DB 之类的技术,把之前 DBA 沉淀下来的经验,通过 AI 的方式,让系统自动优化和调整数据库系统。火山引擎数据库团队在进行数据库技术产品优化时主要考虑两个关键点:其一是尽可能地提高资源利用率,实现降低成本的目的;其二是尽可能减少对客户在线业务产生影响。在魏巍看来,基于 Kubernetes 实现云原生化可以更细粒度的对资源进行管理,减少资源碎片,进而提高整体资源利用率,达到降低成本目的。同时,计算资源与存储资源可以借助 Kubernets 进行统一调度,可以更充分的释放云计算弹性的能力。火山引擎数据库团队也在向 serverless 方向发展,以上能力都是面向 serverless 的重要基础。“数据库本身的体系类似,所以大家做的优化也是类似的。像我们的 veDB 也做了 log is database 分离,把一些 mysql 的内核进行非常大的改造,让它写数据的时候只写日志,而不会去刷新数据,这样就极大程度减少了网络开销,进而提升了整体的性能。”魏巍表示:“veDB 和原生的 Mysql 相比,基本上是原生 Mysql5-6 倍的性能。”云时代,业务大规模要求下数据库性能的大幅度提升,是火山引擎坚定了让数据库跑在 Kubernetes 上的信心。此外,阿里云、亚马逊云科技做数据库产品比较早,当时底层的技术依赖虚拟机和虚拟化,而火山引擎云数据库做得晚,赶上了 Kubernetes 发展的好时候。跑在 Kubernetes 之上的数据库有何不同?不过从技术角度看,其实 Kubernetes 整体来看对于数据库并不友好。根据 Google Cloud 解决方案架构师本杰明·古德的“数据库应该跑在什么环境中”思维导图,首先,跑在 Kubernetes 之上的数据库,相比跑在物理机、虚拟机环境的数据库更容易出现故障自动转移事件;其次,持续产生高工作负载的场景,无法控制并发量,对于跑在 Kubernetes 上的数据库也不友好,会导致数据库不受控。Operator 的出现让数据库真正在 Kubernetes 上变得好用。云厂商可以通过扩展 Kubernetes API,使用 Operator 来实现数据库的运维能力和管理能力。对于非 Kubernetes 友好的数据库如 Mysql,就可以借助 Operator 来实现故障自动转移等;对于高工作负载高并发量的场景,数据库没有银弹,可以选择不同的数据库产品组合。数据库跑在 Kubernetes 之上的好处也开始被看见,比如数据库实例资源的增加变得更简单、跨多云部署的兼容性更好、运维的复杂性更低……从架构视角看,魏巍认为部署在 Kubernetes 之上的数据库资源调度的粒度将更小。以前用虚拟机,至少需要一台虚拟机做调度,但是 Kubernetes 上以 Pods 为单位去做资源调度,由 Kubernetes 进行资源分配,提升了整体的资源利用率,也就降低了成本。“开一个虚拟机的时间和开一个 pod 的时间相比,肯定是 pod 的时间更短。这也是我们说火山引擎云数据库具备非常强弹性能力的重要原因之一。”魏巍谈道。随着应用场景更加宽泛,Kubernetes 也会受限。对此,火山引擎专门配备了一个团队负责进行 Kubernetes 的优化和改造,让它能更好地满足大规模应用场景。同时,该团队还会负责云数据库和 Kubernetes 更充分的融合。“业内还没有哪个厂商这么大规模地把云数据库部署在 Kubernetes 上,火山引擎是第一家。”目前,火山引擎数据库产品系统分为自研 veDB 和社区版优化两大类,还提供了一些生态工具 DTS。除了前文提到的云原生数据库 veDB MySQL,火山引擎缓存数据库 Redis 也与社区版 Redis 有很大不同。社区版 Redis 采用无中心化的架构,底层节点之间使用的是 gossip 协议。这个协议导致一旦节点数过多时,会产生严重的网络风暴,导致整个集群的不稳定,并且也无法提升整体的容量规模。所以,火山引擎缓存数据库 Redis 采用字节跳动内部实践的 Achemy 架构,对社区版 Redis 的整体架构做了改造。改造主要体现在 2 个方面。其一,把社区版 Redis 的架构从无中心化转变为中心化。通过引入集群组件 config server,对整个 Redis 集群做元数据的管控,这样就可以避免 gossip 协议通信引起的网络风暴。其二,Achemy 架构分为三层,第一层是 proxy,第二层是 config server 进行元数据管理,第三层是 server 层用于真正存储数据。这三层架构让字节跳动的 Redis 可以支持上千的节点分片,让 Redis 的集群规模变得非常大。“其实最开始字节跳动也是在用开源的版本,也没有想直接从架构角度推倒重来,只是对于规则协议进行优化来提高节点数量,但是做下来发现投入产出比低,面对不断上涨的业务量也不是长久之计,毕竟社区开源版的 Redis 可能没有预估到如今如此大规模的场景。”魏巍谈道,过去大家专注在数据库本身的优化工作,现在上云之后,其实可以借助云的能力优化数据库的架构,让数据库的性能和稳定性整体从云的维度得到一个比较大的提升。火山引擎图数据库 veGraph 是火山引擎自研的产品,类似 Achemy 架构,以属性图为基础结构数据,提供了海量关系的数据存储和毫秒级的在线查询服务,广泛应用于社交网络、欺诈检测、推荐引擎、知识图谱等场景。“比如抖音和头条里,你给哪个文章或者视频点赞,你的好友也能看到这条文章或者视频,其实就是借助了图数据库的这种关系分析能力。也是因为业务量大,所以开源的图数据库满足不了抖音头条这种大规模海量数据的要求。”魏巍表示:“我们自研的图数据库 veGraph 可以做到万亿条边。如果两个人是好友关系,这一条好友关系就被称作是一条边。不仅规模可以达到万亿条边,单集群已经可以达到亿级别的 QPS 性能水平。”这里底层的技术支撑和 Redis 类似,通过分层拆开不同的组件,分别对每个组件进行集群化处理,三层集群共同对外提供服务能力,所以可以达到万亿条边的数据量,整体 QPS 达到亿级别。云数据库的未来方向“云厂商提供的云数据库应该做到简单易用,安全稳定,极致弹性,高性价比。把客户 DBA 需要做的事情都做了,而且要做的更多,做的更好。”在魏巍看来,DBA 应该有更高的价值,应该和业务开发走得再近一些,才能让业务和数据库更好地结合。“开发如何建索引这个事情很多企业的 DBA 都会遇到。一旦出现问题,大家会发现开发同学索引建得不好,SQL 语句写得不好。其实,可以让 DBA 同学提前介入到开发工作中,这些事情完全可以避免,让 SQL 语句更加高效,进而让业务可以用更少地资源去做更多的事情。”魏巍解释道。业务视角下,云数据库未来的重点方向在于能否稳定支撑企业业务运转的同时降低使用成本,所以从技术角度看,无论是哪一家云厂商,未来都会在底层技术上做更多的优化,并在上层打造一个更加稳定的平台来供企业客户长久、安心地使用数据库产品。
7,394
1,671,764,273,150
InfoQ
78
数据烟囱亟需打破,云原生融合数据库雪中送炭|解读云原生数据库的 2022
作者 | 郑思宇采访嘉宾 | 矩阵起源创始人及 CEO 王龙据 Gartner 预测,到 2025 年,基于云原生平台的数字化业务比例将达到 95%,将带来云原生数据库市场的快速增长。毫无疑问,云原生数据库即将成为云上数据库使用的标准范式。云原生数据库使得传统数据库得以充分结合云服务的免运维、高弹性、高可扩展、高可用、高性价比优势,又顺应了云端应用大爆发的历史趋势,在过去几年成为 IT 领域的大热门方向,但总体仍处于高速发展的早期阶段。过去一年中,企业对于云原生数据库的使用有哪些需求?云原生数据库厂商又该如何满足这些需求?本文是“2022 InfoQ 年度技术盘点与展望”系列文章之一。我们将带你回顾 2022 年云原生数据库领域的重要动态以及技术进展。在本文写作过程中,特此感谢矩阵起源创始人及 CEO 王龙提供的宝贵观点与洞察。  云原生数据库领域的挑战和进展知易行难,数据库从云服务到云原生还有很长的过程在过去相当长的一段时间里,云服务中被使用最多的是虚拟机,也就是物理服务器在云端的虚拟化服务。IT 用户享受到的好处是最朴素的自服务、免运维、高可用、高弹性、高可扩展性和按使用付费,当然这些都只是在虚拟机和 OS 层面(Infrastructrue as a service)。为了更好地满足数据库用户的需求,云厂商开始提供数据库服务(Database as a service,DBaas)。为了降低开发成本和用户的学习难度及应用迁移门槛,最早的 DBaaS 大多是基于 IaaS 的数据库运维自动化,本质是传统数据库系统平移到云端的一种全托管服务,用户看到的和使用的数据库,除了在访问 OS 层面有所限制,其他并无二致。在云计算(IaaS)成为趋势并逐渐成为 IT 行业的标准基础设施之后,上述这种做法导致的问题便浮出水面:问题一:数据本身的爆炸式增长,数据库无论在物理环境还是云端虚拟环境,都需要具备更高的扩展性和更强悍的性能。传统数据库的架构由于受限于历史原因,本身具有的缺陷和瓶颈在云端则更加明显。例如,进行性能优化和执行调度时,传统数据库在资源有上限的物理环境中更在意资源的使用率,并且需要投入大量精力来考虑 RTO 和 RPO,那么整个系统就会因此增加复杂度。然而,这种复杂度在云端是没必要的,并且会造成巨大的资源浪费和开发投入。问题二:随着数字化程度的进一步加深,业务敏捷度也成为 IT 系统最关注的核心指标之一,数据库的弹性能力是支撑应用和业务敏捷度最重要的基础能力。基于物理环境设计的传统数据库,即使平移到云端,也无法充分利用云端计算和存储资源的高弹性能力。例如物理环境和云端环境的硬件特性,包括但不限于吞吐量、读写特性、资源部署时间、资源回收时间以及消耗成本,都是不同的。如果没有考虑到这些不同点,就会严重影响数据库实际的弹性能力。问题三:由于大多数用户在数据库上的预算增长超过其他组件的增长,使其更加看重数据库服务的性价比。然而,多云部署日益流行的今天,每个云厂商的定价策略,计算、存储和网络资源的计价方式和能力表现都有或多或少的差异。如果仅仅将一个传统数据库平移上云,很难基于这些复杂的因素做出最优的判断决策,也无法达到最优性价比。因此,用户和市场都需要一款能充分利用云端的计算、存储和网络资源特性,具备真正的高弹性、高可用和高性价比优势的数据库,这就是云原生数据库发展的最核心驱动力。要实现这样的目的,一个基于云环境精心设计、打磨的技术架构是不可或缺的。这就需要长期持续的投入,才能对云环境足够的了解并对数据库生态充分适应。需求多样,云原生数据库需要跟上现代软件应用的步伐曾经有一种说法是“软件吞噬世界”,暂且不管这种说法是否正确,但物理世界愈发数字化是一个正在发生的事实。过去数十年,数字化的加速催生了数以亿级的软件,包括手机 App、SaaS 等等,这些软件对数据库提出了各种各样的需求,也驱动全球出现了多达数百种不同的数据库。十几年前,我们就知道数字化进程的一大阻碍就是数据烟囱(Data Silo),其严重制约了企业的智能化和创新能力,并以几何级数提高了企业利用数据的门槛和成本,一直以来都是企业信息化部门最头痛的顽疾之一。然而,随着云计算、软件应用和数据库的蓬勃发展,非但没有使这个顽疾得到缓解,反而变得愈发严重。为了解决这个问题,在过去数年中,IT 从业者做了多种尝试。第一种,简单粗暴地投入最强硬件,搭载一款数据库支持所有软件应用。目前,这种方式已经越来越少见了,因为纯硬件的纵向扩展能力是有限的,而软件应用的组合和变化是无穷的,大部分客户无法负担成本变成了最主要的阻碍。第二种,整合多种集中式和分布式数据库系统,使用统一界面给数据和应用开发者提供各种能力和服务,并隐藏其底层管理运维的复杂度,这种方式常常被称作“数据中台”和“数据底座”。基于过往多年的实践,虽然证明这种形式在某些领域和客户群体中是有其价值的,但在某些场景下便会出现局限性:一方面,当后台需要整合的数据库系统过多,又或者前台的应用变化过快、过于复杂时,它的运维、管理和开发成本增长会陷入失控,且相比第一种方案会带来数据实时处理性能的瓶颈;另一方面,当用户需求相对较小和简单时,使用这种方案又会过于臃肿和复杂,投入产出不成正比。第三种,一些成熟的数据库厂商退而求其次,如果不能一蹴而就地整合这么多数据库系统,那么可以尝试在现有成熟数据库系统中添加新的能力,来减轻一小部分数据烟囱带来的痛苦。湖仓一体、批流融合、HTAP 等都是这种思路下的产物,但融合的挑战也是巨大的。拿 HTAP 举例,由于 TP 和 AP 数据库在过去默认就是服务两个不同的应用团队,由不同的数据库管理团队来维护,因此对安全性、资源共享和性能隔离等都有各自的需求。当融合在一起的时候,想要性能完全隔离,就应该使用完全独立的计算和存储资源;想要资源利用最大化,就应该使用共享计算和存储资源;同时想要获得更低的处理时延,就应该只存一份数据;想要各自都有读写极致性能,就应该存多份数据...... 这里有太多矛盾的技术点,要想找到平衡点来解决上述提到的技术矛盾是一件不容易的事情。当然第三种尝试还有很多其他类型的方案,这里就不一一列举了。在 2022 年,我们也注意到有众多云原生数据库厂商在朝着这个方向演进:Snowflake 在其年度用户大会 Snowflake Summit 2022 上,宣布推出 Unistore 存储引擎,使得用户在 Snowflake 平台上运行 OLAP 的同时也可以确保数据的完整性和一致性,而这是 OLTP 的核心特性之一。在 2022 re:Invent 大会中,亚马逊云科技发布了一个新服务——“Zero ETL”,其在后台打通了 Aurora 数据库和 Redshift 数据仓库。用户无需自己开发 ETL,就可以轻松地进行数据分析和机器学习,这更像是数据中台和 HTAP 的结合体。最近刚刚完成 F 轮融资的 SingleStore,也号称其数据库系统能在云上通过结合事务和分析工作负载,消除了性能瓶颈和数据移动,以支持数据密集要求苛刻的工作负载。国内初创公司矩阵起源提出的“HSTAP”更为彻底, 将 HTAP 进行了重新定义,融入了串联 AP 和 TP 的 Streaming 能力,并完全重新开发了一款云原生的融合性数据库。目标是让企业只用一款数据库,就能覆盖大中小应用系统的的 TP 和 AP 需求,并能用最高性价比的方式建设好数据中台。放眼未来,云原生数据库还需要关注基础设施和软件应用的新动向在基础设施层面,其能力也在不断演进。《2021 InfoQ 年度技术盘点与展望》的“架构篇”里提到。在 2021 年,各个云服务商都在不断拓展 Serverless 产品线的能力。在 Web 应用、微服务、事件处理和批处理任务等场景,Serverless 正在成为最流行的架构。在 2022 年,这个趋势依旧在延续,并且还在不断深化,代表企业有亚马逊云科技、阿里云等,这也意味着 Serverless 已经从概念和愿景逐步演进至落地实践。Serverless 能更好的提供计算资源的弹性和可扩展性,从而提高应用系统的性价比。对于计算成本占比较多的数据库系统来说,是一个不可忽略的重要技术趋势。同时,能否利用好 Serverless 服务也是架构是否云原生的重要指标之一。相比之下,国外企业的上云速度与规模快于国内,其已经累计了大量的云上数据以及应用场景,可以帮助数据库厂商打磨云原生数据库能力。以 Snowflake 为代表的云原生数据库,目前已经到达了收获的阶段,在 Snowflake 公布的 2023 财年第三季度的财务数据显示,Snowflake 第三财季的总营收为 5.57 亿美元,同比增长 67%。而在国内,Serverless 在数据库中还没有得到大规模应用。离商用化尚有距离的 CXL 也是云厂商关注的热点技术趋势,此外,GPU、FPGA 等异构芯片在云端的使用也在加速增长,这些对数据库的技术演进也会有较大影响。在软件应用方面,智能制造、机器人、自动驾驶和元宇宙等新应用还在不断成长之中,数据库厂商也需要关注这些领域的需求增长和变化。这些应用场景相关的图数据库、区块链数据库、时序数据库等也在持续迭代。云原生数据库值得关注的其他方向虽然云原生数据库所带来的价值不言而喻,但坦白讲,其也很难形成一统天下的局面。对于金融、政府这类对于合规安全有较高要求或者定制化需求较多的客户来说,私有化数据库部署的需求还是普遍存在的,但这也并不意味着云原生数据库的增长空间会被挤压。随着数字经济时代的到来,金融、政府等机构还有很多个性化的业务依旧需要部署在云上。那么在这种情况下,混合云架构是很多企业的首选,据 Cisco 发布的报告显示,在全球混合云趋势调查中,82% 的受访者目前使用混合多云架构来支撑其应用程序,并表示混合多云架构能够使组织实现更敏捷和高扩展性的开发环境,同时加速业务敏捷性和创新。云原生数据库厂商若想帮助这些企业管理好数据,让他们更好地进行降本增效、实现创新,就要求数据库架构既能能兼容不同的公有云,也能够进行私有化部署,并且还要保障云上和云下的用户体验一致,数据可以自由的、低成本流动。这就对云原生数据库提出了更高的要求,既能充分利用云上的资源及其特性,也能高效地利用私有数据中心的资源及其特性。从这个角度来看,数据库云原生的下一步或许会是异构云原生,即数据库无论部署在公有云、私有云、物理服务器上都要有统一的技术架构并且共享调度数据和资源。除此以外,DB 和 AI 的结合也是一些团队正在研究的方向,主要分为 AI for DB 以及 DB for AI 两类。第一种模式是 AI for DB,即利用 AI 算法帮助 Database 提升产品能力。比如通过分析数据库日志或者视图,得出数据库的性能表现,然后去动态地调整数据库参数,来达到优化数据库性能的目的。此外,还可以在数据库中利用一些 AI 算法来进行内核优化、运维优化等。另一种模式是 DB for AI,即在非结构化数据日益增多的情况下,为分布式数据库提供 AI 分析的能力。目前来看,由于传统的应用开发工程师、数据分析师与 AI 工程师在企业是分割开的,后者还处于探索阶段。但相信随着数据库人才与 AI 人才的交流,共性的需求会变得越来越多,比如如何对数据做预处理、做初步的建模等等,待这些知识融合到一定程度时,必然会出现一个系统来满足他们的需求。云原生数据库的选型建议虽然国内数据库的发展相比国外起步得要晚一些,但凭借着后发优势、业务环境等因素,国内数据库市场也逐渐呈现出百花齐放的态势,粗略判断,目前云原生数据库数量已达到几十甚至上百种。因此,企业在进行选型时,首先要考虑清楚自身选择云原生数据库的驱动力是什么,既要让云原生数据库的特性与自己的业务类型相结合,又要与自己的团队能力进行匹配,是更看重低运维自治,还是更看重资源的弹性扩展,或者更看重性价比,需求不同往往会做出不同的选择。为了避免踩坑,也需要考虑厂商的技术实力和周边生态支持的能力。其次,企业在选型时还要做好中长期的规划,绝对不要低估数据烟囱对未来业务的影响。随着企业的发展和数据规模的不断攀升,数据库带来的成本增长会远超于业务应用的成本。如果提前做好规划,在数据库的选型与后续建设中就可以做到游刃有余,将来的数字化道路就会事半功倍。比如,由矩阵起源打造的新一代超融合异构云原生数据库 MatrixOne,便可以帮助用户降低数据的使用难度,提供极简的使用体验,让企业可以将精力从繁杂的技术细节中释放出来,最终达到降本增效的目标。写在最后回顾这一年,云原生数据库领域依然在稳健高速的发展中。云原生数据库依然还需要时间来达到成熟,但无论是使用创新架构来更好地使用云上资源,还是融合多种能力更好地服务数据应用,各云原生数据库厂商都在沿着帮助客户降本增效的初心,持续进化中。采访嘉宾:王龙,矩阵起源(Matrix Origin)创始人及 CEO。曾任职腾讯云副总裁,管理数百人的大数据和人工智能团队,从零构建腾讯云 to B 大数据人工智能产品矩阵和商业化体系,三年内完成产品线从百万到十亿级收入的飞跃。王龙之前在美国硅谷和德国慕尼黑工作过,也在北京上海有过创业经历。他具有多年跨国企业级产品建设和商业化经验,对于云计算、大数据、人工智能和多个行业应用场景有着丰富经验和深刻认识。如果你觉得本文对你有帮助,或者你对数据库领域的技术发展有自己的思考,欢迎在文末留言告诉我们!你也可以加入 InfoQ 写作平台撰文发表自己的观点:https://xie.infoq.cn/【年度技术盘点与展望】专题已发布于 InfoQ 官网,将 InfoQ 添加进收藏夹,精彩不错过。另外,InfoQ 年度展望直播周将于 2023 年 1 月 3 日首场开播,并持续输出精彩内容,关注 InfoQ 视频号,与行业技术大牛连麦~
8,996
1,671,686,900,755
InfoQ
79
Java近期新闻:JDK 20的JEP提升为Targeted状态,亚马逊云科技推出Lambda SnapStart特性
OpenJDKJEP 432,记录模式(第二次预览),已从JDK 20的Proposed to Target状态提升为Target状态。该JEP更新自JEP 405,记录模式(预览版),更新包括:增加了对通用记录模式类型参数推断的支持;增加了对记录模式出现在增强for语句条件判断中的支持;并删除了对命名记录模式的支持。 JEP 433,switch模式匹配(第四次预览),已从JDK 20的Proposed to Target状态提升为Target状态。该JEP更新自JEP 427,switch模式模式匹配(第三次预览),更新包括: 简化了switch标签语法;现在, switch表达式和语句以及支持模式的其他构造体都支持泛型类型模式和记录模式的类型参数推断。 JEP 434,外部函数和内存API(第二次预览),已从JDK 20的Proposed to Target状态提升为Target状态。该JEP在Panama项目的支持下不断演进:JEP 424,外部函数和内存API(预览),在JDK 19中交付;JEP 419,外部函数和内存API(第二个孵化器版本),在JDK 18中交付;以及JEP 412,外部函数和内存API(孵化器)在JDK 17中交付。该JEP提议基于反馈进行改进,并在JDK 20中提供第二次预览。更新包括:统一了 MemorySegment 和 MemoryAddress 接口,即,内存地址由零长度的内存段建模;并且增强了MemoryLayout 密封接口,以便于与JEP 427,switch中的模式匹配(第三次预览)一起使用。 JEP 429,作用域值(孵化器),已从JDK 20的Candidate状态提升为Proposed to Target状态。这个正在孵化的JEP,最初名为范围局部变量(孵化器,Extent-Local Variables),由Loom项目赞助,提议在线程内部和线程之间共享不可变数据。这优于线程局部变量,尤其是在使用大量虚拟线程时。 JEP 436,虚拟线程(第二次预览),已从JDK 20的Candidate状态提升为建议Proposed to Target状态。在Loom项目的支持下,该JEP基于JDK 19中提供的JEP 425,虚拟线程(预览版),提出了第二次的预览,以便有时间为该功能的演进提供更多的反馈和经验。需要注意的是,除了少量在JDK19中被固化的JEP 425 API外,本预览版本没有进行任何更改,因此没有在第二次预览中提出。 JEP 437,结构化并发(第二个孵化器),在JDK 20中从Candidate状态提升为Proposed to Target状态。该JEP也是在Loom项目的支持下,提议基于从JDK 19中提供的JEP 428,结构化并发(孵化器)中重新孵化该特性,以便有时间提供更多的反馈和经验。唯一的变化是更新了 StructuredTaskScope 类,以支持在任务作用域中创建的线程继承作用域值。这简化了跨线程不可变数据的共享。 这三个JEP的审查将于2022年12月6日结束。 JDK 20JDK20早期访问构建版本中的第26版也已于上周发布,其中包括对第25版各种问题的修复和更新。有关该版本的更多详细信息,请参阅发布说明。 对于JDK 20,鼓励开发人员通过Java缺陷数据库报告缺陷。 JavaFX 20JavaFX 20早期访问构建版本中的第10版已提供给Java社区。JavaFX专为使用JDK 20早期访问构建版本而设计,应用程序开发人员可以在JDK 20上使用JavaFX 20构建和测试其应用程序。 Spring框架Spring Integration 6.0已发布,其特性包括:JDK 17和Jakarta EE 9基线;支持GraalVM和Spring AOT引擎的原生镜像;具有千分尺和千分尺跟踪的可观测性仪器;以及对Jakarta EE 10的支持。有关该版本的更多详细信息,请参阅最新动态页面。 Spring Vault 3.0也已发布,其特点包括:JDK 17基线;支持额外的HTTP客户端,包括响应式JDK HTTP客户端;并支持使用版本化密钥/值机密引擎的Vault存储库。有关该版本的更多详细信息,请参阅发布说明。 Spring Cloud 2022.0.0的第三个候选版本,代号为Kilburn,已向Java社区提供。该版本提供了对Spring Cloud子项目RC3版本的更新,如:Spring Cloud OpenFeign 4.0.0、Spring Cloud Commons 4.0.0、SpringCloud Function 4.0.0和Spring Cloud Starter Build 2022.0.0。但是,由于Spring Cloud CLI、Spring Cloud for Cloud Foundry和Spring Cloud Sleuth等子项目的移除,也引入了一些破坏性的更改。Spring Cloud 2022.0.0-RC3要求Spring Boot 3.0.0。有关该版本的更多详细信息,请参阅发布说明。 亚马逊云科技在最近的re:Invent大会上,亚马逊云服务为其AWS Lambda项目推出了一项新特性Lambda SnapStart,旨在减少Java函数的冷启动,并加速Lambda函数。Quarkus和Micronaut已经实现了对Lambda SnapStart的支持。更多详细信息请参阅InfoQ的新闻报道和亚马逊云科技博客文章。 Quarkus红帽(Red Hat)发布了Quarkus 2.14.2和2.13.5版本,主要修复了CVE-2022-4116漏洞,CVE-2022-4116是Dev UI配置编辑器中的一个漏洞,容易受到本地主机驱动攻击,导致远程代码执行。该版本还加强了对跨源资源共享(CORS)的处理,包括在CORS请求因来源无效而被拒绝时将 200 OK 更改为 403 FORBIDEN 。有关这些版本的更多详细信息,请参阅2.14.2版和2.13.5版的发布说明。 在通往Quarkus 2.15.0的道路上,第一个候选版本也提供了新特性,比如:与Quarkus CRaC/Firecracker的集成;将gRPC扩展迁移到新的Vert.x gRPC实现;使用Panache扩展支持在REST数据中根据命名查询进行过滤;以及对GraalVM 22.3.0、Mandrel 2.13和SmallRye GraphQL 1.9.0的依赖项升级。 Apache CamelApache Camel 3.18.4已发布,对Spring Boot 2.7.6和HyperSQL DB 2.7.1进行了27个bug修复、改进和依赖项升级。有关该版本的更多详细信息,请参阅发布说明。 JHipster在JHipster,已经开始将平台升级到Spring Boot 3.0。Okta的开发人员倡导者、Java Champion和JHipster开发团队成员Matt Raible提供了团队迄今为止遇到的问题的最新情况,即:BlockHound需要一个新的WebFlux的入口;健康检查在Elasticsearch 8+中不起作用;MongoDB和WebFlux与JUnit和MongoDB驱动程序4.2+死锁。有关这些问题的更多详细信息,请参阅此GitHub拉取请求。  原文链接:https://www.infoq.com/news/2022/12/java-news-roundup-nov28-2022/相关阅读:对话Spring大神:Spring 生态系统的新时代来了!Java 新闻汇总:Spring 发布,Resilience4j,Open Liberty,GlassFish,Kotlin 1.8-Beta
11,615
1,671,667,200,179
InfoQ
80
争相上市、抢夺本土市场,未来三五年数据库将迎来大洗牌 | 解读数据库的2022
本文是“2022 InfoQ 年度技术盘点与展望”系列文章之一,由 InfoQ 编辑部制作呈现,重点聚焦数据库领域在 2022 年的重要进展、动态,希望能帮助你准确把握 2022年数据库领域的核心发展脉络,在行业内始终保持足够的技术敏锐度。“InfoQ 年度 技术盘点与展望”是 InfoQ 全年最重要的内容选题之一,将涵盖操作系统、数据库、AI、大数据、云原生、架构、大前端、编程语言、开源安全、数字化十大方向,后续将聚合延展成专题、迷你书、直播周、合集页面,在 InfoQ 媒体矩阵陆续放出,欢迎大家持续关注。特此感谢Jags Ramnarayan、Pater、Michael Cahill、孙元浩、陶建辉、杨传辉(花名日照)(按姓名首字母排序)对本文的贡献,他们的真知灼见,是本文能与大家见面的关键。对于数据库技术领域而言,2022年是一个激动人心的重要年份。过去一年,数据库技术仍围绕着云原生、Serverless、分布式等核心方向快速发展,但是相较于前几年,数据库市场的客户逐渐成熟,对产品的理解更加理性,相应地要求也越来越高。不难看出,数据库领域的发展已经步入深水区。如果说过去数据库厂商们把更多的注意力聚焦在框架和架构搭建上,那么2022年,则进入了对数据库性能、成本、易用性等细节打磨的阶段,开始了对性能的极致追求。2022年数据库领域大事件回顾1月21日,北京国家金融科技认证中心正式发布《2021年分布式数据库标准符合性检测参检机构名单》,腾讯云分布式数据库TDSQL名列其中,成为首款通过检测的互联网公司数据库产品。2月11日,Elastic 8.0版本正式发布,重点改进 Elasticsearch 的矢量搜索功能,并提供对现代自然语言处理模型的原生支持、进一步简化数据上线过程,以及精简的安全防护体验。在速度、扩展幅度、相关性和简便性方面,Elastic 8.0 版本迎来了一个全新的时代。2月17日,由信通院主办的国内首款金融数据库性能测试工具开源发布会在线上召开。会上正式开源了金融数据库性能测试工具 DataBench-T。4月1日,TiDB宣布正式开源分析引擎 TiFlash,它是为TiDB 提供 HTAP 能力的重要组成部分。TiFlash 的框架代码基于 ClickHouse ,但和 ClickHouse 拥有完全不同的擅长场景,TiFlash 完全偏重于事务性数据的分析。4月,星环科技升级多模型大数据基础平台TDH 9.0,实现9种存储引擎支持10种数据模型。4月27日,Redis正式发布7.0版本,添加了近 50 个新命令和选项来支持这种演变并扩展 Redis 的现有功能。5月12日,在谷歌I/O 2022开发者大会上,谷歌云平台 GCP宣布推出 AlloyDB for PostgreSQL,这是一个全托管的、与 PostgreSQL 兼容的数据库服务。5月16日,在中国信通院组织的第十四批“可信数据库”产品能力评测中,华为云云数据库GaussDB(for openGauss)完成信通院首个防篡改数据库产品测评。6月8日,MongoDB World 2022大会上,MongoDB宣布推出可查询加密功能和关系型数据库迁移工具(Relational Migrator),借助这项技术,不具备密码学相关经验的开发者可以在不影响性能的情况下,以简单直观的方式查询经加密的敏感数据。6月29日,武汉达梦数据库股份有限公司正式递交招股说明书,拟科创板挂牌上市。根据招股说明书,达梦本次公开发行股票数量不超过1900万股,计划募资23.51亿元。6月29日,一体化实时 HTAP 数据库 StoneDB 正式开源。StoneDB 是一款支持行列混存+内存计算的 HTAP 数据库,采用自主研发的存储和计算引擎,可将 MySQL 的分析性能提高100倍。7月23日消息,蚂蚁集团时序数据库 CeresDB 正式开源,并发布开源版本 CeresDB 0.2.0 。蚂蚁集团表示:“通过开源,希望帮助用户解决时间序列数据存储的水平扩展与高可用的痛点,乃至针对时序数据的复杂分析计算能力的需求”。8 月 10 日,OceanBase4.0 (小鱼)正式发布,这是业内首个单机分布式一体化数据库,可以实现单机部署并兼顾分布式架构的扩展性与集中式架构的性能优势,RTO 从 30 秒迈入 8 秒,进入真正的秒级容灾时代。发布会还宣布全球开服 OceanBase Cloud。8月13日,涛思数据发布 TDengine 3.0版本,该版本带来了几大核心特性,包括云原生架构、流式计算,还增强了数据订阅功能;更重要的是,3.0 系列版本开始提供了全平台支持,服务器/客户端均已支持 Linux、Windows 和 MacOS。10 月 18 日,“国产大数据基础软件第一股”星环科技正式登陆科创板,发售价为每股 47.34 元,开盘后报每股 72 元,大涨 52%。10月18日,Oracle宣布推出MySQL HeatWave Lakehouse云数据湖库。据Oracle称,MySQL HeatWave可以在多个云上提供一种集成服务,用于事务处理、跨数据仓库和数据湖的分析、以及无需ETL的机器学习。11月,MariaDB团队宣布正筹备在中国成立实体公司,并积极准备拓展中国市场。明年,MariaDB将有一个专门的本地团队为中国市场服务,并将发布新产品,如Xpand(MariaDB的分布式SQL数据库),此外,MariaDB团队还计划将云版本SkySQL引入中国市场。12月19日,MariaDB Plc.公司表示,已经完成了与特殊目的收购公司Angel Pond Holdings Corporation的合并,合并后的公司更名为MariaDB Plc.。MariaDB的普通股和权证已于12月19日登录纽约证券交易所,此次合并已获得两家公司董事会和股东的批准。数据库领域年度关键词数据库并不是一个新领域,它已经发展了 40 年,作为基础软件之一,它是一个既传统又古老的领域。但近几年数据量爆发、云化趋势加深等因素,正在推动数据库领域进入新的发展阶段。InfoQ在采访国内外多名资深数据库专家后得出了2022年数据库领域的三大关键词,其中,“融合”一词成为了被提及次数最多的词语。融合这里的提及的“融合”不仅仅指的是数据库各种类的融合,更包括软硬件融合、混合负载融合、分布式与单机的融合、多模态的融合等,但实际上融合问题并不好解决。比如,软硬件融合就是个难题。数据库经历了多年发展,其底层架构和算法针对过去的硬件网络等基础设施经过充分设计,以获得最佳性能,但是随着新型硬件的发展,例如新CPU架构、新存储介质,以及新网络架构的发展与成熟,数据库底层机制也必须有相应的调整,才能充分发挥新硬件的特性。此外,分布式与单机的融合也有一定技术难度。单机数据库相较于分布式数据库,由于不需要大量的分布式事务处理,所以单核性能会高于分布式数据。但是数据库面临的市场是一个复杂多样的市场,有一些场景可能一个单机数据库就能支持,用分布式显然有点“大材小用”,但是有一些场景又需要分布式数据库以支撑海量数据和海量交易。那么如何在数据库规模比较小的时候,表现为一个单机数据库,不需要复杂的分布式事务机制,而随着数据规模增长,又能自动生长为一个分布式数据库,而不需要大规模的数据库迁移等,就是一个必须考虑的关键问题。以TDSQL为代表的多家厂商开始尝试采用对等架构实现存算分离与存算一体的兼顾,使数据库产品能兼顾不同规模的场景,取得不同的平衡;而OceanBase则推出单机分布式一体化架构,打造更加开放、灵活、高效、易用的下一代企业级分布式数据库。实现了在线水平扩展的同时不增加分布式相关 overhead,从而能够像集中式数据库一样部署在小规格的服务器上,做到单节点性能达到甚至超越集中式数据库的水平。AI与数据库的融合也在进一步加深。进入2022年以后,AI和数据库融合趋势愈加明显,AI已经成为企业挖掘数据商业价值的最大推动力。过去,企业数据可用性不高,样本容量也有限,无法在毫秒内分析大量数据;而人工智能和机器学习技术,让企业在数据容量和数据源可用性方面有了质的飞越,才有了真正的大数据访问和实时处理能力。大统一是诸多自然科学领域的最终梦想,而数据库的大融合也是数据库从业人员的梦想,但是这里面往往涉及到诸多因素的权衡,以及要面临越来越复杂多样的场景,现阶段还很难做到完美的统一。数据云数据云也是今年被频频提及的关键词之一,它更多是一个数据基础设施的概念。从技术的角度来讲,数据云是为了提升整个数据分析能力,提升数据分析的实时性;从业务角度来讲,数据云可以帮助数据库厂商在云上拓展更多不同客户。可以看到,今年很多开源数据库产品都发布了自己的Cloud版本,也就是云服务订阅版本,包括TiDB、OceanBase、SelectDB、TDengine等等国内知名数据库厂商。这无疑是开源数据库产品探索商业化一个比较好的路线。相较于云厂商凭借数据库的深度软硬件协同提供产品竞争力,开源厂商基于多个云平台提供的多云容灾切换方案,也有一定的市场发展空间。Serverless这几年,Serverless数据库大火,被称为是下一代数据库的演进方向。事实上,Serverless 数据库并非这两年才有的新概念。早在 2004 年,由于亚马逊的电商网站面临数据库扩展性的挑战,Serverless 数据库的探索之旅便已经开始。Serverless 数据库可以根据应用程序的需求自动扩缩容,并内置高可用和容错能力。Serverless 数据库背后由云服务商动态管理计算资源分布,云服务商将计算资源变成一个池子,用户无需创建实例,就能快速完成部署。具体到数据库层面,用户只要使用了基于Serverless特征的数据库,就可以基于函数运行所消耗的内存和执行时间,按使用量计费,极大地降低了数据库的使用成本。Serverless发展至今,Serverless数据库开始强调极致的资源分配曲线与业务实际需求曲线匹配,目前已经可以做到秒级的按需计费,既能提高资源利用率,还不影响业务的突发流量,因此也被越来越多企业所采用。2022年,数据库领域这些趋势值得关注作为三大基础软件之一,如今数据库领域面临着重大发展机遇——据IDC预测,2022年全球数据管理软件市场规模将达到849.7亿美元,到2026年将增至1378.2亿美元。如此大的市场空间,到底潜藏着哪些机遇和挑战?放眼即将过去的2022年,有哪些重要趋势值得关注?自研分布式数据库迎来落地爆发期在云计算发展和国产化趋势的双重驱动下,国产数据库需求迎来爆发式增长。在过去数年间,分布式数据库发展迅速,成为面对海量规模及高并发等场景的利器。通过数年实践,产品的基本功能、稳定性、性能等方面已趋于成熟,各数据库厂商开始在产品的易用性、可观察性、诊断能力、生态兼容等方向发力,并陆续有成果落地。回首过去一年,随着国产数据库合作生态的日渐壮大以及对降本增效的迫切需求,传统行业纷纷开启了向分布式数据库转型升级之路。国产数据库投产的广度和深度持续增加,广度即商机增多,这一方面给诸多厂商提供了很大的机会,另外一方面也给当前尚不成熟的国产数据库产品能力和服务能力带来了更大的挑战;从深度来看,分布式数据库开始真正落地于金融业、证券业、餐饮业、汽车业、房地产业等传统企业的核心系统中。例如TDSQL今年就服务了TOP 10银行中的7家,OceanBase也在富滇银行、招商证券、红塔银行等企业关键系统中大显身手,服务了头部金融机构中的四分之一。这些无疑都证明了国产自研数据库的能力,但也对数据库的稳定性、数据一致性等提出了更高要求。上云趋势持续火热近日,Gartner发布了最新的数据库中国市场指南报告, 报告指出中国数据库行业将加速增长并逐步向云端迁移。其实数据库的上云趋势并不是今年才有的,早在几年前,许多国外公司甚至许多民营医院已经将数据库部署在云端。以往,金融、政府和公共服务等特定行业的组织对数据和信息保密要求较高,因此对公有云的数据安全、数据主权和法规合规有顾虑,更倾向私有云或本地部署。然而,Gartner观察到一些国内企业、机构正考虑将核心任务事务型数据库迁移到公共云,这反映出最近行业对公共云的顾虑正在下降,混合云模式比重将进一步提升。云数据库凭借按需付费、按需扩展、高可用性以及存储整合等优势已经在海外市场占据了大半市场份额。据业内权威人士称,美国至少有超过一半的数据库跑在云上。虽然目前国内数据库上云趋势还未如国外一样迅猛,但这一趋势已经十分明显。对数据安全的重视达到了前所未有的程度近年来,全球关键信息基础设施网络安全事件层出不穷,涉及电力、石油、制造等国计民生领域。就在2022年初,因遭到勒索软件的攻击,位于荷兰阿姆斯特丹和鹿特丹、比利时安特卫普的几处港口的石油装卸和转运受阻,让国际油价进一步走高到近年来最高的水平,数据面临的威胁从未像今天这样严重。当前,用户主要面临的数据库安全威胁包括SQL注入攻击、缓冲区溢出、默认设置或弱口令、配置错误、用户帐户破坏等。数据被泄露或篡改可能导致企业面临无法通过审计导致的资产负债、监管罚款、盈利受损或客户投诉等诸多负面影响,作为承载数据的数据库系统,其安全性也关乎企业生存发展。尤其是今年,政企各界对数据安全的重视达到了前所未有的程度。今年8月,国家互联网信息办公室编制了《数据出境安全评估申报指南(第一版)》,对数据出境安全评估申报方式、申报流程、申报材料等具体要求作出了说明。10月12日,国家市场监督管理总局(国家标准化管理委员会)发布公告,批准2项国家标准。其中,《信息安全技术 关键信息基础设施安全保护要求》作为2021年9月1日《关键信息基础设施安全保护条例》正式发布后的第一个关基标准,将于2023年5月1日实施。产研结合,深化数据库人才培养除了数据及数据库系统的安全外,今年数据库行业内的人才生态培养也迈向了新高度。为了推动高校与企业强化创新合作,促进创新链产业链深度融合,教育部、工业和信息化部、国家知识产权局决定共同组织开展“千校万企”协同创新伙伴行动(简称“千校万企”行动)。该行动主要目标就是把这些与数据库等“卡脖子”技术相关的企业与高校联动起来,把基础软件这一数字化转型的底座构建得更扎实、更安全。以星环科技为例,今年星环科技与国内多所知名高校达成合作,共同培养创新方面人才,通过这种创新对接的合作方式,运用信息化等手段建立完善校企对接常态化机制,降低对接成本,提升对接效率,促进协同创新。数据库未来展望如前文所述,在刚刚过去的 2022 年,以云原生和分布式为主的新型数据库开始大规模落地于各行业核心系统,此外,各类型数据库趋于融合的趋势也愈加明显。未来,数据库将如何发展?InfoQ 综合多位受访专家的思考,主要概括为以下几点:国内数据库厂商3~5年内将仅存个位数随着基础软件领域成为资本热土,在2020-2021年获得融资的国产数据库公司就超过40家。值得一提的是,仅2021年一年,新成立数据库公司就超过30家,获得新一轮融资的企业多达20家。资本的青睐带来了过去几年数据库厂商的井喷增长,但资本过热也带来了相应的弊端:产品能力参差不齐、同质化现象严重、技术储备力量不足......虽然近年来国内数据库产业发展迅速,借助开源和云计算,中国数据库有机会在全球市场占据一席之地,但国内数据库市场整体相较于海外已经发展了四五十年来说还稍显不足。多位受访人表示,2021年,中国数据库资本处于泡沫的最顶峰,未来三到五年间,数据库厂商数量将会越来越少,因为客户和应用开发商不可能用那么高的成本去适配和选用不同的数据库,这个市场不可能容得下上百种数据库。随着客户逐渐开始使用国产数据库,只有那些个别坚持在数据库领域投入、并踏实打磨数据库产品的长期主义者才能提供优良的服务,才能最终留存下去。抢夺本土市场之外,出海成为新增量IDC发布的《2021年下半年中国关系型数据库软件市场跟踪报告》显示,前八强中除了亚马逊云科技、Oracle和微软外,其余5家都是中国厂商,合计占据超过74%的市场份额。来源:IDC中国,2022在本土做大做强后,数据库出海成为国产厂商的全新增量逻辑,欧美线路和东南亚线路是国产厂商出海的优选项。两年前,腾讯云数据库TDSQL就已经在印尼Bank Neo Commerce银行新核心系统完成搭建并正式投入使用;蚂蚁集团的Oceanbase先后服务过印度、印尼、菲律宾、巴基斯坦等国家的金融科技公司,并开始进军北美市场;涛思数据、星环科技等企业的出海业务也在持续增长;以PingCap、Zilliz、Singularity等为代表的数据库创业公司,则在自成立之初就定位国际化。但中国企业出海面临的信任度、监管、地理位置、地缘政治等障碍也不可回避,上云、开源、新技术敏感度成为除基础技术以外,国产数据库顺利出海的关键要素。开源与商业化相辅相成自21世纪以来,数据本身的增长速度极快,尤其随着最近几年各行各业数字化,例如智能汽车、物联网、VR/AR等等,每年产生和存储的数据始终保持高增长率。但是从管理数据规模来看,包括Oracle/微软/Teradata等这类传统商业数据库的比重逐渐在降低,而开源数据库所占比重越来越大。据DB-Engines发布的2022年12月全球数据库排行榜可以看到,以MySQL、PostgreSQL、MongoDB为代表的开源数据库占据着数据库市场的半壁江山,对于这些软件而言,开源是其取得成功的关键。图片来源:DB-Engines虽然开源的增长会对传统商业数据库市场带来一定冲击,但开源也助力了云数据库市场的发展。客观来讲,开源本身跟商业不冲突,有很多开源数据库与云这种结合产生了很多新的商业模式,例如很多开源数据库推出了云服务版,可以做多云容灾部署,为客户提供订阅类服务。此外,云厂商本身也提供很多开源数据库的服务,例如MySQL、PostgreSQL等,开源一定程度也助力了云数据库这种订阅类商业模式的发展。下一步多模数据库?据IDC发布的《数据时代2025》报告预测,全球每年产生的数据将从2018年的33ZB增长到175ZB(1 ZB=1024 EB),以25 MB/秒的网速进行下载,需要的时间约为18亿年,除了庞大的数据体量外,数据类型也变得复杂多样。如何将多类型数据进行统一管理,成为了数据库领域亟待解决的问题之一。近年来,多模数据库开始兴起,并逐渐发展成一个主要的技术方向。多模数据库,指的是能够将分散的数据,聚合于同一个系统中的数据库。它因具备多模式(Multi-model)数据管理和存储功能而得名,诸如图、键值、关系、文档等数据库模型,都能够得到多模数据库的有效支持。多模数据库代表了在云化架构下,多类型数据管理的一种新理念,也是简化运维、节省开发成本的一个新选择。随着 NoSQL 系统在单模能力上的成熟,以及应用数据需求的多样化,业界开始进入对多模数据库的探索和实践,通过DB-Engine数据库排行榜可以看到,越来越多的流行数据库已经走向多模数据库。采访嘉宾(按姓名首字母排序):郭上阳,MariaDB中国Jags Ramnarayan,MariaDB全球副总裁&SkySQL总经理Michael Cahill,MongoDB研发实验室副总裁Pater,腾讯云副总裁孙元浩,星环科技创始人&CEO陶建辉,涛思数据创始人&CEO杨传辉(花名日照),OceanBase CTO如果你觉得本文对你有帮助,或者你对数据库领域的技术发展有自己的思考,欢迎在文末留言告诉我们!你也可以加入 InfoQ 写作平台撰文发表自己的观点:https://xie.infoq.cn/【年度技术盘点与展望】专题已发布于 InfoQ 官网,将 InfoQ 添加进收藏夹,精彩不错过。另外,InfoQ 年度展望直播周将于 2023 年 1 月 3 日首场开播,并持续输出精彩内容,关注 InfoQ 视频号,与行业技术大牛连麦~
6,386
1,671,603,333,889
InfoQ
81
颠覆开发模式的创新发布背后,我看见了云计算的下一个十年
2022,在云计算的历史上是非常特殊的一年。基础设施加速创新和迭代、Serverless 迎来里程碑式的更新、数据实现 Zero ETL 集成且数据治理能力显著升级、人工智能持续加成被应用到更加丰富的场景...... 开发者的开发模式因为这些 re:Invent 创新的推动将产生颠覆式的改变,云计算也即将开启下一个十年的全新篇章。在今年年末、re:Invent 中国行城市巡展活动开启前夕这个关键的时间节点,InfoQ 总编辑王一鹏独家专访了亚马逊云科技大中华区解决方案架构部总监代闻。本次专访不仅仅聚焦于最新发布的产品及服务,同时也从技术的实践与落地、创新与需求等多维度视角出发,代闻以其作为亚马逊云科技产品创新“领航员”的独特视角,向我们剖析了亚马逊云科技能够持续不断保持创新的动力所在,透过这次的深度对话,相信大家能够更加清晰地认识云计算的现阶段发展及未来趋势。云基础架构的构建之路InfoQ:本次 re:Invent 大会 Nitro v5 、Graviton 3E 系列芯片是很多人期待的发布,那么,对行业有何意义,我们应该如何去理解现在整个云计算产业在硬件方面的更新?代闻:Nitro v5 、Graviton 3E 系列芯片的发布反映出当前的一个大趋势 —— 想提供一流的云服务,一定要具备底层硬件能力。只有通过底层充足的支撑和不断的创新,才能满足客户在云计算方面的需求。当然,创新不是凭空而来的,是由需求推动的。之前在技术圈子经常会说:好的软件工程师会给自己设计硬件。其实在云的时代也一样,一个优秀的云厂商,它在满足客户需求的时候,哪些是应该软件来做,哪些是应该硬件来做,需要良好的规划和路线。大家现在看到的 Nitro v5、 Graviton 3E,就是亚马逊云科技在这样的思路上,一直不断往前迭代的重大更新。Nitro v5 进一步印证了硬件支撑虚拟化的技术路线,同时把安全做得更加牢靠。Graviton 3E 是在 ARM CPU 的这条路上又一个比较有里程碑意义的发布。之前有很多的机构都讲过,ARM 在数据中心里边的占比会越来越高,而亚马逊云科技真正把这个事情做出来,而且实现了量产,而且可以支撑客户的生产业务。到现在 Graviton 3E 其实是第四次发布,印证了 ARM 不仅仅是一个可选项,它现在变成我们要降本增效、要满足更多高性能场景的很重要的选项。InfoQ:云计算已经步入硬件主导性能提升的时代了吗?这种说法是正确的吗?代闻:我可能不是从这个角度来看这个事情。云,其实是个服务,为了提供服务,你得有软件、有硬件、有算法,以及后台运营等等。硬件不是为了创新而创新,是因为用通用的硬件加软件优化的方式已经不够高效了,或者是内部底层功能做起来不够灵活了,跟不上创新速度了,所以反过来才做的硬件。亚马逊云科技数据中心内部,最开始的时候也是用的商用的路由器交换机,后来是因为对于带宽、对于控制层面的灵活性有更高的诉求,亚马逊云科技就把内部的交换机全部应用了 SDN 技术,把整个平台构建起来。所以,不能说硬件的创新成为现在云计算的主流,而是我们可以通过硬件创新的方式,更好地满足客户的需求。除了硬件以外,还有软件方面的能力,我们很多时候在看云或者看产品的时候,往往会陷入到少数几个性能指标里,因为这个可能是最抓眼球或者是最便于理解的,但其实实际客户使用的时候,有很多的功能性需求的。如果亚马逊云科技只有底层的硬件,没有软件支撑,是不行的。所以,硬件创新是走到现在这个阶段里边非常重要的一环,但是它不是唯一的维度。InfoQ:C7gn 和 HPC7g 都是服务密集型工作负载的实例,这是否说明云计算下一阶段的主要技术攻坚方向会聚焦于自然科学、工程、气象这些领域?代闻:在我看来,现在在 HPC 领域里边的很多基准测试程序,体现在云计算的环境里边,是证明了在这个方向的上限能力。这个上限就决定了底层的基础设施的能力。无论这次发布的 Nitro v5、Graviton 3E ,还是重新把很多底层的通信用 SRD 的协议重新做部署。其实这就是拿 HPC 场景证明了云计算本身的能力。在客户侧,我们看到近年来 HPC 在云上面是可以得到非常好的支撑,尤其是随着自动驾驶、药物研发投入需求增加,亚马逊云科技的产品研发团队就会比较切实地从用户需求出发来反推新的产品方向,进一步做底层创新,对这些场景加以支撑。从自动驾驶和药物研发,到欧洲粒子对撞实验室,都有过非常多的 HPC 的场景,但是之前从密度上来讲没有现在这么高,这两年虽然场景还是那些场景,但是,需求密度大大增加了,伴随着需求增加而进行的这些创新就可以提供更好的业务支撑和加速。Serverless 化全面改造InfoQ:前几个问题主要跟代闻老师聊了关于 Infra 的发布,以及对于云计算行业来说有着什么样的意义。接下来想聊一下 Serverless。本次 re:Invent 发布了 Amazon Lambda SnapStart,能否为我们解读下这一发布对行业的价值,以及是如何实现的?代闻:亚马逊云科技对于无服务器的计算环境的投入是非常早的,其实在 Amazon Lambda 刚出来的时候,很多人不太看好,因为跟多年以前的 Runtime 托管非常像。并且,在 Lambda 推出的 2014 年,那个时候大家讲的更多得还是从虚拟机到容器。但是亚马逊云科技当时坚持认为,以后无服务器和容器都会占据非常重要的位置。其实我认为无服务器,更多的是一种计算环境的体现,或者是从用户角度来判定“我”需要一个什么样的计算服务或者是一个平台服务。在最开始的时候,我们狭义上的 Serverless 是 Amazon Lambda,来运行我们自己的代码。后来,开发者想要把第三方软件或服务也能够 Serverless 化(以同样获得弹性、免运维等益处),现在才看到了诸如 EMR Serverless、Aurora Serverless、Redshift Serverless、OpenSearch Serverless 等产品形态的的出现,同时第三方软件服务的 Serverless 版本也逐渐成为标配。具体回到 Amazon Lambda 里,亚马逊云科技一直在不断地把 Amazon Lambda 的使用边界拓宽。在最开始的时候,冷启动,甚至是在 VPC 的访问方面都有一些限制。后来你会看到它一步一步地去做增强,一部分是性能方面,一部分是功能需求方面。功能需求方面,一开始 Amazon Lambda 的开发环境都成问题,本地开发环境也不太友好,但现在整个的工具链是非常成熟的。性能方面,从最开始的发布到 Firecracker microVM 技术的引进,再到现在的  Amazon Lambda SnapStart ,它是把运行环境里边的内存和磁盘做镜像, 把初始运行环境 Cache (缓存) 起来。当你要运行代码的时候,它立马能够从 Cache 源中恢复出运行环境,来做迅速地扩展。以前冷启动是不能适应这种有负载抖动的场景的,现在它可以无缝地扩展、收缩。这样一来,能够让大家更加专注在应用代码的编写上面并将适用边界拓展到更加有挑战性的场景里面去。InfoQ:能否为我们聊聊亚马逊云科技是如何针对云产品,推进 Serverless 化全面改造的?代闻:一方面是用户的需求,另外一方面从技术上分析。Serverless 第一步是最基本的计算环境  Serverless,第二步,第三方代码能不能托管进去?所以在技术方面,有了  Serverless 的便利性以后,下一步就是平台软件的 Serverless  化。现在的平台软件里数据相关的软件比较多。数据库也好,数据分析软件也好,本质上就是一个系统,它自己就是一个平台软件,既然代码运行环境可以 Serverless 化,把这个技术应用到平台软件,就很自然的推动了 Serverless 化全面改造。InfoQ:所以代闻老师觉得我们现在 Serverless 的实践整体进展到什么样的阶段?它距离我们未来的一个理想目标大概还有多远?代闻:当我们谈一个产品或者技术的未来,我们需要先设定多大的时间维度。其实很多产品的创新是持续性的,是一步一步往前推进的。我们对于不同的客户,不同的工作负载提供了不同的工具,客户自己会选择最合适的产品,而且每个产品都有自己的参考架构。有的客户业务场景适合全部用 Serverless ,有的场景可能发现还是容器或者虚拟机这样的方式会更适合。然后,当用户发现 Serverless 的使用在他们的业务场景里还是有限制的时候,新的需求就会产生,反推我们做下一个迭代。所以云服务创新很关键的一点是,真正的从用户的需求出发,来反推技术的演进,而不是关门站在技术的制高点上面,研究出一个工具,让大家一定要用。云如何成为创新时代的核心InfoQ:在 re:Invent 上,亚马逊高级副总裁、CTO Werner Vogels 发布了许多对开发者有重大意义的产品,Amazon Step Functions Distributed Map 为何会聚焦并发数量的变化,是我们基于什么样的需求来做的产品迭代?代闻:整个的云计算历程是始于开发者和一些初创公司的,然后再被大的企业接受、在企业领域应用和创新。开发者是云计算功能、性能不断地做创新,一直能往下走的一个非常重要的引擎。在整个的亚马逊的版图里,开发者是非常非常重要的,也是能保障亚马逊云科技的产品、服务,最后的落地能力足够强的很重要的保障。再回到具体的特点中,Amazon Step Functions Distributed Map 可以看作是在云原生的环境下,对于开发者提供的更加有利的一个工具。说到云原生,什么是云原生?云原生是程序从第一天就是在云上跑的,根本不需要考虑如果放在机房里面是怎么样。比如,现在有 100 万个日志文件在 Amazon S3 上面,想要对文件里边的某一个字符进行更改。这个时候就要对很多的日志文件,同时进行更改操作,需要有非常大的并发。如果没有 Amazon Step Functions Distributed Map 就需要 Launch 一个大数据的服务,然后通过数据处理来做,但现在有了 Amazon Step Functions Distributed Map  以后,就可以屏蔽底层的复杂度、非常轻松地来实现这个处理。这样一来,就可以真正地进一步完善云原生环境里边的开发体验。云原生影响的不只是我们程序的运算环境,还会影响到开发者的默认前提。云原生时代的开发者,他的需求包括对于工具的抽象程度,其实和以前是不一样的。我们需要把工具做足够好的抽象,让大家在云原生状态下进一步地聚焦在业务上面,不用关心底层逻辑。云原生,它是相对概念。刚上云的时候,云原生可能指的是弹性、高可用这些,但走到现在,可能是平台、操作、数据处理等。云原生不是绝对的,因为云服务本身的边界在不断变宽、变多,云原生是相对于什么时候的云原生,十年前的云原生还是现在云原生,是不太一样的。InfoQ:代闻老师这个回答非常生动地解释了云原生对开发者的影响到底是什么。我自己在看 Amazon Step Functions 发布的时候,其实我一直在纠结概念上的区别,就是低代码。Amazon  Step Functions 过去的应用情况如何,和流行的低代码理念的核心区别是什么?代闻:低代码也是相对概念,是一个过程。低代码可以以发展进程式的方式来理解。Amazon Step Functions 也有一个叫 Workflow Studio 的低代码可视化工具。Amazon Step Functions 一整套工具集与低代码有相同的实现目的,即能够把一些重复的、晦涩难懂的工作用更加简易的、可视化的方式实现,所以,如果站在更高层面上,把低代码看作是技术往下一代演进的一个过程,那么 Amazon Step Functions  和低代码就是在同一个维度上面的,更何况 Step Function Workflow Studio 本身就是一个低代码类的产品。InfoQ:Amazon CodeCatalyst 也是个很有意思的发布,现在研发管理的 SaaS 和软件有很多,Amazon CodeCatalyst 的核心特色是什么?代闻:Amazon CodeCatalyst 更多的是关注云原生的开发环境。在我看来 Amazon CodeCatalyst 的特色主要有两点。第一,它覆盖到了开发的整个生命周期。从最开始的规划,到软件架构的设计,再到底层的系统架构的采用,再到编码,其实都是可以在这个平台里边来完成的。第二,开发环境和协作环境都是在云端完成的,这样一来,对于内部协作的统一性,开发的便利性,都能得到很好的保障。每一次新的服务发布以后,就是新的领域或者一个新的方向的开始,我相信 Amazon CodeCatalyst 在接下来也会接收到很多用户的输入,让它不断迭代。同时 CodeCatalyst 也兼容很多合作伙伴产品,大家会一起前行。InfoQ:结合 Werner 这几款产品的发布,能否为我们解读下亚马逊云科技如何理解开发者当下面临的困难?代闻:Werner Keynote 里边最开始谈的是并行以及异步,他认为,异步是并行很重要的支撑。Werner  Keynote 谈到在现代的软件开发架构下,如何构建一个松耦合的高并发系统,这正是现在很多的开发者会遇到的问题。虽然微服务已经提出很长的时间,但是大多数企业依然需要让软件架构往前演进。其关键在于,首先是能够把握住业务需求,第二,是要有好的设计原则、并且遵循设计原则,进而灵活的支撑业务需求。去年, Werner 也分享了他的 API 设计的原则,但是真的落地的时候,由于种种原因,大家还是会遇到很多困难。亚马逊看到了这些难点,然后针对很多共性需求开发了一系列抽象服务,屏蔽底层实现的复杂度,让更多中小企业和开发者可以轻松推进软件架构演进,实现云原生。例如,Amazon Step Functions Distributed Map 就是这样一个服务,对于大规模并发的数据处理,开发者不用再自己实现并发机制,在云原生的环境里更加专注业务需求。InfoQ:从 2022 的时间点来看,当下云计算处于什么阶段,未来趋势如何?代闻:这取决于我们从多大的历史维度看这个问题。因为云服务本身是一个服务,服务的本身是要帮助使用者、客户实现自己的业务目标。技术实现来源于需求,反过来,有新的技术以后又能够进一步拓宽边界和可能性,客户又可以在新的方向去试验,一起把推动云计算向前发展。如果一定要找一个维度来看云计算处在什么阶段,那么,从现在企业的 IT Spending 来看,它还是早期的。以上内容根据采访视频整理,以视频内容为准为了将 2022 亚马逊云科技 re:Invent 全球大会的精华内容和体验带给中国众多云计算爱好者,亚马逊云科技将于 12 月 20 日开启 2022 re:Invent 中国行城市巡展活动,实现“全球盛会,中国共享”!
3,666
1,671,526,995,983
InfoQ
82
re:Invent 2022 全回顾:看见云计算的力量,透视未来的云计算
不知不觉, re:Invent 已经走过了 11 个年头。11 月 28 日,一年一度的 re:Invent 2022 全球大会开幕。这是自 2019 年疫情以来的首次现场活动,因此也格外有意义。据悉,re:Invent 2022 吸引了约 50000 人现场参加,与疫情前的水平相当。而线上参加的人数超过 300000 人。这场为期五天的云计算盛会又给大家带来了很多新的惊喜。重要发布综述在 re:Invent 2022 上,亚马逊云科技推出了广泛的新应用程序和产品增强功能,旨在优化数据分析和治理,并加强计算基础设施,发布了涵盖存储、计算、分析、机器学习、数据库和安全服务的新服务和功能,并首次涉足供应链管理。亚马逊云科技首席执行官 Adam Selipsky 在“如何借助云的力量,在未知领域抓住机遇并茁壮成长”的主题演讲中表示:“到目前为止,亚马逊云科技大多数创新都是通过倾听和回应客户来推动的”。Serverless 迎来里程碑式创新近两年,Serverless 概念迅速蹿红。去年,CNCF 发布的《2020 年度中国云原生调查报告》显示,Serverless 架构正在持续增长,31% 的企业在生产中使用Serverless,41% 的企业正在评估,12% 的企业计划在未来 12 个月使用。作为Serverless 技术的先驱,Amazon Lambda 在采用率方面一直保持领先地位。公开数据显示,已有上百万家客户在用 Amazon Lambda 来构建服务。如今,亚马逊云科技已领跑完成 Serverless 在云服务上的全面布局,从计算、存储、应用集成、数据库、数据分析、人工智能等多个服务领域全面推进 Serverless 进程。在今年的 re:Invent 2022 上,亚马逊云科技进一步发布了 Amazon Lambda SnapStart ,将冷启动时间缩短了 90%,让用户几乎可以无感知地实现应用扩展。据介绍,Lambda SnapStart for Java 可以将延迟敏感型应用程序的启动性能提高多达 10 倍,无需额外费用,而且通常无需更改函数代码。冷启动延迟主要由函数初始化过程造成,包括下载函数的代码、启动运行时等。借助 SnapStart,Lambda 会在用户发布函数版本时初始化函数。Lambda 采用 Firecracker microVM 初始化执行环境的内存和磁盘状态的快照,加密快照,并缓存它以实现低延迟访问。当第一次调用函数版本时,随着调用的增加,Lambda 会从缓存的快照中恢复新的执行环境,而不是从头开始初始化它们,从而改善启动延迟。亚马逊云科技公用计算高级副总裁 Peter DeSantis 在主题演讲中指出,Lambda(以及所有其他 Serverless 平台)的构建目标之一是应对业务峰值的挑战。凭借其 Firecracker microVM,亚马逊云科技已经将冷启动时间从几秒缩短到不到一秒。现在,亚马逊云科技承诺通过使用 Firecracker 的快照功能可将冷启动时间缩短 90% 。亚马逊云科技还宣布推出了适用于 Amazon OpenSearch Service 的Serverless 选项预览版,使客户无需管理集群即可轻松运行大规模搜索和分析工作负载。它能自动配置和扩展底层资源,即使是最苛刻和不可预测的工作负载也能提供快速数据摄取和查询响应,无需配置和优化集群。借助 Amazon OpenSearch Serverless,用户无需考虑难以提前了解的因素,例如查询的频率和复杂性或预期分析的数据量,可以专注于使用 OpenSearch 来探索数据并从中获取洞察,而不是管理基础架构。用户还可以开始使用熟悉的 API 来加载和查询数据,并使用 OpenSearch Dashboards 进行交互式数据分析和可视化。Amazon OpenSearch Serverless 也填补了亚马逊云服务 Serverless 分析产品组合最后的空白,这意味着现在亚马逊云科技提供的所有的数据分析服务已全部实现了 Serverless 化。亚马逊云科技Serverless计算副总裁 Holly Mesrobian 在其演讲中介绍了 Serverless 多项重要创新。其中有一项是 Amazon Inspector 开始提供对 Amazon Lambda 的支持,为 Serverless 计算工作负载添加了持续的自动化漏洞评估。借助此扩展功能,Amazon Inspector 现在可以自动发现所有符合条件的 Lambda 函数,并识别 Lambda 函数代码中使用的应用程序包依赖项中的软件漏洞。大数据驱动云技术演进re:Invent 2022 的一个主题是简化企业的数据管理和分析。为此,亚马逊云科技宣布了十几项数据服务更新。其中包括两项重要的新功能 —— Amazon Aurora 支持与 Amazon Redshift 实现 Zero ETL 集成,以及 Amazon Redshift 支持与 Apache Spark 集成,不再需要数据的提取、转换、加载(ETL)过程。亚马逊云科技还发布了一项名为 Amazon Data Zone 的新数据管理服务预览版,旨在帮助企业对存储在亚马逊云科技、本地和第三方来源的数据进行分类、发现、共享和管理。此外,为了帮助企业与合作伙伴进行数据协作,亚马逊云科技推出了一项名 Amazon Clean Rooms 的新服务。同时还推出了 Amazon Glue Data Quality (Preview) ,可以进一步提升数据质量,萃取数据价值,保证数据治理。数据治理需要有非常高的数据质量规范,然而越高的规范代表了越高的管理成本,非常费时费力,有时要花几天,甚至几周的时间。Amazon Glue Data Quality 能识别丢失、陈旧或不良数据,将这些手动的数据质量工作从几天缩短到几小时。亚马逊云科技也为其统一商业智能服务 Amazon QuickSight 添加了新功能,包括可以通过名为 “QuickSight Q”的新功能进行自然语言查询的能力。添加到 QuickSight 的其他功能还包括生成分页、大型数据集的报告和快速分析。如今,网络攻击不断激增,而数据又已成为企业的命脉,因此亚马逊云科技针对当前形势发布了其数据安全服务的更新。其中一项重大发布是推出了新的网络安全服务 Amazon Security Lake ,该服务能够自动将来自云和本地来源的安全数据集中到客户在亚马逊云账户中专门构建的数据湖中。其他安全功能更新还包括对自动化漏洞管理服务 Amazon Inspector 及其机器学习安全和隐私服务 Amazon Macie 的更新。AI 能力加成亚马逊云科技继续完善其 AI 应用程序,宣布对其 SageMaker 机器学习服务进行了更新,以改进该服务的治理属性。作为这些更新的一部分,亚马逊云科技推出了 Amazon SageMaker Role Manager,旨在让管理员更轻松地控制访问并为用户定义权限。此外,它还向 SageMaker 添加了一个名为 Amazon SageMaker Model Cards 的新工具,以帮助数据科学团队简化模型信息收集。该服务还添加了 Amazon SageMaker Model Dashboard,为 SageMaker 提供一个中央界面来跟踪机器学习模型。亚马逊云科技也为 Amazon SageMaker Studio Notebook 添加了数据准备功能,并在 SageMaker 中增加了一个新的工作区,旨在让数据科学团队实时阅读、编辑和运行 Notebook。为了帮助企业获得更多的数据回报, 亚马逊云科技也在一系列其他服务中添加了新的人工智能功能,包括 Textract、Transcribe、Kendra、CodeWhisperer 和 HealthLake。比如,为了帮助企业提供更好的客户服务和体验,亚马逊云科技更新了其自动语音识别 (ASR) 服务 Amazon Transcribe,以提供实时呼叫分析。与此同时,亚马逊云科技 通过添加支持 HTML 表格搜索的新功能,增强了其基于人工智能的企业搜索服务 Amazon Kendra。计算服务更新随着企业收集、存储和处理更多数据,他们的计算需求也必然会增长。在认识到这一趋势后,亚马逊云科技发布了其计算服务的多项更新以及一些旨在运行极其繁重的工作负载的行业特定功能。为了提升其高性能计算服务,亚马逊云科技宣布推出 Amazon EC2 Hpc6id 实例,它可以支持密集型工作负载,具有更高的每 vCPU 计算性能以及更大的内存和本地磁盘存储,以减少数据密集型作业的完成时间和工作量。此外还推出了用于高性能计算(HPC)的新芯片— Graviton3E 和下一代 Nitro 智能网络芯片,以及可以充分发挥新硬件性能的新实例。真实世界模拟动态 3D 实验可以帮助跨行业(交通、机器人、公共安全等)的组织,了解可能的现实世界结果并为他们进行培训。例如,确定工厂车间的新工作流程,运行不同的自然灾害响应场景,或考虑不同的道路封闭组合。但复杂的空间模拟需要大量的计算资源,而且跨计算实例集成和扩展、模拟数百万个交互对象可能是一个困难且昂贵的过程。为了帮助客户构建、操作和运行大规模空间模拟,亚马逊云科技推出了 Amazon SimSpace Weaver。这是一种全新的、完全托管的计算服务,可帮助用户在云上运行大规模空间模拟,而无需管理复杂的基础设施。它允许用户将空间模拟部署到具有许多数据点的模型系统,例如城市的交通模式、场地中的人群流动或工厂车间的布局中。亚马逊云科技表示,SimSpace Weaver 面向希望对超过一百万个实体(人、汽车、交通信号灯、道路…)运行复杂 3D 模拟的企业。“就像一个真实的城市,模拟本身就是一个广阔的‘世界’”。亚马逊云科技正在为每个行业赋予空间模拟的能力,使客户能够更轻松地模拟从交通模式到公共交通网络再到供应链基础设施的一切。重要变化解读数据战略的新变化大数据可以说是这次 re:Invent 发布的一个重要核心主题。亚马逊云科技大中华区解决方案架构部总监代闻在接受 InfoQ 采访时表示,此前,亚马逊云科技一直在提的战略是云原生的数据战略。这一战略包括云原生的数据基础设施、数据一体化的融合、数据驱动智能化的创新、保证数据安全和数据治理等。代闻感受到,在今年的 re:Invent 上,数据战略在原先的基础上,又做了进一步提升,尤其是在数据底盘上。此前亚马逊云科技一直强调数据的跨域流动、数据的无缝流转等,这次 re:Invent 发布的内容则进一步侧重数据可见性,例如某一区域的部分数据不止区域可见,还能做到全球可见,并在安全的情况下可用。此外更进一步强调了数据的无缝流转,这次大会发布的内容非常强调专门构建的产品,以及这些产品如何给客户最好的体验。首次涉足供应链另一个值得关注的变化是,亚马逊云科技首次围绕供应链发布了新产品。看到了供应链应用场景需求增长的机会,亚马逊首次涉足供应链管理,发布了集成机器学习的云应用程序,名为 Amazon Supply Chain,以帮助经常使用多个 ERP 系统的大型企业获得供应商、库存、物流和其他供应链相关组件的统一视图。近年来,因为广泛的资源短缺、地缘政治、自然事件等因素,供应链经历了前所未有的供需波动。供应链中断给企业带来不小的压力,要求企业针对潜在的供应链不确定性进行规划,并在降低成本的同时快速响应客户需求的变化。当企业对供应链风险(例如,组件短缺、航运港口拥堵、意外需求激增或天气中断)的预测不充分时,他们可能难以应对库存成本过高或缺货的情况。新的 Amazon Supply Chain 服务通过跨多个供应链系统组合和分析数据来帮助简化这一过程。亚马逊云科技称,借助这一新服务,企业可以实时观察运营,快速识别趋势,并生成更准确的需求预测。这项新服务基于 Amazon.com 近 30 年的物流网络经验。它使用预训练的机器学习模型来理解、提取和聚合来自 ERP 和供应链管理系统的数据。然后将信息实时上下文化,突出显示每个位置的当前库存选择和数量。机器学习模型显示潜在的库存短缺或延迟,并在出现风险时提醒用户。一旦发现问题,Amazon Supply Chain 就会根据解决风险的百分比、设施之间的距离以及可持续性影响提供建议的操作,例如在不同地点之间移动库存。基础设施:专注高性能的同时,更专注低功耗、构建生态代闻观察到,今年亚马逊云科技在芯片等基础设施方面的发布,可以说更往前走了一步。这主要表现在两个方面:一是真正继续践行“低功耗、高性能”的准则,很多新发布的硬件在关注高性能的同时,也非常关注低功耗,如单瓦特能提供什么样的算力,这也与我们国家在提的碳融合、碳达峰的理念相契合;第二是更关注生态,业务和数据是跑在基础设施上的,新发布的基础设施能否提供最终的业务价值很重要。对企业客户来说,业务可以直接无缝迁移到亚马逊云科技的基础设施上,这样既节约成本,又获得了良好的性能。透视云计算的未来re:Invent 可谓是云计算领域的“春晚”,也是云计算行业的风向标。岁末年尾之际,透过这场大会,我们在看到云计算在过去一年里的发展现状的同时,也能够感知到接下来云计算的发展趋势。数据量剧增,对云计算的灵活性要求提高亚马逊云科技首席执行官 Adam Selipsky 在主题演讲中强调了数据的重要性。Adam 认为,数据增长的速度预计只会进一步加快,因此,对那些需要随着数据增长而扩大规模的组织来说,云计算所能提供的灵活性是非常有吸引力的。“分析人士预测,在未来五年内,我们创造的数据量将是数字时代开始以来的两倍多,”他说,“管理数据的规模和增长对每个组织来说都是巨大的挑战和机遇。”企业需要对数据做到很好的管理,来保证数据是安全的,同时还要去理解这些数据,探索这些数据可以给企业带来的各种潜力。Adam 认为,在数据管理领域需要有合适的工具、有效的数据集成、规范的数据治理和深入的业务洞察力。为此,亚马逊云科技针对性地构建了多款工具。在数据分析服务方面,亚马逊云科技宣布正式推出 Amazon OpenSearch Serverless 版本;在数据集成方面,Adam 重点提到了Zero ETL, ETL(数据提取、转换和加载)是重复性无差别的繁重工作,因此亚马逊云科技认为 Zero ETL 必将是最终目标;在数据管理方面,亚马逊云科技宣布推出一项用于分类、发现、共享和管理数据的数据管理服务 Amazon DataZone;为实现业务洞察,Adam 宣布使用 Amzon Quicksight Q 应用探索新的基于机器学习的预测服务发布,以探索更广阔的数据领域。Adam 表示,亚马逊云科技在整个数据之旅中做了大量投入,目标是帮助客户更好地释放数据的价值。异步计算架构的世界亚马逊副总裁兼 CTO Werner Vogels 在主题演讲中强调了异步的概念。“这个世界上绝对没有什么是同步的,”他说,“如果是这样,我们真的不会喜欢它。” Vogels 表示,异步的概念可以用于构建计算机系统,以及开发整个数字世界。异步计算机体系结构提供的选项和变化可能意味着即使出现数字灾难,也有可能向前推进。“当我想到异步时,”他说,“就是我们应该在任何情况下都取得进展,无论发生什么。”Vogels 说,随着 S3 产品的开发,异步的概念就已经在亚马逊发挥作用。“我们希望确保该系统在任何情况下都能完美应对”,“无论涉及什么;不管有什么故障。” 然而,他还表示,乍一看,就延迟和吞吐量而言,计算同步似乎更容易。“同步是一种简化。它只是让我们更容易编写程序的东西,”Vogels 说,但有一个警告。“同步是一种幻觉。这是我们在一个异步的世界上构建的东西。”人们通常认为异步编程很困难,所以操作系统往往具有受限的接口。Vogels 说:“如果你想写入磁盘,在写入块之前你会被阻塞。” 变化在 1990 年代开始出现,操作系统从头开始设计,以向世界展示异步性。Windows NT 可能是第一个将异步通信或与设备交互作为内核第一原则的系统。Linux 直到 2000 年代初才采用异步技术。异步的好处是,与同步的错觉相比,它是自然的。Vogels 说,当计算系统紧密耦合在一起时,如果出现问题,可能会导致广泛的故障。对于异步系统,一切都是解耦的。“最重要的是,这是一种无需更改任何其他组件即可非常轻松地发展的架构,”他说。“这是隔离故障的一种自然方式。即使任何组件出现故障,整个系统将继续工作。”Vogels 还表示,异步架构是不断演进的,而不是一蹴而就的。“分解成小的、易于理解的构建块是构建这些异步、松耦合、事件驱动系统的基本部分。”机器学习的六大趋势亚马逊人工智能和机器学习副总裁兼总经理 Bratin Saha 概述了这家云巨头看到的六大关键趋势,这些趋势有助于推动 2022 年及以后的机器学习技术创新。亚马逊云科技称其 AI/ML 服务拥有超过 100,000 名客户。这些服务分布在三个层级:机器学习基础设施服务,使组织能够构建自己的模型;SageMaker,提供构建应用程序的工具;以及针对特定用例的专用服务,例如转录。趋势 1:模型复杂度不断提高近年来机器学习模型的复杂度呈指数级增长。衡量机器学习模型复杂程度的一种方法是计算其中的参数数量。Saha 解释说,参数可以被认为是嵌入在机器学习模型中的值变量。2019 年,当时最先进的机器学习模型大约有 3 亿个参数。快进到 2022 年,最好的模型的参数量现在已经超过 5000 亿。“换句话说,在短短三年内,机器学习模型的复杂程度增加了 1600 倍。”这些庞大的模型就是现在通常所说的基础模型。使用基础模型方法,可以使用海量数据集对机器学习模型进行一次训练,然后针对各种不同的任务进行重复使用和调整。因此,企业可以通过更易于采用的方法从日益复杂的过程中受益。“Foundation models 将机器学习的成本和工作量降低了一个数量级。”趋势 2:数据增长越来越多的数据和不同类型的数据被用于训练机器学习模型。组织现在正在构建经过结构化数据源(如文本)以及非结构化数据类型(包括音频和视频)训练的模型。为了将不同的数据类型放入机器学习模型中,亚马逊云科技开发了多种服务来帮助训练模型。Saha 重点强调了其中一项工具是 SageMaker Data Wrangler,它可以帮助用户使用一种适用于机器学习训练的方法来处理非结构化数据。趋势 3:机器学习产业化亚马逊云科技 也看到了机器学习产业化的趋势。这意味着机器学习工具和基础架构更加标准化,使组织能够更轻松地构建应用程序。Saha 表示,机器学习工业化很重要,因为它可以帮助组织实现开发自动化并使其更加可靠。随着组织构建和部署更多模型,工业通用方法对于扩展至关重要。“即使在亚马逊内部,我们也在使用 SageMaker 进行工业化和机器学习开发。”趋势 4:针对特定用例的机器学习支持的应用程序针对特定用例的专用应用程序,机器学习的支持也在增加。Saha 表示,亚马逊云科技的客户已要求供应商自动化常见的机器学习用例。例如,亚马逊云科技(和其他供应商)现在提供语音转录、翻译、文本转语音和异常检测等服务。这些为组织提供了一种更简单的方法来使用机器学习支持的服务。趋势 5:负责任的人工智能负责任的人工智能也有增长的趋势和需求。随着人工智能和机器学习的发展,人们意识到必须负责任地使用它。从亚马逊云科技的角度来看,负责任的人工智能需要具备几个关键属性。系统需要公平,无论种族、宗教、性别和其他用户属性如何,系统应该对所有用户平等运作。机器学习系统还需要可解释,以便组织了解模型的运作方式。另外也需要治理机制,以确保负责任的人工智能得到实践。趋势 6:机器学习民主化推动机器学习向前发展的最后一个关键趋势是使技术民主化,使更多人可以获得工具和技能。“客户告诉我们,他们通常很难招聘到需要的所有数据科学人才。”在 Saha 看来,民主化挑战的答案在于继续开发低代码和用例驱动的工具,以及展开相应的教育工作。“亚马逊云科技正在投资培训下一批机器学习开发人员,”Saha 表示:“亚马逊承诺,到 2025 年,我们将通过免费的云计算技能培训帮助超过 2900 万人提高他们的技术技能。”在亚马逊云科技开发者社区官网,我们发布了关于本次 re:Invent 更全面的信息资讯,点击链接即可访问。
6,314
1,671,273,473,639
InfoQ
83
是时候好好治理 AI 模型了!
如今,有越来越多的企业将机器学习引入到不同的流程中,对机器学习模型的期待也越来越高。与这种期待相反的是,我们对机器学习治理的关注度显然不够,还没有找到好的方式让整个流程运转地更加流畅、透明度更高,甚至连最佳实践可能的样子都十分模糊。在刚刚结束的 2022  re:Invent 大会上,亚马逊云科技数据与机器学习副总裁 Swami Sivasubramanian 博士针对 Amazon SageMaker 发布的一系列更新,扩大了机器学习在模型生命周期中的治理规模,让模型开发初步告别了“盲盒”时代。机器学习治理需要更进一步近两年,大模型的风越刮越烈,企业和开发者已经习惯于通过机器学习的方式来解决问题。显而易见的是,大模型并不是所有人都可以承担起的。如果希望在现有规模下获得好的效果,选择合适的机器学习治理流程才是可行的。过去,我们花费了大量时间在数据治理上面,市场上也有了很多不同类型的解决方案。在刚刚结束的 2022 re:Invent 全球大会上,亚马逊云科技推出的 Amazon DataZone 便是其中之一,这是一项全新的数据管理服务,可以让用户更快、更轻松地对存储在亚马逊云科技、客户本地和第三方来源的数据进行编目、发现、共享和治理,从而消除数据目录维护的繁重工作。我们期待通过 DataZone 这样的方案可以降低数据预处理的成本,提高模型生成的精准度,但机器学习的模型开发流程像一个不可预知的“盲盒”,仍然缺乏有效的手段保证模型上线后如预期发挥作用。当我们把数据治理的思路类比到机器学习治理当中,能否找到一种工具降低模型的故障?目前来看,情况还不算太明朗。据 2021 年企业机器学习趋势报告显示,机器学习治理目前还处于早期发展阶段,其暴露出的具体问题有:还未出现成功案例,缺乏明确的路线图或规范性建议,目前市场上现存的一些解决方案都是由不同工具拼凑而成的,其覆盖范围还存在缺口,机器学习更是难以集成到标准化的企业 IT 流程和技术堆栈中。除此以外,由于相关的法规还不够完善,如何保障合法合规也是另一大挑战因素。在企业对机器学习严重依赖的当下,我们是时候扩大机器学习治理的规模,让其更进一步了。这件事情由承担着企业内部大部分模型开发工作的机器学习平台来完成或许最合适。让越来越多的 AI 模型有效运转2017 年,Amazon SageMaker 首次在  re:Invent 大会上亮相,其极大降低了 AI 开发的门槛,让有能力改进框架和算法的开发者,尽可能少地花费精力在数据准备、部署、安装、调试等无关事情上。过去五年,亚马逊云科技一直在稳步对 SageMaker 进行迭代升级,让其成为了企业内部被广泛使用的机器学习平台之一。在 SageMaker 发布之后,我们看到了大批一站式机器学习平台出现,让越来越多不同背景的人可以加入到这一流程中。此时,新的问题又出现了。首先,由于机器学习的用户组权限差异较大,企业必须给不同角色的人赋予不同的权限,以避免引入无关的人为错误,但自定义策略的过程是非常耗时的;其次,用不同的手动工具来捕获、共享模型信息很容易出错;最后,定制工具以获得模型性能的可见性是很昂贵的。但是,大部分一站式机器学习平台还没有在治理层面有实质性进展,这也导致企业内部引入机器学习的过程并不顺利。为了解决上述问题,亚马逊云科技2022 re:Invent 大会上推出了Amazon SageMaker 的三大机器学习治理新功能来简化访问控制,增强端到端机器学习部署的透明度、模型治理和可审计性,分别是:Role Manager、Model Cards 和 Model Dashboard。SageMaker Role Manager 通过自动策略创建工具帮助组织为用户定义关键权限;Model Cards 主要是为 ML 模型文档创建单一、真实的模型文档;Model Dashboard 为组织提供了 ML 模型性能的可见性和统一监控。SageMaker Role Manager 有一组针对不同角色和机器学习活动的预定义策略模板,例如数据科学家或 MLOps 工程师,可以在几分钟内为 SageMaker 用户自定义权限,企业也可以定义其他角色、添加机器学习活动以及托管策略,以满足特定需求。 Model Cards 为模型信息创建了单一真实的来源,简化了整个机器学习生命周期的模型文档。对于在 SageMaker 上训练的模型,Model Cards 可以发现并自动填充细节,例如训练作业、训练数据集、模型工件以及推理环境。企业可以记录模型的详细信息,例如模型的预期用途、风险等级以及评估结果。对于合规性文档和模型证据报告,还可以将 Model Cards 导出为 PDF 文件,轻松地与客户或监管机构进行共享。 Model Dashboard 实现了一个用于监控所有模型的页面,借助鸟瞰图,企业可以通过与 SageMaker Model Monitor 和 SageMaker Clarify 的集成,查看生产中使用的模型、查看 Model Cards、可视化模型世系、跟踪资源以及监控模型行为。当模型未受到监控或偏离预期行为时,Model Dashboard 会自动提醒。  在大部分场景下,这种治理能力带来的好处是通过最低的成本,保证模型上线并发挥效用。在一些特殊场景下,这种治理能力所发挥的作用则不止于此,比如金融、医疗等对可信度要求极高的领域。世界最佳银行之一的 Capitec 曾表示,其产品线上的数据科学家们各有所长,可以构建不同的机器学习解决方案,机器学习工程师们管理着一个建立在 Amazon SageMaker 上的集中式建模平台,以支持所有解决方案的开发和部署。由于没有任何内置的工具,跟踪建模往往会出现文档不连贯和模型不可见的情况。通过 SageMaker Model Cards,Capitec 可以在统一的环境跟踪大量的模型元数据,而 SageMaker Model Dashboard 提供了每个模型性能的可见性。此外,SageMaker Role Manager 简化了不同产品线中数据科学家的访问管理过程。企业应该投资治理,还是扩大现有 AI 解决方案?对企业来说,现有资金到底应该投入到机器学习治理流程,还是应该继续扩展现有的机器学习解决方案呢?如果任由机器学习在企业内部无组织地发展下去,最终会导致系统故障率越来越高,尽而降低整体的投资回报率。过去两年,我们看到了很多自动驾驶汽车的事故案例,甚至有些企业放弃了对自动驾驶的投资,这也意味着,我们需要更可靠地治理手段来保证人工智能系统的正常运转。本质上,现代人工智能系统是一个黑匣子,这些系统建立在复杂的技术栈之上,技术栈通过获取、转换数据并将其输送到下游机器学习模型,以实现业务目标。但系统的输入和操作对用户或其他相关方是不可见的,包括数据科学家、数据工程师、UX/UI 设计师、社会科学家、系统工程师、业务主管等。这种多样化的用户组与技术输入的结合,让人工智能系统引入了大量可能发生故障的可能。在这种高度交织的技术架构中,失败很可能被忽视,即使检测到故障,通常也需要深入调查才能找到根本原因。机器学习治理的出现便是为了更好地构建负责任的 AI,全面实施负责任的 AI 有助于企业将风险降至最低。在很多负责任的 AI 方法中,会把利益相关者、投资回报率算进来,最终虽然能出现更好的产品,推动更高的使用率和采用率,但这不足为奇。一切向着负责任的 AI 方向发展在本届 re:invent 大会上,亚马逊云科技向我们展示了部分蓝图,其推出的众多服务就是朝着设计并构建负责任 AI 的正确方向迈出的一步,其建立在多年来对相关工作的积累,以实现机器学习数据集、模型和系统的基准测试和透明。近年来,亚马逊云科技一直在朝着负责任的 AI 方向迈进,包括在 2020 年聘请《The Ethical Algorithm》的作者 Aaron Roth 和 Michael Kearns 作为亚马逊学者。事实上,Gartner 预计,到 2023 年所有为 AI 开发和训练工作而招聘的人员,都需要展示自己拥有负责任的 AI 方面的专业知识。负责任的 AI 可能看起来令人生畏,因为这其中有许多子领域都需要关注(例如公平性、透明度、问责制、安全性、可靠性、隐私、安全、治理等),要在人工智能生命周期的所有阶段实施,包括设计、开发和部署。对大部分公司而言,如果将注意力全部用在这上面可能会导致投资失败,不如设置合理的优先级并挑选合适的解决方案,通过运用 Amazon SageMaker 推出的 Role Manager、Model Cards 和 Model Dashboard 功能,将机器学习治理扩大到模型开发流程,保证每个模型上线后可发挥最大效用,最终确保在实现企业宗旨和价值观的同时,获得持续的成功并建立竞争性的市场优势。提到 AI,我们最常说的一句话是“落地为王”,现在是时候将部分工作交由“负责任的 AI”来保证了(点击链接,轻松开启机器学习治理流程)。
4,556
1,671,163,726,027
InfoQ
84
DevOps的未来是无代码
近年来,全球DevOps市场迅速扩张,到2021年已超过70亿美元的规模。到2030年,这一数字将增长到近400亿美元。与此同时,DevOps的人才缺口也在稳步扩大。根据美国劳工部的数据,到2030年,全球开发工程师的短缺将超过8500万。在接下来的十年中,对DevOps专业人员的需求可能每年增长20%以上。这两个相互冲突的趋势将软件和应用程序开发公司置于一个极其复杂的位置。一方面,他们有了通过满足对改进的新应用程序日益增长的需求来大幅增加收入的机会。但是,越来越缺乏找到合适的人才来开发这些产品的能力限制了他们抓住这个机会的能力。那么,企业如何才能在全球市场上获得有效的竞争力呢?一个潜在的解决方案是将更多的低代码和无代码工具集成到DevOps中。这些工具为DevOps团队提供了许多好处和效率,不仅可以简化现有DevOps专业人员的工作,企业还能在传统人员配置之外找到扩大团队的选项。事实上,那些未能将这些工具集成到DevOps过程中的企业很可能很快就会落后于竞争对手。DevOps的兴起DevOps是一个相对较新的东西,在2008年左右才开始为人所知,但它的发展趋势已经迅速在软件和应用程序行业铺展开来。DevOps的出现是为了简化整个软件开发生命周期。在DevOps出现之前,参与生命周期各个阶段的团队在孤岛模式下独立运作。团队之间缺乏沟通,或者效率非常低。因为其中一方永远不知道另一方在做什么,所以软件开发效率通常非常低。更糟糕的是,不同的团队经常有不同的目标,而且这些目标之间经常是冲突的。发布速度、特性和质量保证之间相互矛盾,使得开发团队之间变成了相互竞争,而不是一起为同一个目标——尽可能快地将高质量的产品推给最终用户——而努力。DevOps提供了一种新的协作模式。虽然DevOps这个术语是开发和运维(即部署)这两个名词的组合,但DevOps的含义远不止于此。亚马逊云科技将DevOps定义为:DevOps是文化、实践和工具的结合,可以提高组织快速交付应用程序和服务的能力——以比使用传统软件开发和基础设施管理流程的组织更快的速度演进和改进产品。但DevOps不仅仅意味着更好的沟通和团队为共同目标而努力,相反,真正有效的DevOps团队超越了传统的开发和部署。它还紧密地集成了监控(例如Java日志)、质量保证和安全性,确保用户能够获得尽可能好的产品。DevOps还要求通过应用正确的工具和工作流来实现这些目标。实际上,工作流的自动化是DevOps最基本的实践之一。实现良好的自动化进一步加强了DevOps团队各部分之间的沟通。从企业开始应用DevOps的15年里,它得到了迅速的采用并取得了出色的成果。最近的一份调查报告显示,61%的IT决策者表示DevOps实践和方法帮助他们向客户交付更好的产品,49%依赖DevOps的公司缩短了产品发布的时间。DevOps并不是一个完美的解决方案DevOps无疑是对传统软件开发方法的重大改进。除了消除整个开发链的沟通障碍之外,DevOps还提供了如下的好处。提升开发速度——因为开发链的所有部分都在进行有效的协作,所以可以更快地解决问题。缩短发布时间——改进的工作流程和自动化,包括持续集成(CI)和持续交付(CD),支持更频繁和更快速地将产品发布给用户。增强的可伸缩性——有了健壮的自动化测试和生产环境,团队可以更容易地对产品进行扩展,以满足新的需求。内置安全性——许多DevOps团队现在采用了策略即代码等流程,将安全性集成到开发过程中,而不是事后才去考虑。尽管DevOps有着明显的优势,但它也存在一些问题。向DevOps转型过渡的企业所面临的最重要的挑战之一是需要建立起一种专注于协作的新思维。重塑文化不可避免地会让人们产生焦虑,因为他们要抛弃已经熟悉的舒适的工作流程。但DevOps转型需要的不仅仅是文化上的改变,它还要求学习新的治理结构、工具和工作流。任何参与推出新工具的人都知道,它从来都不像看起来的那么简单,特别是如果需要放弃遗留系统的话。由于许多不同的原因,DevOps工具本身就给转型带来了难度。孤岛式开发和运维团队通常使用单独的工具来实现不同的目标和指标,找到一套合适的工具来弥合这些差异可能会是一项挑战。要求两个团队都学习一套新的工具会对士气和时间的利用造成一定影响。因此,在改变使用的工具之前关注文化的改变就变得加倍的重要。告诉你的开发团队,他们必须从他们的主要任务中抽出时间来学习新工具,这样很可能会让一些开发人员感到不满。但是,如果你先向他们展示这些新工具是如何帮助他们提升工作效率的,不仅是现在,而且未来也会,那么他们会更快接受你的建议。低代码和无代码工具可以做到这一点,有了它们,”公民开发人员“可以将简单的任务从开发人员的盘子里拿走,让他们专注于更复杂的工作。然而,即使他们完全接受,新工具仍然会带来一些问题。在团队适应新的过程和结构之前,存在过度依赖工具的风险,因为他们会认为工具似乎提供了可以解决任意问题的功能。由于工具种类繁多,开发人员会将更多的时间用于组合工具,而不是放在开发实际的项目上。事实上,开发人员在集成任务上最多花费了40%的时间。现如今,企业面临的另一个主要障碍是为他们的DevOps团队寻找合适的人。尽管人们对信息技术的兴趣在不断增长,越来越多的年轻人掌握了大量自学的IT知识,但开发人员的短缺仍然是个问题。麦肯锡的一项研究表明,26%的企业认为它们在IT、移动和Web设计领域最缺乏人才。这些只是企业在向DevOps转型时所面临的部分挑战。但是,企业很快就会发现,相比它们在变更上投入的时间、金钱和精力,DevOps给它们带来的好处是非常值得的。在DevOps周期中集成低代码和无代码工具的案例企业正在寻找填补人才缺口的方法,目前最成功的方法之一是培养已有员工的技能。作为一个附带的好处,培养员工技能能够提升员工的满意度,有助于留住人才。这一点越来越重要,最近的一项调查表明,90%的员工表示他们对目前的工作环境感到不满意。对于DevOps来说,技能的提升可以从将非DevOps人员培养成DevOps团队的成员开始。这个时候,无代码和低代码的DevOps工具就派上了用场。有了无代码和低代码工具,即使是开发新手也可以学会如何构建网站和应用程序。一个人只要具备最基本的拖放操作技能,可能就可以学习使用无代码工具了。那些稍微懂点计算机知识的人甚至可以很轻松地使用低代码工具。顾名思义,无代码和低代码工具加速了软件和应用程序的开发,但对编写或理解代码的要求很低。开发人员不需要编写代码,而是依靠可视化的拖放操作来拼凑预先定义的功能。因此,开发人员不需要理解复杂的编程语言,只需要对业务需求、整体应用程序架构和应用程序工作流有清晰的了解。这些“公民开发人员”以比竞争市场上少数有经验的开发人员低得多的成本填补了人才空缺。有时侯,这可能是唯一真正可行的选择。虽然培养一大堆公民开发人员在理论上是很不错的一个选择,但企业可能会怀疑是否真的能从这些人身上获得开发方面的好处。不过这方面的一些数字确实令人印象深刻。一些针对使用低代码工具的公司的研究表明,24%的公民开发人员在从事低代码应用程序开发之前完全没有编程经验。然而,72%的新低代码开发人员在学习如何使用工具的前三个月内就能开发出应用程序。84%的企业现在要么已经在积极使用这些工具,要么制定了在不久的将来使用它们的计划。随着劳动力的年轻化,新员工没有或只有很少编程经验的可能性会降低。许多刚进入职场的新员工已经有了自己的网站或博客,甚至可能在经营自己的电子商务业务和应用程序。他们可能会使用低代码和无代码工具,如WordPress、Wix或Square。企业应该利用这些经验来满足他们的发展需求。无代码和低代码工具对于有经验的开发人员来说也有好处,可以帮助他们节省时间。他们可以更充分地专注于实质性的开发和交付,而不是将有限的工作时间中的大部分花在构建管道和集成上。因为低代码和无代码工具使用预构建和预测试的模块,所以不太需要跟踪bug和重写代码,这进一步减轻了已经负担过重的开发人员的工作量。低代码和无代码工具的另一个关键好处是,它们可以帮助企业自动化和简化网络安全任务。许多工具都提供了内置的安全特性,即使是最初级的开发人员也可以很简单地设置这些特性。IT人员可以使用低代码和无代码工具为开发团队构建安全“剧本”,以便在涉及到应用程序和网络安全的关键问题时,每个人都能保持一致。企业和客户都从使用低代码和无代码工具的公民开发人员身上看到了巨大的好处。部署速度得到了大幅的提升,一项研究表明,速度提升最高可达17倍,因此企业可以更频繁地向客户推出新的改进产品。客户获得了越来越多的功能和更稳定可靠的产品。尽管各种规模的组织都可以(也应该)将低代码和无代码工具放入它们的开发工具箱中,但中小型企业(SME)将获得最大的好处。在竞争日益激烈的IT劳动力市场上,中小企业往往缺乏IT员工,用于吸引人才的资源也很有限。有了低代码和无代码工具,中小企业可以用已有的员工有效填补开发人才的缺口。有哪些可用的低代码和无代码工具无代码和低代码工具的数量几乎和DevOps市场一样在快速增长。它们涵盖了软件开发周期的每个阶段,从构建到测试,从质量保证到安全性。以微软的PowerPlatform为例,它包含了Power Apps、Power BI和Power Automate。微软最近扩展了这个套件,增加了一个叫作Power Pages的新模块。这款产品可以帮助用户在不具备任何编码专业知识的情况下构建高端的商业网站。Power Pages是面向公民开发人员的,不过有经验的开发人员也可以使用无代码开发工具,并根据需要使用自己的DevOps工具对其进行优化。但是,随着开发链中越来越多的人以及有经验的开发人员专注于交付周期中最关键的部分,企业会发现自己能够比以前更快地交付更好的产品。低代码和无代码工具可以做的远不止是构建网站,还有一些工具(例如Appian、Retool、SalesForce Lightning、Creatio)专门用于开发内部应用程序,帮助内部员工提升工作效率。一些工具(如Zoho Creator)还可用于构建跨平台的应用程序,充分利用对移动应用程序持续增长的需求,可以在任何设备上运行,无论是什么操作系统。当然,这些只是几个例子。Amazon(Honeycode)、IBM(Automation Workstation)Oracle(APEX)等主要供应商也为几乎所有应用程序提供了低代码和无代码工具。这不是一个有没有低代码和无代码工具的问题,而是一个为你的企业找到合适的工具的问题。结论如果你的企业现在还不是一个DevOps组织,那么很快就会是,你需要尽可能多的合格的DevOps团队成员。无代码和低代码DevOps工具为我们提供了一种简单的方法,帮助我们获得大量的公民开发人员,同时解放现有的开发人员,让他们把时间集中在开发高质量的产品上。作者简介:Nahla Davies是一名软件开发人员和技术作家。在全身心投入技术写作之前,她曾在一家拥有5000人的体验式品牌机构担任首席程序员,该机构的客户包括三星、时代华纳、Netflix和索尼。查看英文原文:https://www.infoq.com/articles/devops-future-no-code/相关链接:DevOps 团队结构类型汇总:总有一款适合你什么是 DevOps?看这一篇就够了!如何让 DevOps 发挥期望的效益
5,972
1,671,097,076,894
InfoQ
85
亚马逊的分布式计算宣言
1998 年的西雅图,亚马逊公司的人已经开始重新审视他们的架构。亚马逊 1997 年的销售额为 1.47 亿美元,到了 1998 年就超过了 6 亿美元,这样的增长速度令他们感到措手不及。1998 年,亚马逊的人写了一份分布式计算宣言,描述了他们看到的问题以及他们为这些问题给出的解决方案。Werner Vogels 最近在他的文章(https://www.allthingsdistributed.com/2022/11/amazon-1998-distributed-computing-manifesto.html )中公布了这份宣言。这篇文章以时间胶囊的方式概述了亚马逊架构的演变,与今天许多关于系统架构的争论以及几乎所有正在演变中的架构都不可避免会面临的挑战紧密相关。宣言中写道:业务应用程序直接访问数据库,并了解其中的数据模型。这意味着应用程序和数据模型之间存在非常紧密的耦合,即使功能保持不变,修改了数据模型也必须修改应用程序。尽管分布式计算宣言是在 1998 年写的,但不管从哪一方面来看,1997 年的亚马逊已经是一个分布式系统了。问题出在接口上——数据存储充当组件和关注点之间的接口,导致存储和业务逻辑之间存在紧密耦合。这种架构很难扩展,问题不在于无法提高每秒处理的请求量,而在于很难跟上新的业务线和整体变化的速度。由于应用程序对数据元素之间的依赖关系非常敏感,因此这种架构不能很好地扩展,基于数据位置的分布和隔离处理也变得很困难。他们建议的解决方案是进行服务化。这份宣言起草于“微服务”出现之前,但讨论的也差不多就是微服务——将数据移到封装了业务逻辑的接口后面,减少系统不同部分之间的耦合。我们建议转向三层架构,其中表示层(客户端)、业务逻辑和数据是分离的。这也被称为基于服务的架构。应用程序(客户端)不能够直接访问数据库,只能通过定义良好的接口来访问数据,这些接口封装了执行对应功能所需的业务逻辑。对于我来说,宣言中最有趣的部分是对文化需要随架构的变化而变化的描述。只是改改架构图根本不足以达到作者想要的结果。在转向基于服务的架构时,我们必须注意到几个重要的含义……第二个含义(与第一个相关)是所有软件开发人员都需要进行重大的思维转变。我们当前的思维模式是以数据为中心,在为业务需求建模时,我们总是采用以数据为中心的方法。我们的解决方案通常是修改数据库的表或列,并将数据模型嵌入到应用程序中。基于服务的方法要求我们将解决方案至少分解为两个部分。第一部分是数据元素关系的建模,这跟之前的一样,包括数据模型和服务访问数据需要遵循的业务规则。第二部分是我们以前从未做过的,即设计客户端和服务之间的接口,不向客户端公开或不让客户端依赖底层的数据模型。这种思维模式的转变——从数据库到 API——是面向服务架构和微服务在过去二十年中崛起的基础。现在,到了 2022 年,随着嵌入式数据库和两层架构重新流行起来,我们看到了以数据为中心的思维在某种程度上与以 API 为中心的思维出现了融合。架构呈现多样性是一件好事,但我们希望新一代两层系统的架构师们能够吸取旧单体系统给我们留下的经验教训。宣言的另一个突破是谈到了工作流在分布式架构中的作用。他们发现,尽管订单流在后端是紧密耦合的,但它们已经是工作流了:我们已经有了一个“订单管道”,从客户下单到发货,各种业务流程都会操作这个管道。我们的大部分处理过程已经是面向工作流的,尽管工作流“元素”是静态的,并且主要驻留在单个数据库中。这种架构的伸缩性挑战在于:……数据库工作流模型不能进行很好的伸缩,因为处理过程是针对一个中心实例进行的。随着工作负载的增加……,中心实例的处理负载量将增加到不可持续的极限。对此的一个解决方案是分发工作流,将其从中心实例中卸载。解决方案:不是让处理流程来主动接触数据,而是让数据流经处理流程。大约十年后,我开始在亚马逊工作,我发现这种思维方式很具有启发性。在加入亚马逊之前,我花了一些时间思考雷达仿真分布模型,这是一个有趣的计算和数据密集型工作流问题。谷歌在 2004 年发布了 MapReduce 白皮书,并已成为具有普适性的以数据为中心的分布式通信模型。我们尝试用 MapReduce 来解决我们的问题,但没有成功。我不禁想,如果我当时看到了亚马逊这篇关于工作流的文章,是否会用这种模式取得更大的成功。这份宣言浓缩了一段迷人的历史,涵盖了亚马逊的技术演变,以及 Web 发展对分布式系统架构的影响。从那以后,行业发生了巨大的变化,亚马逊的技术也有了显著的演变,并为我们留下了宝贵的经验教训。原文链接:https://brooker.co.za/blog/2022/11/22/manifesto.html声明:本文为 InfoQ 翻译,未经许可禁止转载。今日好文推荐写“毁灭人类计划书”、错误太多被Stack Overflow封禁,好玩的 ChatGPT 还不能替代程序员Vue 3是最佳选择吗? 耗时两周从Vue 2迁移到Svelte后:代码执行更快、体验更佳当 Rust 成为“巨坑”:拖慢开发速度、员工被折磨数月信心全无,无奈还得硬着头皮继续台积电分红曝光:入职 8 个月狂领 44 个月薪水;Elastic 将裁员 13%,付至少 14 周补偿;马斯克和苹果解除“误会”|Q 资讯
3,868
1,671,073,550,169
InfoQ
86
Timeplus携手亚马逊云科技 基于容器化的多租户 SaaS 实践
11月25日,亚马逊云科技携手InfoQ、物联传媒共同打造的「这是我的架构-直播周」系列节目第三季第五集压轴登场!本集邀请到的是Timeplus 创始工程师梁智敏和亚马逊云科技解决方案架构师周爱琳,聚焦多租户SaaS 应用场景,共同探究“多租户SaaS基于容器化的实践”。一起来看本期直播。Timeplus 是谁?Timeplus 是一家成立仅一年时间的初创公司,公司虽新,却拥有多位在大数据领域深耕多年的专家,Timeplus 团队看到了实时数据分析流领域的空白,Timeplus 流数据分析平台应运而生。Timeplus 希望用户只用统一而简单的SQL,就可以实现数据的分析处理,并生成实时可视化组件,包括数据图表、仪表盘和告警等等。Timeplus 能为用户带来什么业务价值?第一,智能车队管理。梁智敏以物流运输为例,物流运输公司可以通过为每辆车加装传感器,监控汽车的各种状态,如速度、油量、位置等数据。基于实时数据分析流就可以利用这些数据及时确定车辆状态,从而采取对策。 第二,云基础设施/服务监控。对于云上的基础设施和服务,监测其状态必不可少,以便提供高可用、高可靠的服务。目前的大多解决方案都是定时查询状态,造成状态的滞后性。而通过 Timeplus 不间断的流查询,能够实时监测数据,可以更及时地发现潜在问题。 第三,安全方面。Timeplus 可以实时监控敏感信息并发出发出警告,实时防止重要信息泄露,为用户提供更安全的使用环境。Timeplus 为什么选择基于Amazon EKS 构建容器化架构?“最大的原因,其实就是简单”,梁智敏回答道,“使用亚马逊云科技的技术和服务让我们无需再花成本维护集群,Amazon EKS 能实现整个控制平台的自动化管理,同时提供高可用、高扩展性的保障。我们甚至只需要轻点一个按钮,就能完成集群的升级。对于Timeplus 这样的初创团队来说,这种成本节约实在是太宝贵了!” 借助Karpenter 管理的Amazon EC2,Timeplus拥有高效的弹性扩缩容能力。Karpenter 能够根据根据用户workload 自动添加和删除计算资源。“而且 Karpenter 本身是开箱即用的,我们只需要用CRD 定义好资源,就能实现自动管理,这对我们初创企业来说可以说是开源节流。”如何基于容器化进行多租户SaaS 设计?Timeplus 每个租户的资源都保存在相互独立的work space 中,从而实现多租户隔离。针对多租户共享服务,如 Web 应用、网页API 和控制平面,Timeplus 使用AWS-load-balancer-controller 管理负载均衡,使用URL 前缀来区分不同work space 的访问。在数据层面上,基于亚马逊云科技的 ebs-csi-controller 管理数据库 persistent volumes,保障了数据的高可靠性、扩展性和安全性。 至此「这是我的架构-直播周」系列节目第三季完美落下帷幕,在这一周中,现代化应用改造、快速建站、数据分析、多租户SaaS…让我们看到了架构创新带来的无限可能。创新迭代的脚步从未停止,亚马逊云科技也将持续耕耘,携手更多合作伙伴探索云上未来。
5,620
1,670,579,750,829
InfoQ
87
重写 50 万行代码,从 0 自研的云原生 HSTAP 能否成为数据库的未来?
HTAP,一个为满足实时性业务分析场景而存在的数据库。从 2005 年被 Gartner 首次提出以来,HTAP 已经历经数十年的发展期。在当下,如果再次提起 HTAP,不免让人觉得它是个既“友好”又“矛盾”的存在。“友好”在于,HTAP 数据库能够同时支撑业务系统和在离线数据分析系统运行,避免在传统架构中,在线与离线数据库之间大量的数据交互,对简化企业的数据系统的复杂度将起到至关重要的作用;但“矛盾”在于,用户在 AP 场景和 TP 场景负载模型差异很大,对数据库的诉求也完全不同,如何通过技术手段来平衡他们之间的矛盾成为了 HTAP 数据库的核心问题,因此,一定要有东西在这两者之间做桥梁。至此,问题也就显露出来了。用户如何能在 TP 还是 AP 负载下,随心所欲地去创建各种表,也可以随心所欲地用一个流呢?在超融合趋势的推动之下,HSTAP 的概念呼之欲出,多出来的“S”格外让人好奇到底是不是在造概念。为了深入了解 HSTAP 的技术架构与产品特性,InfoQ 特别采访了矩阵起源技术 VP 秦姝琦。技术的发展有迹可循,先谈谈为何提出 HSTAP要知道,一个技术概念之所以被提出,究其根本还是为了解决某一类痛点问题。比如,近几年 IoT 产业以及 AI 行业的兴起,产生了大量的时序数据以及图数据,在底层数据类型愈发多样的前提下,直接催生出了一批时序数据库和图数据库。那么,HSTAP 为何会被提出呢?若想真正理解 HSTAP 的内核,不妨先看看它到底要解决业界的哪些问题。拿一个典型的融合型场景为例,一款股票 APP 本身是交易系统,所以它需要一个 OLTP 数据库做支撑,但是用户又希望其提供股市的预测和分析,这里自然就出现了对 OLAP 系统的需求,即在做大规模交易的同时,还需要基于交易数据和用户行为数据进行分析建模。要想解决上述问题,常规的技术方案是怎样的呢?如下图所示,企业需要用到非常多的中间件来搭建一个复杂的数据系统,其中包括 OLTP 数据库、OLAP 数据库,消息队列、流引擎、ETL 工具等等,这样一来,会导致系统变得非常复杂,难以保证稳定性;其次,数据流转的链路也变得很长,实时性无法保证,数据血缘管理难度很大,这种基于“缝合”方式搭建的系统,在稳定性、实时性以及运维管理成本和开发成本上存在很多痛点。在刚刚结束的 2022 re:Invent 大会中,亚马逊云科技提出了一个新的名词——“Zero-ETL”,其本质也是识别到了数据流转已经成为企业很大的痛点。不难看出,简化复杂架构,降低运维使用成本的需求正在不断增长。为了让企业只用一款数据库,就能把最基础的业务中台和数据中台以最低的成本建设好,矩阵起源对 HTAP 进行了重新定义,融入了串联 AP 和 TP 的 Streaming 能力。因此,在秦姝琦看来,HSTAP 的出现便是为了简化数据系统的复杂性,提供极简的用户体验,降低数据使用的难度,让企业可以将精力从繁杂的技术细节中释放出来,专注于数据价值的挖掘,最终达到降本增效的目标。从 0 开始自研,MatrixOne 的架构解析在数据库的起步阶段,选择一些现成的数据库进行改写往往是一种较为容易的方案,但如果再做深入定制便会比较痛苦。为了避免不受历史包袱的影响,MatrixOne  从设计之初便放弃了一条相对容易的路,选择从 0 开始自研,用时七个月将 Share Nothing 迁移到云原生架构,从 AOE(Append Optimized Engine)存储切换到 TAE(Transactional Analytical Engine),重写了计算引擎(Parser,执行计划,优化器等),并且完成了分布式事务框架和高性能日志服务的研发,累计删除代码 30 万行,新增 20 万行。这背后的工作量与执行力足以让我们叹为观止,但回忆起 MatrixOne 的起步期,秦姝琦提到:“在真正设计开发这样一款云原生 HSTAP 数据库的时候,我们面临非常多的艰难选择。”具体来说,用户对于 TP 和 AP 数据库系统的需求基本可以归纳为以下五点:ACID,并发性能,吞吐,成本和数据新鲜度。HSTAP 数据库若想兼容以上能力,实现起来却没那么容易,由于高并发、短时延的 OLTP 负载与带宽密集型、高时延的 OLAP 负载的访问模式不同且它们互相干扰,把他们融合到一个系统里存在很多的冲突点。谈及如何平衡上述矛盾,秦姝琦以通信领域中两个耳熟能详的概念为例:频分复用和时分复用,即当突破资源粒度划分得足够小,资源隔离做得足够好,调度能力足够强时,就可以把一些看似矛盾的功能平衡起来。“因此,在设计 HSTAP 数据库时,我们不会追求以上提到的五点在同一时间都做到 100 分,而是基于统一存储引擎,对象存储,自适应计算优化,计算存储独立扩缩容,全局的资源调度和资源隔离策略动态平衡这五个看似矛盾的特性,来适应不同的负载场景需求。”基于这样的设计理念,MatrixOne 引擎的顶层设计架构,可以大致分为三层:计算层、分布式事务层和共享存储层。其中,计算层是由多组计算资源组成的,其中计算单元我们称之为 CN,每个 CN 可以承担不同的任务,但无论 CN 用于何种用途它本身是不保存任何状态的,以保证计算层是可以任意扩缩容的;再往下面一层是 Transaction Layer,这一层承担了分布式事务处理的相关工作。分布式事务层选择了 share-nothing 的模式,由于每个 DN 之间需要处理的数据范围各不相关,这样做的好处在于,每个 DN 只需要负责自己这部分数据的冲突检测,从设计上简化了 DN 的实现复杂度和扩缩容的难度;再往下是两个服务,一个是 Log service,为 DN 提供高性能的分布式高可用的日志读写服务,它直接决定事务写性能的关键;另外一个是共享存储,这里不仅支持 S3 这类对象存储,还支持 NFS 以及 HDFS。此外,为了让 MatrixOne 在云上和私有化场景能够保持统一的架构和接口,还在底层架构中抽象了一层 fileservice 接口,它会将底层不同的共享存储实现细节屏蔽掉。比如,在云上选择S3作为底层共享存储,那么在私有化场景不一定有 S3,客户如果能提供 HDFS 集群,就可以通过 fileservice 在保持引擎接口一致的前提下,支持多种的共享存储。除此之外,MatrixOneGA版本将会有一个重要的特性——实现了Streaming的方案,即HSTAP中的“S”。秦姝琦坦言,目前的 Streaming 还处于早期阶段,团队关注的核心问题还是 framework 的设计、有界数据和无界数据的处理以及增量计算的优化等等。MatrixOne 上云的价值与实现路径有了上述方案以后,MatrixOne 是否就可以为用户带来简单、易用的最终体验呢?显然还不够,一个普遍的现象是,当云逐渐变成新的基础设施以后,开发者几乎不会触碰到云服务下层的基础设施,这对于数据库厂商而言,也需要思考如何利用云服务作为底座来构建数据库。因此,在此基础上,MatrixOne 也计划上线全托管 MatrixOne 服务 -MO Cloud,目前已经处于开发阶段,目标支持多个国内外公有云如 AWS、GCP、华为云、阿里云等等,其具备的主要特点是 SaaS 化的使用体验,免部署、自动化运维、按量计费、成本低。为了实现自动化运维的特性,MO Cloud 也选择拥抱了 Kubernetes 生态,然而 MatrixOne 作为一个有状态的系统,它具有自己独有的状态编排的领域知识,如果 Kubernetes 没有这些领域知识,便无法很好地对 MatrixOne 进行编排和调度。因此,MatirxOne 还上线了专属的 MO-Operator,它封装了编排调度 MatrixOne 所需要的全部领域知识,再利用 Kubernetes API 添加自定义 API 类型的能力,来保证运行中的集群状态永远向用户定义的期望状态转移。目前,MO-Operator 已经实现了创建集群、资源伸缩调度,故障转移,滚动更新等功能。“MO-Operator 就像一个经验丰富的运维同学时刻监控 MatrixOne 集群的状态,而且一切按规则执行永不休息。” 秦姝琦比喻道。实际上,上述所提到的 MO-Operator 只是 MOCloud 的冰山一角,下图展示了 MOCloud 的架构图,包含平台(Platform)和编排( COS) 两套系统以及旁路观测系统。架构图的上半部分是 MOCloud 的控制面,Platform 包含了一组微服务,比如用户管理,集群管理,计费等,是整个 MOCloud 中唯一需要跟用户进行交互的部分,中间的 Global API Server 是 COS 的核心,也是 Platform 跟 COS 之间的纽带,架构图的下半部分是 MOCloud 的数据面,也就是真正运行工作负载的地方。值得一提的是,自 Serverless 被认为是新一代云计算发展方向以来,业内就开始关注、推进 Serverless 化,试图从资源视角转换为服务视角。在今年的阿里云栖大会上,阿里云宣布将坚定推进核心产品全面 Serverless 化;在 2022 re: Invent 大会上,亚马逊云科技宣布将数据分析服务全面 Serverless 化. MOCloud 也开始了对于 Serverless 的探索。秦姝琦认为实现 Serverless 化有两方面好处:一方面,Serverless 对于很多中小型企业很友好,注册即可使用,无需关心任何底层资源,当企业不使用数据库时,也不用付出任何成本;另一方面,站在数据库厂商的角度来看,虽然 Serverless 在前期的投入成本相对较高,但后期可以带来更大的商业回报,是提升收益的一种技术手段。尽管 Serverless 对于供需双方的价值已经趋向清晰,但是数据库 Serverless 化的实现难度却很高,在秦姝琦看来,主要技术挑战大致可以分为三个部分:第一是安全性,即多租户的资源隔离;第二点资源调度,如何让系统负载达到最优;第三点是整个系统的弹性、高可用。在采访过程中,秦姝琦主要为我们介绍了 MOCloud 在资源隔离方面的实现进展。在数据的可见性上,MOCloud 可以保证逻辑上的隔离,一个 Session 只能看到这个租户权限范围内的数据,在资源隔离上,还计划用 Proxy+rule engine+CN 来完成一个全局的流控和资源调度,CN 支持独占 Set 来满足更多元化的要求。此外,针对大家关注的安全问题,MOCloud 也会保证持久化的数据是加密的,未来将支持“ bring your own key”的模式,支持租户维度的数据加密。未来发展方向数据库从来都不会单独被使用,尤其对于初创的数据库厂商而言,完善生态也是非常重要的工作。秦姝琦透露,在更完整的生态对接方面,MatirxOne 将在明年陆续在开源项目上开展对接,还计划针对制造业、能源、新兴互联网等行业,制定相应的解决方案,为此也会在 MatirxOne 中接入相应的生态。与此同时,她还介绍了 MatirxOne 在未来的产品规划。预计在明年,MatirxOne 将会推出第一个 GA 版本,接下来还将继续融入流的能力,力争通过一个 HSTAP 数据库满足通用场景的需求。虽然实现起来还需要一定的开发周期,但我们也很乐于看到,未来有更多的数据库厂商能够通过创新的架构实践、极简的设计理念,来不断降低企业使用数据系统的复杂度和门槛。
6,290
1,670,488,680,335
InfoQ
88
投票 | 什么样的技术团队可以在数字化时代被称为“高价值”?
截至目前,InfoQ发起并组织的2022中国技术力量年度榜单项目征集已全部结束。在半个月的时间内,开源新锐项目、高价值技术团队以及云原生创新技术方案三大榜单共征集了160+项目。其中,高价值技术团队共收到50+团队的报名信息。企业如今需要的不仅是能解决技术问题、实现技术创新的研发团队,更需要帮助企业完成业务发展目标、勇于探索数字化转型前沿领域、大胆深入实体经济场景的团队。从今天开始至12月14日,高价值技术团队榜单正式进入投票阶段,InfoQ希望通过各位开发者的助力真正选择出能够帮助企业在下行周期稳固发展,在上行周期创造增量,在新趋势下的业务场景中拿下战略标地的高价值技术团队。本轮评选的最终结果将在12月28日通过InfoQ微信公众号、InfoQ网站、中国技术力量年度榜单官网以及本届榜单的指导单位、战略合作机构、特邀支持媒体/社区共同对外公布。其中,本次用户投票的分数占比30%,其余70%由专家评审打分(40%)和InfoQ主编团打分(30%)构成。在本次榜单评选活动全程,我们秉承 InfoQ 一直以来坚守的内容价值观:提供可信赖的内容。榜单评选规则公正、公开,榜单活动在开始阶段就引入了九位专家组成的专家评审团,给予专业指导意见,并将所有进程在官网进行公示,接受用户监督。(以下信息可左右滑动查看完整内容)在投票活动期间,每位用户可以给 1-5 个参评项目进行投票,但是每个项目只能投票一次。本投票截止到 12 月 14 日晚 23 点。想要了解榜单评选活动更多详情,请点击这里查看。开源新锐项目的投票地址,请点击这里查看。
16,498
1,670,202,886,098
InfoQ
89
投票 | 60+开源项目集结完毕,谁是数字经济时代的“标杆”?
截至目前,InfoQ发起并组织的2022中国技术力量年度榜单项目征集已全部结束。在半个月的时间内,开源新锐项目、高价值技术团队以及云原生创新技术方案三大榜单共征集了160+项目。其中,开源新锐项目共收到60+项目方的信息。从今天开始至12月14日,开源新锐项目正式进入投票阶段,各位开发者可共同抉择出在研发、治理、生态层面都足以称为标杆的开源项目。本轮评选的最终结果将在12月28日通过InfoQ微信公众号、InfoQ网站、中国技术力量年度榜单官网以及本届榜单的指导单位、战略合作机构、特邀支持媒体/社区共同对外公布。其中,本次用户投票的分数占比30%,其余70%由专家评审打分(40%)和InfoQ主编团打分(30%)构成。在本次榜单评选活动全程,我们秉承 InfoQ 一直以来坚守的内容价值观:提供可信赖的内容。榜单评选规则公正、公开,榜单活动在开始阶段就引入了九位专家组成的专家评审团,给予专业指导意见,并将所有进程在官网进行公示,接受用户监督。开源新锐项目旨在从开源项目的易用性、社区活跃性、成熟度、产品优越性、代码健康度等指标出发,评选出那些在研发、治理、生态层面都足以称为标杆的新锐开源项目。请各位开发者根据项目方提供的公示资料投出您宝贵的票数,助力以下参评开源新锐项目冲榜(以下表格可左右滑动查看完整信息)。在投票活动期间,每位用户可以给1-5个参评项目进行投票,但是每个项目只能投票一次。本投票截止到 12月14日晚23点。想要了解榜单评选活动更多详情,请点击这里查看。高价值技术团队的投票链接,请点击这里查看。
28,838
1,670,202,871,632
InfoQ
90
有些代码可以少写,它们未必会是你的未来
11 月 16 日,亚马逊副总裁兼 CTO Werner Vogels 发布了一篇名为《分布式计算宣言》的文章,为人们揭示 24 年前的亚马逊研发团队,是如何在业务发展、架构迭代面对巨大阻力时,思考引入 SOA 架构和分布式思想,完成自我“革命”的。读罢令人感叹,每一个开发者都希望获得成就感,去做一些真正有创造力的工作,做一些 24 年后仍然令 CTO 引以为豪,并转述给百万开发者的工作,而不是把时间和精力消耗在写千篇一律又无法复用的“胶水”代码,或是在越来越复杂软件栈面前,疲于奔命地写业务流程并尽量减少 Bug。更加不堪的是,有时仅仅是因为同一项目的两个成员使用的库版本不同,我们就不得不消耗大量的精力去解决冲突。当然,那些成功的团队和开发者往往也处理过同样的问题,但这种成就感的到来未免门槛过高。不过,在太平洋时间 12 月 1 日的 re:Invent 大会上,Werner 展示了另一种可能 —— 一名开发者可以把精力放在更有价值的工作,而不必重复低效的劳动,在一系列 Serverless 工具的帮助下,一些代码可以少写,因为未来你可能再也不需要写它们了。如果我们抛开它们作为商业软件的盈利属性来看,这恐怕是自云原生理念普及以来,最能利好开发者的产品发布。自动化创建状态机和工作流,并彻底干掉“胶水”代码对有限状态机最简单的理解是“if……else……”,但代入到负责研发场景里时,要实现有限状态机可不那么简单。英国卫报是世界最大的英文媒体之一,在全球拥有几十万订阅用户,每周至少要为 60000 名用户准时送达订阅信息。不管支撑英国卫报的软件系统是如何构建的,可以确定的是,这里一度存在相当多的技术问题 —— 卫报的高级开发经理 Paul Brown 曾在采访中提到,卫报主数据库系统和所有第三方系统之间的数据流编排非常困难,且系统之间相互依赖,一个系统出问题就会产生连锁反应。如何编排所有分布式系统,保证报纸的正确、及时交付,变成了一个棘手问题。马修国际旗下的一家子公司 SGK 遇到的则是另一个技术问题——他们要为甲方交付 ETL 管道,但是需要每天至少刷新两次输出数据,因此要跨多个数据库进行数据管理和复制;其交付数据的业务规则在不断更新;需要集成来自 10 多个不同数据源的输入数据。每个数据源大概有 1–20K 行,85 列。如何搭建 ETL 管道,又变成了一个棘手问题。这两种问题有一个共性,单纯用状态机做一个订阅流程或是 ETL 或许不难,但放在具体场景中则要考虑太多因素,且要承担系统维护的责任。Amazon Step Functions 最初诞生时,就是为了解决类似的问题,通过可视化拖动云服务的方式,构建事件驱动的工作流 —— 你当然可以选择从头 coding,但也可以拖一拖搞定这个事。为流式数据构建数据处理管道这听起来很性感,但实际能支撑的并发工作复杂有限,一次有效的最大并发数仅为 40,另外仅接受 JSON 数组作为输入源,整体还是比较受限的。本次re:Invent发布的AmazonStepFunctionsDistributedMap重点搞定了并发问题,从40提升到 10000,让 Step Functions 真正变得通用。下图为新老 Distributed Map 的一些关键数据对比:表格作者:Sébastien Stormacq在 Keynote 中,Werner Vogels 多次以“异步”、“事件驱动”等关键词来描述 Amazon Step Functions Distributed Map 的设计理念,但对于开发者来说,可能更吸引的人是,如果你已经会写 ETL ,那就可以少做一些重复工作,多去考虑一些能给业务、技术架构带来增量的研发工作。除了烦人的业务流程外,另一个降低研发效率的工作是写“胶水”代码。所谓“胶水”代码,就是指互不兼容的模块间(接口不同、语言不同等),需要写一些代码做连接才能正常工作。这类代码对业务没有任何价值,纯粹是软件工程的副产品。相信 Werner Vogels 和亚马逊云科技是看到了对这一问题的反馈,所以才发布了 Amazon EventBridge Pipes 这一产品 —— 它是 Amazon EventBridge 的一项新功能,提供针对生产者、消费者的点对点流程,自动完成模块集成,不需要编写“胶水”代码。这个点对点流程的创建,需要重点考虑事件源、事件目标两个主要问题。事件源发布时,Amazon EventBridge Pipes 支持以下服务作为事件源:Amazon DynamoDB、Amazon Kinesis、Amazon MSK 、Apache Kafka、Amazon SQS(标准和 FIFO)和 Amazon MQ(均用于 ActiveMQ 和 RabbitMQ)等。事件目标则包括:AWS Lambda、Amazon API Gateway、Amazon SNS、Amazon SQS 和 AWS Step Functions 等。尽管现在在行业内的应用情况有待检验,但 Amazon Step Functions Distributed Map 和 Amazon EventBridge Pipes 实际传达了一种趋势:类似的服务在未来几年可能会越来越多,越来越成熟,告别低价值代码这件事是绝对靠谱的,云原生时代开发者的技术栈需要做相应的调整。如果在未来,我们可以不用处理经常见到的业务流程或 ETL 流程,也不用写“胶水”代码,那将有大量的时间可以来思考业务、架构及流程本身的合理性。避免更糟糕的时间浪费如本文开头所提,比起写一段 ETL 代码,或是写一段模块集成代码,更糟糕的是,将时间消耗在协作问题而非技术问题上。这年头各企业的业务压力永远越来越大,需求能三天上线就不会拖到一周,大部分时间里可能不会有工程设计这个概念,中间遇到的各种协作问题只能是“在起飞的过程中换轮胎”。所以当 Werner Vogels 在本次 re:Invent 上发布 Amazon CodeCatalyst 时,台下的掌声十分热烈。Amazon CodeCatalyst 的功能包括:项目资源蓝图——不仅是新项目的脚手架,还包括支持软件交付和部署所需的资源统一开发环境,保持项目组环境一致管理 issue、pr、部署跟踪等CI/CD显示项目仪表板通过一封电子邮件即可邀请他人就项目进行协作统一搜索,跨用户、问题、代码和其他项目资源检索内容这里的资源蓝图包括启动代码、示例代码和云服务相关配置的最佳实践,其他几项也都是软件研发项目管理的必需品。另外一大特色在于 CodeCatalyst 本身集成的第三方工具是高度灵活的,是不是要用 GitHub 和 Jira,完全和团队的习惯有关。Werner Vogels 说,可视化是亚马逊云科技提供服务的一大特点,而大部分开发者应该也认为可视化是个让人十分心安的标签。Serverless 是所有构想的核心回过头看,无论是 Amazon Step Functions Distributed Map 还是 Amazon EventBridge Pipes, 其核心始终是 Serverless,是 Lambda 这一产品本身。Lambda 在 2014 年的发布,虽然展示了亚马逊云科技对 Serverless 愿景理念的深度洞察,但不可否认的是,当时的 Serverless 技术仍存在问题。直到本次 re:Invent,Serverless 的冷启动速度得到大幅优化,大数据核心产品全面 Serverless 化完成,才宣告 Serverless 技术发展的又一里程碑到来,云产品全面 Serverless 化只余时间问题。而 Serverless 从技术、产品两个方面的成熟,也直接为以上发布铺平了道路。试想如果这些产品不是围绕 Serverless 技术来进行设计的,那么所有构想都将成为灾难 —— 没人能够忍受自动化创建业务流程的同时,还要关心服务器的配置问题。这不只是在说 Serverless 技术好不好用,也是在说创新的门槛到底是高是低 —— 如果你有了一个创意,Serverless 是最简洁的实现和验证手段,降低 Serverless 的使用门槛,就是在降低企业内的创新门槛。而亚马逊是一家尤其关注创新的企业,因此,Application Composer 应运而生。Application Composer 的特点,在于可以帮助生成部署就绪的项目,例如 IaC 定义文件和 Lambda 函数代码脚手架。在传统开发工作里,配置 Serverless 服务需要理解 IaC (基础设施即代码)的概念,并写一些机器可读的定义文件。这个概念作进一步延展,就变成了“基础设施可编程”,听起来是比较吓人的。Application Composer 无疑大大降低了开发者内心对 Serverless 技术的畏惧程度,某种程度上也就是加速了企业的创新速度 —— 当然,这也需要企业充分理解云理念,并对云原生相关技术有相对成熟的运用经验。3D 世界的构建正成为主流在 Keynote 的末尾,抬头看路,Werner Vogels 给出一个大胆判断:未来 3D 会像视频一样普及。去年,亚马逊发布具有 3A 游戏开发能力的开源游戏引擎 Open 3D Engine(O3DE)。O3DE 的核心特色是高度灵活的模块化功能,适合做 3A 级网游,完全免费,支持到位、更新简单。保证模块化功能的核心是带有源码和资源的 Gems 系统,不需要的功能可以完全不编译,极大提升了灵活性。因此在发布后,O3DE 立即引起了热议。究其根本,O3DE 其实是亚马逊的 Lumberyard 的继承者,Lumberyard 引擎是 2016 年亚马逊与德国著名引擎技术开发商 Crytek 达成的一项交易,彼时深陷财务危机的 Crytek 以具体数字不详(传闻为 5000 万 -7500 万美元)的价格向亚马逊完整授权了 CryEngine 的所有代码,而 Lumberyard 便是 CryEngine 经过修改的免费版本。到去年年底,开放 3D 基金会 (O3DF) 宣布推出 O3DE 的第一个稳定版本,这是一个 Apache2.0 许可的多平台 3D 引擎,可让开发人员构建 AAA 级游戏、用于视频制作的电影级 3D 世界,以及不受许可费或商业条款影响的非游戏使用案例模拟。而本次 re:Invent 上的最后一个发布,也与 3D 有关 —— Amazon SimSpace Weaver。Amazon SimSpace Weaver 是一种全新的完全托管仿真服务,可帮助用户在云中部署大规模空间模拟。借助 SimSpace Weaver,用户可以创建具有数百万个对象的无缝虚拟世界,这些对象可以实时相互交互,而无需管理后端基础设施。结合去年发布的 Amazon IoT TwinMaker 来看,当下的 3D 技术脱胎于游戏,但已不止于游戏,以 SimSpace Weaver 为例,数百万个对象,已经对以智慧城市为典型的行业应用产生实际助推作用。对智慧城市的建设仍然只是未来畅想的第一步,计算的未来在于对物理世界的极致模拟。当下的“绿色科技”,对于全世界都是一个挑战,那么应该如何最高效地应用技术手段达成“碳中和”?量子计算或许是关键一环。Werner 以八年前他在夏威夷和 Terraformation 公司的讨论作为案例来解释这一问题。大规模种植林木是实现“碳中和”的直接手段,但如何高效经济地种植出一座森林,则是个复杂问题。模拟仿真,可以让我们这座森林未来的状态、规模、效用以及内部生态系统的变化有更明确的认知,但整体计算量将是恐怖的,量子计算机比经典计算机更适合这种仿真需求。如果将问题迁移到生命科学、材料科学,全面深入分子结构,计算量将以指数级增长,可能会迅速超过行业的算力储备,量子计算机的优势会变得更加明显。这也是为什么量子计算能成为当今学术研究的主流 —— 我们可以通过量子计算机彻底迭代计算能力和模拟能力,而不是通过算法研究做有限的迭代和逼近。Werner 在演讲的最后以量子计算为核心,展望了将物理世界数字化的可能与前景。他提及亚马逊云科技量子计算中心学者、世界知名的量子信息科学先驱人物 John Preskill 在 Youtube 已有许多优质视频发布,阐述了利用量子计算来解决行业难题的思路和方法,并热情地推荐大家也去了解了解。这样看来,尽管量子计算如今仍处于研究的早期阶段,但应用思路已经具备,前景是明朗的。从研发基础设施到 3D 仿真 ,再到量子计算,形成了一条清晰明朗的未来科技演进之路。这是本次 re:Invent 带给我们的另一重惊喜。与开发者一起构建未来亚马逊云科技 Heroes 项目是社区最重要的组成部分之一,该项目表彰了全球充满活力的亚马逊云科技专家群体,他们对知识分享的热情在社区中产生了真正的影响。亚马逊云科技的 Heroes 能够以各种方式分享知识,包括通过社交媒体、博客文章、开源项目、视频和论坛进行在线分享,或亲自参加会议、研讨会和用户组活动。在此次 re:Invent 2022 大会中,Heroes 的身影无处不在。Werner Vogels 博士也在 Keynote 演讲中提到:“对于开发者而言,除了可以在亚马逊云科技为了帮助开发者成长提供的 500+ 精心打造的课程中进行学习外,向你身边的技术专家请教也会是一个很好的方式。”亚马逊云科技今年也重大发布了中国开发者官网,提供一站式平台,帮助开发者学习成长及交流并链接全球技术资源,助力开发者使用亚马逊云科技获得成功,与开发者一起构建未来。在亚马逊云科技开发者社区官网,我们发布了关于本次 re:Invent 更全面的信息资讯。
6,477
1,670,045,230,258
InfoQ
91
2022 亚马逊云科技 re:Invent:一图看尽 Day 4 重要发布
null
4,270
1,670,032,800,068
InfoQ
92
解决开发者数十年的“噩梦”: Zero ETL、Zero 脏数据,亚马逊云科技推出云原生数据战略
亚马逊云科技推进云原生数据战略全面服务化,开启数据与云的技术发展新篇章。re:Invent 是亚马逊云科技年度最大的活动,也是云计算技术领域的风向标。每一年,re: Invent 都给全世界云用户带来超过上百种新的服务和功能。随着数据的持续增长、开源成果的不断进步和芯片 / 计算实例技术的升级,云计算的变化速度也超越了以往任何历史时期。更多的数据、更复杂的代码和更强的算力,帮助亚马逊在云计算新时代成为主导全球经济的力量。亚马逊云科技于 2006 年率先进入云计算领域,重塑了 IT,那么在 16 年后的今天,亚马逊云科技酝酿了怎样的大新闻?在今年的 re: Invent 大会上,我们提取并分析了亚马逊云科技掌门人 Adam Selipsky、数据分析和机器学习副总裁 Swami Sivasubramanian 在 re: Invent 大会上发布的要点,从端到端的数据战略角度窥视云技术和数据服务的演进方向。数字化转型中的企业需要什么?今年的活动也正值全球经济阵痛之际,受到通货膨胀、供应链中断、芯片短缺等一系列挑战,一些企业也开始削减开支。但 Adam Selipsky 表示,正是因为如此企业才需要考虑利用云计算实现 IT 现代化改造,最糟糕的时期往往是业务上云最好的时期。这几年,上云潮保持上涨趋势,亚马逊云科技在 2020 年的总销售额为 453 亿美元,而 2021 年,亚马逊云科技的业务年收入高达 620 亿美元,比 2020 年增长 37%。“我们看到很多客户在不确定的时期实际上倾向于他们的云之旅,很多企业因此节省了 30% 甚至更多”,Adam Selipsky 还举例说,一家财富 500 强农业制造商,通过在云上运行服务,将成本降低了 78%。而在 2019 年,Airbnb 已经是一个重要的云用户;2021 年,酒店业跌至谷底,Airbnb 迅速将云支出降低 27%。“也就是说,云自动伸缩特性所带来的好处在不确定时期放大,还能让企业随时准备在业务条件变好时加快发展速度。”“如果你要寻求成本优化,云计算就是最好的选择。”这几年,不少企业希望借助上云或立足云端推动数字化转型,亚马逊在帮助他们进行业务转型的过程中,发现越来越多的组织将数据置于决策的最核心位置。比如一家在线商店,想要提供激励来提高客户保留率,那么就需要去理解消费数据,获取业务洞察力。这需要将数据、数据分析、数据库、机器学习结合起来,从端到端的视角去认识数据,构建企业自身的数据战略。换句话说,企业需要考虑如何对数据从摄取到存储、数据融合、数据查询、基于 BI(商业智能)和 AI(人工智能)分析,这样才能真正实现数据的协同与共享。亚马逊云科技通过与积累的 150 万客户交流,了解他们的诉求,总结了端到端的数据战略中最重要的三点:首先是需要有一套能够支撑未来的数据基础设施:需要有恰当的数据工具来应对不同类型的数据工作负载,同时,这些数据服务在大规模访问的时候也能保持高性能运行,并且不需要我们做太多的冗余的运维工作,且可以保持高可靠性和安全;其次企业需要有能力实现安全高效的跨组织数据融合,打破数据的孤岛;再次是需要有易用的工具和员工赋能、教育来实现数据普惠化。端到端数据战略与云原生基础基础设施这 16 年来,亚马逊一直致力于实现和整合云上从数据存储、到数据分析再到机器学习各个方面的云原生数据工具。15 年前,亚马逊云科技实现了最早的对象存储 S3;10 年前,实现了全球第一个云原生数据库 Amazon DynamoDB, 第一个云原生数据仓库 Amazon Redshift,而随后出现了第一个云原生流式数据处理工具 Amazon Kinesis、第一个云原生机器学习 IDE 工具 Amazon SageMaker。在服务 150 万客户的过程中,亚马逊锤炼出了一套能满足极致性能的经典云原生数据库产品:Amazon Aurora 支持 128TB 的规模,其成本是其他传统企业数据库的 1/10。AmazonDynamoDB在今年的AmazonPrimeDay上处理了每秒超过 1 亿个请求,涉及数万亿次 API 调用。Amazon Redshift 每天处理超过 EB 级别的数据,性价比比其他云数据库高出 5 倍。通过 Amazon Glue 等数据集成工具,开发者可以将所有这些数据,流转到数据分析服务中,再借助亚马逊云科技构建的云原生数据分析工具,如 Amazon EMR、Amazon Redshift、Amazon OpenSearch 等,搭建适合自己的数据分析场景。亚马逊云科技集合了这些最完整全链路云原生数据服务,形成了端到端的数据战略。作为端到端的数据战略基础设施的补充,在 12 月 1 日 re: Invent 大会的主题演讲中,Swami 宣布推出了新品 Amazon DocumentDB Elastic Clusters,专为处理文档类型工作负载打造的全托管弹性集群。Amazon DocumentDB 是一款兼容 MongoDB 的文档数据库,它可以自动向上拓展到每个数据集群达到 64 TB,已拥有数十万用户。而 Amazon DocumentDB Elastic Clusters,可以自动上行拓展存储,几分钟即可完成,用户不需要去担心运维或者迁移的复杂度。它的弹性数据集群可以灵活满足用户的数据管理的需求,并减少相关的维护成本。运行 Apache Spark 的最优平台数据是应用程序、流程和业务决策的核心,是每个组织数字化转型的基石,但分析和处理数据却很棘手。现在,由于数据和机器学习分而治之,如果要用现在流行的大数据框架 Spark 对云数据库中的数据进行分析,就需要先将数据提取到 S3,或为数据库引入一个第三方连接器,再使用 Spark 查询分析。为此,亚马逊云科技为 Apache Spark 添加了 Redshift 集成,无需移动数据即可运行查询,也不再需要构建或管理任何连接器,从存储数据的地方就能完成分析工作。Adam Selipsky 表示,针对 Apache Spark 的 Amazon Redshift 集成最大限度地减少了设置开源连接器的繁琐且通常是手动的过程,同时保持高水平的性能,使开发者能够将应用程序性能提高 10 倍,超过使用现有的连接器。而在第三天的主题演讲中,Swami 也宣布了 Amazon Athena for Spark。添加 Apache Spark 可以帮助开发人员使用自己喜欢的语言编写应用程序,例如 Java、Scala、Python 和 R,而无需在每次运行查询时设置、管理和扩展 Apache Spark 实例。“有了这些新功能,亚马逊云科技就是运行 Apache Spark 的最佳场所”,Swami 表示,而且亚马逊将 Apache Spark 进行了优化,在亚马逊云上的 Spark 比开源版本速度快 3 倍。减少重复劳动,Zero ETL 直击开发人员的痛点数据流通才有价值,不能移动和共享的数据只能成为数据沼泽,而移动数据势必需要各种 ETL 操作。但重复无聊的 ETL 劳动可能已经成了大家心中的梦魇。就像 Adam Selipsky 解释的那样,企业可能在许多不同的地方拥有数据,如果要连接各种数据库、数据湖进行数据分析,这对很多企业来说是一项重大挑战。“这几年,我们已经为此做了很多工作,希望能够在服务之间构建集成,以便更轻松地进行数据分析和机器学习,而无需处理 ETL,”Selipsky 告诉 re:Invent 观众。“但如果我们能做得更多呢?如果我们可以完全消除 ETL 呢?数据集成就不再是一项手动工作,那肯定是大家所期待的,所以,我们的愿景是构建一个 Zero ETL 的未来。”他说。“因此今天我很高兴地宣布 Amazon Aurora 与 Amazon Redshift 实现 Zero ETL 集成。”这意味着亚马逊打通了 Aurora 数据库和 Redshift 数据仓库,让用户不用执行 ETL 就能进行同步,且不会相互影响各自的正常运行。过去,大家需要跑一个 ETL 将数据库里的数据导到数据仓库里,在晚上进行每天的汇总分析。有了这个集成功能后,就不再需要 ETL 操作了,直接在数据仓库里分析就行,而且也不用在中间去构建很多复杂的基础设施,它就自动保证任务成功了。另外,亚马逊云科技还新发布一个特性更新 Amazon Redshift auto-copy from S3,利用它可以将 S3 里的数据给拷贝上来,然后自动同步到数据仓库里去。Zero ETL 还需要可以无缝链接所有数据源,不管在亚马逊云科技还是在第三方的任何应用上面。在一些场景下,我们也需要从很多地方 import 数据,接入不同类型的 SaaS 服务或者第三方数据源,这种情况下新发布的 Amazon AppFlow 支持 50 多种不同的 connectors,无需编写代码即可在数分钟内轻松设置数据流。我们可以看到亚马逊云科技所有的数据服务,可以将上百个数据源都连接联系在一起。将数据库、数据服务底层打通,把各种各样的数据都连接到执行分析所需要的地方去,实现数据平滑“无感”的流动,这也是 Zero ETL 的未来。亚马逊认为,Zero ETL 不是一个服务,而是一个由多个服务组成的解决方案集合,其中涉及到了 Amazon Glue、Amazon Redshift、Amazon MSK、Amazon Appflow、Amazon Athena、Amazon DataExchange。客户可以基于自身需求选取合适的 Zero ETL 服务进行自己的端到端数据之旅,实现近乎 0 投入的数据一体化融合。数据治理是个非常重要的命题数据加速仍在继续,世界上新数据的涌现速度从未像现在这样快。每年我们都会听到关于数据爆炸式增长的消息,而且毫无止歇的迹象。我们希望把企业中所有的这些数据融合一起,以了解它们的内涵并获取价值。但要让数据产生价值,我们必须基于高质量的数据,并以一种一体化的方式实现数据的共享与安全访问,以解锁不同企业用户和不同目的的数据价值。然而这同样也存在一大挑战:客户真正需要的是在数据访问和控制之间,为组织找到最合适的平衡点。如果提供的访问权限过多,就会担心自己的数据暴露在不该暴露的位置、被不该看到的人们看到。这意味着数据的安全性得不到保障。但如果反应过度、保护失当,就相当于把数据锁定了起来,形成数据孤岛,导致没有合适的人能看到数据内容。Adam Selipsky 表示,亚马逊云科技正在努力研究端到端的数据之旅,并在数据之旅的每一站都建立强大的功能和服务,然后将这些功能和服务利用数据治理这样强大的概念结合在一起。明确谁有权访问哪些数据,哪些数据需要设置保护。通过良好的数据治理,人们就可以自由发挥创造力,探索可用的所有数据。在 re: Invent 大会上,Adam Selipsky 宣布推出 Amazon DataZone,一项全新的数据治理服务。使用 Amazon DataZone 跨组织边界大规模共享、搜索和发现数据。通过统一的数据分析门户协作处理数据项目,该门户为大家提供所有数据的个性化视图,同时执行治理和合规性策略。Amazon DataZone 使组织中的每个人都可以访问数据。“为了释放数据的全部力量和全部价值,我们需要让合适的人和应用程序在需要时轻松查找、访问和共享正确的数据——并确保数据安全可靠,”Adam Selipsky 在主题演讲中说道。它的典型使用场景包括:在业务数据目录中查找数据。使用业务术语搜索、共享和访问存储在云上、本地或与第三方提供商一起存储的数据目录。简化工作流程。通过跨团队无缝协作并以自助服务方式访问数据和分析工具来提高效率。简化分析访问。使用基于 Web 的应用程序获取个性化视图以发现、准备、转换、分析和可视化数据。一站式管理数据访问。根据组织的安全法规,一站式管理和管理数据访问。除此之外,Swami 还宣布推出了 Amazon Glue Data Quality (Preview) ,可以进一步提升数据质量,萃取数据价值,保证数据治理。数据治理需要有非常高的数据质量规范,然而越高的规范代表了越高的管理成本,非常费时费力,有时要花几天,甚至几周的时间。Amazon Glue Data Quality 能识别丢失、陈旧或不良数据,将这些手动的数据质量工作从几天缩短到几小时。写在最后:一种影响深远的变革今年,re: Invent 大会的一大主题就是保持经典亚马逊云计划的发展势头:更快、性能更高的基础设施,以及强大的合作伙伴生态系统。亚马逊云科技的服务,其核心就是为企业客户、软件即服务解决方案市场乃至合作伙伴生态系统提供运行良好的基础设施构建块,用以支持各类工作负载。而在构建块之上,亚马逊云科技也开始了更高级的开发与探索。在这次发布会上,Adam Selipsky 宣布了亚马逊自己行业云解决方案:Amazon Supply Chain(预览版)和 Amazon Omics。Amazon Supply Chain 针对供应链行业,“帮助供应链领导者降低风险和降低成本,以提高供应链弹性。”这可以让缺乏工程人才或技能的组织,也能利用亚马逊云科技高级解决方案来快速部署现代 SaaS 应用程序,全面了解其供应链运营情况。Amazon Omics 针对生命科学和医疗行业,存储、查询和分析基因数据,生成有助于改善健康和推进科学发现的见解。这种新的解决方案代表一种前所未有的体验——与云服务更加深入集成、进一步提升软件与应用的开发敏捷性,最终让数据发挥出更大的作用。由此,我们可以总结出几个趋势:数据的扩张速度进一步提升,远超以往的现实乃至想象;更强调基于数据治理、数据安全、数据质量的一体化融合;更强调数据服务的端到端集成,充分利用云原生数据服务的优势,简化和加速客户的云应用;作为组织运营的基础元素,云和数据分析深入渗透至业务的各个层面。亚马逊云科技的最大优势,其实来自 150 万个客户——以及他们处理数据的需求,共同构成了亚马逊云科技生态系统。这样的生态系统再结合前文中我们提到的各项功能,足以让现在的数据共享和综合治理快速找到发展方向,立足庞大的生态规模实现成功。这背后代表着一种影响深远的变革。因为几十年来,行业一直在努力解决数据应用程序的开发复杂度和成本难题。与数据规模相关的复杂性问题始终存在,开发数据驱动型应用时的直接数据查询和数据移动需求也亟待解决。如果亚马逊云科技能够找到合理的答案,那么新的纪元就由此开启:一套云原生全数据堆栈,能够切实降低大规模数据管理中的复杂性。在亚马逊云科技开发者社区官网,我们发布了关于本次 re:Invent 更全面的信息资讯。
7,235
1,669,968,246,159
InfoQ
93
2022 亚马逊云科技 re:Invent:一图看尽 Day 3 重要发布
null
4,084
1,669,956,020,177
InfoQ
94
Serverless时代已经全面到来:冷启动时间降低90%,数据分析All on Serverless
亚马逊云科技已经将数据分析产品全面Serverless化,并拓展到全栈,率先完成了包括计算、存储、数据库、数据分析等领域服务的Serverless 化。Serverless 已经不再是一个未来概念了。多年来,我们目睹了各种技术的兴起和普及。20 世纪 90 年代后期,Linux 受到了空前的关注,并最终成为业界领先的服务器操作系统。在 2000 年代初期,虚拟化提高了服务器利用率,为云计算铺平了道路。如今,Linux 和虚拟化作为云计算的基础已经无处不在。而现在,最热的技术话题都是围绕着容器、Kubernetes 和 Serverless 展开,它们也将成为我们日常使用的云基础设施的一部分。作为云计算的下一个迭代,Serverless 提供了进一步的抽象,使 IT 基础设施资源在需要时动态可用。能有效降低成本绝对是 Serverless 的一大好处,但对于我们开发人员来说更多的好处与开发速度有关。Serverless 让工程师能以现代化的方法构建软件,只需要关注业务逻辑,更快地把产品推向市场。这也为企业减少了前期投资,可以专注于推动差异化的业务价值,加快投产时间,这些也影响着企业的运作方式,从而能够产生多米诺骨牌效应,在市场竞争中不断获利。Serverless 最早的框架产品源于 2014 年亚马逊推出的 Amazon Lambda,之后所有的大厂都在跟进,比如微软、谷歌、IBM 都先后推出自己的 Serverless 产品,进一步推动了无服务器技术的发展。自 2014 年发布以来,Amazon Lambda 几乎已成为 Serverless 的代名词。最初人们以为 Serverless 是 FaaS(函数即服务),但实际上 Serverless 不仅局限于计算服务,而是指一种端到端的架构。除了比较常提起的 Lambda 外,还覆盖了计算、存储、网络、容器、数据库等,集成多个方面的服务,可以快速地构建现代化应用。因此,Amazon Lambda 或 Amazon Fargate 计算引擎也需要配合数据存储或应用程序集成工具一起才能完成服务,比如通过 Amazon API Gateway 发送 HTTP 请求,或调用 Amazon S3、Amazon DynamoDB 或 Amazon Kinesis 流中的资源。从 Lambda 推出到现在的八年时间里,亚马逊云科技不断完善 Serverless 架构,添加了 100 多个新功能,包括对 Graviton 的支持、更长的运行时间和毫秒计费。今年,Serverless 的演进也践行了端到端数据旅程,数据服务与人工智能是 Serverless 创新的新高地,而亚马逊云科技全程领跑,率先完成 Serverless 在云服务上的全面布局。现在,无论是技术成熟度还是架构完善程度,都说明了无服务器的时代已经全面到来。与此同时,Serverless 技术已经得到了行业的认可,采用增长得非常快,在行业里有了大量落地应用。据 Datadog 2022 年发布的最新Serverless状态报告,Serverless计算已成为主流,并改变了应用程序开发。该报告还特别指出,Amazon Lambda 是无服务器计算的重头戏,“在 2020 年初,Lambda 不再是一项小众技术,使用 Amazon Web Services 的 Datadog 自有客户中近一半现在已经采用了 Lambda。这种采用率表明 Lambda 不再局限于早期采用者,Serverless服务与功能现在已经得到亚马逊云科技客户的广泛使用。”在今年的 re: Invent 大会的主题演讲中,亚马逊高级副总裁 Peter DeSantis 给大家展示了关键数据:“如今,包含Capital One、LibertyMutual 和 Coca Cola 在内的 100 多万客户都在使用 Lambda,每月发出的请求超过 10 万亿次…”Serverless 计算再突破:冷启动时间降低 90%亚马逊云科技面向 Serverless Computing 的创新仍未止步。长期以来,冷启动(Cold Start)一直是对 Lambda 的优化需求之一。当应用程序启动时,无论是手机上的应用程序,还是 Serverless 的 Lambda 函数,它们都会进行初始化。初始化过程可能因应用程序和编程语言而异,但即使是用最高效的编程语言编写的最小应用程序也需要某种初始化才能执行接下来的操作。Lambda 函数是在完全托管的运行时环境中执行函数代码,因此每次应用程序扩展以创建新的执行环境时都会进行初始化,包括下载函数的代码、启动运行时等。2019 年,亚马逊云科技发布了 Amazon Lambda 的“预置并发(Provisioned Concurrency)”功能,它允许亚马逊云科技 Serverless 计算用户使其函数保持“已初始化”的状态,极大程度地减少了工作负载突然增加时的扩容时间,这种技术突破也意味着行业达到一个成熟点。然而当某个功能长时间不使用时,Lambda 会关闭底层虚拟机,再次启动也需要时间进行又一次的初始化。正如 Peter DeSantis 提到,面向突发工作负载是 Lambda 的构建目标之一。亚马逊云科技利用 Firecracker MicroVM 可以将“冷启动”时间从几秒缩短到不到一秒。Firecrackers 是亚马逊云科技专门构建的一种虚拟化技术,比常规虚拟机小得多,小到亚马逊称之为微型虚拟机。尽管有了更快的 Firecracker microVM 等改进,但这仍然需要一段时间来实例化一个微型虚拟机。11 月 29 日,在 re: Invent 大会现场,Peter DeSantis 正式宣布推出新功能 Amazon Lambda SnapStart。利用 SnapStart 可将 Lambda 函数冷启动持续时间降低至不到 200 毫秒,延迟率降低 90%,使得冷启动跟非冷启动(缓存命中)几乎没有区别,那么这也就意味着“冷启动”的结束,Serverless技术再次获得了里程碑式的进化!借助 SnapStart,客户可以通过创建 Lambda 函数的快照来解决这个问题,然后只需启动它们而无需等待通常的初始化过程。也就是说,用户新建和更新 Lambda 函数时,SnapStart 将执行标准初始化,并创建内存和磁盘状态的加密快照并缓存以供重复使用。当用户应用程序再次启动时,Lambda 从缓存的快照恢复新的执行环境,而不是从头开始初始化它们,从而提高启动性能。目前,这项服务适用于使用 Corretto 运行时的 Java 函数。Java 是一个起点,因为 Java 函数的冷启动问题比其他函数更明显,但 SnapStart 不是 Java 特定的技术。由于 SnapStart 使用微型虚拟机 (microVM) 快照来检查和恢复完整的应用程序,因此该方法也具有适应性和通用性。缓存的快照在闲置 14 天后将被删除。初始化功能所需的时间是导致高启动延迟的主要原因,现在被 SnapStart 更快的恢复阶段所取代。作为主题演讲中的一项重要发布,Peter DeSantis 在最后还介绍到,目前已经有很多客户在测试和使用 Amazon Lambda SnapStart ,并反馈在降低了 90% 以上延迟的同时,应用无需变更代码或架构,能够更快捷地通过 Amazon Lambda 的 Serverless 能力面对业务峰值的挑战。另外,Amazon Lambda SnapStart 版本自发布起免费向公众开放。数据分析服务全面 Serverless 化在过去的几年中,亚马逊云科技不断添加新功能,从数据库、数据分析、人工智能等多个服务领域全面推进 Serverless 进程。开发者可以使用 Serverless 数据库服务,而无需考虑容量是否达到上限,数据库服务会自动缩放,按使用量付费,且内置高可用和容错能力,所以用户只用做简单的运维,所以使用起来的门槛低,需要投入的精力也很小。因此,响应用户的需求,亚马逊云科技在自身的数据库服务基础上,发布多款专门构建的 Serverless 数据库,为用户提供了最广泛的数据库选择。其中,Amazon Aurora Serverless v2 尤为值得一提,其发布于 re:Invent 2020,并于 2022 年 4 月正式上线,可在不到一秒钟的时间内将数据库工作负载扩展到能够处理数十万个事务的能力。它会以极为精细的增量调整容量,从而确保恰好提供应用程序所需的数据库资源量。Amazon Aurora Serverless v2 的上线可以认为是整个云原生关系型数据库 Serverless 之路上的里程碑事件,具有开创性意义。除了数据库,应用程序中的数据还可能来自不同的地方、有着不同的类型,像点击流、IoT、图片、音视频等各种半结构化、非结构化的数据都在源源不断地产生。我们需要正确的分析工具来分析不同类型的数据,帮助我们了解今天正在发生的事情,再通过机器学习预测未来会发生什么,并将智能构建到系统和应用程序中。所以,在数据库的基础之上,亚马逊云科技同样也提供了最广泛的分析服务。在去年的 re:Invent 大会上,亚马逊云科技 CEO Adam Selipsky 在主题演讲中一口气宣布推出 Amazon Redshift、Amazon EMR、Amazon MSK、Amazon Kinesis 四款新的 Serverless 产品。亚马逊云科技的其他 Serverless 分析产品包括用于商业智能的 Amazon QuickSight 和用于数据集成的 Amazon Glue。用户可以从亚马逊云科技专门构建的各种分析服务中进行选择,以从数据中获取最大价值,包括用于处理大量非结构化数据的 Amazon EMR(使用 Apache Spark 和 Hive 等开源大数据框架)、Amazon MSK 用于摄取实时数据流,以及用于数据仓库的 Amazon Redshift。在今年 11 月 30 日的主题演讲中,Adam Selipsky 再次宣布了 Amazon OpenSearch Serverless(Preview)。随着 Amazon OpenSearch Service Serverless 的发布,用户将不再需要管理自己的 OpenSearch 集群,从而更轻松地运行大规模搜索和分析工作负载。Amazon OpenSearch Serverless 也填补了亚马逊云服务 Serverless 分析产品组合最后的空白,这表示现在亚马逊云科技提供的所有的数据分析服务已全部实现了 Serverless 化。亚马逊云科技成为首个 Analytics All on Serverless 的云厂商,“目前没有其他人做到”,Adam Selipsky 指出。(编者注:这里的“all on”指亚马逊云科技的一系列服务已经完成了全面 Serverless 化,而不是通常说的 all-in,即打算全面投入。)写在最后亚马逊云科技在这几年中不断增量改进,这些改进不断积累,最终形成了从数据存储到数据分析,并结合人工智能的“全 Serverless 架构”。无论是普通业务用户还是数据分析师、数据科学家等用户直接基于 Serverless 的产品,可以快速开展工作。利用无服务器架构解决业务挑战,亚马逊云科技为开发人员提供了足够大的广度。2019 年,伯克利发布了一篇论文 《A Berkeley View on Serverless Computing》,预言“无服务器计算将会发展成为未来云计算的主要形式”。现在,无论是不断提升的采用率还是“全栈”技术成熟度,都在证明无服务器就是云计算下一阶段的主要形式。在亚马逊云科技开发者社区官网,我们发布了关于本次 re:Invent 更全面的信息资讯。
11,585
1,669,888,264,079
InfoQ
95
2022 亚马逊云科技 re:Invent:一图看尽 Day 2 重要发布
null
3,628
1,669,863,600,512
InfoQ
96
re:Invent 首日:硬件创新加速,Serverless 冷启动技术突破
2022 re:Invent 如约而至,带来了云计算领域年度最后一场重要的产品发布盛会,也多少为我们揭示了今年云计算的整体演进趋势。本次 re:Invent 第一场 Keynote 于太平洋时间 19:30 (北京时间 11:30)开始,由亚马逊云科技高级副总裁 Peter DeSantis 带来,主题聚焦于亚马逊云科技围绕性能、性价比、安全三方面因素综合考虑带来的创新和发布,涵盖了 Nitro v5 高性能芯片、C7gn 实例、ENA Express 解决方案等八大重要内容,整体可以分为芯片与实例、协议与功能更新两大部分。芯片与实例:服务高性能计算,平衡价格与安全新发布 Amazon Nitro v5 及 C7gn 实例此次发布的 Amazon Nitro v5,在性能上较之前版本有显著提升,包括晶体管数量增加一倍,,提供了更多的计算性能,50% 的 DRAM 内存性能提升,2 倍的 PCIe 带宽提升,改善延迟 30%,同时每瓦性能提高 40%,PPS 提高 60%。Amazon Nitro 芯片缘起于 2017 年,几乎是业内最早开始尝试将硬件虚拟化、云计算专用芯片整合而成一个统一架构平台的产品尝试,背后的核心的动力来源于亚马逊云科技对云计算本身的理解,即:弹性、安全、性能、成本、可用性及可持续性,这也是亚马逊云科技在云计算领域的建设理念。Peter 从其中最重要的“性能”谈起,讲述亚马逊云科技是如何在不断强化云服务性能的基础上,来兼顾其他因素的。而在 Nitro 出现前,无论何种虚拟化方案,都无法将大部分资源用于客户的计算服务,也无法降低服务采用门槛,Nitro 实现了近乎裸机的性能是一种事实上的突破。另外,云计算的安全问题自虚拟化技术诞生之初就伴随出现,Nitro 把安全性推到一个新的高度。每个 Nitro Enclave 运行一个独立的内核,并且可以独占访问内存和 CPU 资源,没有外部网络连接,没有持久存储,也没有用户访问权限,因此得以在部分数据高度敏感的行业得以一展拳脚。Peter DeSantis 同时宣布,C7gn 实例将是 Nitro v5 支持的首个实例,这是进一步对高计算密集、高数据安全行业要求如生命科学、工业工程等提供专项服务的象征。我们通常说行业对算力的需求几乎是无限的,因此云计算的性能提升也是当下的核心命题,其主要依据即来自以上行业的工作需求。C7gn 实例相比于 C7g 实例,为要求更严苛的网络密集型工作负载而设计和优化:包含网络虚拟设备(防火墙、虚拟路由器、负载均衡器等)、数据分析和紧密耦合的集群计算作业场景。C7gn 的另一项核心性能优势其实来自于本场发布的第三个产品,即 Amazon Graviton3E 处理器。借此,C7gn 得以支持高达 200 Gbps 的网络带宽,以及提高 50% 的数据包处理性能。新发布 Graviton3E 芯片及 HPC7g 实例如果说,会前我们能对哪个系列的产品发布做出预测,那 Graviton 系列芯片的更新无疑是最为确定的。为降低成本并为用户提供价格更优的服务,在 2015 年收购了以色列芯片设计公司 Annapurna Labs 后,亚马逊云科技加速了基于 Arm 架构的处理器的开发。Graviton 的第一个版本于 2018 年在 re:Invent 上发布,四年来,亚马逊云科技一直都在使用自己的芯片。此次推出的 Graviton3E 芯片,是亚马逊云科技继去年推出 Arm 架构自研处理器 Graviton3 之后,针对高性能计算场景打造的新的芯片分支,与 Graviton3 相比,不仅将工作负载的性能提高了 35%,还进一步了优化浮点运算,耗能减少了 60%,用于金融相关运算也能提升 30% 执行效率。在虚拟化应用部分,Graviton3E 芯片可模拟成最多 64 组虚拟 CPU,并且分配 128 GB 内存容量,最快将会在 2023 年初开始布署应用。当然,作为亚马逊云科技的看家硬件之一,Graviton3E 也将支持更多的实例,HPC7g 就是其中之一。HPC7g 基于 Graviton3E 提供服务,是结合以上提到的标杆行业的通用需求,进一步深化服务的实例。这种新的实例类型将有多种大小,最多具有 64 个 vCPU  和 128 GB 内存,这些实例将在 2023 年初正式商用。HPC7g 同样是针对更多网络密集型工作负载业务场景提供服务的。如果将 re:Invent 当做云计算行业风向标来看,那么这次的发布至少说明一个问题:高密集工作负载场景的服务,一定是云计算近几年的主攻方向。协议与功能更新:Lambda 性能实现突破SRD 协议:Scalable Reliable Datagram(可扩展可靠数据报)除了硬件与实例,会上,Peter 也表示,一切性能改进都源自于创新,但又不仅仅是创新,为了达到最佳性能,软硬件设施要高度融合、协同发展。此次 re:Invent,亚马逊云科技发布了一种 SRD(可扩展的、可靠的数据报)网络协议。SRD 全称是“Scalable Reliable Datagram”,代表可扩展的、可靠的数据报。Peter 在此次发布会上重新强调 SRD 协议的重要性,该协议提供跨多条路径的负载平衡以及从丢包或链路故障中快速恢复功能,且性能优于 TCP 协议。以 TCP 为代表的传统网络协议,为了保证网络传输的高可靠,会尽可能地将包发送至同一拓扑路径上,并且通过握手、挥手、超时重传机制保证包正确送达。SRD 的创新在于刻意的在多个路径分别发包,虽然包到达后通常是乱序的,但亚马逊云科技实现了在接收处以极快的速度进行重新排序,最终在充分利用网络吞吐能力的基础上,极大降低传输延迟。另外,TCP 是个泛用协议,在今天的低延时场景,泛用的解决方案生存空间越来越狭小。我们固然可以通过各种优化、定制去对其作提升,但迭代的终点实际上就是创新。SRD 协议是围绕 Nitro 等一些系列硬件作专项优化的,可以将丢包重传的延时从毫秒级降低到微秒级,这彻底改变了我们对网络传输协议延时极限的推演,也验证了大型云计算服务提供商,开发自有定制化硬件的必要性。新发布 ENA Express发布会上,亚马逊云科技还宣布推出了适用于 Amazon EC2 实例的 Elastic Network Adapter (ENA)Express。ENA Express 是一项新的 ENA 功能,它以 SRD 协议为基础,以两种主要方式提高网络性能:更高的单流带宽(从 5Gbps 最高提升至 25Gbps)和更低的延迟。分布式存储系统和实时媒体编码等工作负载需要巨大流量,并且对延迟变化极为敏感。在推出 ENA Express 解决方案之前,用户通常会使用多路径 TCP 来增加带宽,但这会增加复杂性,有时可能造成与应用层不兼容。而当服务器因请求而过载时,TCP 也无法处理拥塞。这种情况下,可借助 SRD 专有协议,通过高级拥塞控制、多路径和直接从 Nitro 芯片重新排序数据包来实现这些改进。启用 ENA Express 是一个简单的配置,它使得启用 SRD 就像为 EC2 实例使用单个命令或控制台切换一样简单。与 TCP 相比,ENA Express 能够将流量的 P99 延迟减少 50%,P99.9 延迟减少 85%。新发布 Lambda SnapStart此外,本次发布会另外一值得关注的重大发布就是 Amazon Lambda SnapStart。Amazon Lambda 是一项计算服务,是 Serverless 技术的先驱者和代表作品,可让使用者无需预置或管理服务器即可运行代码,它在可用性高的计算基础设施上运行代码,执行计算资源的所有管理工作,其中包括服务器和操作系统维护、容量调配和弹性伸缩和记录。对于许多企业来说,Amazon Lambda 最大的优势就是模型操作简单、价格经济实惠。但许多团队在调整服务来部署 Amazon Lambda 时面临着一大挑战——冷启动,也就是为功能准备新的执行环境时产生的延迟,通常要经历更长的初始化时间。这是 Serverless 自诞生以来一直存在的技术障碍,此次 Amazon Lambda SnapStart 新版本的发布正弥补了这一不足。据 Peter 介绍,Lambda SnapStart 版本是基于 Java 函数的重大改进,专门解决了 Java 函数冷启动引起的延迟问题。Lambda SnapStart 可将 Lambda 函数冷启动持续时间从超过 6 秒降低至不到 200 毫秒,并使延迟率降低 90%,而且无需额外费用,而且通常无需更改用户的功能代码。解决 Serverless 冷启动问题的惯性思路是加入更多的缓存,但对于亚马逊云科技来说,成本开销的平衡必须被考虑其中,因此该方案还不够好。终版方案的关键之一在于引入了 Amazon Firecracker,这种发布于 2018 年的开源 KVM 虚拟化技术,以极低的开销和启动、关闭速度帮助亚马逊云科技搞定了 Lambda SnapStart 面对的技术问题。Firecracker 的每个实例被称为 microVM,每个 Firecracker microVM 仅使用大约 5 MiB,也就是 5.24 MB 的内存。这意味着可以在单个虚拟 CPU 上运行数千个 Firecracker microVM。值得一提的是,Peter 称 Amazon Lambda SnapStart 版本自发布起免费向公众开放。Amazon Lambda SnapStart 项目地址:https://github.com/aws/aws-lambda-snapstart-java-rules在亚马逊云科技开发者社区官网,我们发布了关于本次 re:Invent 更全面的信息资讯。
6,718
1,669,800,976,974
InfoQ
97
2022 亚马逊云科技 re:Invent:一图看尽 Day 1 重要发布
null
3,897
1,669,780,614,326
InfoQ
98
亚马逊ElastiCache支持Redis 7,新特性包括Redis函数、ACL改进和分片的Pub/Sub
最近,亚马逊云科技宣布Amazon ElastiCache for Redis兼容Redis 7。其中包含了一些新特性,如Redis函数、ACL的改进和分片的Pub/Sub。 Amazon ElastiCache for Redis是一个全托管的内存缓存服务,兼容Redis和Memcached开源引擎。开发者可以通过该服务在游戏、广告技术、电子商务、医疗保健、金融服务和物联网领域为其互联网规模的实时应用提供动力。 图片来源:https://aws.amazon.com/elasticache/redis/ Amazon ElastiCache for Redis在两年前支持Redis 6,现在支持今年早些时候发布的Redis 7。在AWS管理控制台中创建集群时,Amazon ElastiCache for Redis可以支持的Redis版本范围为3.4.2到7.0。 与Redis 7兼容性相关的重要新特性有:支持Redis函数,并提供了一种托管体验,开发人员可以使用存储在ElastiCache集群上的应用程序逻辑执行Lua脚本,客户端不需要在每次连接时都将脚本重新发送到服务器;支持下一个版本的Redis访问控制列表(ACL)。对于ElastiCache for Redis 7,客户端可以在Redis中的特定键或键空间上指定多组权限;在集群模式下运行ElastiCache时,为开发人员提供了以分片的方式运行Redis Pub/Sub功能的能力。此外,通道被绑定到ElastiCache集群中的一个分片上,不需要跨分片传播通道信息,从而提高了可伸缩性。 Redis技术支持经理Elena Kolevska在Redis文档中提到,Redis函数是Redis 7中最具影响力的新增特性: Redis函数——一个新的可编程选项,通过增加模块化、可重用性和更好的开发者体验来改进脚本。 此外,她还写道: Redis有支持多种执行引擎的能力,所以在未来的某个版本中,我们将能够用Lua、JavaScript和更多的语言编写Redis函数,但目前(Redis v7.0)唯一支持的语言是Lua。 开发者可以通过修改集群或复制组并指定引擎版本为7来升级集群或复制组的引擎版本。 最后,需要注意的是,亚马逊云科技并不是唯一支持开源Redis缓存服务的云供应商。例如,微软提供了Azure Cache for Redis,默认支持Redis 6。与Redis对等的特性支持到RedisJSON,还没到Redis 7。谷歌的Memorystore最多支持到Redis 6。 Amazon ElastiCache for Redis 7在所有AWS区域(中国北京和中国宁夏除外)均可使用,其定价细节可在定价页面找到。此外,该服务的详细信息和指南可以在文档首页上找到。 原文链接:https://www.infoq.com/news/2022/11/amazon-elasticache-redis-seven/相关阅读:亚马逊云科技向Well-Architected Framework添加容器透镜亚马逊将自有服务数据的压缩从Gzip切换为Zstd
3,988
1,669,766,400,700
InfoQ
99
云中的 MySQL 是 DBA 的终结吗?
本文最初发布于 Daniel Nichter 的个人博客 Hack MySQL。这篇博文是该系列 11 篇文章中的最后一篇:一篇是前言,其他 10 篇对应我写的 Efficient MySQL Performance 一书的 10 个章节。这里有完整列表。几年前,我参加了 Oracle 在当地举办的一次聚会。令人敬畏的 Kenny Gryp 也在那里。但我记得最清楚的是和另一位 DBA 的对话,我和他不是很熟,所以不管你是谁,请原谅我后来忘记了你的名字。但我记得,当我说 MySQL 需要更多的 DBA 时,你说了什么:你说不需要,因为云正在接管 MySQL 管理。多年后,我看到了这样的情况:招聘一个有经验的 MySQL DBA 变得极其困难;取而代之,我们招聘优秀的软件工程师(有时是刚从大学毕业的),并培训他们运维之前就有的 MySQL 机群,我们不期望他们“深入”MySQL——当然也没期望他们能成为 MySQL 专家。现存的独立 MySQL 专家是我们这类人里的最后一批。这里的“独立”是指使用 MySQL,但不开发它。当然,Oracle 会继续招聘和培训工程师来开发 MySQL,他们将成为他们这个开发领域的专家,但是,我这里说的是 DBA:管理 MySQL 并公开撰稿介绍 MySQL 的人 — 选择深入研究 MySQL 并进而成为专家的人,而不是被雇佣并进而成为专家的人。那是可以的,因为现如今,MySQL DBA 的工作与其说是关于 MySQL,不如说是关于 MySQL 的一切:存储、计算、安全、合规性、数据平台和软件工程师。当然,对于更广泛的行业来说,也会有新的发展,不断出现的 Bug,以及一些需要独立专家来揭示并解决的常见问题。但总的来说,符合标准设置的 MySQL 就足够了。这就是云的用武之地,因为没有 DBA 会真的想要在一个裸金属机群上操作 MySQL。是的,那很酷,很有技术含量——让你感觉很特别。但是,除非你是在一个稳定的(或变化非常缓慢的)环境中,否则你就要把太多的时间花费在硬件变化和问题跟踪上。就像我们的个人电子设备一样,企业硬件的变化也非常频繁,因为销售人员需要把更新、更亮的产品卖掉。机架服务器中那些拥有 BIOS、固件和内核理想组合的 5TB 企业级 SSD 不是可以帮助 MySQL 运行得很好吗?再也不能买了。此外,最新的 BIOS 更改了风扇转速管理,这会影响 CPU 温度,进而影响 CPU 时钟速度,从而严重影响了查询响应时间。当测试备用电源板导致两者都失效时,你就翻白眼了……正如我在 Efficient MySQL Performance 一书第 10 章所写的那样,云运行 MySQL,但它不能代替 DBA 的工作:虽然“You”下面对勾的数量是“Cloud”下面的两倍,但“Cloud”下面的那 5 个对勾很重要,因为它们处理了所有底层工作(尤其是硬件)——最繁重而影响最小的那部分工作。根据你与 MySQL 的关系,“Cloud”下面的 5 项工作对你的影响会有所不同:DBA云让 DBA 可以专注于提供更好的用户体验,从与“DBA”下的勾选项有关的方面。例如,提供更好的服务器和查询指标,帮助用户(软件工程师)理解应用程序如何影响 MySQL 及其性能。这就是我们的职业发生变化的原因:我们可以在上层与软件工程师开展合作,以便更有效地理解和利用 MySQL,而不是在下层与 MySQL 搏斗。这在云计算领域尤其重要,因为在云中,“大型硬件”非常昂贵,或者按使用量付费泛滥成风。软件工程师云将为你运行 MySQL,但这不同于管理。你很快就会发现,云仍然给你(或你的 DBA)留下了许多需要 DBA 完成的工作。在 MySQL 世界中,在线更改模式(运行 ALTER 语句而不阻塞任何查询)是一个常见的、云无法解决的需求。因此,如果你是一名云 MySQL 新手,请注意这一点,不要对此感到惊讶:如果你关心安全性和灾难恢复(DR)等问题,那么你需要多做一些工作才能使云中的 MySQL 真正达到生产状态。随着时间的推移,我认为云提供商将提供更多的功能。例如,亚马逊提供了服务器指标、查询指标、DR 和 HA 的解决方案;但坦率地说,我认为它们还没有好到可以在“Cloud”列下增加一个对勾。例如,关于 Amazon RDS 和 Aurora,有一个地方就让我很恼火:当你为 DR 设置跨区域复制时,如果复制由于他们的问题而停止,亚马逊并不会监控或提醒你——他们当然也不会修复这个问题。这让我很恼火,因为复制是他们的产品特性,所以在这种情况下,他们应该监控并确保它能够继续工作。但是,它可能会悄无声息地失败,除非你知道存在这种情况,自己监控并修复它。即便如此,因为这是他们在他们那边设置的,我也遇到过无法从我这边解决的情况。如果你还是不相信,我再举一个例子:我还遇到过这样的情况,亚马逊云科技说复制是按他们的 API 设置的,但 MySQL 没有针对复制做配置——这明显是亚马逊云科技方面犯的一个严重的错误,目前还没有简单的修复方法。购者自慎。云 MySQL 正在发展,这意味着传统 DBA 对运行 MySQL 的关注将越来越少,而对帮助软件工程师有效地使用 MySQL 的关注将越来越多。这就是我写 Efficient MySQL Performance 这样一本书的原因:针对使用 MySQL 的软件工程师,而不是 DBA,因为后者已经赢得了众所周知的战争:MySQL 已经在世界上很大的范围内运行,而且很有效。但是,关系数据库很复杂,有时候会让软件工程师无法从 MySQL 那里获取他们最需要的东西:性能。但是,云并不关心 MySQL 的性能。不管是快的还是慢,收费都一样。这就是为什么云永远不会成为 DBA 的终结。这也是为什么我们转了一圈又回到了我书中的第一句话:声明:本文为 InfoQ 翻译,未经许可禁止转载。原文链接:https://hackmysql.com/post/book-10/
3,054
1,669,717,605,176
InfoQ
100
InfoQ 带你直达拉斯维加斯,一睹 2022 云计算狂欢盛会 re:Invent
如果说在云计算领域,有什么会议是必须关注的,那无疑应该是 re:Invent 。作为诞生至今已有十一年历史,几乎承载了 Serverless、云原生、云 +AI 等所有前沿趋势的行业会议,re:Invent 的历年发布既有其技术前瞻价值,也有独特的历史意义——观看 re:Invent 的发布,就有可能见证云计算的历史,这是一个毫不夸张的说法。此外,re:Invent 并不是一个执着于寓教于乐的“包饺子”大会,每年的世界顶级 DJ 表演是彻头彻尾的属于程序员的狂欢 Party,我们获悉今年还加入了吉尼斯认证的 Tatonka 鸡翅大胃王比拼,也是为程序员献上的特别环节。美国太平洋时间 11 月 28 日(北京时区 11 月 29 日),2022 re:Invent 将在拉斯维加斯正式开幕,InfoQ 特派记者将抵达现场实时播报,来看看今年有哪些你不能错过的精彩环节吧!“5 + 2 + 1”,给你的 re:Invent 特别攻略2022 年的 re:Invent 大会,采用 “5 + 2 + 1”的观看攻略,可以保证你不遗漏主要精彩。其中的 “5” 指的当然是五场最重要的 Keynote 演讲,历年重要发布,几乎都会现身其中。今年的 Keynote 分享时间、分享人、主题方向如下所示,你可以截图保存留用,我们特别准备了北京时区时间对照,方便你在线观看 re:Invent。分享方向:“云性能极限突破:跨芯片、网络、存储、计算设计”分享人: 亚马逊云科技高级副总裁 Peter DeSantis太平洋时间:2022 年 11 月 28 日 19:30 | 拉斯维加斯,内华达州北京时间:2022 年 11 月 29 日 11:30 现场直播分享方向: “数据与基础设施创新”分享人: 亚马逊云科技首席执行官 Adam Selipsky太平洋时间: 2022 年 11 月 29 日 8:30 | 拉斯维加斯,内华达州北京时间:2022 年 11 月 30 日 00:30 现场直播分享方向:“云端数据战略”分享人: 亚马逊云科技数据与机器学习副总裁 Swami Sivasubramanian太平洋时间: 2022 年 11 月 30 日 8:30 | 拉斯维加斯,内华达州北京时间:2022 年 12 月 1 日 00:30 现场直播分享方向:“云驱动创新赋能”分享人: 亚马逊云科技全球渠道与联盟副总裁 Ruba Borno太平洋时间: 2022 年 11 月 30 日 15:00 | 拉斯维加斯,内华达州北京时间:2022 年 12 月 1 日 7:00 现场直播分享方向: “构建可扩展、弹性和可容错的应用程序”分享人: Amazon.com 副总裁兼首席技术官 Werner Vogels 博士太平洋时间: 2022 年 12 月 1 日 8:30 | 拉斯维加斯,内华达州北京时间:2022 年 12 月 2 日 00:30 现场直播以上就是五大 Keynote 全部的内容分享及其他基本信息。“5 + 2 + 1”观看攻略中 “2” 的含义则是指两大趣味环节,感受现场别样风采。趣味环节一: DJ 万人电音派对在忙碌的工作中,你有多久没彻底放空狂欢过了?re:Invent 每年邀请知名 DJ 到场,万人电音狂欢,这是献给你的独特演出,跟着音乐挥起你的小手吧!趣味环节二: 吉尼斯认证 Tatonka 鸡翅大胃王比拼在一个云计算大会上比赛吃鸡翅,不得不说,re:Invent 是真的会玩!把减脂餐和体重烦恼扔到一边去吧,今天,吃得够多才能获胜!两个趣味环节的具体时间尚不确定,请大家紧密关注我们的报道。"5 + 2 + 1" 观看攻略中最后的 “1” ,指的则是为开发者精心准备的 Developer Community Lounge,来到 re:Invent,怎能不和来自世界各国的开发者一起聊聊,热心的社区志愿者会保证你获得良好的交流体验。时间(两场):太平洋时间 11 月 28 日 8:00 - 14:00太平洋时间 11 月 29 日 16:00 - 18:002无法到达现场的开发者,如何体验本次大会?当然,我们知道很多开发者,无法到达美国拉斯维加斯大会现场,所以我们本次特别准备了两大报道渠道供你实时感受 re:Invent 现场盛况,InfoQ 特派记者将从前方第一时间回传精彩资讯。直击现场,来自大会记者的实地报道本次 re:Invent ,我们将进行双渠道全程直播,带你直达大会现场。直播渠道一: 亚马逊云科技开发者社区全程转播访问链接。re:Invent 专题页面为大家一并奉上。直播渠道二: InfoQ 视频号访问方式:关注 InfoQ 公众号(infoqchina),即可预约直播每天的发布情况,我们都会以长图形式进行总结,发布在 InfoQ 官网及社群,言简意赅地帮你总结重点发布情况。此外,只有大会直播看,未免不够过瘾,InfoQ 现场记者还将实地采访两位亚马逊云科技技术专家,围绕本次发布进行解读,关注云原生行业发展、硬件主导、云服务 Serverless 进展等关键趋势。采访会同步发布在亚马逊云科技开发者社区和 InfoQ 官网专题。除了图文,我们的记者也会对现场精彩环节、发布、展区进行实景拍摄,并第一时间上传至亚马逊云科技开发者社区和 InfoQ 官网,让大家感受现场的热烈气氛。深度报道,带你看懂 re:Invent在国内的黄金时间,我们特别在每天下午、晚上分别安排一场大咖嘉宾连线解读,方便你不光获知了资讯本身,还能获得更权威、多维的专家视角信息。两档节目中,一档叫做《上新了 亚麻云》,每日下午将在亚马逊云科技 B 站、视频号、知乎、Tech media 公众号实时发布、直播。亚马逊云科技专家,业内知名媒体、技术专家畅聊精彩发布,解读云计算趋势。另外一档由 InfoQ 总编辑连线亚马逊云科技技术专家,在 InfoQ 视频号进行直播,11 月 28 日、12 月 1 日、12 月 3 日, 每晚 18:00 - 19:30,为你解读前日重要发布。除全程直播外,亚马逊云科技开发者社区还将实时更新精彩发布简讯,方便快速掌握本次发布要点;实时更新图集,方便你全方位观察本次 re:Invent;实时更新短视频,给你带来亲临现场般参会感受。从 11 月 30 日开始,每天 InfoQ 都会发布一篇以 Keynote 为核心的深度解读文章,供你检索取用,以媒体视角给你带来更多信息参考。创意互动,拒绝无聊还是觉得参与感不够?没关系,传承自 2021 年的 “点亮”云计算技术之旅 活动今年继续,快去点亮你心目中的最佳年份。此外,我们为国内开发者单独准备了“开发者说”留言板,我们的记者将在拉斯维加斯现场,对来自各个国家的开发者进行采访,整理并发回国内,上传至留言板。欢迎你积极参与!访问链接,11月26日,精彩上线!InfoQ 作为此次现场采访的独家合作媒体,将同步进行内容的整理创作与发布,敬请访问亚马逊开发者社区 和 InfoQ 官网 ,留意我们的专题更新。相信以上策划,一定能为你带来完整、即时、新鲜有趣的 re:Invent 观看体验。2022 re:Invent 我们陪你共同参与。
3,915
1,669,686,597,077
InfoQ