Id
int64
0
7
Title
stringclasses
23 values
Content
stringclasses
23 values
View
int64
11
3.96k
PublishTime
stringclasses
23 values
Site
stringclasses
1 value
0
Generative AI 新世界 | 大模型参数高效微调和量化原理概述
在上期文章,我们对比了在 Amazon SageMaker 上部署大模型的两种不同的部署方式。本期文章,我们将探讨两个目前大语言模型领域的开发者们都关注的两个热门话题:大型语言模型(LLM)的高效微调和量化。微调大型语言模型允许开发者调整开源基础模型,从而提高特定领域任务的性能。接下来的两期文章,我们将探讨如何利用 Hugging Face 的参数高效微调 (PEFT) 库和 QLoRA 量化技术,使用单个实例对大型模型进行参数高效微调和量化部署。亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮助中国开发者对接世界最前沿技术,观点,和项目,并将中国优秀开发者或技术推荐给全球云社区。如果你还没有关注/收藏,看到这里请一定不要匆匆划过,点这里让它成为你的技术宝库!由于该研究范畴尚属前沿领域,因此我计划用两篇文章的篇幅来阐述原理及背后的主要论文,然后指导大家在亚马逊云科技上的具体实践。包括:原理探索:大模型参数高效微调和量化原理概述动手实验:使用 PEFT 和 QLoRA 量化技术,在单个 ml.g5.12xlarge 实例上微调 Falcon-40B 开源大模型首先我们进入第一部分,梳理参数高效微调 (PEFT) 和 QLoRA 量化技术背后的理论基础。大模型参数高效微调(PEFT)当前,预训练语言模型的规模越来越大,在消费级硬件上进行全量微调(Full Fine-Tuning)变得越来越不现实;同时,为每项下游任务单独存储和部署微调模型的成本,也非常昂贵,因为微调模型的大小需要与预训练模型的大小相同。参数高效微调(Parameter-Efficient Fine-Tuning,PEFT)技术被提出以解决这两个问题。在保证几乎和完全微调相当性能的前提下,PEFT 技术可以帮助预训练模型高效适应各种下游应用任务,而无需微调预训练模型的所有参数。PEFT 技术固定了大部分预训练参数,仅对少量的模型参数进行微调,这在很大程度上地降低了微调工作所需要的计算和存储成本。下图显示了 Hugging Face 开源的一个高效微调大模型的库 PEFT。Source: https://github.com/huggingface/peft?trk=cndc-detail由以上可知,该算法库目前已经支持以下六类大模型高效微调的技术方法:1. LoRA: LORA:LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS2. Prefix Tuning: Prefix-Tuning: Optimizing Continuous Prompts for Generation, P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks3. P-Tuning: GPT Understands, Too4. Prompt Tuning: The Power of Scale forParameter-Efficient Prompt Tuning5. AdaLoRA: Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning6. (IA)^3 : Infused Adapter by Inhibiting and Amplifying Inner Activations篇幅所限,这两期文章,我们将聚焦 LoRA 这个方向的大模型参数高效微调技术方法,以及亚马逊云科技上的落地实践。大语言模型的低秩自适应(LoRA)在 2021 年的 LoRA 论文中,研究者们首次提出了低秩(LOW-RANK)自适应(LoRA)的大语言模型的低秩自适应方法。LoRA 方法通过冻结预训练模型权重,将可训练的秩分解矩阵注入 Transformer 架构的每一层,从而大大减少了下游任务需要训练的参数数量。LoRA 论文如下图所示。Source: https://arxiv.org/pdf/2106.09685.pdf?trk=cndc-detail在该论文的摘要里,研究者们已经对提出 RoLA 方法的起心动念做了精辟的阐述。他们分析:在预训练大模型时,随着模型越来越大,重新训练所有模型参数不太现实了。以 GPT-3 175B 大模型为例,部署经过微调的模型独立实例,每个实例已经有 175B 个参数,这样的训练成本会高得让一般的企业和个人望而却步。论文提出了低秩(LOW-RANK)自适应(LoRA),它冻结了预训练的模型权重,并将可训练的秩分解矩阵注入 Transformer 架构的每一层,从而大大减少了下游任务的可训练参数数量。与用 Adam微调的 GPT-3 175B 相比,LoRA 可以将可训练参数的数量减少 1 万倍,因此,GPU 和内存需求会减少 3 倍。这篇 2021 年论文的价值,到了今天这个开源大模型时代,变得更加重要。LoRA 论文中那张著名的图一,已经被一些研究者做成了动图,这样在诠释原理时,变得更加生动了。如下图所示:Source: https://huggingface.co/blog/4bit-transformers-bitsandbytes?tr...上图旨在说明在重新参数化的过程中,只需要训练 A 和 B 即可。低秩自适应(LoRA)方法,允许通过优化适应过程中密集层变化的秩分解矩阵,来间接训练神经网络中的一些密集层,同时保持预训练的权重不变。以 GPT-3 175B 为例,即使当全秩(即 d)高达 12,288 时,非常低的秩(即图中 r 的数量)也足够了,从而使 LoRA 在存储和计算两方面都颇具效率。低精度量化的高效微调(QLoRA) 了解 RoLA 的论文之后,让我们来看看 QLoRA 论文的创新角度和视野。LoRA 为大模型的每一层添加了少量的可训练参数(适配器),并冻结了所有原始参数。这样对于微调,只需要更新适配器权重,这可以显著减少内存占用。但是,当大模型越来越大,这些大模型的全精度表示已经无法装入单个甚至多个 GPU 的内存中了。为了支持这种规模的模型在单个实例上进行微调和推理,QLoRA 出现了。1.QLoRA论文概述QLoRA 是 Quantized LLMs with Low-Rank Adapters 的缩写,它来自华盛顿大学 2023 年 5 月发表的一篇论文,如下所示:Source: https://arxiv.org/pdf/2305.14314.pdf?trk=cndc-detail概括起来,QLoRA 有三项重要贡献:引入 4 位量化、双量化、以及利用 NVIDIA 统一内存进行分页。以下分别阐述:4 位 NormalFloat 量化(4-bit NormalFloat,NF4):这种改进的量化方法,确保了每个量化仓中有相同数量的值,以避免计算问题和异常值错误双量化(Double Quantization):QLoRA 的作者将其定义如下“对量化常量再次量化以节省额外内存的过程”统一内存分页(Paged Optimizers):依赖 NVIDIA 统一内存管理,自动处理 CPU 和 GPU 之间的页到页传输Source: https://arxiv.org/pdf/2305.14314.pdf?trk=cndc-detail关于 QLoRA 的优异表现,论文阐述了他们利用 QLoRA 方法训练的系列模型 Guanaco,在 Vicuna 基准测试中的表现超过了所有以前公开发布的模型,在 24 小时内微调的 Guanaco 65B 大模型甚至能够 达到 GPT4 性能水平的 99.3%。以下是论文中所公布的基准测试数据结果:Source: https://arxiv.org/pdf/2305.14314.pdf?trk=cndc-detailQLoRA 的 Q 就是量化(Quantization)。为帮助大家理解量化(Quantization)这个抽象的概念,下一节我们将先梳理下机器学习场景下的常用数据类型,这样大家就会对不同数据类型占用的资源比例有一定的了解;然后我们再通过论文,一起来揭开量化技术方法背后的神秘面纱。2. 机器学习的常用数据类型我们从对不同浮点数据类型的基本理解开始,这些数据类型在机器学习的背景下也被称为 “精度(precision)”。模型的大小由其参数的数量及其精度决定,通常为 Float32 (FP32)、Float16 (FP16) 或 BFloat16 (BF16)。如下图所示:Source: https://blogs.nvidia.com/blog/2020/05/14/tensorfloat-32-preci...Float32(FP32)数据类型:代表标准化的 IEEE 32 位浮点表示法。使用这种数据类型,可以表示各种浮点数。在 FP32 中,8 位用于表示指数,23 位用于表示小数,1 位用于数字符号。大多数硬件都支持 FP32 操作和指令。Float16(FP16)数据类型:为指数保留 5 位,为小数保留 10 位。这使得 FP16 数字的可表示范围远低于 FP32。这使 FP16 面临 overflowing 溢出(试图表示非常大的数字)和 underflowing 溢出(表示非常小的数字)的风险。例如如果你计算 10k * 10k,由于结果是 100M,这在 FP16 中是不能表示的,因为它可能的最大数字只是 64k。因此,你最终会得到 NaN(Not a Number)结果,如果你像神经网络一样进行顺序计算,那么先前的所有工作都会被破坏。虽然可以使用损失缩放(loss scaling)来部分回避这个问题,但有时也不起作用。BFloat16(BF16)数据类型:为了避免这些限制,一种名为 bfloat16(BF16)的新数据类型出现。在 BF16 中,为指数保留 8 位(与 FP32 相同),为小数保留 7 位。这意味着在 BF16 中,我们可以保留与 FP32 相同的动态范围。但是相对于 FP16,我们损失了 3 位精度。现在大数字绝对没有问题,但是这里的精度比 FP16 差。在安培(Ampere)架构中,NVIDIA 还引入了 TensorFloat-32(TF32)数据类型,将 BF16 的动态范围和 FP16 的精度相结合,仅使用 19 位。它目前仅在其内部某些操作时使用。在机器学习术语中,FP32 被称为全精度(4字节),而BF16 和 FP16 被称为半精度(2字节)。而 int8(INT8) 数据类型由一个 8 位表示组成,可以存储 2^8 个不同的值(对于有符号整数,介于 [0, 255] 或 [-128, 127] 之间)。虽然理想情况下,训练和推理应在 FP32 中完成,但速度比 FP16/BF16 慢两倍,因此,实际场景又是会使用混合精度(mixed precision) 方法:将权重保存在 FP32 中作为精确的 “主权重” 参考,而对 FP16/BF16 进行向前和向后传递的计算以提高训练速度。然后,使用 FP16/BF16 梯度来更新 FP32 的主权重。在训练过程中,主权重始终存储在 FP32 中,但实际上,半精度权重(half-precision)在推理过程中通常提供与 FP32 同类权重相似的结果质量(quality)——只有在模型收到多个梯度更新时才需要模型的精确参考。这意味着我们可以使用半精度权重并使用一半的 GPU 来实现相同的结果。Source: https://huggingface.co/blog/hf-bitsandbytes-integration?trk=c...举个例子来详细阐述。如上图所示,如果我们要计算模型大小(以字节为单位),需要将参数数乘以所选精度的大小(以字节为单位)。比如我们使用 bfloat16 版本的 BLOOM-176B 大模型,我们就需要(17610*9)x 2 字节 = 352GB!如果只有几个 GPU来做这件事,这将是一项巨大的挑战。但是,如果我们可以使用不同的数据类型用更少的内存存储这些权重呢?在这种场景需求的背景下,一种叫做量化(Quantization)的技术方法终于闪亮登场了。3. 量化(Quantization)技术概述量化本质上是通过从一种数据类型“四舍五入”到另一种数据类型来完成的。量化是一个嘈杂的过程,可能会有信息丢失;这个过程是一种有损压缩的过程。FP8 和 FP4 分别代表浮点精度 8 位和 4 位精度。让我们先来看看如何用 FP8 数据类型格式表示浮点值,然后了解 FP4 数据类型格式的情况。FP8 数据格式浮点数包含 n 位,每个位都属于一个特定的类别,负责表示数字的组成部分(符号、尾数和指数)。FP8(浮点 8)数据格式最初是在论文“FP8 for Deep Learning”中引入的,它有两种不同的 FP8 编码:E4M3(4 位指数和 3 位小数)和 E5M2(5 位指数和 2 位小数)。不同数据类型的每位表达情况,如下图所示。比如,FP8 E4M3 格式表示的潜在浮点数,是在 -448 到 448 之间;而 FP8 E5M2 格式中,随着指数位数的增加,范围会增加到 -57344 到 57344,而由于可能的表示数量保持不变,这会降低精度。一些研究者的经验显示:E4M3 最适合向前传递,E5M2 最适合向后计算。Source: https://huggingface.co/blog/4bit-transformers-bitsandbytes?tr...在找资料的过程中,我还找到了另一张解释机器学习不同数据格式的图,和上图相比更有一种简洁之美。因此,我也一并发出来供大家参考学习:Source: https://www.nextplatform.com/2022/03/31/deep-dive-into-nvidias-hopper-gpu-architecture/?trk=cndc-detailFP4 数据格式不同于 FP8 精度的数据格式,FP4 精度仅使用 4 位来表示一个数字。这 4 位被分为 1 个符号位、3 个指数位和 0 个尾数位。例如:在下表中,各列的符号位和尾数位的值不同,而指数位的行是不同的值。Source: https://en.wikipedia.org/wiki/Minifloat?trk=cndc-detailFP4 精度没有固定格式。这意味着可以使用不同的尾数和指数位组合。一般来说,在大多数情况下使用 3 个指数位,因为它们提供更好的精度。但是,有时 2 个指数位和 1 个尾数位可以获得更好的性能。关于 FP4 数据格式的详细表述,由于篇幅所限,就不在这里展开讨论了。Hugging Face 和上述论文的作者发表过一篇详细的博客文章:“Making LLMs even more accessible with bitsandbytes, 4-bit quantization and QLoRA”,文章中涵盖了 4-bit 量化技术方法的一些底层解读,感兴趣的开发者们可参考: https://huggingface.co/blog/4bit-transformers-bitsandbytes?tr...总结与标准的 16 位模型微调相比,QLoRA 减少了大模型微调的内存使用量,而无需权衡性能。此方法允许在单个 24GB GPU 上微调 33B 模型,在单个 46GB GPU 上对 65B 模型进行微调。QLoRA 使用 4-bit 量化来压缩预训练的语言模型,然后冻结住大模型的参数,并以低等级适配器的形式将相对较少的可训练参数添加到模型中。在微调期间,QLoRA 将梯度通过冻结的 4 位量化预训练模型反向传播到低等级适配器,而 LoRA 层是训练时唯一需要更新的参数。QLoRA 的量化过程可以基本概述如下:QLoRA 有一个用于基本模型权重的存储数据类型(NF4)和一个用于执行计算的计算数据类型(BF16);QLoRA 将权重从存储数据类型反量化为计算数据类型以执行向前和向后传递, 但在传递过程中仅计算使用 BF16 的 LoRA 参数的权重梯度。权重仅在需要时解压缩,因此在训练和推理期间内存使用量保持较低。探索完基本理论之后,我们就要开始动手实践了。在下一篇文章中,我们将探讨使用 Amazon SageMaker Notebook 在交互式环境中快速高效地微调大语言模型。我们将运用 QLoRA 和 4-bits 的 bitsandbtyes 量化技术原理,在 Amazon SageMaker 上使用 Hugging Face PEFT 来微调 Falcon-40B 模型,敬请期待。请持续关注 Build On Cloud 专栏,了解更多面向开发者的技术分享和云开发动态!文章来源:https://dev.amazoncloud.cn/column/article/64e74d0d1defb92aa89afc06?sc_medium=regulartraffic≻_campaign=crossplatform≻_channel=SF
11
2023-10-18T16:41:27+08:00
sg
1
智能体、多模态化大势所趋,探大模型的未来!
导语 | 今年以来,以 ChatGPT 为代表的生成式 AI,在最具挑战性的自然语言处理领域实现革命性突破,在行业掀起新一轮发展热潮。开源大模型正成为人工智能领域的新潮流,AI 大模型在未来将走向何方?今天,我们特邀了丁香园 CTO、腾讯云 TVP 范凯老师,他将为我们带来关于 AI 大模型的独到思考与精彩观点。作者简介范凯,丁香园 CTO,腾讯云 TVP,2003 年创办 JavaEye 技术网站,是国内最早推广开源软件 Hibernate,Spring 的开发者之一。2010 年 JavaEye 网站成为国内第二大开发者社区,同年被第一大开发者社区 CSDN 并购;2010-2013 年担任 CSDN CTO,推动中国开发者的移动和云计算技术的普及。2015 年至今,担任丁香园 CTO,组建了丁香园大数据和医疗知识图谱团队。从 ChatGPT 推出到今天,还不到一年的时间,生成式 AI 其实已经迭代了多次。在技术革命的发展历史上,可以称得上是绝无仅有的进化速度。伴随人工智能技术的飞速发展,大模型近期出现了哪些新趋势呢?一、大模型的开源化发展趋势众所周知,Meta 开源了 Llama 之后,改变了商业大模型的竞争态势。特别是在 Llama 2 推出以后,形成了非常完整的 Llama 的开源生态,基于 Llama 出现了各种各样的衍生功能增强的大模型,例如很擅长写代码、做数学题的 Llama,以及善于诊断医疗问题的模型等等。开源大模型高度的「可玩性」带来了衍生模型的繁荣,这也带来一个全新的 To B 的市场:基于开源的基座大模型,去开发垂直行业大模型,增强大模型在某个垂直领域的能力,让大模型在特定的行业可以落地。毕竟通用大模型无法面面俱到,无法照顾到每个垂直细分行业的领域知识。而有了开源基座大模型,就给了垂直行业公司机会,去训练自己的垂直大模型。现在不仅是 Llama 开源。国内也出现了好几个优秀的开源基座大模型,如智谱的 ChatGLM 2,百川的 Baichuan 7B 等。目前已经有很多垂直行业的头部公司基于这些模型去训练和发布自己的垂直大模型了。我们可以预见,开源大语言模型将在各个领域发挥越来越重要的作用,将全面推动人工智能普及。二、生成内容基础上,大模型有望成为智能体用大模型来实现智能体,是当下热门的发展方向。在美国有拿了巨额融资的 Inflection.AI,还有 Character.AI,Adept 等等。AI 智能体未来在 To C 的方向上的前景也十分可观。现在的智能手机,我们需要安装许多不同功能的 App:购物,打车,外卖,订机票,查询餐厅等。每个 App 都有相应的学习成本和使用成本,但实际上我们只是希望利用 App 来完成我们生活中各种各样的需求。在未来,当 AI 智能体足够聪明时,它对主人的需求足够了解,并且能够接入所有的服务之后,我们的生活中便不再需要 App,只需要和智能体对话即可。甚至智能体在足够了解主人的情况下,主动帮助主人完成很多事情。因此,目前移动时代的应用,在未来的 AI 时代,将会被推翻和重塑。未来将呈现一个 AI 时代全新的用户交互方式:人人都将和各种各样的智能体打交道,而非停留在 App 上。三、大模型的多模态化GPT-4 最近发布了 Vision 版本,不仅仅可以通过文字来对话,还可以通过语音和图片进行沟通。此前,OpenAI 发布会曾经演示过一个案例:创始人 Brockman 在纸上画了一个网站的原型,然后通过手机把原型图拍摄下来传给 ChatGPT,ChatGPT 就可以根据原型图自己创建一个简单的网站出来。这意味着大语言模型不仅仅可以理解文字,现在还能够理解图像内容,那么理论上也可以理解视频的内容。可以预想到未来的大模型接上手机摄像头,就像长了眼睛一样,它可以理解我们生活的物理世界,帮助人类完成更多的工作。比如给机器人安装上一个多模态的大模型,它就变成了真正的智能机器人了,不仅可以看和听,还可以说,当然还可以执行指令和操作。所以多模态的大模型很可能会真正使得机器人普及化。另外,特斯拉最新的自动驾驶软件,也在测试完全使用大模型去操纵汽车。本质上自动驾驶的大模型就变成了电动汽车的大脑,它通过摄像头去分析路况,然后生成指令去操作汽车。值得一提的是,在 7 月 6 日,腾讯也发布了混元大模型,它是由腾讯全链路自研的实用级大模型,拥有超千亿参数规模、预训练语料超 2 万亿 tokens,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。腾讯已将大模型技术深度应用到多个业务场景中,包括腾讯会议、腾讯文档、微信搜一搜等在内的超百个业务和产品,已经接入腾讯混元大模型测试,期待混元大模型未来在多模态方向的更多应用。如果说大模型仅支持文字对话,那么大模型只能影响软件世界,但当大模型支持了多模态,就从软件世界走到了真实的物理世界,开始影响我们所生活的环境。随着技术的不断进步和应用的深化,我十分期待生成式人工智能在创造性、智能化和个性化方面的突破和创新。我相信,在不久的将来,由 AI 大模型控制的各种智能设备,将会像现在的智能手机一样普及。
25
2023-10-18T10:48:34+08:00
sg
2
免费:实时 AI 编程助手 Amazon CodeWhisperer
点 ,一起程序员弯道超车之路现已正式推出实时 AI 编程助手 Amazon CodeWhisperer,包括 CodeWhisperer 个人套餐,所有开发人员均可免费使用。最初于去年推出的预览版 CodeWhisperer 让开发人员能够保持专注、高效,帮助他们快速、安全地编写代码,无需因离开 IDE 去研究某件事而中断流程。在为复杂且不断变化的环境创建代码时,开发人员可以通过在他们最喜欢的 IDE(包括 Visual Studio Code、IntelliJ IDEA 等)中使用 CodeWhisperer 来提高工作效率并简化工作。在为常规任务或耗时、无差异的任务创建代码、使用不熟悉的 API 或 SDK、正确有效地使用 Amazon API 以及其他常见的编码场景(例如读写文件、图像处理、编写单元测试等),CodeWhisperer 都可以提供帮助。亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训视频、活动与竞赛等。帮助中国开发者对接世界最前沿技术,观点,和项目,并将中国优秀开发者或技术推荐给全球云社区。如果你还没有关注/收藏,看到这里请一定不要匆匆划过,点这里让它成为你的技术宝库!通过 CodeWhisperer 中的注释生成代码同时也提供了参考代码追踪, 当生成与训练数据相似的代码时,它会提供额外建议数据CodeWhisperer 中的参考跟踪CodeWhisperer 也是唯一一个具有安全扫描功能的 AI 编码助手,可以发现难以检测的漏洞并提出修复建议,扫描生成的代码和开发人员编写的代码,寻找漏洞在 CodeWhisperer 中扫描漏洞目前,所有开发人员都可以使用 Amazon CodeWhisperer 编写 Python、Java、Java、Type、C#、Go、Rust、PHP、Ruby、Kotlin、C、C++、Shell 脚本、SQL 和 Scala 代码,只需要邮箱注册一下即可。使用方法注册首先选择 IDE,支持 vs code 和 jetbrains, 这里以 vscode 为例安装 Amazon Toolkit注册认证即可使用点击 start,然后会出一个弹窗,复制然后打开链接,进行邮箱注册即可。开始使用以 windows 为例, alt+c 是生成代码, tab 是接收生成的代码,左右箭头是选择前后生成的候选。这里以 quicksort 为例,当你输入 def quicksort 然后输入 alt+c 就能生成下面的代码,可以看到是基于递归写的一个代码。使用 tab 接收即可文章来源:https://dev.amazoncloud.cn/column/article/64f8711cd75d3d261ac261e8?sc_medium=regulartraffic≻_campaign=crossplatform≻_channel=SF
46
2023-10-17T20:27:12+08:00
sg
3
记录TritonServer部署多模型到多GPU踩坑 | 京东云技术团队
一、问题是怎么发现的部署chatglm2和llama2到一个4*V100的GPU机器上遇到问题config.pbtxt中设置模型分别在指定gpu上部署实例配置不生效如以下配置为在gpu0上部署本模型,部署count=1个实例,在gpu1上部署本模型,部署count=2个实例instance\_group [ { count: 1 kind: KIND\_GPU gpus: [ 0 ] },{ count: 2kind: KIND_GPUgpus: [ 1 ] } ]部署时发现,所有模型实例都会被部署到gpu0上面, 由于gpu只有16g显存,在部署第一个模型实例成功后,第二个模型实例也会往gpu0上进行加载,最终导致cuda out of memery.网上搜索发现有人遇到同样的问题,链接: https://github.com/triton-inference-server/server/issues/6124二、排查问题的详细过程大佬回答解决方案:三、如何解决问题1.在model.py手动获取config.pbtxt配置的gpu编号gpus:[0]instance_group [{count: 1kind: KIND_GPUgpus: [ 0 ]}]2.设置可用的GPU编号os.environ["CUDA\_VISIBLE\_DEVICES"] = str(device_id)3.启动成功四、总结反思:是否可以更快发现问题?如何再次避免等。triton启动的使用使用 nvidia-smi -l 2 监控显卡想显存, 可以发现所有模型都在往第一个gpu,gpu[0]内加载,发现配置config.pbtxt不生效作者:京东科技 杨建来源:京东云开发者社区 转载请注明来源
35
2023-10-17T11:47:31+08:00
sg
4
Opencv入门篇:简介与基本使用 | 京东物流技术团队
1 Opencv简介Opencv是计算机视觉中经典的专用库,其支持多语言,跨平台,功能强大。Opencv-Python为Opencv提供了Python接口,使得使用者在Python中能够调用C/C++,在保证易读性和运行效率的前提下,实现所需的功能。Opencv是由Gray Bradsky于1999年在英特尔创立,第一版于2000年问世。Vadim Pisarevsky加入Gary Bradsky,一起管理因特尔的俄罗斯软件Opencv团队。2005年,Opencv用于Stanley,该车赢得了2005年DARPA挑战赛的冠军。后来,在Willow Garage的支持下,它的积极发展得以继续,由Gary Bradsky和Vadim Pisarevsky领导了该项目。Opencv现在支持与计算机视觉和机器学习有关的多种算法,并且正在日益扩展。Opencv支持多种编程语言,例如C++, Python, Java等,并且可以再Windows , Linux , OS X , Android和IOS等不同平台上使用。基于CUDA和OpenCL的高速GPU操作的接口也在积极开发中。Opencv-Python是用于Opencv的Python API,结合了Opencv C++ API和Python语言的最佳特性。1.1 Opencv-PythonOpencv-Python是旨在解决计算机视觉问题的专用库 Python是由Guidovan Rossum发起的通用编程语言,很快就非常流行,主要是因为他的简单性和代码可读性。它使得程序员可以用较少的代码行表达想法,而不会降低可读性。与C/C++之类的语言,Python速度较慢。也就是说,可以使用C/C++轻松扩展Python,这使得我们能够用C/C++编写计算机密集型代码并创建可用作Python模块的Python包装器。它给我们带来了两个好处: 首先,代码与原始C/C++代码一样快(因为它是在后台运行的实际C++代码), 其次,在Python中比C/C++编写代码更容易。Opencv-Python是原始Opencv C++实现的Python包装器。Opencv-Python利用了Numpy,这是一个高度优化的库,用于使用MATLAB样式的语言进行数值运算。所有Opencv数组结构都与Numpy数组相互转换。这也使与使用Numpy的其他库(例如Scipy和Matplotlib)的集成变得更加容易。1.2 应用领域人机互动物体识别图像分割人脸识别动作识别运动跟踪机器人运动分析机器视觉结构分析汽车安全驾驶如上所述,opencv的功能十分强大,在各个领域大放异彩,由浅入深,本次我们先介绍图像编辑,简单的字母数字识别的相关部分,日后会继续开始人脸识别,图像分割,图像定位等等功能;2 opencv-python安装与使用首先我们需要安装一下环境python3:安装python3:python教程有详细的说明,网址安装pythonnumpy:安装numpy:pip install numpyopencv-python:安装opencv-python: pip install opencv-python安装完opencv-python后命令行打开python交互式环境:import cv2 成功,便说明成功安装了opencv-python2.1 imread()imread函数读取数字图像,先看一下官网对于该函数的定义cv2.imread(path_of_image, intflag) 函数参数一: 需要读入图像的完整的路径 函数参数二: 标志以什么形式读入图像,可以选择一下方式:cv2.IMREAD_COLOR: 加载彩色图像。任何图像的透明度都将被忽略。它是默认标志cv2.IMREAD_GRAYSCALE:以灰度模式加载图像cv2.IMREAD_UNCHANGED:保留读取图片原有的颜色通道1 :等同于cv2.IMREAD_COLOR0 :等同于cv2.IMREAD_GRAYSCALE-1 :等同于cv2.IMREAD_UNCHANGEDcolor_img = cv2.imread("image_file/1.jpeg") print(color_img.shape) gray_img=cv2.imread("image_file/1.jpeg", cv2.IMREAD_GRAYSCALE) print(gray_img.shape) #把单通道图像保存后,再读取,仍然是3通道,相当于将单通道复制到3个通道保存 cv2.imwrite("image_file/gray_1.jpeg",gray_img) 2.2 threshold()这个函数作用是将图片二值化,图像的二值化,就是将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的只有黑和白的视觉效果。二值化是图像分割的一种最简单的方法。二值化可以把灰度图像转换成二值图像。把大于某个临界灰度值的像素灰度设为灰度极大值,把小于这个值的像素灰度设为灰度极小值,从而实现二值化。画图举例来说cv.threshold()用来实现阈值分割,函数有4个参数:参数1:要处理的原图,一般是灰度图,这也是上一步中处理的参数2:设定的阈值参数3:最大阈值,一般为255参数4:阈值的方式,主要有5种,分别为:THRESH\_BINARY,THRESH\_BINARY\_INV,THRESH\_TRUNC,THRESH\_TOZERO 和 THRESH\_TOZERO_INV实例如下: ret, th1 = cv.threshold(img, 127, 255, cv.THRESH_BINARY) ret, th2 = cv.threshold(img, 127, 255, cv.THRESH\_BINARY\_INV) ret, th3 = cv.threshold(img, 127, 255, cv.THRESH_TRUNC) ret, th4 = cv.threshold(img, 127, 255, cv.THRESH_TOZERO) ret, th5 = cv.threshold(img, 127, 255, cv.THRESH\_TOZERO\_INV)titles = [‘Original’, ‘BINARY’, ‘BINARY\_INV’, ‘TRUNC’, ‘TOZERO’, ‘TOZERO\_INV’] images = [img, th1, th2, th3, th4, th5]使用Matplotlib显示 for i in range(6): plt.subplot(2, 3, i + 1) plt.imshow(images[i], ‘gray’) plt.title(titles[i], fontsize=8) plt.xticks([]), plt.yticks([]) # 隐藏坐标轴 plt.show()实际输出:对应的官方中说明2.3 morphologyEx()形态学操作是根据图像形状进行的简单操作。一般情况下对二值化图像进行的操作。需要输入两个参数,一个是原始图像,第二个被称为结构化元素或核,它是用来决定操作的性质的。两个基本的形态学操作是腐蚀和膨胀。他们的变体构成了开运算,闭运算,具体概念如下:1)腐蚀:就像土壤侵蚀一样,这个操作会把前景物体的边界腐蚀掉(但是前景仍然是白色)。这是怎么做到的呢?卷积核沿着图像滑动,如果与卷积核对应的原图像的所有像素值都是1,那么中心元素就保持原来的像素值,否则就变为零。 这会产生什么影响呢?根据卷积核的大小靠近前景的所有像素都会被腐蚀掉(变为0),所以前景物体会变小,整幅图像的白色区域会减少。这对于去除白噪声很有用,也可以用来断开两个连在一块的物体等。2)膨胀:与腐蚀相反,与卷积核对应的原图像的像素值中只要有一个是1,中心元素的像素值就是1。 所以这个操作会增加图像中的白色区域(前景)。一般在去噪声时先用腐蚀再用膨胀。因为腐蚀在去掉白噪声的同时,也会使前景对象变小。所以我们再对他进行膨胀。这时噪声已经被去除了,不会再回来了,但是前景还在并会增加。膨胀也可以用来连接两个分开的物体。3)开运算:先腐蚀,后膨胀。去除图像中小的亮点(CV\_MOP\_OPEN);4)闭运算先膨胀,后腐蚀。去除图像中小的暗点(CV\_MOP\_CLOSE);kernel = cv.getStructuringElement(cv.MORPH_RECT, (1, 8)) opening = cv2.morphologyEx(img, cv2.MORPH_OPEN, kernel) cv.imshow("MORPH_OPEN_1", opening) cv2.waitKey(0) kernel = cv.getStructuringElement(cv.MORPH_RECT, (1, 8)) closing = cv2.morphologyEx(img, cv2.MORPH_CLOSE, kernel) cv.imshow("MORPH_OPEN_1", closing) cv2.waitKey(0) 3 应用案例以上是opencv的简单使用,现在举一个实际应用的案例:识别验证码,其实按照上面3个步骤就可以将图片一步步处理,置灰,二值化,开运算,最后就可以识别了。那么首先原图如下:1)首次处理效果,将图片灰度化,二值化,为提取轮廓做准备,二值化后,图片非黑即白两种,更有利于开闭运算处理src = cv2.imread('image_file/before.png') gray = cv.cvtColor(src, cv.COLOR_BGR2GRAY) ret, binary = cv.threshold(gray, 0, 255, cv.THRESH_BINARY_INV | cv.THRESH_OTSU) cv.imshow("Binarization", binary) cv2.waitKey(0) 2)基础上面二值化图片,对结果图进行开运算处理,去除噪音部分kernel = cv.getStructuringElement(cv.MORPH_RECT, (8, 1)) open_out = cv.morphologyEx(binl, cv.MORPH_OPEN, kernel) cv.imshow("MORPH_OPEN_2", open_out) cv2.waitKey(0) 3)最后一次处理,将背景置为白色,并且识别图片识别码cv.bitwise_not(open_out, open_out) cv.imshow("Transform", open_out) textImage = Image.fromarray(open_out) text = pytesseract.image_to_string(textImage) cv2.waitKey(0) 4)最后打印出验证码4 总结相信认真一起看完上述知识点,opencv-python已经对于图像的基本操作可以熟练掌握了,接下来会对数字图像的一些其他概念进行介绍,敬请期待~作者:京东物流 张伟男来源:京东云开发者社区 自猿其说Tech 转载请注明来源
27
2023-10-17T11:34:37+08:00
sg
5
设计模式之策略模式:让你的代码灵活应对不同的算法 | 京东云技术团队
作为一个程序员,我们经常会面临着在不同的情况下选择不同的算法来解决问题的需求。这种情况下,策略模式是一个非常有用的设计模式。在本文中,我将向你介绍策略模式的概念、结构以及如何应用这个模式来使你的代码更灵活。1.什么是策略模式?策略模式是一种行为型设计模式,它允许在运行时根据不同的情况选择算法的行为。这意味着我们可以将不同的算法封装成不同的策略类,并通过一个统一的接口来调用这些策略。2.策略模式的结构策略模式包括以下几个角色:上下文(Context):持有一个策略对象的引用,并在需要时调用策略对象的方法。上下文可以根据具体情况选择不同的策略。策略(Strategy):定义了一个公共接口,用于封装不同的算法。这个接口通常只有一个方法,即执行算法的方法。具体策略(ConcreteStrategy):实现了策略接口,提供具体的算法实现。每个具体策略类都代表了一种特定的算法。策略模式的关键在于上下文持有一个策略对象的引用,并且通过调用策略对象的方法来执行具体的算法。这种方式使得上下文变得非常灵活,可以根据不同的需求在运行时切换算法。3.策略模式的应用场景策略模式适用于以下情况:当需要在运行时动态地选择算法实现时,可以使用策略模式。当一个类有多个行为变种,并且这些行为可以灵活地切换时,策略模式可以提供一种优雅的解决方案。例子(1)例如,在一个电商网站中,我们可能需要根据不同的支付方式来支付购物车的商品。可以是信用卡,当然也可以是京东支付、支付宝支付等等,这时,我们可以将每种支付行为封装成一个具体策略类,然后通过上下文选择合适的支付方式进行支付。也许你可能见过类似的代码if(payType==CreditCardType){ System.out.println("使用信用卡支付:" + amount + " 元"); // 实现具体的信用卡支付逻辑 }else if(payType==jdPayType){ System.out.println("使用京东支付:" + amount + " 元"); // 实现具体的京东支付逻辑 }else if(payType==alipayType){ System.out.println("使用支付宝支付:" + amount + " 元"); // 实现具体的支付宝支付逻辑 }else{ System.out.println("没实现,白嫖叭"); }好了,这时候微信一看,为啥没把微信支付加上,赶紧支持。研发小哥哥加班修改逻辑如下:if(payType==creditCardType){ System.out.println("使用信用卡支付:" + amount + " 元"); // 实现具体的信用卡支付逻辑 }else if(payType==jdPayType){ System.out.println("使用京东支付:" + amount + " 元"); // 实现具体的京东支付逻辑 }else if(payType==alipayType){ System.out.println("使用支付宝支付:" + amount + " 元"); // 实现具体的支付宝支付逻辑 }else if(payType==wxPayType){ System.out.println("使用微信支付:" + amount + " 元"); // 实现具体的微信支付逻辑 }else{ System.out.println("没实现,白嫖叭"); }代码修改后,看着挺清晰明了,但是有一个问题,如果之后还有其他如抖音支付、乱七八糟支付的话我们就要一直修改这个类,一直添加 ...else if...很明显违背了面向对象设计的六大原则之二:单一职责、开闭原则(对扩展开放、对修改关闭),六个违背俩,这活没法干了!下面演示了如何使用策略模式来实现不同的支付方式:// 定义一个支付的策略接口 public interface PaymentStrategy { //这只是个测试场景,真实场景下应该没人用double类型叭 void pay(double amount); } // 具体策略实现 // 信用卡支付 public class CreditCardPaymentStrategy implements PaymentStrategy { public void pay(double amount) { System.out.println("使用信用卡支付:" + amount + " 元"); // 实现具体的信用卡支付逻辑 } } // 京东支付 public class JdPaymentStrategy implements PaymentStrategy { public void pay(double amount) { System.out.println("使用京东支付:" + amount + " 元"); // 实现具体的京东支付逻辑 } } //省略... // 支付宝支付 // 微信支付 // 上下文 public class ShoppingCart { private PaymentStrategy paymentStrategy; public void setPaymentStrategy(PaymentStrategy paymentStrategy) { this.paymentStrategy = paymentStrategy; } public void checkout(double amount) { // 调用策略对象的支付方法 paymentStrategy.pay(amount); } } // 使用示例 public class Main { public static void main(String[] args) { ShoppingCart cart = new ShoppingCart(); // 设置使用信用卡支付策略 cart.setPaymentStrategy(new CreditCardPaymentStrategy()); cart.checkout(1000.00); // 设置使用jd支付策略 cart.setPaymentStrategy(new JdPaymentStrategy()); cart.checkout(2000.00); //如果还想用其他支付 就继续写啊 } } 在上面的例子中,PaymentStrategy是策略接口,CreditCardPaymentStrategy和PayPalPaymentStrategy是具体的策略实现。ShoppingCart是上下文,通过setPaymentStrategy方法来设置不同的支付策略,并通过checkout方法调用具体策略的支付方法。看看,是不是可以通过扩展来增加支付方式。每个子类只实现具体的某种支付的策略。例子(2)实现一个简单的计算器(整数),简单想一想也许涉及以下几种计算方式:加减乘除,也许有人会这样实现,但是我想一定不是你,聪明的你应该已经学会了策略模式在这种场景下的应用试想 如果我想增加取余操作呢? int num1 = 10; int num2 = 5; String operator = "+"; if (operator.equals("+")) { int result = num1 + num2; System.out.println("加法结果:" + result); } else if (operator.equals("-")) { int result = num1 - num2; System.out.println("减法结果:" + result); } else if (operator.equals("*")) { int result = num1 * num2; System.out.println("乘法结果:" + result); } else if (operator.equals("/")) { if (num2 != 0) { int result = num1 / num2; System.out.println("除法结果:" + result); } else { System.out.println("除数不能为零"); } } else { System.out.println("无效的运算符"); } 4.总结策略模式是一种灵活、可扩展的设计模式,它通过将算法封装成策略类来实现不同的行为变种。使用策略模式可以提高代码的可维护性和复用性,同时也符合面向对象设计的原则。希望本文的介绍对你理解策略模式有所帮助,也希望你能在实际项目中运用到这个强大的设计模式!作者:京东零售 闫先东来源:京东云开发者社区 转载请注明来源
36
2023-10-17T11:27:13+08:00
sg
6
10月18日 个推「数据驱动运营增长」沙龙·上海站来了!
@各位运营、增长、产品官:就在10月18日(下周三),个推「数据驱动运营增长」城市巡回沙龙 · 上海专场即将开启!来自网易云音乐、哈啰出行、携程智行火车票等头部APP的运营官,以及行业资深的用户增长专家,个推资深产品专家分享数智化运营实践干货,助你打开运营增长新思路,发现业务增长新机会。
45
2023-10-16T19:32:15+08:00
sg
7
完全免费的 GPT-4 你还不来白嫖?开源 AI 聊天、绘图软件 AIdea 1.0.6 发布啦
📣📣📣 限时活动 📣📣📣即日起至 2023 年 10 月 22 日,GPT-4 和 GPT-3.5 完全免费,没有任何套路,快来下载使用吧!(每日 GPT-4 免费 100 次,GPT-3.5 1000 次)后续还将推出更多优惠活动,详情请关注我的 新浪微博 https://weibo.com/code404 。如果你还不知道这款 APP,那么可以简单看看这篇文章 花了小半年开发了一个 AI 套壳 APP,然而大势已过,直接开源了。AIdea 最新版本的 1.0.6 发布啦,大家快来体验体验!本次更新内容如下新增百川大模型、360 智脑大模型支持现已推出每日免费使用额度,不用充值,每天也有有限次数的聊天模型使用额度,可以免费使用解决聊天过程中持续对话结果混乱的问题替换 Markdown 解析器,解决 Web 端出现大量空白的问题聊天出错时,支持自动重新发送失败的消息Bugfix: 当绘玩没有数据时,页面会一直保持在加载中状态截止至目前,AIdea 已经支持以下聊天大模型OpenAI 的 GPT-3.5 ,GPT-4Anthropic 的 Claude instant, Claude 2.0阿里的通义千问百度的文心一言科大讯飞的讯飞星火商汤日日新腾讯混元大模型百川大模型 53B360 智脑开源大模型 Llama2 70B开源大模型 Llama2 7B 中文版开源大模型 ChatGLM2 6B开源大模型 AquilaChat 7B开源大模型 BLOOMZ 7BAIdea 是一款集成了主流大语言模型以及绘图模型的 APP , 采用 Flutter + Golang 开发,代码完全开源,支持以下功能:OpenAI 的 GPT-3.5 ,GPT-4 大语言模型Anthropic 的 Claude instant ,Claude 2.0 大语言模型国产模型:通义千问,文心一言,讯飞星火,商汤日日新,腾讯混元,百川53B,360智脑开源模型:Llama2 ,ChatGLM2 ,AquilaChat 7B ,Bloomz 7B 等,后续还将开放更多文生图、图生图、超分辨率、黑白图片上色等功能,集成 Stable Diffusion 模型,支持 SDXL 1.0Github 地址:客户端( Flutter ): https://github.com/mylxsw/aidea服务端( Golang ): https://github.com/mylxsw/aidea-server下载体验地址https://aidea.aicode.cc/下面是一些预览图
216
2023-10-16T12:55:41+08:00
sg
0
预发部署时机器总是重启两次的“简单”排查
问题前天同学反馈, 搜索业务的核心应用 magellan 在预发环境部署时总是重启两次,刚部署好,开始联调,突然又重启了,也导致老是被人抱怨搜索环境不稳定。第一反应是,大概率是应用第一次启动失败了吧?总不可能是 Aone(阿里内部 CI/CD 系统)调度两次吧。结果:这,的确没有遇到过,只能表示:这么神奇的现象是偶尔还是必现呢?额,竟然是必现。。。。。。既然必现,那还是能排查的、好排查的,试试吧~查看日志,确认到底部署了几次开发同学发来了部署日志截图,如上面几张图所示:01:41 时停止应用,然后销毁容器,创新新容器01:43 时开始启动应用,启动成功01:50 时又开始停止应用、重启应用了,但此时并没有新的部署记录。当然上面的图里看的不太清晰,我们还是做下简单匹配:匹配下停止和启动时的日志(grep -E),同时向上向下各显示一行日志(-C 1),主要是为了把时间打印出来。cat magellan_deploy.log |grep -E "INFO: magellan try to stop...|INFO: magellan try to start..." -C 1$$ 机器 1 的启动日志 $$$$ 机器 2 的启动日志 $$当然上面这命令,也只是此刻我梳理整体过程时才想起来(所以跟开发同学提供的截图不太一致),排查问题时也就大概看看日志。不过通过上面的图,我倒是又发现了一个之前遗漏的点:两个机器的第一次启动时间不一样(分 2 批启动,机器 1 是第一批启动,机器 2 是第二批启动),但是他们第二次的重启时间是一样的,都是 21:00:02 ,说明是同一时刻被调度的,这也印证了后面的结论,不过,目前我们暂且忽略该信息。无论是从上面事前开发同学截的图,还是从我事后截的图,都可以看出:应用的确是重启了两次,第一次应该是 Aone 调度的,但第二次不知道是谁调度的。手动重启应用会不会也有这个问题呢?手动重启了下,启动成功后,应用就上线了,等了 2、3 分钟,应用没有再次重启。。。额,难道只有在 Aone 部署的时候才会?看了最近一周的部署日志,的确基本都是重启两次。有没有定时任务额,没有。没啥思路,看看有没有有用的报错信息吧仔细翻了翻,应用启动日志中并没有什么特别的、新的报错,部署日志倒是有一个警告信息:Pandoraboot 可以类比于 Springboot记得之前看过一些文章,说这个错误有可能会影响 JDK 版本的判断(主要是由于部分 JDK 版本判断的脚本不太健壮)。另外,我刚才手动部署时,好像也有一行报错,估计是由这个错误引起的,赶紧重新执行下 sh stop.sh(阿里内部手动下线某台机器的命令):提示 update_setenv.sh(阿里内部应用启动脚本之一) 的 21 行有问题,看下代码:梳理了逻辑,大概是执行 java -version ,获取版本号,如果大于等于 JDK8,则替换一些 JVM 参数。估计是当年升级 JDK8 时的遗留产物。为啥会报错呢?登录机器执行了下命令:额,执行该命令时 OpenJDK 报了 Warning 信息,而且报错信息在 version 那行之前,这样第一行就匹配不到真正的版本号 8 了,按照上面代码的执行逻辑,JAVA_VERSION_MAJOR 会取到 "Server" 中的第一个"e",取到了一个字符串,导致下面和数字 8 比较时报错。那这里执行报错会带来什么影响呢?下面的替换逻辑就不会执行了,最终 JVM 的启动参数设置不合理,可能导致 JVM 被杀掉了?那看看应用现在的启动参数设置吧:额,启动参数已经改成 JDK8 之后的了,所以上面的替换逻辑不执行也不会影响最终的启动参数。虽然不影响启动参数,但部署日志里,有这么多的这行错误日志,而且 JDK 版本获取错误估计也会引起一些不可知的问题。先修复掉试试~修复 JDK 版本判断错误的逻辑看了下这个 update_setenv.sh 的代码,发现已经没用了,而且判断 JDK 版本的代码逻辑也写的很有问题,可以直接删除。拉变更,删除,部署预发。部署成功,应用开始启动后,登录机器观察部署日志:应用部署正常,无 JDK warning 信息,等了几分钟也没有重新部署。好像是解决了。但为什么解决了呢?不科学呀。照理说,这个版本判断和两次重启关系不是很大呀。算了,先不纠结,赶紧反馈给开发同学。为了能将这份喜悦第一时间传递给开发,我还特意使用了快速通道——DING,结果很快就打脸了。是运行时问题?赶紧上机器看了下日志,发现:这个机器在 20:54 分的时候已经启动成功了,运行了 5 分钟后才被重启(我只等了 3、4 分钟)。这就说明:不是应用启动时的问题,而是运行时问题,怪不着我之前老是观察不到,原来是启动后不确定的时间内会被重启。嘴上跟开发同学说,我再努力找找,但其实内心没有一点思路。。。找 Aone 同学问问吧,万一是 Aone 重复调度了呢?咨询 Aone 同学是否存在重复调度的可能性Aone(阿里内部 CI/CD 系统) 右下角咨询了研发小蜜,很快就有了答复。不过,同学回复的答案跟我的问题并不相关,应该是理解错我的意思了。他估计以为我要暂停容器、排查问题,可以理解,问题是比较诡异。提问前,我还仔细阅读了下 Aone 的历史提问记录,发现里面并没有类似的问题,大概率不是 Aone 的问题。还是先再试试其他方法,实在不行的话,再找 Aone 同学确认是否有重复调度。还能从什么角度进行排查呢?有点排查不下去了。想起来了,据开发同学说,只有预发机器有,线上机器没有这个问题,那就对比下线上和预发的机器吧。全方位对比线上和预发机器对比应用部署日志:无异常对比应用启动日志:无异常对比 JVM 参数:有点不一样,如下,第一张是线上机器的参数,第二张是预发机器的参数区别有几个地方:使用的 java 路径不一样:线上是/opt/taobao/install/ajdk-8_2_4-b52/bin/java,预发是 /opt/taobao/java/bin/java预发环境的机器开启了 Debug 端口: -Xrunjdwp:transport=dt_socket,server=y,suspend=n,address=8000预发环境的机器挂载了一个 Java Agent: -javaagent:/home/admin/remote-debug/libs/remote-debug-agent.jarJava 路径的:登录机器看了下,两个路径做了软链接,本质是一样的(预发和线上有区别是由于我在预发环境删除了 update_setenv.sh 导致的):预发机器的 Debug 端口开启:估计是有同学在预发 Debug,这也不会有啥问题。预发环境的机器挂载 Java Agent:这个一般也是常规操作了,比如用来做启动耗时分析的 start-ops,用来做代码染色的 rbc 等,都是只挂载预发,防止 Agent 影响线上真实用户,就是不知道这个 remote-debug 是用来干啥的。对比了半天,也没有任何头绪。。。总不能是这个 Agent 引起的吧?Agent 一般也不会,并且也不能重启应用的呀。算了,先看看这个 Agent 是干啥的看看 remote-debug Agent 是干啥的既然是 Java Agent,而应用代码里又没有 Agent 部署的相关代码,那么这个 Agent 应该是通过运维插件下发的,这样应用才是无感的。先在 staragent 插件市场(阿里内部运维容器插件市场)里搜索看看是干啥的:试了 remote debug、remote debug agent 等一系列关键词,发现都搜索不到,奇怪,难道插件不叫这个名字??那就网上搜索下,信息都没啥用,全是远程 debug 的,没办法,谁让这个插件叫这个名字呢。语雀搜索,内网公开,排在前面的也没啥用(其实这里,我忘记在外网搜索了,其实 github 是可以搜索到一些相关信息的)。代码搜索(阿里内部代码仓库搜索平台)下吧,不过这次我为了更精确的匹配使用了关键词“remote-debug-agent”,有戏!路径完全一致,QA 出品,放在 euler-service 的仓库里,难道插件名字叫 euler?这脚本里好像执行了 appctl.sh restart 重启!赶紧再次在插件市场搜索了下,果然有!登录预发机器看看 staragent 的插件目录,没错,就是你,原来叫 euler !进去目录看看实际的脚本,果然与代码搜索到的基本一致:看看逻辑:在预发、测试、日常、项目环境下,如果 remote-debug-agent.jar 不存在,就从 oss 下载到 /home/admin 目录下如果 remote-debug-agent 已经被挂载了,就啥也不干如果 remote-debug-agent 没有被挂载,就修改 setenv.sh 脚本里的 JVM 参数,追加 Agent 参数,然后重启应用难道第二次的重启是为了挂载 remote-debug-agent 这个 Agent?观察应用的两次重启第一次重启后,赶紧观察:等待第二次重启后,观察:果然,第二次多了 -javaagent:/home/admin/remote-debug/libs/remote-debug-agent.jar!八九不离十了,应该就是这个 euler 运维插件引起的了。找插件负责人确认找 euler 插件的维护同学确认了下是否存在这个逻辑:哈哈,终于找到了,测试同学表示:你是怎么查出来的,这个很难查到是这个插件引起的。我说,是难,我都打算放弃了。赶紧约测试同学当面沟通了下,确认了他们的诉求:他们期望,在不需要开发同学修改代码的前提下,应用预发部署的时候就可以挂载这个 Java Agent,辅助他们采集一些数据。但他们研究了之后,发现无法做到在应用启动前就修改启动脚本里的 JVM 参数,所以只好采取了重启的方式。每 10 分钟左右调度一次,所以才会出现启动 5 分钟后突然重启的现象。他们以为应用启动一般比较快,对开发的影响较小。其实,正常情况下影响的确很小,但现在的应用一般都需要 3 分钟才能完成重启,同时 magellan 又是高频发布应用(1 个月预发部署 150 次左右),开发人员多,需求多,所以很容易被开发同学发现:知道了问题,怎么解决呢?简单,近期我正好在和架构组同学在一起开发、推广另一款插件,我们的插件在第一次重启的时候就挂载上了,不用二次重启,赶紧拉上测试同学和架构组同学一起沟通下修改方案(本文重点不在于怎么修复,所以就不放出修复方案相关的内容了)。确定方案后,测试同学就赶紧回去改代码了,说是太不好意思了,今天肯定优化好。其实,这有啥不好意思的,大家不都是互相伤害来伤害去的嘛,如果实在不好意思,一杯咖啡的事。最后先给 magellan 预发环境摘除了插件,保证开发体验,等插件逻辑修复好了再重新挂载在设计上,运维容器和主容器在同一个 Pod 内,共享磁盘,运维容器的确有权限操作主容器里的进程,那么在架构上要如何防范呢?我还没有答案,不知各位是否有,有的话,请留言告知。如果非要说本次排查过程有什么深刻体会的话,那就是“不要放过任何一个可疑的地方”!补:如果代码搜索没找到,是否还有其他方法昨晚在回家的路上,在想一个问题,如果在使用代码搜索并没有搜到“remote-debug-agent”相关的任何信息,我是否还有其他方法?想了一会,发现还有一个笨方法——关键字匹配,即全文搜索“ restart”关键词。虽然笨,但很有效。先在 /home/admin 目录下搜索,没有结果就在 /home 目录下,还没有结果就在根目录下搜索。为什么这个方法可以呢?因为看部署日志,一定是执行了应用启动脚本 appctrl.sh 里的 restart 命令,所以一定含有“appctrl.sh restart” 或“ restart”关键字。额,搜索的文件太多了,执行有点慢,被我终止了,那能不能快点?既然要执行这个命令,一般情况下应该是个脚本文件,可以优先在 *.sh 脚本文件中查找。/home/admin 目录下,结果较少。既然扩大搜索范围,在 /home 目录下有 57 条记录,里面就有 euler-service 插件的脚本:作者|曲池点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
11
2023-10-18T17:02:39+08:00
sg
1
基于 Triple 实现 Web 移动端后端全面打通
01 RPC 协议开发微服务在我们正常开发微服务的时候,传统 RPC 服务可能在最底层。上层可能是浏览器、移动端、外界的服务器、自己的测试、curl 等等。我们可能会通过 Tomcat 这种外部服务器去组装我们的 RPC 层,也就是 BFF。或者我们没有 BFF,我们的 RPC 就是对外提供服务。但因为浏览器要访问,所以我们需要有一个网关,比如说 APISIX 或者 ShenYu 等 HTTP 网关。上图展示的是我们的流程,但是存在一些问题。如果我们的服务是非常轻的,我们只需要一个转发层,无论是配网关还是起一个 webserver 去转发,怎么做都很麻烦。此外,RPC 服务大部分都是基于二进制的,而二进制正常在本地是没法测试的。因此我们的公司内都可能就会开发一种后台或者中间的 Proxy 代理让我们去测试。但这个的前提是你至少得把它部署到测试环境,所以还是没法在本地测试。总体来说,这两个问题会导致易用性比较低,且开发成本相对较高,因为要做一些与业务无关的重复劳动。02 全新升级的 Triple 协议基于上边的两个问题,我们来介绍一下 Triple 协议。先来说一下上一代协议,它产出的原因是什么。我们应该都知道 Dubbo 原来是 Dubbo 协议,它是基于 tcp 的,它只有一个包。因为它的包的设计,导致了网关无法做一些特殊规则判断、过滤等操作。但也不是绝对的,如果你愿意牺牲性能把包完全解出来,组装回去再透传还是可以做到的,但一般大家都不太能接受。所以我们就在想能不能把原数据和真正的包分开。现在我们有现成的 HTTP,又有一个业界主流的 gRPC,所以我们的目标就是兼容 gRPC。因为 gRPC目前都是用 IDL,而 IDL 有一个问题,尤其在 Java 侧。因为大家都是写一些接口,定义一些包去实现,这样就会非常麻烦。Go 侧就还好,因为大家已经习惯了这种开发模式。所以我们开发了 Triple 协议,首先它兼容了 gRPC,所以我们能实现和 gRPC 的完全互通。其次,我们兼容了自己定义接口的方法。虽然会损失一定的性能,但提升了一些易用性。而且 RPC 一般不是业务的瓶颈,大多数瓶颈还是在 DB。但还有个问题,虽然我们兼容了 gRPC,但 gRPC 是基于 TPC 的,所以如果前端或者其他第三方系统只有 HTTP,它还是接受不了我们的系统。基于此,我们想推出一个全新的 Triple 协议。为了解决上述的所有问题,我们参考了gRPC、gRPC Web、通用 HTTP 等多种协议,做到浏览器访问,支持 Streaming,还支持同时运行在 HTTP/1、HTTP/2 协议上。因为目前 HTTP/3 还没有大规模推广,未来也会支持 HTTP/3。最终的设计实现是完全基于 HTTP 的,且对人类、开发调试友好。我们可以通过简单的浏览器访问或者 curl 访问,尤其是对 unary RPC。此外,我们和 gRPC 是完全互通的,用 HTTP 的业务不用担心兼容性的问题,也不用担心签协议的问题。为了稳定性,我们只会采用业界流行的网络库,比如 Java 的 native、Go 的基础的 net 包。虽然 Triple 协议和 gRPC 协议都基于 HTTP,但 gRPC 是基于 HTTP/2 的,而 Triple 是基于 HTTP/1 和 HTTP/2 的。我们在兼容 gRPC 的同时,我们为了易用性也扩展了一些功能。比如请求里我们支持 Application/Json 的请求格式,支持使用 curl 访问;此外上一版的协议,为了支持传统定义接口的方式,我们有一个二次序列化的过程。我们想在这里通过一个特殊的 content type 来决定我们的 body 的结构,解决二次序列化的问题。同时这个东西是可以扩展的,理论上 HTTP 的所有功能我们在 Triple 协议上都可以实现,也可以拓展。用了 Triple 协议之后,我们的开发流程也发生了改变。如果你不需要进行组装,或者没有外层的代理,可能你的接入流程就是从外部的请求浏览器、对方的服务器、curl、自己测试等直接到了 server。和其他的 gRPC 的通信也是没有问题的,流程就相当于少了一层。对于大多数用户,如果你不需要这个场景,其实是有很大的好处。Triple 协议因为最开始兼容 gRPC,那个时候只基于 HTTP/2,HTTP/2 有 Streaming 的能力,所以它天然支持 Streaming。但这里比较特殊的是,我们新版的协议在 HTTP/1 也支持了 Stream,但因为 HTTP/1 的限制只能支持到 Server Streaming。依赖 HTTP/1 的 Server Push 实现。Client Stream 和 Bi Stream 就没什么可说的了。但有一个特别的是,在 Java 侧没有 Bi Stream,从编码上就没有,但从实现上是有的。03 Triple 协议开发微服务目前 Triple 协议比较灵活的支持两种定义方式,分别是 IDL 定义和直接定义。直接定义支持同步、异步、手写。还有比较极端一点的,比如在自己定义接口的时候使用 IDL 生成 protobuf 的类,我们不定义它的 service,只用它的生成的 request 和 response 类也是没问题的,Triple 协议会自动识别接口使用 protobuf 还是不使用 protobuf 进行传输。Server 就是把它的务实现一下。上图是一个例子,我就直接拿了 API 的组装方式,真正的业务上可能是注解或者 XML 的方式。因为我们支持了 HTTP 这个标准的协议,理论上我们的测试就会变得很简单。因为我们支持 gRPC,所以我们可以用 gRPC curl 去调用我们的服务。但前提是你得有反射服务,然后手动开启一下,它不是默认开启的。然后它就可以通过反射拿到接口的源数据,通过 Json 转成 protobuf 格式发过去。或者我们直接用 Application/Json 的方式直接调过去。这里有一点比较特别的是在 HTTP/1 下我们也可以用 Sreaming。另外,因为我们支持 HTTP,理论上所有第三方的 HTTP 客户端都是可以调用的。然后使用 Dubbo 的 Admin 也可以进行测试,前提是你得把它注册上。调用端不管是 POJO 还是 IDL,它们都没有本质的区别。现在我们有了 Triple 协议,但如果这个协议没有承载方也是行不通的。因此我们还得有一个框架,有一些服务治理才是我们的微服务。所以服务治理也是微服务中不可或缺的一部分。04 Dubbo 为 Triple 协议带来治理能力Triple 的定位只是 Dubbo 里的其中一个协议,当然你也可以为了兼容性,用原来的 Dubbo 协议或者其他的协议。而且我们支持在同一个端口上开启多个协议,可以按需选择。同时 Dubbo 为 Triple 提供了多语言的实现。目前会在 Rust、Go、Java、JS、node、Python 这几部分实现官方的实现。这样用户就不用自己根据实验协议的 spec 去实现了。如果你有一些定制需求,比如内部的一些框架,你根据 spec 实现也是可以的。Dubbo 和服务框架集成的很好,理论上在开发流程中,尤其是在 Java 侧服务定义、服务治理、服务注册发现等都不用客户来操心,是开箱即用的。Dubbo 提供了丰富的生态,第三方的生态包括 Nacos、Zookeeper 等等,我们不用创新,直接引入相应的包即可。这是我们使用 Triple 协议服务注册的例子。上面你可以选 Nacos、Zookeeper、K8s,左边是一个 Client 和一个 Server,这么调用。我们在 admin 上看一下实现。这里提一句,我们的 admin 也在新版重构,是用 Go 实现的,大家可以期待一下。我们经常会遇到灰度发布或者流量染色的需求。我们可以从 admin 上发一个 tag 治理规则下去,然后把一些实例打上 tag,然后这个携带 tag 的流量就从入口就会挨个传递下去,从而实现全链路的流量染色。作者:陈有为,陌陌研发工程师、Apache Dubbo PMC点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
19
2023-10-18T14:55:58+08:00
sg
2
浅谈交易链路中的一些设计原则&模式
序最近在读之前简单看过的书,其中一本就是《企业应用架构模式》,本想写一下读书笔记,但是写的时间是03年的,有些久远了,可能系统结构也翻天覆地,不一样了,摘抄出来感觉也很古老,共鸣没有那么大。不过当时读的时候的内心的宁静还是还是很令人眷恋的。转过头来,本人之前也对设计原则、模式等进行过学习,但是主要是走心,谈了一下自己的感受。要想获得内心的宁静,感觉还是要参考书中的逻辑,和日常工作中的一些理解进行连接。于是乎,基于这些原则和部分模式简单谈一下。设计原则单一职责原则定义:单一职责原则(SRP:Single responsibility principle)又称单一功能原则,面向对象五个基本原则(SOLID)之一。它规定一个类应该只有一个发生变化的原因。案例:不同的业务活动有不同的服务入口,无论是履约系统,还是逆向退款系统,都有较多的业务流程bpm。这样做的好处是,可以较好地划分场景,不同场景下接口的限流、错误定义、流程设计、回归测试等都可以独立发展,影响面也比较确定。如果使用一个通用服务,里面路由很多子服务的话,虽然看上去可以做一些通用的操作,但是相互约束和掣肘会多一点,而且切面也能解决一些通用问题,没有特别大的必要。延伸:值得进一步探讨的是,虽然入口层的隔离比较容易形成共识,但再往下,流程、流程节点、能力、扩展等是否还允许不同场景共用?实操时,往往会看能力的差异度、场景的复杂度,并基于开发、维护成本综合考虑,不同系统风格还不太一样:履约系统 往下会按能力程度角度沉淀,在一个能力里面需要考虑多种场景,比如:在打款扩展点的时候,可能来自确认收货,可能来自退并打,也可能来自定金罚没;逆向退款系统 的扩展,尽量会按照业务活动独立,比如退款的超时定制,买家申请退款、卖家同意退款、买家退货等不同业务活动有各自的扩展点。独立,虽然影响面会减少,但是修改的时候,可能因为独立的过多,而漏掉一些场景,凡事都是具有两面性的。好在我们做决策的时候,面临的场景往往是具体的、可数的。$$ 单一职责原则理解 $$开闭原则定义:开闭原则,在面向对象编程领域中,规定“软件中的对象(类,模块,函数等等)应该对于扩展是开放的,但是对于修改是封闭的”,这意味着一个实体是允许在不改变它的源代码的前提下变更它的行为。案例:无论是扩展框架TMF的迭代,还是后面星环体系的提出,一个重要的目的是为了解决“业务和平台的隔离”,这也是开闭原则的重要体现。核心逻辑应该由比较熟悉的平台人员进行控制,应该尽量通用,较少修改;扩展逻辑应该由业务开发人员理解,应该尽量灵活,便于调整。往系统内部看,其实还有很多域能力的扩展,比如:支付的时候可以走直连支付宝,也可以经过支付系统链接到微信等非支付宝渠道。这样的扩展,也是开闭原则的体现,只是离核心流程更近,影响面更大。往扩展外部看,即使是业务APP包、产品包等插件内部,还是可能会服务多个行业、多个场景,可能有很多的再次路由与扩展。比如:淘系要服务很多行业,服饰、家电、美妆等,不同业务定制也不太一样,往往会用一些策略、责任链的扩展模式。可见,每个层次都可以设计自己的扩展机制。 延伸:针对星环的扩展层次,有几个可以进一步考虑的问题。1.业务隔离的机制针对隔离出来的变动部分,我们其实有更多的期待:期望不同的业务、维护者之间还能互相隔离。虽然,在星环的体系里面,用业务身份的概念做了隔离,不过这只是个技术角度,把场景冲突尽量前置到了解析层面,减少了后续执行的压力,使用时并不太灵活。比如:圈品时还没有下单的“业务身份”,会按商品标等标识圈品,会横跨多个“业务”。好在技术上还有“产品包”的方案,可以叠加业务,实现逻辑复用,但也经常出现“漏叠”的场景。但如果,不提供业务身份的概念,基于请求场景判断,那么影响面和表达上又会充满不确定性,也难以解决冲突时“谁”和“谁”冲突的判定。2.业务和平台的边界我们常说基础域,其实可以认为是基础 + 域,因为除了域能力和扩展等,业务流程、商业能力、base实现、平台 share、common包、开发SDK等,我们都认为是基础的,需要平台人员参与。但是,往往会出现一些特例:在域扩展里面,针对一个特殊业务提供能力(这个业务的逻辑比较完整和独立),可以不走到扩展点。会出现,长在平台的jar包中,但是演变规则基本是业务定,开发又需要平台介入的特殊合作情况;在独立部署的系统中,代码库进行fork出去,进行独立演进。这时,整个层次都会被定义为“业务”;商业能力被认为是平台能力,也会集成进平台sar包中,但是像税费、进口商业能力,基本是国际业务维护,很难说是平台逻辑。从这些例子来看,业务和平台的边界已经超越了具体层次的定义了,不再那么绝对。核心还是跟着“权责一体”的方向发展。$$ 开闭原则理解 $$里氏替换原则定义:里氏代换原则 (Liskov Substitution Principle LSP) 面向对象设计的基本原则之一。里氏代换原则中说,任何基类可以出现的地方,子类一定可以出现。LSP是继承复用的基石,只有当衍生类可以替换掉基类,软件单位的功能不受到影响时,基类才能真正被复用,而衍生类也能够在基类的基础上增加新的行为。案例:可替换的思路,我们经常在使用:在进行扩展点定制的时候,我们并不关心是业务包还是场景产品包返回的结果,只关心定制的结果。在进行数据库切换的时候,我们并不关心走向哪个数据服务,只关心返回的结果;在外部支付系统调用的时候,我们并不关心走的是支付宝还是微信,只关心支付的结果;在进行订单查询的时候,我们并不关心走的是订单库,还是外部服务(如评价),只关心查询的结果;.......可替换的原则,让我们面向抽象编程;替换时能否足够顺畅,取决于我们的抽象是否合理。延伸:虽然我们可以进行抽象,做到可定制替换,但是,事实上往往很难做到无感:服务保障可能不一样:比如待付款、待发货等查询的是订单库,待评价查询的评价接口,接口的保障等级和能力可能不一致。需要做额外的稳定性保障。实现能力可能不一致:过了3个月之后,订单会进入历史库,虽然查询层面可以做适配,做到消费者无感,但是消费者后续操作会受到制约,因为变更的时候,两边能力是不一样的。有些按钮会在进入历史库后降级。协议可能不一致:比如支付系统的替换,支付宝因为有担保交易,所以售中退钱比较快速方便,但是微信登渠道,受到后面资金托管和策略影响,退款可能没有那么及时。两边的错误码等也是不一样的。.......$$ 里氏替换原则理解 $$迪米特法则定义:迪米特法则可以简单说成:talk only to your immediate friends。对于OOD来说,又被解释为下面几种方式:一个软件实体应当尽可能少的与其他实体发生相互作用。每一个软件单位对其他的单位都只有最少的知识,而且局限于那些与本单位密切相关的软件单位。案例:业务活动的执行过程,是一次协调数据操作的过程,最终大家达成一致,落库发消息。在这个过程中,为了协调各个领域的协作,有一套基础流程和对应节点组成的协调层,这个层里面最典型的协调者就是上下文(Request、Result、Context 等概念)。数据从上下文里获取,如果要传递给后续节点,还需要塞回上下文,称之为回收。从更大的角度看,入口系统也是协调者的角色。比如,下单系统会调用商品系统、库存系统、营销系统、资金系统、履约系统等,进行数据的收集与传递。系统之间很少会直接互相调用。这样的协调者,往往做的是调用和convert的操作,但是正因为有了这层convert,也便有了理解和管控:可以精简模型,减少链路上数据传递和多次convert;可以控制只读,避免后续进行非预期的篡改;可以节约性能,可以设计懒加载等模式,需要时再真正获取;......延伸:协调者因为需要携带各个参与者的信息,随着参与者越来越多,会变得越来越厚重。而且因为有些系统层层次较多,也会被层层covert所折磨,每次新加个数据,都需要都加一遍。于是,渐渐的,大家开始使用了共享模型,携带了相对原始的数据。这样的结局背后,就会引发另一种想法:每个参与者提供一个固定的区域,来获取原始数据,面向数据中心来玩,是不是就可以绕开协调者层层透传了。而且数据中心也应该知道如何更好地管理自己的数据。如果你的系统层次之间,只是convert,那么的确这会方便得多,但是如果你的系统之间当中还有一些隐晦的过程逻辑,可能会加工这些数据,那么就已经超越数据中心的范围了。此外,如果你有聚合根的设计,某些部分是一块整体,分散的数据中心的一致性也很难操作。最后,更主要的是,协调者本身是为了协调,那么肯定是“知名”的。对于开发来说,是上下文更容易找到,还是各个分散的中心更容易找到,这也是很重要的点,采取分散的方式是需要有一定规约的。$$ 迪米特法则 $$接口隔离原则定义:客户端不应该依赖它不需要的接口。一个类对另一个类的依赖应该建立在最小的接口上。使用多个专门的接口比使用单一的总接口要好。一个类对另外一个类的依赖性应当是建立在最小的接口上的。案例:接口隔离常见的case有:按读写能力隔离:读数据的接口一套,写操作的另外一套。按操作角色隔离:买家操作的接口一套,卖家操作一套,小二操作的一套。按页面类型隔离:PC的一套、H5的一套、客户端的一套。按组件协议隔离:奥创的一套、Astore的一套、DTO的一套。........看到这些场景,我们天然会想到要隔离,代码本身也大概率在不同模块中。接口的隔离,不仅仅是声明方式:对客户端来说,依赖也可以变小(虽然每个系统往往只有一个大client),可以排除一些不必要的依赖;对服务端来说,也可以更好地独立发展,避免耦合,对于复用的也可以抽象share和common。延伸:在订单管理系统中,有一个接口是doOp, 定义了按钮的操作,通过传入的 操作code 不一样,可以进行“提醒发货”、“取消订单”、“删除订单”、“延长收货”等各种操作。这样做的背景是,订单的按钮可能多达上百个,定义接口,不仅仅是服务端的事情,还需要申请无线的包装接口mtop,客户端也要继承,为了尽量复用到客户端的通路,提供了一个比较通用的接口。这里,可以看到,接口独立的原则并不是绝对的,和要抽象的数量、之间的相似程度都有关系。此外,上面按钮的例子也不是"绝对的不隔离",只是入口层的复用,后续还是按照按钮code严格正交的,会根据按钮code路由到不同的处理策略。$$ 接口隔离原则理解 $$依赖倒置原则定义:依赖倒置原则(Dependence Inversion Principle)是程序要依赖于抽象接口,不要依赖于具体实现。简单的说就是要求对抽象进行编程,不要对实现进行编程,这样就降低了客户与实现模块间的耦合。案例:如果认为基础服务在短期内不会改变,也没有多套实现,往往会直接按调用链路中“上层依赖下层”的逻辑去依赖,这样会非常简洁高效。比如,订单管理系统里面对订单查询的服务,当做Repo,作为底层服务,在域内是直接调用实例的。如果认为服务是外部的,不受到自己的管控,要隔离变化,保留升级接口的能力,那么往往会再包装一层接口。在下单和履约系统 里面是有 网关 gateway 的概念的。变成了依赖了抽象服务接口,不感知具体的实现实例。加一层抽象接口进行解耦,会保持较好的松耦合能力,因为接口就是抽象契约,两边可以独立发展,但是也会带来管理的成本,这是一种判断与取舍。 延伸:虽然概念上这个层次很好,但是做到位还是有一些成本的:打包模块:假设在A依赖B的过程中,引入了抽象C。这样的抽象层,因为和A,B没有关系,应该是单独的jar包和代码库。但是常常因为新建库的麻烦,会托管到A 或 B 的某个子模块中,打包的时候需要单独打一下,比较别扭。复杂对象挑战:面向抽象的接口,意味着更多的convert,在普通系统中,可能这是相对轻松的,但是在交易复杂对象设计的背景下,这又将是一个痛苦的过程。更加可怜的是,交易系统的领域对象与数据库模型是一个逻辑映射,叠加这些层次后,很难找到数据是怎么带出来的。所以,有时候,会反向而行,选择紧耦合的模式,在一个复杂的系统中,往往会有这样的感觉:简单、纯粹、紧耦合才是一道曙光,因为点点点,就能找到相关代码,而不是点点点.......点点点,就迷路了。这么说,并不是唱反调,希望能够辩证地去看待问题,结合具体的场景,有舍才有得,有得必有失。$$ 依赖倒置原则 $$设计模式下面选取23个设计模式中的一些进行一下介绍。模板(Template)模版方法是说对一个执行过程进行抽象分解,通过骨架和扩展方法完成一个标准的主体逻辑和扩展。交易链路上平台和扩展能力的设计,做类比是比较合适的。基础的模版就是整个流程的编排和对应的节点,可扩展的地方就是各种业务定制区域。这样形成了平台和业务较好的融合。责任链(Chain of Responsibility)责任链是说将请求让队列内的处理器一个个执行,直到找到愿意执行的。商业能力扩展、域扩展,在执行回收结果的时候,会遍历实现的插件,并结合回收规则,进行及时的熔断。这和责任链的逻辑是类似的。以确认收货打款时“是否跳过通知支付”为例,TMF执行引擎会遍历产品包、App包的实现,找到第一个返回要 true(跳过)的结果时,就会停止执行,整体返回 true。策略(Strategy)策略是说完成一个事情有不同的算法,可以进行相关切换。在逆向退款中,需要支持不同的退款链路,有些需要是担保交易,有些是保证金链路,有些是微信支付,有些是退卡、退资产。为了支持多种出账策略,采用了策略模式,可以通过扩展点定制各种资金策略,同时可以执行单个,也可以执行多个。观察者(Observer)观察者模式是说我们通过注册、回掉这样的协作设计,完成变化通知的协作机制。交易中,系统内部的观察者模式不多见。但是系统间基于消息的观察模式还是很多的。比较典型的有逆向的0s退:通过监听退款创建的消息,进行同意调用,实现了0s退的快速同意功能。通过消息的异步通知方式,既可以较好地进行解耦,也可以在失败时利用消息的重投机制,增加成功的概率。状态(State)状态模式是说在不同的状态下,有不同的处理行为。交易系统中引入了工作流,会定义业务活动可以经历的状态,每个状态可以进行的操作。比如:普通担保准交易流程,就包含:创建外部支付交易、付款回调、创建物流单、发货、确认收货 这些状态节点。每个节点也定义了可以进行什么操作,比如在 创建外部支付交易 这个节点,就可以执行支付校验、关闭订单、修改价格等操作,但是不能进行打款、退款等操作,因为还没有付款。中介者(Mediator)当多个类之间要协调的时候,往往引入中介者进行协调,减少大家的知识成本。交易系统中的流程执行过程中,会有一个大的上下文,这个上下文会协调各个领域的数据。比较典型的一个场景是,各个编排节点都可能会影响到数据更新,需要有一个地方存起来,然后交给最后的更新节点。这个传送信息的角色往往就落到了上下文这个中介者身上。下面是逆向流程中更新协作的一个大致结构。组合(Composite)组合通过继承的模式,和孩子节点,可以递归地去描述一个对象层次。递归的思想,一个比较好的理解例子是下单系统中的拆单,将一些列的订单,不停地分组。在逻辑上理解,就像递归地去进一步细化一样。单件(Singleton)单件是说在多线程的情况下,要保证对象只创建一遍,作为独一无二的资源。在订单管理系统中, 外部调用服务都被命名为Repo, 作为一个资源库。为了方便的获取这些资源库,都通过单例的模式去获取,这样一些工具类也可以方便的通过静态方法调用服务,而不需要注入bean。这样的Repo有:订单服务、评价服务、图标服务、超时服务等。解释器(Interpreter)解释器是说针对一套上下文,形成一套语言,可以通过解释表达式含义的方式完成对应的任务。交易中见到的解释器模式主要是,原来淘系的牛顿系统,一个动态脚本类配置。这个配置平台主要解决产品包中的一些动态规则,通过推送的模式,可以利用解释的动态性,减少一些部署的成本。代理(Proxy)代理是为了包装一个类,对相关操作进行二次转发或者进行一些管控。订单管理系统中, 为了避免上下文被各个域篡改,对上下文是有一定保护措施的。当进入到具体执行节点的时候,会进行上下文转换,转换过程中,会通过包装只读接口,去代理实体对象,提供只读服务,而获取不到具体实例,也无法进行set修改。总结《企业应用架构模式》中有一句对模式的描述,写得比较好:每一个模式描述了一个在我们周围不断重复发生的问题,以及该问题的解决方案的核心。这样,你就能一次又一次地使用该方案而不必做重复劳动。本文借助了一些原则和设计模式,讲了一下自己窥探的交易系统中的一些设计。希望能够给大家一个视角,多了解一下我眼中的交易链路。作者|天禾点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
32
2023-10-17T17:15:48+08:00
sg
3
深势科技基于 Serverless 容器为科研人员打造高效的开发平台
云端的科学研究,AI for Science 新范式以往科学家们的科研工作需要经过大量实验的重复验证、复杂数学计算,以及长年累月的不断试错和苦苦探索。云计算基础服务的发展和人工智能技术 AI 的兴起,也给科研领域带来了新转变。2019 年,事件视界望远镜(EHT)团队公布了首张黑洞照片,这是全球 30 多个科研机构在云端协作的结果;团队成员可在全球调用各类云资源,数据处理周期从原本的数周压缩到数天。哥伦比亚大学在云上进行气候科学研究,构建复杂的地球系统模型(ESM)模拟来理解模式并进行预测。利用卫星、无人机和传感器监测大陆、海洋和大气的不断增长的环境数据,来预测自然灾害和评估地球的状态。北卡罗来纳大学教堂山分校和芬兰 Techila 合作将图形重建的时长从一个月缩短到 18 小时,原来本地个人电脑上需要进行一到两周的 MATLAB 40GB 的数学实验,转移到云上 100 个节点进行后只需要两三个小时。深势科技很早就认准了 AI for Science 赛道,开创性地提出了「多尺度建模+机器学习+高性能计算」的革命性科学研究新范式,自研的计算平台服务为药物、材料领域带来极具突破性的计算模拟及设计工具。深势科技科学计算平台——Bohrium® 科研云平台,致力于为科研人员提供开箱即用的计算环境,同时支持基于命令行和图形界面的任务提交方式。通过提供兼具速度与效率的微观模拟工具,Bohrium® 帮助研发人员进行光学、电学、磁学、力学的物理性质计算,并细致研究材料微观结构组分与作用机理。合金、电池、半导体、催化等材料的高通量理性设计正在 Bohrium® 平台中成为现实。Bohrium® 提供开箱即用的计算环境,同时支持基于命令行和图形界面的任务提交方式。Bohrium® 实现了对多云、多超算计算资源的高效池化,兼具云上的高弹性与超算的高性能等特点。通过对任务的智能调度,平台为用户提供“多、快、省”的计算体验。深势科技开发平台之难点与技术概览Borhrium® 科学计算平台自 2018 年在阿里云构建,任务训练部分的技术架构方案基于 ACK Serverless 容器升级改造并平稳运行。随着业界对 AI for Science的认知与使用不断发展,深势科技希望能够对开发调试部分升级迭代,并实现一体化开发-训练流程。在技术指标上,深势科技希望开发平台可以支持成百上千科研人员同时开启在线实验研究,至少具备以下四方面重要能力:支持 2000+ 人同时启用,且秒级快速开机关机能力;如遇到实验机异常,可以继续实验而不需要重新开始;平台无需大量支持人力投入、实现零技术支持与零运维成本;同时兼顾业务安全和主机安全。最初,开发平台容器 AI 技术架构采用的是经典的容器服务 ACK 集群纳管云服务器 ECS 方式,而非 Serverless 容器模式。旧版方案存在两大问题:一方面,因为科研人员的开发周期较长,在过程中会数次开机关机,为了便于下次打开继续实验,需要通过容器镜像打包的方式保存环境,但是这样的关机时间过长且镜像会不断膨胀变得过大;另一方面,存在低概率的意外宕机情况,除非客户恰好在宕机前手动保存,否则信息、数据全部丢失,亟需能够帮助广大用户做到随时的自动保存。总结而言,深势科技需求如下:对应而言,其技术难点挑战是:大规模资源高并发请求开发机支持快速启停和关机(秒级),最高希望支持 2000+ 位科研人员同时在线使用。开发机申请云端 CPU、GPU 资源,需要支持跨可用区、垮地域调度/重启,并且做到用户无感知。中途退出的环境保存用户关机时能够释放实例资源,但需要保留用户容器数据和临时数据,以便于回溯。同时,由于用户误操作导致的容器重启甚至开发机实例被释放,也要保留重启/释放前容器环境和临时数据。支持重新启动开发机,并能继续进行之前中止的实验。镜像数据膨胀解决传统开发机方案的数据增加问题,传统方案关机保存镜像,开机使用关机镜像恢复环境,多次开关机之后,镜像层数大小不断增加,带来额外成本。业务数据联动与自动管理基于 ECI 的开发机不但需要访问阿里云的 NAS 还需要支持第三方的 JuiceFS 存储,并且需要支持两个存储之间自动的数据拷贝。多租环境的强隔离与稳定性开发机和开发机之间要做到强数据、资源隔离;某一台开发机故障,或底层节点宕机,不影响其他开发机。运维便捷性开发机支持不断迭代升级,并支持自动镜像缓存制作。基于 Serverless 容器打造高效的科研开发平台经过多次深入沟通,阿里云与深势科技共同敲定了如下的 Serverless容器解决方案:整体架构设计上,开发机采用了跨地域多 K8s 集群方案,在确保整体的可靠性与容灾性的同时,能更大范围调度不同地域的算力资源;在 K8s 管控侧,选用阿里云容器服务 Serverless版( ACK Serverless ),可以免除很多运维负担,如无需维护节点池、无需预先缓存镜像、无需维护 K8s 组建托管等,底层 ECI 弹性容器实例相比传统云服务 ECS 可以快速启动与关闭,并且遵循 Serverless 按需使用、按需付费的理念;在应用镜像、AI 模型文件等制品管理上,选择阿里云容器镜像仓库企业版(ACR EE)一站式解决方案,可实现全球同步加速、大规模/大镜像分发加速,且与容器服务 ACK 无缝集成。更值得一提的是,阿里云独家提供的 ACK Fluid 方案可以无缝接入第三方存储挂载,并提供多用户数据安全共享隔离功能。同时,ACK Fluid 还实现了数据管理的自动化,进一步提升了系统的效率和易用性。科研开发平台的 Serverless 容器方案架构图对于重启/释放后异常点可恢复的诉求,即仍保留容器环境和临时数据以便于查看或者再继续实验,可以参考如下的 CRD 生命周期设计。在开发机的生命周期中,开机、关机和重启均可以做到 20s 内,同时,通过 ACK Fluid 支持数据挂载到 ECI 的时长缩短到 5s 以内(包括阿里云 NAS 和第三方存储)。经过两方的配合和沟通,最终基于 Serverless 容器的 AI 开发平台方案实现了如下效果:大规模 POD 弹性能力,同时开启 2000+ 台开发机资源利用率提升 30%,按需付费,提供丰富可用的资源异常后,恢复宕机时间点数据基于 ECI 实现秒级随用随开,支持环境保存相较传统的 K8s 形态,ACK Serverless 无需维护服务器与镜像缓存通过 ACK Fluid 无缝数据接入第三方存储方案,同时支持多用户数据安全共享隔离,以及定时不同存储系统间的数据同步未来,怀梦前行目前开发机的 Serverless 容器方案已经基本满足预期,后续运营期还需要持续关注和提高整体项目的健壮性:优化整体项目的上下游瓶颈依赖(比如 API 调用频率和流控),构建完善的异常情况兜底方案。深势科技技术架构师李样兵说道:“感谢阿里云团队的专业的技术实力和敬业精神:针对业务痛点,共克技术难关,探索前沿技术方案,结合 Serverless 容器架构, 打造了行业领先的科研开发平台。”此外,进一步探讨尝试云原生架构下的多地/多类型资源统一管理与效率优化,实现基于 K8s 的统一管理、调度多种集群资源,并给予 Fluid Dataset 实现统一接入云原生存储、加速和管理异构/异地的数据方案。如今,Bohrium® 科研云平台运行平稳,已经为很多科研人员提供了良好支撑:武汉大学与南方科技大学的研究团队,在液态金属领域取得重要进展,为新型材料高熵合金的原子级可规模化、可定制化的精准制造打下基础。中国科学院地球化学研究所理论团队与合作者基于 Bohrium® 探索地球内核各向异性新机理,为内核复杂的各向异性和不均一结构成因提供了全新解释。北京大学数学科学学院和材料科学与工程学院、北京科学智能研究院、深势科技联合宁德时代 21C 创新实验室采用深度势能方法研究硅基负极在脱嵌锂过程的相变和结构演化,并取得重要进展。深势科技继续为 “AI for Science” 革命性科学研究新范式而不懈努力,运用人工智能和多尺度的模拟仿真算法,结合先进计算手段求解重要科学问题,为人类文明最基础的生物医药、能源、材料和信息科学与工程研究打造新一代微尺度工业设计和仿真平台。作者:李样兵、刘杉、木环、玖宇、鼎岳点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
23
2023-10-17T16:06:06+08:00
sg
4
茶百道全链路可观测实战
茶百道是四川成都的本土茶饮连锁品牌,创立于 2008 年 。经过 15 年的发展,茶百道已成为餐饮标杆品牌,全国门店超 7000 家,遍布全国 31 个省市,实现中国大陆所有省份及各线级城市的全覆盖。2021 年 3 月 31 日,在成渝餐·饮峰会中,茶百道斩获“2021 成渝餐·饮标杆品牌奖”。2021 年 8 月,入选艾媒金榜(iiMedia Ranking)最新发布《2021 年上半年中国新式茶饮品牌排行 Top15》。2023 年 6 月 9 日,新茶饮品牌“茶百道”获得新一轮融资,由兰馨亚洲领投,多家知名投资机构跟投,估值飙升至 180 亿元。今年 4 月,茶百道在成都总部举行了品牌升级发布会,宣布门店数突破 7000 家。根据中国连锁经营协会的数据,截至 2020 年、2021 年以及 2022 年 12 月 31 日,茶百道门店数量分别为 2,240 间、5,070 间以及 6,532 间,疫情并没有拖慢其扩张步伐。随着业务规模的急速扩展,茶百道全面加速推进数字化转型战略。但由于茶百道部分早期业务系统由外部 SaaS 服务商提供,无法满足线上业务高速增长所带来的大规模、高并发、弹性扩展、敏捷性、可观测等要求。为了满足线上线下门店客户需求与业务增长需要,针对店务、POS、用户交易、平台对接、门店管理、餐饮制作等核心链路服务,茶百道选择全面自研与阿里云云原生能力相结合,推动容器化、微服务化、可观测能力全面升级。云原生化的业务价值茶饮行业面临着市场竞争的压力和内部运营效率的提升需求。为了应对这些挑战,阿里云与茶百道一起完成云原生上云的转型,开启数字化的新征程。采用容器和微服务技术实现了应用的轻量化和高可移植性。让企业可以更灵活地部署、扩展应用,快速响应市场需求,使得企业能够实现应用的高可用性和弹性扩展能力,无论面对突发的高峰访问量还是系统故障,都能保持业务的稳定运行。引入了持续交付和持续集成的开发方式,帮助企业实现了快速迭代和部署。通过自动化的流程,企业能够更快地推出新功能和产品,与市场保持同步,抢占先机。云原生的上云转型不仅带来了更高的安全性、可用性和可伸缩性,也提升了企业的创新能力和竞争力。云原生带来的可观测挑战茶百道作为业务高速发展的新兴餐饮品牌,每天都有海量的在线订单,这背后是与互联网技术的紧密结合,借助极高的数字化建设支撑茶百道庞大的销售量。因此,对于业务系统的连续性与可用性有着非常严苛的要求,以确保交易链路核心服务的稳定运行。特别是在每日高峰订餐时段、营销活动、突发热点事件期间,为了让用户有顺畅的使用体验,整个微服务系统的每个环节都需要保证在高并发大流量下的服务质量。完善的全链路可观测平台以及 APM ( Application Performance Management )工具,是保障业务连续性与可用性的前提。在可观测技术体系建设上,茶百道技术团队经历过比较多探索。全面实现容器化之前,茶百道在部分微服务系统上接入了开源 APM 工具,并进行超过一年时间的验证,但最终没有能够推广到整个微服务架构中,主要有这几个方面的原因:指标数据准确度与采样率之间的平衡难以取舍适当的采样策略是解决链路追踪工具成本与性能的重要手段,如果 APM 工具固定使用 100% 链路全采集,会带来大量重复链路信息被保存。在茶百道的庞大微服务系统规模下,100% 链路采集会造成可观测平台存储成本超出预期,而且在业务高峰期还会对微服务应用本身的性能带来一定影响。但开源工具在设定采样策略的情况下,又会影响指标数据准确度,使错误率、P99 响应时间等重要可观测指标失去观测与告警价值。缺少高阶告警能力开源工具在告警方面实现比较简单,用户需要自行分别搭建告警处理及告警分派平台,才能实现告警信息发送到 IM 群等基本功能。由于茶百道微服务化后的服务模块众多、依赖复杂。经常因为某个组件的异常或不可用导致整条链路产生大量冗余告警,形成告警风暴。造成的结果就是运维团队疲于应付五花八门且数量庞大的告警信息,非常容易遗漏真正用于故障排查的重要消息。故障排查手段单一开源 APM 工具主要基于 Trace 链路信息帮助用户实现故障定位,对于简单的微服务系统性能问题,用户能够快速找到性能瓶颈点或故障源。但实际生产环境中的很多疑难杂症,根本没有办法通过简单的链路分析去解决,比如 N+1 问题,内存 OOM,CPU 占用率过高,线程池打满等。这样就对技术团队提出了极高要求,团队需要深入了解底层技术细节,并具备丰富 SRE 经验的工程师,才能快速准确的定位故障根源。接入阿里云应用实时监控服务 ARMS在茶百道系统架构全面云原生化的过程中,茶百道技术团队与阿里云的工程师深入探讨了全链路可观测更好的落地方式。ARMS 应用监控作为阿里云云原生可观测产品家族的重要成员,提供线程剖析、智能洞察、CPU & 内存诊断、告警集成等开源 APM 产品不具备的能力。在阿里云的建议下,茶百道技术团队尝试着将一个业务模块接入 ARMS 应用监控。由于 ARMS 提供了容器服务 ACK 环境下的应用自动接入,只需要对每个应用的 YAML 文件增加 2 行代码就自动注入探针,完成整个接入流程。经过一段时间试用,ARMS 应用监控提供的实战价值被茶百道的工程师不断挖掘出来。茶百道同时使用了阿里云性能测试产品 PTS,来实现日常态和大促态的容量规划。因为ARMS和 PTS 的引入,茶百道日常运维与稳定性保障体系也发生了众多升级。围绕 ARMS 告警平台构建应急响应体系由于之前基于开源产品搭建告警平台时,经常遇到告警风暴的问题,茶百道对于告警规则的配置是非常谨慎的,尽可能将告警目标收敛到最严重的业务故障上,这样虽然可以避免告警风暴对 SRE 团队的频繁骚扰,但也会让很多有价值的信息被忽略,比如接口响应时间的突增等。其实对于告警风暴问题,业界是有一整套标准解法的,其中涉及到去重、压缩、降噪、静默等关键技术,只是这些技术与可观测产品集成上存在一定复杂度,很多开源产品并没有在这个领域提供完善方案。这些告警领域的关键技术,在 ARMS 告警平台上都有完整功能。以事件压缩举例,ARMS 提供基于标签压缩和基于时间压缩两种压缩方式。满足条件的多条事件会被自动压缩成为一条告警进行通知(如下图所示)。$$ 图: 基于标签压缩 $$$$ 图:基于时间压缩 $$配合 ARMS 告警平台所提供的多种技术手段,可以非常有效的解决告警风暴的问题,因此茶百道技术团队开始重视告警的使用,逐步丰富更多的告警规则,覆盖应用接口、主机指标、JVM 参数、数据库访问等不同层面。通过企业微信群进行对接,使告警通知实现 ISTM 流程的互动,当值班人员收到告警通知后,可以直接通过 IM 工具进行告警关闭、事件升级等能力,快速实现告警处理。(如下图所示)$$ 图:监控告警事件的智能化收敛与通告 $$灵活开放的告警事件处置策略满足了不同时效、场景的需求。茶百道在此基础上参考阿里巴巴安全生产最佳实践,开始构建企业级应急响应体系。将业务视角的应急场景作为事件应急处置的核心模型,通过不同告警级别,识别与流转对应的故障处理过程。这些都是茶百道在全面云原生化后摸索出的经验,并显著提升生产环境服务质量。引入采样策略从链路信息中提取指标数据,是所有 APM 工具的必备功能。不同于开源产品简单粗暴的指标提取方式,ARMS 应用监控使用端侧预聚合能力,捕捉每一次真实请求,先聚合,后采样,再上报,提供精准的指标监控。确保在采样策略开启的情况下,指标数据依然与真实情况保持一致。$$ 图:ARMS 端侧预聚合能力 $$为了降低 APM 工具带来的应用性能损耗,茶百道对大部分应用采取 10% 采样率,对于 TPS 非常高的应用则采取自适应采样策略,进一步降低高峰期应用性能损耗。通过实测,在业务高峰期,ARMS 应用监控造成的应用性能损耗比开源产品低 30% 以上且指标数据准确性可信赖,比如接口级别的平均响应时间、错误数等指标都可以满足生产级业务需求。$$ 图:接口级别指标数据 $$异步链路自动埋点在 Java 领域存在异步线程池技术,以及众多开源异步框架,比如 RxJava、Reactor Netty、Vert.x 等。相较于同步链路,异步链路的自动埋点与上下文透传的技术难度更大。开源产品对主流异步框架的覆盖度不全,在特定场景下存在埋点失败问题,一旦出现这样的问题,APM 工具最重要的链路分析能力就难以发挥作用。在这种情况下,需要开发者自行通过 SDK 手工埋点,以保证异步链路的上下文透传。这就会造成巨大的工作量且难以在团队内部大面积、快速推广。ARMS 对主流的异步框架都实现了支持,无需任何业务代码上的侵入就能够异步链路上下文透传,即使对一些异步框架的特定版本没有及时支持,只要用户侧提出需求,ARMS 团队就能在新版本的探针中补齐。使用 ARMS 应用监控之后,茶百道技术团队直接将此前异步框架手工埋点代码进行了清理,大幅度减少维护工作量。$$ 图:异步调用的链路上下文 $$更高阶应用诊断技术的运用在埋点覆盖度足够高的情况下,传统 APM 工具和链路跟踪工具能够帮助用户快速确定链路的哪一个环节(也就是Span)存在性能瓶颈,但需要更进一步排查问题根源时,就无法提供更有效的帮助了。举一个例子,当系统 CPU 占用率显著提升时,是否因某个业务方法疯狂的消耗 CPU 资源所导致?这个问题对于大多数的 APM 产品而言,都是难以办法解决的。因为单从链路视图无法知晓每个环节的资源消耗情况。茶百道的工程师在使用开源工具时,曾多次遇到类似问题,当时只能凭借经验去猜测,再去测试环境反复对比来彻底解决,虽然也试过一些 Profiling 工具,但使用门槛比较高,效果不是很好。ARMS 应用监控提供了 CPU & 内存诊断能力,可以有效发现 Java 程序中因为 CPU、内存和 I/O 导致的瓶颈问题,并按照方法名称、类名称、行号进行细分统计,最终协助开发者优化程序、降低延迟、增加吞吐、节约成本。CPU & 内存诊断可以在需要排查特定问题时临时开启,并通过火焰图帮助用户直接找到问题根源。在一次生产环境某应用 CPU 飙升场景中,茶百道的工程师通过 CPU & 内存诊断一步定位到问题是由一个特定业务算法所导致。$$ 图:通过火焰图分析 CPU 时间 $$此外,对于线上的业务问题,还可以通过 ARMS 提供的 Arthas 诊断能力在线排查。Arthas 作为诊断 Java 领域线上问题诊断利器,利用字节码增强技术,可以在不重启 JVM 进程的情况下,查看程序运行情况。虽然 Arthas 使用有一定门槛,需要投入比较多精力进行学习,但茶百道的工程师非常喜欢使用这个工具。针对“到底符合哪种特殊的数据导致某业务异常”此类问题,没有比 Arthas 更方便的排查工具了。阶段性成果经过 2 个月时间的调研与对比,茶百道决定全面从开源可观测平台转向 ARMS,从开源压测平台转向 PTS,并在团队内部进行推广。随着使用的不断深入,ARMS 所提供的智能洞察、线程池分析等高阶可观测能力也逐步被茶百道的技术团队应用于日常运维中,线上问题排查效率相比之前也有了数倍提升。在可观测产品本身的使用成本上,虽然表面上 ARMS 相比开源产品有所提高,但这是建立在开源方案数据单写,以及存在单点故障的情况下。其实茶百道的技术团队也非常清楚,之前的开源方案是存在高可用性隐患的,某个组件的故障会导致整个可观测方案不可用。只是大家对于开源方案提供的可观测能力并没有重度使用,所以才没有足够重视。所以综合来看,ARMS 整体成本并不会高于开源方案。利用 ARMS 能力,茶百道实现了可观测指标采样率百分百覆盖,链路全采集,监控数据准确率大幅提供,能够快速实现业务故障的自动发现,有效的配合敏态业务发展。故障发生后,监控系统需要第一时间通知相关人员,做初步定位,ARMS 告警告警能力实现了 ChatOps 能力,基于 IM 工具,快速触达相关人员,并且提供初步定位能力,是故障的响应能力大幅提升。故障的快速恢复,对于控制业务影响至关重要,ARMS 利用全链路 Trace 能力,快速定位具体应用、接口、方法、慢sql等,是故障快速恢复的关键助手。茶百道技术团队负责人表示:“在与开源方案成本持平的前提下,ARMS 丰富且全面的全栈观测与告警能力,使茶百道快速建立运维观测与响应能力,故障恢复效率提升 50% 以上,故障恢复耗时缩短 50%,真正做到用可观测为业务迅猛发展保驾护航。”故障的预防收敛,在稳定性体系建设中是投入产出比极高的,PTS 利用全国流量施压的能力,和秒级监控能力,验证站点容量并定位性能瓶颈。茶百道在业务上线前,充分对单应用和全链路做压测,累计压测 800 余次,在上线前做到了性能问题的收敛,避免演进为线上故障。下阶段目标在可观测领域,Prometheus + Grafana 是指标数据存储、计算、查询、展示的事实标准,ARMS 产品家族提供托管加强的 Prometheus 和 Grafana 服务。ARMS 应用监控生成的指标数据也会自动保存到托管版 Prometheus 中,并预置数张 Grafana 大盘。茶百道的工程师们正在基于 Prometheus 和 Grafana,将应用层指标、关键业务指标、云服务指标进行结合,开发多维度可观测大盘。在不久的将来,茶百道就会建立覆盖业务层、用户体验层、应用服务层、基础设置层、云服务层的统一可观测技术体系,为千万级用户同时在线的大规模微服务系统实现稳定性保障。作者:山猎点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
27
2023-10-17T13:57:40+08:00
sg
5
基于阿里云服务网格流量泳道的全链路流量管理(一):严格模式流量泳道
概述灰度发布是一种常见的对新版本应用服务的发布手段,其特点在于能够将流量在服务的稳定版本和灰度版本之间时刻切换,以帮助我们用更加可靠的方式实现服务的升级。在流量比例切换的过程中,我们可以逐步验证新版本服务的功能特性、可靠性等特性,一旦新版本服务不满足需求,还可以时刻将流量切回老版本,因此灰度发布也是一种在软件工程领域中得到广泛应用的发布方案。当前,服务网格的无侵入式灰度发布已经是一个非常成熟的特性:我们可以同时部署服务的多个版本,使用 DestinationRule 来制定工作负载的版本定义,并使用 VirtualService 的流量比例分割的能力将不同比例的服务流量发往不同版本的工作负载,直至所有流量都直接发往新版本服务。然而,在云原生应用广泛采用的大背景下,应用程序往往不再以单体服务的形式存在,而是被分解为一系列云原生服务部署在 Kubernetes 集群中,服务之间存在调用链路、共同对外提供服务。当服务之间存在调用链路时,对服务的灰度发布往往不局限于单个服务,而是需要对服务的整条请求链路进行环境隔离与流量控制,即:保证灰度流量只发往调用链路中服务的灰度版本,实现调用链路之间相互隔离的隔离环境。针对整个调用链路的流量管理需求为服务网格的无侵入式流量管理方案带来了新的挑战:流量规则复杂度高基于 Istio 社区的 VirtualService 和 DestinationRule 规则需要针对每个服务进行单独定制,在全链路流量管理的场景下会提高配置出错的几率与服务流量的维护成本。流量管理灵活度低针对不同的全链路流量管理需求,难以通过简单调整流量规则实现全部需求(例如:针对一条灰度链路,仅发布链路中部分服务的新版本)。服务网格 ASM 支持将应用的相关版本(或者其他特征)隔离成一个独立的运行环境(即泳道),然后通过设置泳道规则,将满足规则的请求流量路由到目标版本(或者其他特征)的应用上。ASM 流量泳道具有以下特点:配置简单通过使用 ASM 流量泳道功能,您仅需制定少量的治理规则,便可构建从网关到整个后端服务的多个流量隔离环境,有效保障多个服务顺利安全发布以及服务多版本并行开发,进一步促进业务的快速发展。支持不同维度的全链路流量管理需求ASM 流量泳道支持严格模式与宽松模式,两种模式各自有着自己的优势、限制以及适配使用场景,适配更多样的流量治理需求。流量泳道的严格模式与宽松模式1.严格模式的流量泳道在严格模式下,每条流量泳道中包含调用链路上的全部服务。该模式对于您的应用程序无任何要求,只需配置流量泳道即可实现。如下图所示:2.宽松模式的流量泳道在宽松模式下,您只需要确保创建一条包含调用链路中所有服务的泳道:基线泳道。其它泳道可以不包含调用链路上的全部服务。当一个泳道中的服务进行相互调用时,若目标服务在当前泳道中不存在,则请求将被转发到基线泳道中的相同服务,并在请求目标存在当前泳道中存在时将请求重新转发回当前泳道。使用宽松模式的流量泳道时,您的应用程序必须包含一个能够在整条调用链路中透传的请求头(链路透传请求头),并另外使用一个引流请求头用来根据请求头内容将流量路由到不同的流量泳道上。如下图所示:本文接下来主要演示严格模式泳道在服务网格 ASM 中的应用。演示:使用严格模式的流量泳道实现全链路灰度管理在本文的示例场景下,将使用上图所示的三个服务 mocka、mockb、mockc 创建代表服务调用链三个版本的三个泳道:s1、s2、s3。1.前提条件已创建 ASM 企业版或旗舰版实例,且版本为 1.18.2.111 及以上。具体操作,请参见创建 ASM 实例[1]。已添加 ACK 集群到 ASM 实例。具体操作,请参见添加集群到 ASM 实例[2]。已创建名称为 ingressgateway 的 ASM 网关。具体操作,请参见创建入口网关服务[3]。已创建名称为 ingressgateway 且命名空间为 istio-system 的网关规则。具体操作,请参见管理网关规则[4]。apiVersion: networking.istio.io/v1beta1 kind: Gateway metadata: name: ingressgateway namespace: istio-system spec: selector: istio: ingressgateway servers: - port: number: 80 name: http protocol: HTTP hosts: - '*'2.部署示例服务首先在 ACK 集群中部署示例中的应用服务,以实现全链路灰度场景。为 default 命名空间启用 Sidecar 网格代理自动注入(具体操作,请参见启用自动注入[5]),接下来在 ACK 集群中执行以下命令,部署示例服务。kubectl apply -f https://alibabacloudservicemesh.oss-cn-beijing.aliyuncs.com/asm-labs/swimlane/v1/mock-v1.yaml kubectl apply -f https://alibabacloudservicemesh.oss-cn-beijing.aliyuncs.com/asm-labs/swimlane/v2/mock-v2.yaml kubectl apply -f https://alibabacloudservicemesh.oss-cn-beijing.aliyuncs.com/asm-labs/swimlane/v3/mock-v3.yaml3.创建泳道组和对应泳道在示例中,我们将 mocka->mockb->mockc 服务调用链路的 v1、v2、v3 三个版本分隔成 s1、s2、s3 三条泳道,三条泳道组成的集合称为泳道组。在服务网格 ASM 中,可以通过简单的配置完成泳道组和泳道的创建。登录 ASM 控制台[6],在左侧导航栏,选择服务网格 > 网格管理。在网格管理页面,单击目标实例名称,然后在左侧导航栏,选择流量管理中心 > 流量泳道。在流量泳道页面,单击创建泳道组,在创建泳道组面板,配置相关信息,然后单击确定。接下来在泳道组内创建 s1、s2、s3 泳道,分别对应服务调用链路的 v1、v2、v3 版本。在流量泳道页面的流量规则定义区域,单击创建泳道。在创建泳道对话框,配置相关信息,然后单击确定。三个泳道创建完成后,示例效果如下:每创建一个泳道,流量泳道会自动创建出泳道对应的目标规则 DestinationRule。例如所有泳道创建完成后,会针对 mocka 服务自动创建如下目标规则 DestinationRule。apiVersion: networking.istio.io/v1beta1 kind: DestinationRule metadata: labels: asm-system: 'true' provider: asm swimlane-group: test name: trafficlabel-dr-test-default-mocka namespace: istio-system spec: host: mocka.default.svc.cluster.local subsets: - labels: ASM_TRAFFIC_TAG: v1 name: s1 - labels: ASM_TRAFFIC_TAG: v2 name: s2 - labels: ASM_TRAFFIC_TAG: v3 name: s3三个泳道创建完成后,针对泳道组中的每个服务都将生成泳道规则对应的虚拟服务 VirtualService。例如,针对 mocka 服务会自动创建如下虚拟服务 VirtualService。apiVersion: networking.istio.io/v1beta1 kind: VirtualService metadata: labels: asm-system: 'true' provider: asm swimlane-group: test name: trafficlabel-vs-test-default-mocka namespace: istio-system spec: hosts: - mocka.default.svc.cluster.local http: - match: - sourceLabels: ASM_TRAFFIC_TAG: v1 route: - destination: host: mocka.default.svc.cluster.local subset: s1 - match: - sourceLabels: ASM_TRAFFIC_TAG: v2 route: - destination: host: mocka.default.svc.cluster.local subset: s2 - match: - sourceLabels: ASM_TRAFFIC_TAG: v3 route: - destination: host: mocka.default.svc.cluster.local subset: s3最后创建各个泳道对应的引流规则。通过不同的引流规则,ASM 网关可以将不同特征的请求路由到不同的泳道隔离环境之内,实现泳道内服务调用链路之间的完全隔离。下文以创建 s1 泳道的引流规则为例进行说明,请参照以下步骤创建 s2 和 s3 泳道的引流规则。在流量泳道页面的流量规则定义区域,单击目标泳道右侧操作列下的引流规则。在添加引流规则对话框,配置相关信息,然后单击确定。本文以泳道服务对应入口 API 均为 /mock 为例,为每个泳道配置相同的引流规则。三个泳道的引流规则创建成功后,示例效果如下:创建成功后,会自动生成每条泳道的引流规则,即虚拟服务 VirtualService。例如,针对泳道 s1 会生成如下的虚拟服务 VirtualService:apiVersion: networking.istio.io/v1beta1 kind: VirtualService metadata: labels: asm-system: 'true' provider: asm swimlane-group: test name: swimlane-ingress-vs-test-s1 namespace: istio-system spec: gateways: - istio-system/ingressgateway hosts: - '*' http: - match: - headers: x-asm-prefer-tag: exact: s1 uri: exact: /mock name: r1 route: - destination: host: mocka.default.svc.cluster.local subset: s14.验证全链路灰度功能是否生效通过以上的规则配置,ASM 流量泳道已经自动创建好了用于维护不同调用链路间相互隔离的流量规则。可以通过简单的访问验证通过流量泳道实现的全链路灰度是否生效。1)获取 ASM 网关的 IP 地址(参考获取 ASM 网关地址[7])。2)执行以下命令设置环境变量。http://xxx.xxx.xxx.xxx 为上一步获取的 IP。export ASM_GATEWAY_IP=xxx.xxx.xxx.xxx3)验证全灰度链路功能是否生效。执行以下命令,查看 s1 泳道的访问效果。x-asm-prefer-tag 对应的值 s1 为步骤二创建 s1 泳道时配置的泳道名称。for i in {1..100}; do curl -H 'x-asm-prefer-tag: s1' http://${ASM_GATEWAY_IP}/mock ; echo ''; sleep 1; done;预期输出:-> mocka(version: v1, ip: 172.17.0.54)-> mockb(version: v1, ip: 172.17.0.129)-> mockc(version: v1, ip: 172.17.0.130)由预期输出得到,通过设置 HTTP 标头 x-asm-prefer-tag: s1 声明的流量流向 s1 泳道下的相关服务,符合预期。执行以下命令,查看 s2 泳道的访问效果。x-asm-prefer-tag 对应的值 s2 为步骤二创建 s2 泳道时配置的泳道名称。for i in {1..100}; do curl -H 'x-asm-prefer-tag: s2' http://${ASM_GATEWAY_IP}/mock ; echo ''; sleep 1; done;预期输出:-> mocka(version: v2, ip: 172.17.0.9)-> mockb(version: v2, ip: 172.17.0.126)-> mockc(version: v2, ip: 172.17.0.128)由预期输出得到,通过设置 HTTP 标头 x-asm-prefer-tag: s2 声明的流量流向 s2 泳道下的相关服务,符合预期。执行以下命令,查看 s3 泳道的访问效果。x-asm-prefer-tag 对应的值 s3 为步骤二创建 s3 泳道时配置的泳道名称。for i in {1..100}; do curl -H 'x-asm-prefer-tag: s3' http://${ASM_GATEWAY_IP}/mock ; echo ''; sleep 1; done;预期输出:-> mocka(version: v3, ip: 172.17.0.132)-> mockb(version: v3, ip: 172.17.0.127)-> mockc(version: v3, ip: 172.17.0.69)由预期输出得到,通过设置 HTTP 标头 x-asm-prefer-tag: s3 声明的流量流向 s3 泳道下的相关服务,符合预期。总结本文简要讨论了在使用服务网格治理云原生应用流量时,在全链路流量管理场景下的挑战与局限;并介绍了服务网格 ASM 中的流量泳道能力在服务网格全链路流量管理下的优势与特点。接下来针对 ASM 流量泳道的严格模式进行了详细演示与说明。接下来我们还会针对宽松模式下的 ASM 流量泳道进行进一步地深入介绍。相关链接:[1] 创建 ASM 实例https://help.aliyun.com/document_detail/147793.html#task-2370657[2] 添加集群到 ASM 实例https://help.aliyun.com/document_detail/148231.html#task-2372122[3] 创建入口网关服务https://help.aliyun.com/document_detail/150510.html#task-2372970[4] 管理网关规则https://help.aliyun.com/document_detail/150504.html[5] 开启 Sidecar 自动注入https://help.aliyun.com/document_detail/186136.html#task-1962690[6] ASM 控制台https://servicemesh.console.aliyun.com/[7] 获取 ASM 网关地址https://help.aliyun.com/document_detail/444079.html#section-i...作者:尹航点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
39
2023-10-16T16:20:20+08:00
sg
6
政采云基于 Dubbo 的混合云数据跨网实践
01 项目背景政采云的业务是为政府提供的购物网站,类似于淘宝。政府采购会在政采云上做企业采购、政府采购的业务。云岛中的“云”是指我们的云平台,云平台是我们公司自己部署的一套购物网站,技术上对应的是一套微服务框架。而“岛”呢,比如安徽或者山西它们都有自己的局域网,如果我们在它们那里也部署一套这个服务框架,就叫“岛”。我们的云平台主要是给浙江省和其他相关的区划用的。我们的云和岛之间存在数据传输的问题,举个例子,比如我现在收到一个政府的公告,而这个公告可能是全国性的。那么我可能会在云平台的管理平台上去录公告,再把它推送出去,这个时候云和岛之间就存在了一些数据的同步。1.云岛网络对我们云平台来说,这个局域网是我们公司内部完全可控的。比如你要开个端口,很快就能开起来。岛端它可能是局域网或者是私有网络,比如我们之前做了一个浙商银行的项目,它是完全隔离的一个岛。他们的安全策略和开端口的东西都是他们自己定义的,这就是我们云岛的业务结构。2.混合云岛网络上图是大概的数据链路图。云平台下面有分支机构、分公司,它们会对应一套业务的系统。政务云是我刚才说的省级(安徽省)或者市级(无锡市)对应的区块,隔离的政务云。私有部署是银行、国企、军队、政企等典型的混合云的网络架构。3.混合云岛网络的特点我们混合云网络架构的特点包括:平台的一致性。我们部署在公有云、云平台、政务云、私有云上的那一套的代码是一样的。我们把一套代码部署在不同的地方就变成了多个平台。网络连接与能力复用。我们会依赖一些第三方的能力,比如短信,但私有云上它的网络管控比较严,所以和第三方互通端口或者网络的流程就会比较复杂。这个时候我们希望去复用我们云平台的能力,这个时候他们之间又有一些数据的交互。跨域访问迁移。存在跨域互访的场景。统一的平台管理。像我刚才举的例子,如果要发公告,我们希望可以在一个平台上就可以管理起来。而不是浙江发一条,安徽发一条,那样维护的成本也会比较高。4.政企网络痛点很多公司都会和政府打交道,政企网络有以下几个特点:网络复杂。比如银行的网络,它们的安全性和内部的东西很复杂,流程的开通也比较多,需要你要经常去跑,跑完了之后发现有新的问题,又要去跑。安全要求高。比如在开通端口的时候,我们需要去传数据,如果里面的那些序列化的协议不符合它们的规范,它们就会拿掉。这个时候给我们的业务其实是超时的,或者是那种通用的异常。而我们并不知道发生了什么,这就会带来未知的风险。业务驱动运维。我们有了业务才会去部署,才会去做事情。我们就会多次、重复的投入,这就会导致人力、时间成本会比较高,私有部署的时候会更多。5.现有方案基于以上的痛点,我们做了两个方案。第一个方案,基于 Dubbo Filter 的单向方案。这个方案的历史比较久一些,它有两个特点。第一个特点,单向传输。它是从“岛”到“云”只有一个方向,它基于 Dubbo Filter 的原因是,我们公司内部的微服务都是通过 Dubbo 来调用的,所以我们是强依赖的来 Dubbo 的。所以做数据跨网的方案肯定会基于 Dubbo 的特性来做。第二个特点,在本地部署业务的 provider 过滤器是运维上的负担。当岛端需要把数据同步给云端的时候,也就是从岛端的业务 Web 传输到云端的业务 provider。这个时候我必须在岛端也部署一套业务的 provider 才可以。部署它的原因是它要拦截这个请求,然后把这个请求转发给部署在云平台的 Dubbo 网关。但这个时候就会给我们带来负担。如果岛端本来就有数据的入库就还好,因为 provider 本来就存在,但一些业务只是做跨网用的,没有本地的入库,那么这个时候业务部署的 provider 就是多余的了。第二个方案,网状点对点方案。因为岛和岛之间需要网络互通,所以就会单独开通这个点和你需要传输的点之间的端口。开通之后我们就可以调用了,调用的形式可以用 Dubbo,也可以用其他。这个方案有一个很明显的缺陷,线特别多,所以点和点之间开通的复杂度也很高,对后面的扩展可能也非常不利。以上方案存在的问题包括单向传输、白名单开通成本高、平台维护成本高、公共功能的缺失。基于以上的问题,我们做了一个新的方案,叫高速公路。02 为什么叫高速公路为什么叫高速公路呢?因为我们想要达到的效果是:只建一次,可复用比如北京到上海的高速公路,它只要够宽,一条就够了。如果你是从上海到北京或者从杭州到北京,是可以复用的,不用单独再修建一条。隧道机制因为高速公路修建的地方不一定都在平原,可能会在河、海、山等等附近。如果我们在高速公路下面搭建一条隧道,这个时候对于司机来说就是无感的。我们的目的是一样的,如果你觉得政企网络很复杂,那么我们就帮你把它屏蔽掉,这样你也是无感的了。考虑传输性能如果每个业务部门都自己搭建一套传输链路,那么传输性能只要能承载自己的业务就够了,因为不一定要给别人用,或者给别人用了也是小范围的。但如果搭建的是一条可复用的链路,就必须考虑传输的性能了。03 修路实践接下来介绍一下我们在修建高速公路的时候遇到的一些问题以及具体的做法。我们在客户端接入上遇到了以下问题:第一个问题,强依赖 Dubbo。第二个问题,透明传输,不改变使用 Dubbo 的方式。也就是我不需要自己写一些注解代替 Dubbo,或者写一些 API 调用 Dubbo。因为写了之后,一些新人可能并不能理解或者不能习惯,也不知道里面有什么坑。所以我们用原始的 Dubbo 来做可能会对用户更加无感。第三个问题,接入灵活,支持多种形态。虽然我们强依赖 Dubbo 必须支持 Dubbo,但我们也需要支持其他的形式,比如 HTTP。但在接入之前,我们需要考虑接入灵活性的问题。下面我们先介绍一下 Dubbo 的方式。Dubbo 的客观接入主要有以下三种方式:第一种,注解方式。使用 @DubboReference 提供的通用 parameters 参数,设置路由目标,可以达到方法粒度的路由。路由信息写在中间 parameters 那里,parameters 是 Dubbo 给我们提供的通用参数的传递。如果是正常的,我写了这个信息,Dubbo 是不做任何处理的,因为这个东西对它来说没有含义。但因为你引入了高速公路的 SDK,所以在你写了这个东西之后,我们就会去解析,拦截 Dubbo 的请求,把 parameters 里的参数抓起来做一些路由处理,这种形式其实没有改变 Dubbo 的使用方式。第二种,配置中心指定。比如我们用的是阿波罗的配置中心,它完全可以把接入方式替换掉,parameters 的信息在配置中心配置也可以,只要 SDK 可以支持就好。这种方式其实代码是完全无侵入的,就是跟跨网之前和跨网之后没有任何区别。但最后发现我们的业务并不喜欢这种方式,首先因为阿波罗大家不喜欢用,其次不好理解。如果是一个新人看这个代码,他就会认为是在调本地的接口。第三种,线程指定。当你在线程里指定了路由信息,下面再去调用的时候,这次调用就会走你的路由。如果再调用一次,它就会调回本地。因为基于线程的形式,在 Dubbo 的扩展里,它会在调用完成之后把线程信息清理掉。所以需要注意一下,如果你想多次调用,就需要写多次。如果不想写多次,你可以用上面这种方式,你只要注入在当前的 bean 里,都是路由到上海。接下来介绍一下高速公路的架构,刚才介绍点对点的方式,它的缺点是开通白名单比较复杂。现在我们的高速公路架构是一个新型的架构,所以它开通白名单的复杂度会低一点。如上图所示,比如最左边的节点是上海,最上边的节点是安徽,我想从安徽到上海,这个时候中心网关就需要开通一个白名单。开完之后,这条链路就可以直接过去了。可以看到一共就六条线,所以它的复杂度也就下来了。上图是高速公路里最核心的架构图。比如山西集群的 APP1 调 APP2 的时候,我想去调上海 APP2,如果你什么都不做,它默认调的就是山西集群的 APP2。如果你在 APP 调用的时候加了一些路由信息,放在山西集群 APP1 里的 SDK 就会把它的流量切走,切到山西集群的 Dubbo 网关。之后 Dubbo 网关会通过 HTTP 的协议走统一网关,再通过 HTTP 的协议到上海集群的 Dubbo 网关。在这里会把路由信息拿到,包括调用的 Service、方法、版本号、参数等等。然后通过泛化的形式调上海集群的 APP1,最后返回,完成这次跨网的调用。那么为什么要有 Dubbo Proxy 这个角色呢?为什么不直接从 APP1 切到统一网关?少一个步骤不好么?涉及到的原因有以下三点:虽然这个图上只画了一个 APP1,但实际上山西集群里的调用非常多。如果几百个应用都直接到统一网关,网关就需要建立很多的长链接,而统一网关的资源是有限的。因为安全性的问题,可能每次调用都要走一下白名单来保证安全。这个时候如果加了一个 Dubbo Proxy,就可以去收敛 IP。岛内不用和 Dubbo Proxy 交互,因为它们是同一个环境,不用考虑安全的问题。当 Dubbo Proxy 请求到网关之后,因为网关和统一网关之间只有一条链接,所以 IP 是收敛的。还有一个是功能的收敛,当后面要做升级的时候,如果更新 SDK,就需要每个应用都升级,这就需要推动业务做升级,做起来会比较痛苦。所以我们希望把升级功能全放在一个应用里,对业务功能无感,连升级 SDK 都不需要。当然因为 SDK 就做了一件事情,就是切换路由,基本不需要更新。所以对于业务来说,它也解放了。我把它理解成是一个功能上的收益。这个模式叫分布式运行时,在现在也比较流行。我们可以把它理解成 Dapr,把一些比较公共麻烦的操作放到公共的独立进程里,留给业务的 SDK 是很纯粹的。另外,为什么要用 HTTP 协议呢?它也并不是很高效的协议。而 Dubbo 协议中的 Dubbo2 其实也是比较精简的,除了一些协格式全部都是数据。这样的话其实我们后面是可以考虑把 HTTP 升级掉,让它的性能更快一点。现在用 HTTP 协议的原因是,它是一个标准的协议,中间可能会通过很多设备,虽然我们这里只画了一个。HTTP 协议是没有任何障碍的,如果用 Dubbo 协议,还需要一个个打通。为了实现这个架构,Dubbo 本身并不能直接用。因为 Dubbo 没有提供跨网的特性,所以我们需要从 Dubbo 层面解决我们碰到的问题。在动态 IP 切换方面,其实 Dubbo 是支持的,但因为这个特性比较新,所以也会出现一些问题。它的支持程度是部分支持,比如在最开始的时候 Dubbo2 不支持,Dubbo3 支持。此外,还会有一些 bug。在 404 扩展方面,对于 HTTP 来说,你要调一个接口,但这个接口不存在,就会返回给前端一个 404 的报错。比如当我们把流量从 APP1 切到 Dubbo Proxy 的时候,Dubbo Proxy 其实是 Dubbo 的一个应用,它引入了一个 Dubbo 的 jar 包,它是 Dubbo 的一个空应用。这个流量到 Dubbo 的网关后,它不能识别,它的功能是要把它转发出去。这个时候我们就需要加入这个扩展。下面介绍一下隧道的机制。隧道机制的作用是屏蔽网络的复杂性,屏蔽中间的协议转换,给用户一个统一、透明的调用方式。中间的 HTTP 协议里面的 body 带了一个原始的 body。包装之后再把它拆包拆出来,再通过泛化去调。这个时候隧道是可以屏蔽掉这些差异的。另外,隧道机制对 Dubbo 协议的支持力度更高。比如 APP1 和本地的 APP 3,最终调到 APP2 的时候,它看到了二进制流是一样的。因为我并没有去做什么,我只是把它分装起来,最后拆包。中间除了一点路由信息之外其他都一模一样。这个机制的好处是,基本上 Dubbo 的所有特性都能支持。但也有一些个例,比如 token 和网络相关的机制。04 未来规划借用网络分层的架构对高速公路做了一些规划:第一层,物理网络层打通。它其实跟我们关系不大,因为我理解的是开通端口,你开通了那么多事,可以总结一些经验或者方法论去加快这个事情。第二层,通讯协议层加速。中间的 HTTP 协议转发,我们是可以加速的。比如 Tripple 协议也是基于 HTTP2 对网络设备进行了识别,然后把问题解决了。所以我们也可以考虑去调研,在通讯协议层去做优化。第三层,语言层编译加速。GraalVM 之前我们也调研过,而且也真正的去试过。虽然没有落地,但编译加速是可以的。特别是网关层,它的特点是流量大,但是每个流量又特别小,对语言本身的性能要求比较高。如果把它用 Go 来实现,其实也是一个比较好的加速。第四层,框架层功能升级。中间件层我们也做了很多事情。第五层,通用任务调度与编排。调用其实会经过很多节点,比如 a 到 b 到 c 到 d 到 e,随着业务越来越复杂,我们可能会有更多的路由。比如 a 到 c,c 和 d 汇合起来再到 d,未来也将会规划进去。第六层: 定制任务调度与编排。第七层: 监控 & 告警 & 可观测性。第八层: 规范 & 流程 & 安全。最后做一个总结。为什么要做这个项目?之前的方案比较多,成本也比较高。所以我们需要有一个统一的方案,会考虑更多公共的东西,然后把这个方案给推广起来。目前我们已经接入了非常多的应用,它已经成为了公司政务数据跨网的统一方案。我们要达到的效果,项目架构,未来规划刚才都介绍过了,就不再重复了。重点说一下我们的开源与社区的合作。刚才的方案其实是我们公司内部使用的,也对 Dubbo 做了深度的定制。一般我们会选择私有版本进行开发,但因为想要开源,所以在最开始的时候,我们就和 Dubbo 社区沟通,看能不能在开源层实施掉。一方面社区可以帮我们 review 这些特性,做一些安全上的把控。另一方面我们也能把自己做的一些事情,特别是把公共的东西抽出来反馈给社区。作者:王晓彬,政采云资深开发工程师点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
44
2023-10-16T15:23:50+08:00
sg
7
精进云原生 – Dubbo Kubernetes 最佳实践
随着云原生的兴起,越来越多的应用选择基于 Kubernetes 进行部署,相关的 DevOps 等工具也应运而生。而 Dubbo 作为微服务体系的主流解决方案,如何开发面向 Kubernetes 部署和运维的微服务应用是很多开发者与架构师要解决的问题。本文将从开发、部署、监控、运维等多维度视角分析,详细的介绍如何基于 Dubbo 在Kubernetes 体系下构建高效、可靠的微服务应用。上图是今天演讲会使用到的一个 Demo 工程。这个工程参考自 istio 的示例 book info 工程,总共部署四个应用。其中 Product Page 负责页面的属性整合,通过 http 接口对外暴露信息;Reviews、Details、Ratings 分别负责了评价、规则、评分等细分模块信息。01 使用 Dubbo Starter 初始化项目对于很多开发来说,在 Java 体系下创建出新的应用,无外乎就是用 IDE 创建一个新的项目,或者用 maven 的 template,或者基于 Spring 的 Initializer。上图使我们基于 Spring 的 Initializer 建立了我们自己的初始化项目的工程。我们点击最上面的网址就能直接看到这个页面了,你需要输入对应的 group 和 artifact。然后选择你希望用到的组件,比如 Nacos、Prometheus 的组件等等。除此之外,我们在 IDE 里提供了一个 Dubbo 的插件。这个插件可以通过上图的方式进行安装,或者如果你的仓库里已经用到了 Dubbo 的配置,它会提示你可以直接安装。安装完成后在右边就会有一个对应的初始化的项目了。上图是一个示例,它在这里建立了一个 Dubbo 的项目,然后你需要在这里选中所需要的组件信息,最后点击创建,之后它就会帮你在本地直接创建出一个全新的项目,然后你就可以在这个模版上开发了。02 开发微服务之协议选型初始化完应用以后,下一步就是开发服务,这里我们选取一个和 Dubbo 关系较为密切的环节——协议选型展开进行讲解。Dubbo 的 Triple 协议期望设计成一个易于浏览器访问,且完全支持 gRPC 的协议。这就意味着,这样的一个协议可以实现从端上到后端集群之间的协议统一。下面来看一下我们的项目,这是刚才建立的一个项目,我现在把应用启动起来,配置一些注册中心的地址,这就是一个标准的 Spring 的启动的流程。这里定义了一个接口,这个接口返回了一个 “hello” 的内容信息。然后我用一个简单的命令,就可以直接返回我的 hello world 的结果了。这样对我们本身的测试来说有很大的帮助,也就是本地启动之后,就可以直接测试接口。03 基于 Kubernetes 快速初始化环境对于微服务应用,如果需要在一个新的环境下部署,则必须前置部署包括但不限于注册中心、配置中心、可观测等组件。不管是从组件的数量上,还是单一组件的部署复杂度上来说,这都是一件耗时耗力的事情。为了改变这一现状,Dubbo 提供了一个快速拉起环境的工具,仅需 dubboctl manifest install 一键就可以在 Kubernetes 环境中部署起前面所说道的若干个组件,极大的降低整体部署的难度。这里有一个简单的例子,环境拉起来之后,它会把所有的组件都会帮你拉起来。这里埋一个点,这里的 Prometheus 我们后面还会继续使用。整个 Nacos 的地址,ZooKeeper 的地址都会直接提供给你。这也是一个的例子。执行一个简单的命令,然后本地会把 Kubernetes 的配置都准备好,它就会自动的帮你把组件都创建起来。也就是我们一键就可以获取到所有 service 的部署。04 快速部署应用到 Kubernetes 集群中为了将应用正确地部署在 Kubernetes 中,主要有三个步骤需要完成,分别是应用容器化、无状态部署和生命周期对齐。首先是应用容器化,顾名思义需要将应用运行在容器中。为了实现容器化,通常我们需要准备一个 Dockerfile,然后通过一系列的脚本进行打包。但是其实我们可以把这一切通过一个 Maven 的插件来完成,今天要给大家介绍的是一个基于 Maven 的自动化构建插件,通过简单的几行配置就可以自动在 Maven 打包的过程中将编译结果打包进容器中,实现快速构建。可以看到,我只需要把我的 pom 里添加一个对应的配置项依赖,通过一键 maven 的编译模式,它就可以在 maven 打包的过程中帮你构建完镜像,然后直接推送到远端仓库。这一切都只需要这一个命令就可以完成,而且一次性配置之后,未来你所有的镜像更新都可以自动化的去做,不需要再去写繁琐的 dockerfile。在应用实现容器化以后,下一步通过 Kubernetes 的资源配置将镜像运行在 Kubernetes 容器中,右边这个模板是 Kubernetes 中一个非常简单的无状态 Deployment 部署的模版。这是一个简单的例子,把 deployment 配置完之后,指定了刚才的镜像。同时我声明了一个 service,这个 service 非常重要,它后面会作为 frontend 应用入口的配置,但它是一个 Ingress 网关。可以看到 apply 镜像之后,我们就可以在 K8s 体系上把这个环境 run 起来了。这里做一个简单的测试,我引入一个 curl 的容器,同样我们可以用刚才 curl 的命令访问我新部署好的容器节点,可以看到它返回了 hello world 的数据信息。综上,我们通过 deployment 的部署,可以在 K8s 上把容器 run 起来,同时它还可以对外提供服务,对外提供的服务我可以通过下面 curl 的命令进行调用。最后是将应用部署到 Kubernetes 集群中以后,由于 Kubernetes 是基于 POD 的生命周期进行调度的,在执行分批轮转的过程中会基于 POD 的健康状态进行调度,如果没有配置对应的健康状态,会导致实际上前一批应用还没启动成功就把后一批的应用给发布了的情况。而为了解决这个问题,Dubbo 提供了几个 QoS 命令可以供 Kubernetes 调用查询应用状态。上图是一个例子。在整个应用启动的时候,这里 sleep 了 20 秒,然后配置了对应的 probe 信息。我们简单推测一下,我在前面设置了等待 20 秒,那么我的应用肯定要超过 20 秒才能起来。因为修改了代码,所以这里需要重新编译一下,用一键 maven 的编译模式直接推上去。接下来要把 deployment apply 进去,进去之后 Pod 的状态全都是 not ready 的,都是零的状态。因为前面 sleep 了 20 秒的时候,Dubbo 还没启动完,所以都是 not ready 的状态。我们等 sleep 的阶段过了,它就会变成 ready 的状态,然后再进行分批这就是生命周期对齐的过程。所以 Kubernetes 知道应用什么时候启动成功了,什么时候启动失败了,才能进行更好的调度。05 云原生微服务可观测最佳实践可观测体系整体来说分为 Metrics、Tracing 和 Loggin 几个模块。首先对于 Metrics 我们主要关心几个核心指标,比如延迟、流量、异常情况等等。对应到 Dubbo 的有包括 QPS、RT 等等的指标。为了更好地观测这些指标,Dubbo 最新版本默认集成了 Metrics 收集能力,如果你部署的集群中已经有了 Prometheus,仅需要简单的配置几个参数,即可实现 Metrics 的自动采集。上面是一个演示的例子。我们在前面的 deployment 的例子上加上 Metrics 的采集信息,然后把它 apply 进去之后,我们就可以用整个 Grafana 导出过来。跑了一段时间之后,就会有对应的流量信息,比如 QPS 信息、RT 信息、成功率等等。得到这些指标后,我们还可以做一个告警。比如 QPS 从 100 突然跌到了 0,或者成功率突然跌了很多,这种情况我们需要做一个警示,让大家知道当前发生的问题。我们可以基于 Prometheus 采集,做一个主动的推送,这就是告警的过程。除了 Metrics 之外,Tracing 也是一个很重要的可观测组成部分。目前业界主流为了实现 Tracing 能力有两种解决方案,一种是通过 SDK 依赖的方式引入 Tracing 相关组件,静态化部署;另外一种是通过 Agent 的模式自动注入到代码中动态部署。大家可以看到,在这里你只需要依赖 dependency 里面加上 Dubbo 的 starter,配置项里把 Tracing 能力打开,开启一个指标的上报,9411 是我们 Zipkin 的一个后端。这也是一个例子,我只需要配置这些配置,它的数据就会报到 Zipkin 上去,这里的 dependency 直接加上。同样的,用刚才的命令进行打包,把镜像推送上去,然后我们等待一下。推送的过程中可以看一下 Zipkin 这个组件,它也是在最前面我们在 K8s 初始化环境的时候一起拉起的,所以这一切你只需要在前面一次性部署的时候就可以拥有了。然后我们简单的执行一个 curl 命令,因为我需要让我的环境有流量。部署完之后,用 curl 命令还是执行一下我们的获取,这个其实已经把后端开发完了,它返回了真实的结果。接下来我们去 Zipkin 上看看能不能找到这条 Tracing。首先把 9411 映射过来,我们可以看到 curry 一下,这里就会有对应的指标信息。整个全链路的调用信息这里都可以看到,这就是全链路的接入的流程。相当于你只需要把前面的 dependency 加上,把上报的配置加上,之后的一切我都会帮你在后面完成以及上报。你看到对应的结果,就可以知道全链路上发生了什么事情。除此之外也可以基于 Agent 的模式进行部署,这个示例是基于 Skywaling 的配置默认。通过修改 deployment 的配置,可以实现自动挂在 javaagent 到应用中。对于整个可观测来说,我们可以通过 Metrics 看到 QPS、RT 等信息,通过 Tracing 看到全链路的访问信息。这里提供给我们一个很好的方案,就是我们要先去做服务的观测,基于服务的观测更好的排查整体的问题,第一时间知道应用挂没挂。比如半夜两点,它的可用率跌到零了。这个时候可以通过一系列的自动化机制告诉你应用出了问题,快速的进行恢复。这里的快速恢复可以使用回滚,将流量隔离的方案他都可以快速的执行。基于这样快速的从观测到排查,再到快速恢复的链条,可以构建整个生产环境下的安全稳定的体系。所以我们观测完之后的目标就是保证整个应用的稳定。06 在 Kubernetes 中管理微服务应用K8s 给我们带来的收益包括快速扩缩容,即我可以很快的基于 K8s 从一个 Pod 变成多个 Pod。因为 K8s 是基于整个 Image 的部署的流程,当镜像打包出来后,你的环境就是固定的,只需要去横向的扩容即可。横向的快速扩容也会涉及到几个瓶颈的点,如果我需要让我的应用能够快速扩容,比如我的应用提起来就要几十分钟,这种情况即使快速扩容了,等扩容完之后你的业务峰值也过去了,这里就会引入到 Native Image。基于 Native Image,我们可以很好的实现整个 Serverless 的横向的扩容。如果可以实现毫秒级的启动,我可以在流量来的波峰,直接让我的 Pod 横向扩容好几倍,当它的流量下去的时候就直接下掉,这样就实现了成本的压缩。另外还有一个问题是怎么知道什么时候要扩容?这就需要基于 Metrics 的观测,基于一些历史数据的分析,知道在某个时间点会有多少的流量,然后提前扩容,或者做一个自动化的扩容。这里我举一个简单的例子,比如我的 rating 上出了一些问题,我需要把它的故障摘除掉,返回一个 Mock 的结果。这个时候你只需要在上面去配置一个上图的规则,它就会返回。这就是 Admin 的使用流程,这里就不再展开了,还有刚刚提到的我们在做 Go 版本的重构能力,后面也都会有更好的建设。除此之外,基于 istio 的 Service Mesh 治理,我们前面协议选型的时候选了 Triple 协议,它完全是 based on HTTP 标准的。因此我们使用 istio 的整个体系之后,你只需要挂上 sidecar 它就会帮你去做流量治理。这一切的前提是你的协议一定是 istio 可见的。比如你原来用是 Dubbo 2 的 Dubbo 的协议,它是一个私有的 tcp 协议,对于 istio 来说它很难分辨你的协议内容。如果你用了 Triple 协议,我们可以基于 HTTP 标准,你就可以知道你的 header 里有什么东西,可以去做一个流量的转发。所以它完全拥抱 Mesh 的体系,可以支持我们所有 istio 的治理能力。本文通过 Bookinfo 示例,介绍了如何基于新版 Starter 快速初始化一个项目、通过一系列云原生工具实现应用快速部署、使用 Dubbo 原生可观测能力进行线上诊断分析等,实现了从项目初始化到线上部署的全流程覆盖,为期望在 Kubernetes 下开发微服务的用户提供了可以复制且大规模部署的样板。作者:江河清,阿里云研发工程师、Apache Dubbo PMC点击立即免费试用云产品 开启云上实践之旅!原文链接本文为阿里云原创内容,未经允许不得转载。
49
2023-10-16T14:30:48+08:00
sg
0
【京东开源项目】微前端框架MicroApp 1.0正式发布
介绍MicroApp是由京东前端团队推出的一款微前端框架,它从组件化的思维,基于类WebComponent进行微前端的渲染,旨在降低上手难度、提升工作效率。MicroApp无关技术栈,也不和业务绑定,可以用于任何前端框架。源码地址: https://github.com/micro-zoe/micro-app官网地址: https://micro-zoe.github.io/micro-app微前端是一种页面整合方案,它的核心在于将一个庞大的前端应用拆分成多个独立灵活的小型应用,每个应用都可以独立开发、独立运行、独立部署,再将这些小型应用融合为一个完整的应用,或者将原本运行已久、没有关联的几个应用融合为一个应用。微前端既可以将多个项目融合为一,又可以减少项目之间的耦合,提升项目扩展性,相比一整块的前端仓库,微前端架构下的前端仓库倾向于更小更灵活。升级亮点距离MicroApp开源已经有一年多时间,在这段时间里我们收到了很多问题反馈,包括沙箱的性能、vite的兼容、路由冲突等等,为了解决这些问题我们将很多核心功能进行升级和重构,经过不断的打磨和验证,最终推出MicroApp1.0正式版。正式版的升级主要在以下几个方面:更简洁的接入方式沙箱的性能虚拟路由系统样式隔离兼容vite开发工具一行代码嵌入MicroApp借鉴了WebComponent的思想,通过CustomElement结合自定义的ShadowDom,将微前端封装成一个类WebComponent组件,实现微前端的组件化渲染。在此基础上,通过实现JS隔离、样式隔离、路由隔离,降低子应用的接入成本,子应用只需设置允许跨域请求,不需要改动任何代码即可接入微前端,使用方式和iframe几乎一致,但却没有iframe存在的问题。接入方式如下:JS沙箱的困境在MicroApp开源后我们收到社区的一些反馈,其中一条关于性能的问题引起我们的重视。这不是MicroApp才存在的问题,而是微前端长久以来的难题,在社区有大量关于沙箱性能问题的讨论,却始终没有完美的解决方案。MicroApp采用的是和qiankun一样的proxy+with的沙箱方案,这也是目前js沙箱的主流方案 。with沙箱的功能非常完善,但是性能损耗却非常明显,在社区中也不乏对with沙箱性能问题的讨论,但一直没有特别完美的解决方案,这是由于with改变了js的作用域链,从而产生大量的重复请求。问题的根源是with,但又不全是with的问题,准确的说是with和proxy两者叠加造成的,with和proxy本质上的性能都不高,需要一种方案避免对这两个方法的频繁读取操作,MicroApp采用的解决方案是变量前置和异步防抖。• 变量前置:是指使用Object.defineProperty定义全局变量,通过get和set设置响应数据,一是为了避免在proxy的get中进行多余的操作,二是defineProperty的性能比proxy更优秀 。• 异步防抖:是指在子应用运行时对promise进行标记,确保在上一个promise执行完成之后才会进入下一个,避免并行触发,防止promise被频繁触发会造成性能损失。在此基础上,MicroApp沙箱还提供了快照、缓存、预加载等功能,在保证功能不变的前提下,彻底解决沙箱的性能问题,升级后的沙箱运行效率媲美原生JS。虚拟路由系统微前端是将多个不同的web应用融合在一起渲染,但浏览器只有一个路由系统,这很容易造成应用之间的路由冲突,最常见的就是vue3的路由冲突问题。上面是vue-router作者对于在微前端环境下的冲突问题的回答,他认为vue-router已经覆盖足够多场景,微前端的问题应该由微前端解决。在我们刚开源时,并没有对路由进行隔离,用户对于MicroApp的问题几乎一半都和路由相关,因为一个路由系统同时满足多个应用的渲染容易导致冲突,也非常反直觉和难以理解,于是我们推出了虚拟路由系统。概念图:虚拟路由系统与浏览器的路由行为一致,它通过自定义location和history等核心路由API,重写了popState和hashChange事件,拦截路由导航和事件,并提供了一系列自定义API,模拟了在浏览器环境下的Web应用程序的渲染、跳转和返回等路由行为。子应用程序在这个虚拟路由系统中运行,与基座应用程序的路由相互隔离,从而避免相互影响,并增强了子应用程序与基座应用程序之间的交互能力。通过虚拟路由系统,基座应用程序可以方便地获取子应用程序的路由信息并控制子应用程序的跳转,子应用程序的路由信息会作为参数同步到浏览器地址上。此外,虚拟路由系统还提供了许多功能,帮助开发人员提高工作效率。样式隔离方案升级MicroApp最初是基于style元素的CSSStyleSheet实现的样式隔离:即将CSS字符串插入style元素生成CSSStyleSheet,遍历每个CSS规则,添加前缀实现样式隔离。这种一种取巧的方式,利用浏览器自身的能力格式化CSS,并在此基础上进行修改,省去很多工作量。但问题也出现在这里,不同浏览器对于相同的CSS生成的CSSStyleSheet可能会不同,这就导致我们在处理CSSStyleSheet会遇到不可以预知的问题,导致CSS表现不一致。于是MicroApp换了一种方式来实现样式隔离,我们使用正则将CSS字符串切割成最小单元,每个单元包含一段CSS信息,将所有的信息整理生成CSSTree,遍历CSSTree的每个规则,添加前缀实现样式隔离。新的方案不但抹平了不同平台间的差异,在性能上相较于旧版普遍提升30%以上,并且拥有更加灵活的配置:/* 对指定的选择器禁用样式隔离 * /*! scopecss-disable .test1, .test2 */ .test1 { color: red; } .test2 { color: yellow; } .test3 { /* 在某一行中禁用样式隔离 */ /*! scopecss-disable-next-line */ background: url(/test.png); }vite的兼容在之前的版本中,MicroApp也支持vite的接入,但必须关闭沙箱,因为vite打包出来的是esm类型的js文件,而esm无法运行在with环境中,但这样容易导致基座和子应用之间的冲突,显然是需要进一步优化的。为此我们为vite(更准确的说是为esm类型的项目)开发了一套iframe沙箱方案,将esm类型的js文件放入iframe中运行,并通过重写子应用底层原型链的方式,实现对js和元素的拦截和处理。iframe沙箱和with沙箱的实现方式不同,功能也略有不同,with沙箱拥有更加灵活的操作,而iframe沙箱拥有更加严格的隔离环境,两者各有优劣。用户可以在两种沙箱之间灵活切换,以满足更多特殊场景的覆盖和兼容。Micro-App-DevToolsMicro-App-DevTools 是基于 MicroApp 推出的一款Chrome浏览器插件,目的是为了在开发和使用 MicroApp 过程中提高效率。通过此插件可以有效的解决调试困难、模拟数据通信、查看视窗范围、设置路由、获取环境变量等诉求,进而更好地帮助用户去了解和使用 MicroApp。方案详解Micro-App-DevTools通过模拟子应用开发环境,获取父应用数据,来可视化查看通讯数据,提高开发调试效率。对于路由,将会显示所有应用的路由,包含层层嵌套应用以及一个父应用多个子应用的路由,使不同团队应用也能快速定位自己问题,方便协作。还提供了全局变量和高亮视窗功能,实现快速定位范围,提高排查效率的功能,并集结了图标、右键、控制台的快捷进入方式,使用户快速上手,零成本使用。总结MicroApp 1.0已经发布,我们将积极回应开发者的问题和反馈,并持续改进,以帮助更多开发者提高效率和改善开发体验。欢迎大家使用MicroApp并参与共建,也希望在GitHub上给我们点个Star来支持我们~MicroApp Github地址:https://github.com/micro-zoe/micro-appMicro-App-DevTools Github地址:https://github.com/micro-zoe/micro-app-chrome-pluginMicroApp官网地址:https://micro-zoe.github.io/micro-app作者:京东零售 马国华来源:京东云开发者社区 转载请注明来源
123
2023-10-16T11:54:39+08:00
sg
0
2023 开发者关系从业人员现状调研来了!
伴随着信息技术的高速发展,以开发者为核心用户/客户的企业正在飞速成长,同时,布道师、社区经理、开发者市场经理、技术内容等一系列围绕开发者关系的职位也在日益兴起。这里是 SegmentFault 思否研究院,我们将就 2023 年中国开发者关系行业现状展开调研,帮助相关从业人员更好地明确工作内容及目标,并获得职业提升,也为正在或已经组建相关部门的企业管理者提供参考。今年,我们得到了华为对本次调研的大力支持和冠名赞助,我们将在往年的基础上对报告内容进行全面升级,在数据分析中加入更多相关性分析,引用更多「行业专家观点」,并加入开发者关系案例集的选编。该报告将于 2023 年 12 月在社区中发布,您可以点击此处查看往期调查报告。注:此处「开发者」为广义的开发人员,既包含一线工程师,也包含技术总监、CTO 等 ITPro 人群。此处「开发者关系从业者」是指,您的工作目标为(或包含)面向广义开发者人群的产品市场、品牌传播、技术布道的相关人员,既可以是传统 IT B2B 企业的市场营销及运营人员,也包含技术布道师、文档工程师、开发者关系、生态运营等岗位的人员。如果您是我们调研的目标人群,请立即 点击此处 参与调研或扫描下图二维码开始参与我们的调研吧!我们将一如既往保证报告的中立性,并对您的信息完全保密,保证不用于任何调研外的其他用途,不透露给我们的任何合作伙伴或赞助商。媒体 / 社区合作联系:pr@sifou.com企业合作联系:bd@sifou.com
37
2023-10-18T12:52:13+08:00
sg
1
「2023年大模型应用于软件研发」国内现状调查正式开启!
调查背景大模型正在成为人工智能的新范式,也助推了AIGC的新一波浪潮,由此掀起了软件研发领域的全新革命。大模型不仅可以提供更强大的计算能力,还能够处理更复杂的任务,为软件研发带来了巨大的潜力和机遇。然而,目前国内对于大模型在软件研发中的应用现状尚未有系统性的了解和总结。为了推动我国软件研发领域的发展,作为软件研发行业的重要参与者——AiDD峰会组委会,联合软件质量报道、测试窝、异步社区、思否、稀土掘金等多个社区、组织发起「2023年大模型应用于软件研发」国内现状调查。通过这次调查,旨在全面了解我国软件研发领域对于大模型的应用情况,探索大模型在软件研发中的优势和挑战,为进一步推动大模型技术的发展提供有力的支持和指导。“AI+软件研发数字峰会(AiDD)” 主办方为AiDD组委会,由K+峰会组委会和人工智能(AI)精英社区联合组建。峰会旨在帮助更多企业借助AI技术,使计算机能够更深入地认知现实世界,推动软件研发全面进入数字化时代。在这里,诚挚地邀请您参与「2023年大模型应用于软件研发」国内现状调查。您的参与将对推动我国软件研发领域的发展产生积极的影响,也将为您和您所在企事业单位带来更多的机遇和发展空间。填报条件1.填报主体填报主体包括但不限于互联网、金融、通信、消费电子、制造业、教育业等各个行业的企事业单位中,从事软件研发相关工作的从业者。我们希望能够听到您宝贵的意见和经验。通过您的参与,我们可以更加准确地了解我国软件研发领域对于大模型的需求和应用场景,为相关行业提供更加精准的解决方案。2.隐私保障为了保证调查的客观性和有效性,我们将采用匿名方式进行,以确保您的个人信息和企事业单位的机密信息得到有效保护。我们将通过在线问卷的形式收集您的意见和建议,您只需花费几分钟的时间填写问卷,就能为我国软件研发领域的发展贡献一份力量。3.调查时间2023年10月13日-11月12日调查报告结果将于2023年11月24-25日,AiDD峰会深圳站首发展示4.填报通道调查结束后,我们将随机抽取三名幸运儿,每人获得价值6800元的AiDD峰会深圳站门票一张。再次感谢您的支持和参与!让我们携手共进,共同推动我国软件研发领域的创新发展!AI+软件研发行业数字峰会(AiDD峰会)即将于11月24-25日深圳举办。本届峰会共设15+分论坛,60+最新AI案例,与1000+行业精英共话AI新篇章。
28
2023-10-17T14:53:07+08:00
sg
2
报名开始!Prompt Engineering Conf 首次在中国举办!
2023年的大语言模型是一次激进的尝试,随着其不断变革与发展,该领域的影响力逐渐扩大。面对这个其日新月异、快速发展的领域,我们不禁深思,什么才是落地的关键?虽然当前一代的大语言模型还无法展现出某些能力,我们也不应该轻言“它不行”。相反,我们应该建立起应用实践的桥梁,将创新落到实处。在这里软积木携行业伙伴发起了中国场的Prompt Engineering Conference。Prompt Engineering Conference是在大语言模型浪潮背景下由全球顶尖AI开发者发起的公益活动,旨在以Prompt为核心,向广大AIGC从业者提供一个前沿应用的交流平台,该活动也是首次在中国举办。大会将聚焦于“赋能企业,智慧未来”这一主题,发掘广大开发者、技术从业者、AI爱好者等人的想象力与创新精神,通过丰富的提示词技巧和进阶法则赋能企业,领跑未来。报名详情时间:2023年10月21日 (星期六)14:00-18:00地点:中国•北京 微软大厦 1号楼 故宫厅主题:Prompt Engineering Conf(中国)联系电话:18911273699欲报从速!100张免费票已报满,目前还有少量早鸟票!活动议程注意事项1.报名请您务必填写与身份证一致的姓名,否则会有不能进入会场的风险。2.报名时,请您协调好时间,一经报名请一定准时参会,如行程有临变动,请于活动开始前24小时取消。报名未参会者可能会影响下次活动的报名。3.活动当日,请您务必携带身份证。4.由于活动场地管理严格,请保证您仅在微软大厦一层的公共大厅及会议室(故宫厅)到卫生间的范围内活动。5.本次活动方可能在活动宣传中使用参会者肖像,您愿意授权活动方将包含肖像的活动图片、视频素材在相关平台或媒体中发布和传播。明星嘉宾合作伙伴
3,956
2023-10-17T14:26:35+08:00
sg
0
小技巧 | 渐变消失遮罩的多种实现方式
在知乎看到一题比较有意思的题目。题目大致是如何实现下述图片的效果,如果使用 div 前置遮挡的话,会影响 div 后面的按钮,使其无法被点击。本文将简单介绍几种这个效果的实现方案。渐变配合 pointer-event第一种方式,比较容易想到。使用渐变配合 pointer-event 实现。简单模拟一下场景,假设我们有如下一个 ul 列表,超出可以滚动:<div class="g-container"> <ul> <li>Button</li> <li>Button</li> <li>Button</li> <li>Button</li> <li>Button</li> <li>Button</li> </ul> </div>ul { width: 300px; display: flex; flex-wrap: nowrap; border: 1px solid #999; padding: 5px; overflow-x: scroll; }像是这样:首先,我们需要实现右侧的渐变消失的遮罩效果,这个最常见的,就是通过叠加一个从透明到白色的渐变层实现。这个简单,我们借助元素的伪元素,绝对定位到右侧即可:.g-container { ... &::before { content: ""; position: absolute; right: 0; bottom: 0; top: 0; width: 100px; background: linear-gradient(90deg, transparent, #fff); } }效果如下:这样遮罩就解决了,唯一的问题在于,叠加的这一层,确实遮挡住了其下方的按钮点击:这个其实也好解决,只需要给叠加的这一层,添加一个 pointer-event: none 即可。pointer-event:CSS 属性指定在什么情况下 (如果有) 某个特定的图形元素可以成为鼠标事件的 target。当值为 none 时,元素永远不会成为鼠标事件的 target,也就是我们常说的,实现了鼠标点击穿透。代码如下:.g-container { ... &::before { content: ""; position: absolute; right: 0; bottom: 0; top: 0; width: 100px; background: linear-gradient(90deg, transparent, #fff); pointer-event: none; } }如此一来,就能完美实现此效果,有遮罩,且遮罩不会遮挡住下方内容:完整的代码你可以戳这里:CodePen Demo -- Linear Gradient Mask & Pointer-event使用 mask 实现更完美的遮罩但是,上述方法不是最完美的。假设我们的背景,不是纯色,而是渐变色的话,效果会是这样:我们希望,内容是真的逐渐消失,而不是通过遮罩遮挡住。所以,我们期待的结果,应该是这样:即便是渐变背景,内容仍然可以逐渐消失。为了解决解决这个问题,CSS 有一个专门的属性来处理这个问题,也就是 -- mask。mask:属性允许使用者通过遮罩或者裁切特定区域的图片的方式来隐藏一个元素的部分或者全部可见区域。使用 mask 后,代码非常简单,也不需要 pointer-event:<ul> <li>Button</li> <li>Button</li> <li>Button</li> <li>Button</li> <li>Button</li> <li>Button</li> </ul>ul { width: 300px; display: flex; flex-wrap: nowrap; overflow-x: scroll; mask: linear-gradient(90deg, #000 70%, transparent); }由于不存在遮挡物,也就不再需要 pointer-event 了,所有内容都是可以直接点击的:完整的代码你可以戳这里:CodePen Demo -- Linear Gradient Mask如果你是第一次接触 mask,这里有关于 mask 的一些基础知识及进阶用法,也许你会有兴趣:奇妙的 CSS MASK使用 mask 实现视频弹幕人物遮罩过滤小技巧 | 一行代码实现头像与国旗的融合最后本文到此结束,希望对你有帮助 :)更多精彩 CSS 技术文章汇总在我的 Github -- iCSS ,持续更新,欢迎点个 star 订阅收藏。如果还有什么疑问或者建议,可以多多交流,原创文章,文笔有限,才疏学浅,文中若有不正之处,万望告知。
93
2023-10-17T10:29:44+08:00
sg
0
CSS魔法!如何将任意CSS类型转换为数值?
欢迎关注我的公众号前端侦探本技巧参考自:https://dev.to/janeori/css-type-casting-to-numeric-tanatan2-scalars-582j在 CSS 中有各式各样的类型值,例如 1rem、10vw、100cqw等等,这些相对值给与了 CSS 强大的适应能力。但有时候,我们还需要知道这些相对值所对应的真实值,也就是px值,比如在移动端,我们经常会设置这样的根字号::root{ font-size: max(12px, min( 12px + (100vw - 320px) / 55 * 4, 20px )); } p{ font-size: 2rem; }那么,p此时的真实px值应该是多少呢?在以往,我们只能通过 JS去获取,但是现在,仅仅凭 CSS也能做到,一起了解一下吧一、CSS 三角函数从理论上来讲,将一个长度除以1px就应该得到具体的数值,相当于将这个长度以1px被分成了多少份2rem / 1px但是,大家可能都知道,calc在进行除法运算时,除数是不能带单位的calc(2rem / 1px) /*不合法*/不排除浏览器以后会支持不过现在终于迎来了转机,在 Chrome 111中,CSS 新增了一系列三角函数sin()'):正弦cos()'):余弦tan()'):正切asin()'):反正弦acos()'):反余弦atan()'):反正切atan2()'):反正切这里我们不聊三角函数的作用,只是作为一个桥梁中转一下关于正切函数,这里简单回顾一下高中数学在直角三角形中,其中一个锐角的对边和临边的比值就是这个角的正切值,反正切就是通过两条直角边反向去求出该角的弧度值,示意如下:这些函数本身没什么特别的,业界通用,但有一个非常例外,那就是atan2,它和atan作用是一样的,都是反正切函数。唯一的区别是,atan2支持两个值前端中的 atan 就是数学中的 arctanatan2(y, x)例如:transform: rotate(atan2(3, 2)); /*等同于*/ transform: rotate(atan(1.5));看似好像没啥意义,直接用tan不就好了?🤔transform: rotate(atan2(3/2));和JS不同的是,CSS 中还能支持单位,如下transform: rotate(atan2(1rem, 20px)); /*等同于?*/这就不得了了,如果此时的1rem是16px,那么浏览器会根据1rem的真实长度和20px做对比,相当于让两个带单位的长度做除法运算/*等同于*/ transform: rotate(atan(.8)); /* 16px / 20px */ 也就是说,y/x的值可以得到两个CSS长度之间的真实比值,而无需额外转换。然后,通过正切函数tan将括号里面的值解析出来tan(atan2(1rem, 20px)) /*.8*/这一点其实在 JS 中也可以验证一下,只是 CSS 可以带单位的值如果将后面的值设置为1px,就相当于把任意长度按照1px进行切分,也就得到了任意长度的px数值,如下tan(atan2(1rem, 1px)) /*16*/有了这个不带单位的绝对值,我们就可以做很多事情了,下面举几个例子二、CSS 获取当前字号回到文章开头的问题,如何通过 CSS 获取当前字号呢?根据上一节的原理,只要通过tan() 和 atan2()就可以将任意长度转换为数值了:root{ font-size: max(12px, min( 12px + (100vw - 320px) / 55 * 4, 20px )); } body{ --px-font: tan(atan2(1rem, 1px)); }这样--px-font就得到了真实的px数值。然后,我们还可以借助 CSS计数器,将这个数字渲染到页面关于这个技巧,可以参考之前的这篇文章:如何让CSS计数器支持小数的动态变化body::after{ counter-reset: font var(--px-font); content: "当前根字号:" counter(font); }结果...效果如下好像不太对?貌似是浏览器的 bug,这种情况下忽略了tan(atan2(1rem, 1px))中的1rem单位。要修复这个问题其实很容易,需要通过@property定义一个CSS变量,类型为长度,然后将需要计算的值赋给这个变量,如下@property --font { syntax: "<length>"; initial-value: 1px; inherits: false; } :root{ font-size: max(12px, min( 12px + (100vw - 320px) / 55 * 4, 20px )); } body::after{ --font: 1rem; /*定义好的CSS变量*/ --px-font: tan(atan2(var(--font), 1px)); counter-reset: font var(--px-font); content: "当前根字号:" counter(font); }这样就正常了,在改变屏幕尺寸时会自动渲染出当前字号你也可以访问在线链接CSS font-size (codepen.io)')三、实时显示容器尺寸CSS容器查询中出现了几个新的尺寸单位。这里只介绍下面两种关于容器查询,可以参考这篇文章:介绍2022最期待且已正式支持的CSS container容器查询 « 张鑫旭-鑫空间-鑫生活 (zhangxinxu.com),本文并不涉及具体容器查询语句cqw 容器查询宽度(Container Query Width)占比。1cqw等于容器宽度的1%。假设容器宽度是1000px,则此时1cqw对应的计算值就是10px。cqh 容器查询高度(Container Query Height)占比。1cqh等于容器高度的1%。利用前面的技巧,可以将cqw、cqh这些单位转换为具体的px值。假设有这样一个容器.box{ display: grid; place-content: center; width: 200px; height: 200px; background-color: #fff; }为了使容器尺寸生效,必须声明容器类型.box{ /**/ container-type: size; }然后用同样的技巧,在伪元素中通过计数器将宽高渲染出来.box::before{ --w: 100cqw; --h: 100cqh; --px-width: tan(atan2(var(--w), 1px)); --px-height: tan(atan2(var(--h), 1px)); counter-reset: w var(--px-width) h var(--px-height); content: counter(w) " x " counter(h); }别忘了修复 bug@property --w { syntax: "<length>"; initial-value: 100px; inherits: false; } @property --h { syntax: "<length>"; initial-value: 100px; inherits: false; }效果如下,完全没有任何 JS你也可以访问在线链接CSS resize (codepen.io)')四、自适应文本的头像下面看一个自适应文本的头像,当文本较多时,会自动缩放,让文本可以完整展示,如下之前在这篇文章中有详细介绍:CSS 实现自适应文本的头像,有兴趣的可以回顾一下。原理其实是通过容器尺寸的映射关系来动态设置文本大小,关键实现如下.avator-container span { font-size: calc( 24px - 10cqw ); }但是,通过文字大小来缩放有一个限制,在PC上,一般会有最小字号限制(通常是12号),所以更好的方式应该是通过scale来实现。现在,我们可以通过上面的技巧,将容器尺寸转换成scale能够识别的数值,通过文本宽度和容器尺寸的比值来确实缩放比例,关键实现如下.avator-container span { --w: 100cqw; --scale: tan(atan2(30px, var(--w))); transform: scale(var(--scale)); }这样就得到了完全自适应尺寸的文本头像了完整代码可以访问在线链接CSS avator auto scale (codepen.io)')五、总结一下以上就是本文的全部内容了,介绍了一个非常巧妙并且有用的 CSS 小技巧,下面总结一下CSS 有很多类型的尺寸,这些尺寸给与了 CSS 强大的适应能力从理论上讲,将一个长度除以 1px 就可以得到具体的数值,但是calc不支持CSS 反正切函数 atan2(y,x) 支持两个参数,并且还支持带CSS单位通过 tan(atan2(y,x))可以得到y/x的比值,如果x是1px,可以得到y的实际px值利用这个技巧,可以将任意类型值转换为数值纯数值可以在各个地方都可以使用了,比如scale(var(--n)),如果需要 px,直接calc(var(--n) * 1px )最后,如果觉得还不错,对你有帮助的话,欢迎点赞、收藏、转发❤❤❤欢迎关注我的公众号前端侦探
116
2023-10-16T10:04:09+08:00
sg
1
精读《VisActor 数据可视化工具》
最近数据可视化领域开源了一套 VisActor 方案,虽然刚开源没多久,但产品矩阵已经颇有特色,我们可以从中学习一下数据可视化领域是如何设计顶层架构的,以及对未来 3-5 年可视化领域的发展规划。目前 VisActor 开源出来的库有如下几个:绘图引擎 VRender图形语法 VGrammar图表库 VChart表格 VTable其中 VChart 与 VTable 就是我们业务上常用的图表与表格库,而 VGrammar 是更底层的图形语法库,使用一套通用的结构描述任意图形,而最底层的 VRender 则是与浏览器绘图 API 的桥阶层,是一套绘图 API 抽象。其实除了这些已经开源的仓库外,还有很多更前沿的产品矩阵在筹备开源中,完整的产品矩阵如下图:<img width=400 src="https://user-images.githubusercontent.com/7970947/275316625-4d7aeb6b-a44d-4411-8fea-f33eca863b65.png">接下来自下而上介绍一下这个产品矩阵是如何堆起来的。绘图引擎<img width=300 src="https://lf9-dp-fe-cms-tos.byteorg.com/obj/bit-cloud/vrender/morphing.gif">VRender 绘图引擎是对浏览器绘图 API 的封装,你可以用它来画图、渲染文字,一旦像素渲染出来,就可以享受到统一的 API 对其控制,甚至做动画,而且也无需关心底层使用了 WebGL 还是 Canvas 方案,是一套对图形渲染的通用约定,可以跨平台实现,它的本质是对图形渲染的底层 API 抽象了一套稳定的约定,而不关心具体实现。提供了如 createRect、createSymbol 等一系列创建图元的 API:const graph = VRender.createRect({ x: 100, y: 100, width: 160, height: 120, // ... });以及进阶的动画、渐变、SVG Path、文本、富文本、3D 模式等等。图形语法<img width=300 src="https://www.visactor.io/vgrammar/preview/glyph-mark-violin_0.6.5.png">VGrammar 在 VRender 是命令式基础上封装了图形语法概念,提供了声明式语法。我们主要使用的图表库比如 VChart 都还在 VGrammar 的上层,相比图表库,VGrammar 的概念更细,比如拥有自定义 x、y 轴、各种类型的图元、鼠标 hover 的 crosshair 等等。之所以在顶部放了一张小提琴图来表示 VGrammar,是为了突出其灵活自由图形绘制能力,因为其提供了大量类型的图元,通过组合,我们可以任意定制图表效果,而且背后都是一套统一的图形语法与数据格式,大概的用法如下:const spec = { // 数据 data: [{ id: "table", values: [{ value1: 100, value2: 200 }] }], // 定义数据到视觉通道的映射 scales: [ { id: "colorScale", type: "ordinal", domain: ["A", "B"], range: ["red", "blue"], }, ], // 图元 marks: [ { type: "rect", encode: { update: { // 定义对应的通道 fill: { scale: "colorScale", field: "type" }, }, }, // 还支持动画 animation: { enter: { /** ... */ }, }, }, ], // 坐标轴设置,比如启用极坐标 coordinates: [], }; vGrammarView.parseSpec(spec);VGrammar 将所有绘图的特征抽象为一个个内置图元组件,让我们可以用统一的图形语法绘制几乎任何定制的图表,只要前期学习一下其概念,就可以获得统一的开发体验。开箱工具库<img width=400 src="https://lf9-dp-fe-cms-tos.byteorg.com/obj/bit-cloud/vchart/preview/storytelling/timeline-scatter.gif">VChart 则是基于 VGrammar 将业界常见的可视化分析形态固化了下来,比如折线图、漏斗图、地图等等,将最佳实践包裹成一套更上层的易用语法,使开发者在没有强烈定制诉求时,可以最低成本快速实现一个标配图表,比如以下代码可以画一个折线图:const spec = { type: "line", data: { values: [ { time: "2:00", value: 8, }, { time: "4:00", value: 9, }, ], }, xField: "time", yField: "value", }; const vchart = new VChart(spec, { dom: CONTAINER_ID }); vchart.renderAsync();符合直觉的数据格式、不用理解图元、视觉通道等概念,无需复杂的定制即可完成绘图,且几个简单的参数即可开启复杂的时序动画,这就是 VChart 提供的服务。智能化工具库大模型结合是数据可视化相对前沿的领域,VisActor 也分别提供了 Vmind、VStory 解决方案。VMind 利用大模型实现自然语言生成图表配置,无论是开箱工具库、图形语法还是绘图引擎层的代码都可以生成,所以 VMind 可以向下穿透,直接服务于任何一层能力。第二步是结合算法与大模型对生成的图表内容进行分析与解读,这背后有多种实现思路,比如纯算法、大模型生成算法代码、数据直接生成解读以及图片解读,这取决于大模型的能力。VStory 则利用大模型生成可视化叙事视频,需要一些简单的输入确定视频主题与背景数据,就可以自动生成合适的图表,最后串联成视频。把开箱工具库、图形语法与绘图引擎当做材料,使用大模型串联成故事,这就是 VStory 正在做的事情。Headless BI数据可视化工具为数据分析服务,所以 BI 领域是其最大的业务场景。现在各个粒度的工具都备齐了,要搭建 BI 就只剩临门一脚了,所以 VisActor 准备把这最后一脚也踢出去,所以提出了 Headless BI。Headless BI 不是一个虚拟概念,它是一个实打实的 npm 包(虽然现在还没发布),将开发 BI 时的概念抽象出来,形成一个基础框架,你可以几乎零成本的用它打造一个属于自己的 BI 平台。以下画了一张流程图:<img width=300 src="https://user-images.githubusercontent.com/7970947/275322974-4d8ab645-88a0-43ed-96bf-f8ee0946125c.png">用户配置图表信息,生成配置结构 VizSchema。启用 VizService 服务,将 VizSchema 传入,内部会将 UI 配置中数据查询结构解析出来,转化为 SQL 查询,将查到的 RowData 结果转换为 VizData 数据结构返回给客户端。客户端 Renderer 渲染器拿到 VizData 后,经过数据处理转化为使用对应的 VChart、VTable 等上层开箱工具库渲染出图表。这种保姆级的使用方式,涵盖了 BI 图表生命周期的全链路,如果给前端加上画布渲染引擎就可以拓展出仪表盘或大屏业务场景;给后端加上高性能引擎与数据加速层就能拓展出具有竞争力的查询速度与自定义表达式。一个完整 BI 主要的要素几乎都涵盖在里面了。读到这里,如果把 VisActor 每层的结构放在一起,从最底层的 VRender 开始,VGramma、VChart、VizData、VizSchema 这已经产生了 5 种数据结构,到底为什么要叠这么多层概念呢?首先从最上层的 VizSchema 说起,报表 UI 配置结构里包括了对数据的配置,以及对 UI 渲染的配置,而且许多时候这些配置是相互耦合的,所以需要抽象出 VizSchema 专门针对前端 UI 的图表配置层。接着需要在后端将 VizSchema 中查询部分提取出来转化成 SQL 取数,然后将查询结果按图表的类型进行数据加工,进而生成统一的 VizData 结构,仅凭 VizData 结构就可以真正渲染出图表了,而图表可能采用的方案不尽相同,比如富文本、指标卡可能采用 DOM 方案,统计图表采用 VChart,表格采用 VTable,而地图采用 VGis 等等,业务上还可能追加数据标注、评论等更多上层能力,这些都可以融合在 VizData 结构中,再有渲染器路由到不同实现。而到了 VChart、VTable 这一层,就没必要继续往下了,因为 Headless BI 是一个标品,直接使用各领域标准封装的开箱工具库渲染就行了,最后这些工具库背后会再拆解到图形语法与绘图引擎层,最后才是与浏览器 API 接触,这部分链路除了在浏览器中,也可以封装在 Node 服务中实现截图服务。总结本文解读了 VisActor 方案的产品矩阵,从最底层的绘图引擎介绍到最上层的 Headless BI,相信你脑海中已经有了砂砾如何堆积成金字塔的画面,其模块分层挺举具有艺术感。数据可视化是前端走向全栈的桥梁,继续往前端走,就可以深入去实现可视化编辑器,包装成一个完整的仪表盘;继续往后端走,就可以去了解不同数据仓库的特性,以及实现不同 sql 方言实现更强大的数据查询能力。可能这就是计算机大厦的魔力,站在外部视角看数据可视化,它前后分别有深入到前端与后端的两个层,深入数据可视化内部,又能再次看到逻辑井然的分层。我们根据自己的兴趣,向层外或层内逐步探索,然后可以时不时抬头观察这些美妙的分层,感叹一下计算机的美妙。讨论地址是:精读《VisActor 数据可视化工具》· Issue #500 · dt-fe/weekly如果你想参与讨论,请 点击这里,每周都有新的主题,周末或周一发布。前端精读 - 帮你筛选靠谱的内容。版权声明:自由转载-非商用-非衍生-保持署名(创意共享 3.0 许可证)
126
2023-10-16T09:11:51+08:00
sg
README.md exists but content is empty. Use the Edit dataset card button to edit it.
Downloads last month
0
Edit dataset card