Id
int64
1
11
Title
stringclasses
7 values
Content
stringclasses
7 values
View
int64
0
3.51k
PublishTime
int64
0
1,695B
Site
stringclasses
2 values
1
AnayticDB MySQL降本30%的数据湖最佳实践-阿里云开发者社区
【先打一波小广告】阿里云AnalyticDB MySQL升级为湖仓一体架构,支持高吞吐离线处理和高性能在线分析,可无缝替换CDH/TDH/Databricks/Presto/Spark/Hive等。 1.目前湖仓版开放了线上训练营,参加实验免费赢耳机/充电宝/卫衣等好礼,报名链接: https://developer.aliyun.com/trainingcamp/e30b5d96a3e740f5ae69f2a45a5ba7ed?spm=a2cwt.28237621.J_9603273760.7.17db5a91J7f0qF ​ 2.免费试用活动(5000ACU时+100GB存储)正在火热进行中,欢迎体验!免费试用链接: https://free.aliyun.com/?searchKey=AnalyticDB%20MySQL ,群号:33600023146 1. 客户介绍 上海兰姆达数据科技有限公司(简称“兰姆达数据”)是一家提供卓越的数据科学软件产品和解决方案的初创高科技公司。兰姆达核心团队专注于大数据,机器学习算法和精准营销SaaS平台。公司提供的数据科学平台主要包括:自动化机器学习平台SuperML和自助式BI工具SuperBI。 在行业解决方案上,公司已上线一套针对汽车4S 店的售后精准营销SaaS平台“超级站长Super4S” ,服务了一汽大众,上汽通用等数十家经销商。目前公司主要客户集中在汽车,电商,互联网等行业。 2. 业务背景 本业务主要目的是对用户在社交媒体和新媒体上发布的内容进行文本挖掘。数据主要包括各媒体平台的文章/视频的主贴内容以用户的评论内容,本业务有以下几个特点和挑战: 1)数据量大,每日新增文本数据数百万条 2)文本数据内容需要更新,例如文章发布后每天的阅读数,点赞数等指标都会变化,分析时需要用文章最新的指标 3)不需要进行实时分析,只需要T+1离线分析 4)文本分析耗时长,需要集群资源能灵活的弹升保证较快完成计算任务 5)文本分析算法复杂,传统的数据仓库SQL语言不能实现所有需求 业务整体技术架构如下 通过平台自研数据采集模块从门户网站采集信息至RDS,日增百万条记录 5)RDS数据通过数据增量抽取以parquet格式写入OSS 6)通过 Spark 对 parquet表进行清洗并写入Hudi表,清洗逻辑涉及分词、分句、实体关键词的抽取(车型)、统计等。 7)通过 Spark 对Hudi表进行清洗聚合后再写入Hudi表 8)根据业务诉求生成Parquet离线文件供数据分析师下载使用或将数据导入ClickHouse进行在线分析 3. 解决方案 针对本业务的上述特点,我们在技术选型的时候重点关注以下几个技术点: 1)方便支持海量非结构化数据存储和备份 2)减少数据的移动,存储和计算分离 3)以离线计算为主 4)计算资源能弹性升级,并且实现按量计费模式,不能有高昂的包年包月基础费 5)能高效支持数据更新 经过调研发现阿里云 ADB湖仓版是最能满足以上需求的产品。ADB Spark按量付费,完全弹性的特性很好的满足了我们的业务诉求。构建本业务使用到的阿里云组件主要包括: OSS对象存储:用于存储海量文本数据,具有存储便宜,无限容量,安全可靠等优势,省去了很多担心容量不够和数据丢失的后顾之忧。 ADB湖仓版:使用ADB Spark作为计算引擎对文本数据进行分析,相比传统数据库技术能更快更灵活的处理数据和开发分析算法。 ADB Hudi:基于Hudi技术实现对海量数据的及时更新。 DMS:阿里云的另外一套数据开发调度平台,可以作为dataworks的一个补充,最关键的是它是免费的。 ClickHouse:数据湖分析输出的结果数据可以推送到Clickhouse中进行后续的BI可视化分析和查询,满足对数据实时查询的需求 ADB湖仓版整体架构如下(来自官方资料),我们的业务流程与该图比较契合。 ADB Spark:按需弹性的大规模离线处理引擎 ADB Spark用作大规模离线数据清洗聚合,完全弹性,无需运维,借助DMS + ADB Spark可以很好的编排作业,典型业务工作流编排如下: 典型的Spark SQL写入Hudi表作业配置如下 set spark.driver.resourceSpec=medium; set spark.executor.instances=30; set spark.executor.resourceSpec=medium; set spark.app.name=dwm_origin_cleansing_daily; set spark.sql.storeAssignmentPolicy=LEGACY; set spark.driver.maxResultSize=10G; set spark.driver.memoryOverheadFactor=0.4; set hoodie.metadata.enable = true; set hoodie.cleaner.commits.retained=3; -- 每日新增数据去重清洗插入dwm_origin_hudi 表 insert into table dia_dwm.dwm_origin_hudi partition (pt,sid) select site_id, channel_id, category_1st, category_2nd, url, date(issue_time) as pt, site_id as sid from ( select *,row_number() OVER (PARTITION BY pid ORDER BY crawl_time DESC) AS rn from dia_ods.ods_channel_collect_origin where dt='${bizdate}' ) t where t.rn = 1 ADB Hudi:支持增删改的高吞吐数据层 考虑典型业务场景:计算某个微博7天内的点赞量以及微博对于汽车的评价。 采集模块每天采集微博数据并写入RDS,每天采集的微博都是一个事件写入RDS,因此RDS中对于同一条微博会有多条数据,需要计算微博7天点赞量并对微博进行情感分析。 引入Hudi之前处理流程 在引入Hudi之前整体处理流程如下图所示,RDS数据按照采集时间每天增量抽取至OSS中,如考虑20230501-20230507七天分区数据,20230507分区中可能会包含20230506以及20230501分区的数据。 通过Spark读取七天的数据并开窗取同一条微博最新数据以及过滤掉七天外的数据(20230501分区可能包含20230401的数据,对于这部分超过7天的数据直接过滤掉),处理完后按照发布时间(事件时间)分区写入parquet表,此时的写入是分区覆盖写(保证写入最新数据),也就意味着Spark每天读取7天的数据,然后全量覆盖多个分区,有较多的重复计算和写入,处理效率相对低效。 引入Hudi之后 处理流程 在引入Hudi后,前面增量抽取与前面方案相同,但是在第二步Spark计算时只处理一天的数据,而非处理七天的数据,然后按照发布时间(事件时间)更新Hudi表的对应分区,不需要进行分区级全量覆盖,同时Spark对于延迟数据(20230401)可以直接借助Hudi Upsert能力支持对超过7天的数据进行更新,而非在Spark开窗函数中过滤掉。 对比两种架构,引入Hudi后的架构有如下优势。 Spark处理数据由七天变成一天,数据量每天减少 约7倍 Spark处理逻辑更简单,无需丢弃七天外的延迟数据,Hudi支持任意延迟时间数据更新写入 写入处理后的数据时无需全量覆盖,直接按照分区更新即可,效率更高 4. 方案收益 从计算耗时和计算费用两个方面来看项目的收益: 计算耗时: 下降3倍 使用传统自建Hadoop集群的方式,对于小公司,由于成本原因,集群的固定资源一般是不够大的,这会导致计算任务耗时很长,尤其是任务多了之后只能串行处理不能并行化,导致时间会更长。使用可灵活弹性升级的ADB数据湖分析平台后,我们可以并行化启动多个任务流,每个任务流根据我们预计的完成时间分配合理的计算资源ACU数量, 可以做到不增加总成本的基础上,让计算时间显著缩短 。目前我们每天的计算任务可以控制在30分钟内完成,一周的计算任务可以控制在3小时内完成。最快的一次,我们需要重算历史一年的数据,通过指定使用更多的ACU数量,在1天之内就全部计算完成。同时引入Hudi后作业耗时从10min下降到3min。 计算费用:下降30%~50% ADB数据湖分析的整体费用由两部分构成:OSS存储和接口费+ADB Spark按量计算费用。OSS存储和接口费,按照数据量10TB左右估算,每个月费用应该在2000元以内; ADB Spark按量计算费用是按ACU数量*计算时长收费,100核400G的集群算1个小时大概35元,性价比非常高 。ADB Spark + OSS组合方案中 Spark 计算 + OSS存储成本每个月5000左右,一年约6万,搭建传统集群50个CU 估计1年成本9万多,整体成本下降30%,如果业务数据量大,计算复杂,计算频率不是很高,整体成本下降更高,使用ADB Spark数据湖分析绝对是最佳性价比的产品。   使用阿里云数据湖分析架构后,数据处理时长显著下降,同时计算成本非常优化, ADB数据湖分析可谓是一款性价比极高的大数据产品。
0
0
Ali
2
云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二)-阿里云开发者社区
开发者学习笔记【 阿里云云数据库助理工程师(ACA)认证 : 云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二) 】 课程地址 : https://edu.aliyun.com/course/3112080/lesson/19084   云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二) 三、 AnalyticDB  场景案例     AnalyticDB的应用场景主要分为几大类,首先是人群的画像由于AB , 可以支持任意维度任意条件的筛选过滤的聚合统计,在人群画像这个场景可以做到毫无毫妙计的圈人和响应。 其次,在实施营销领域 , 可以进行实时的效果计算,实现营销效果的分钟级的闭环反馈。在运营场景里面,可以对用户行为日志进行实时的分析 。 在自定义的交互式查询报表场景下,可做到查询无卡顿,方便进行探索式的多维分析 , 进行上卷和断取分析。 同时,在超大规模的复杂计算方面 , AnalyticDB可以支持万亿级别、千亿级别 的 大量数据的多表之间进行关联 、 计算,并进行过滤 、 聚合 、统计 等等分析。另外,AnalyticDB还支持非结构化数据和结构化数据的融合的分析 , 通过销量检索功能实现带有条件的以图 搜 图。 接下来讲一些具体的案例 ,如图: 在电商领域,大量客户采用AnalyticDB构建数据仓库或者分析引擎。在这个案例中,用户将原来使用的H i ve 、H Base 、k ylin 等 大数据平台迁移到AnalyticDB构建统一的数据仓库和分析平台 , 可准 时 实时的输出分析报表。可让商户的运营报表每五分钟就能更新一次 , 还可以基于AnalyticDB构建了用户的标签系统进行用户画像分析业务。 在游戏领域 ,如下图:  用户通常使用AnalyticDB构建 , 用户行为分析系统。首先可以基 于 AnalyticDB构建T+1的计算计算报表。 还 可将海量的用户登录 的 用户行为数据和业务数据结合实时的写入到AnalyticDB , 然后每天凌晨 E TL 清洗 加工计算,生成中间数据和 报表 数据。同时也可以基于AnalyticDB构建实时的业务分析报表 。 将清洗后的数据与实时的业务数据进行实时关联 、 交互式分析。同时,实时的运营效果数据可以实时回 写, 并 支持 实时效果回流分析。各方 面 的主要特点是在线分析和离线分析离站式,数据集中存储 统一 存储 ,不再需要 几个组件之间进行数据导入导出。 其次,具有数据库的应用性,通过数据库的使用方式来使用数据。 再一个  AnalyticDB  支持冷热数据分层在游戏行业里海量 的 游戏日志数据 , 可以进行廉价的存储,同时也可以对热数据进行高效的访问。 第三  AnalyticDB  支持 动态的 在线扩容 , 可用于支撑游戏业务的迅猛发展。 在互联网金融领域 ,如下图:  此前的技术方案通常是T + 1 型 报表。现基于AnalyticDB与RDS业务库以及DTS进行组合 , 构建实施出仓的方案。 将RDS里面的业务数据 , 通过DTS等工具实时的同步到AnalyticDB , 对海量离线数据,也可以通过 D ata works等工具批量等迁移至AnalyticDB构建统一的数据仓库 , 可实现实时数据分析 , 从T + 1的效果缩减到秒级。从原来的hive等等大数据分析平台的数十分钟可缩短到秒级。 AnalyticDB也通常用 于 分析领域 ,如下图: 过去采用Oracle RAC 和h adoop等等平台 , 构建的数据平台可以统一到AnalyticDB里 。 AnalyticDB 还 可支持百万级的DTS的数据的实时的写入 和 离线数据的批量导入。 基于AnalyticDB构建企业级的统一的数仓平台 , 以某种云上的客户为例 : 构建一个AnalyticDB200多个节点的统一数据仓库平台,数据存储量达到5PB , 支持十多个APP。 该解决方案的核心的优势就是平台统一,不需要维护复杂的大数据组件和复杂的数据链路性能得到大幅的提升。同时 , 它的兼容性非常好,可采用数据库的方式来访问和使用数据仓库。
0
0
Ali
3
云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(一)-阿里云开发者社区
开发者学习笔记【 阿里云云数据库助理工程师(ACA)认证 : 云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(一) 】 课程地址 : https://edu.aliyun.com/course/3112080/lesson/19084   云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(一) 课程目标 : 1 、了 解阿里云 云 原生数据仓库    AnalyticDB  产品特性。 2 、 掌握产品基本技术原理和应用场景。   内容介绍 : 一、 包括数据仓库的技术趋势 二、 AnalyticDB  产品特 性 三、 AnalyticDB   场景案例   一、 数据仓库领域技术趋势   如上图, 在数据仓库领域 ,当今 的技术趋势是 云 原生 、湖仓 一体和数据库大数据一体化。 主要表现在采用原生的技术架构,支持全量数据集中在统一的平台,支持数据的实时更新、实时计算。 云原生数据仓库是近年热点 从市场上来讲, 云原 生数据仓库的市场也是在迅猛发展,每年有数十亿美元的市场空间。去年Snowfiake上市,创造了市值超过700亿美金的奇迹, 如下图:   全球云源生数据仓库的主要服务商包括 :R edsjift 、  Snowflake 、B igQuery 、A zure Synapse Analytics 、阿里云 AnalyticDB 阿里云 云 原生数据仓库的整体架构 如下图所示 :     AnalyticDB简称ADB , 分为MYSQL版和PG版。用户可根据自己的数据情况以及开发用的技术背景,选择其中 任 一版本。用户可以基于AnalyticDB统一 数据存储、计算的平台 。支持 企业全网 数据的实时同步更新、实时计算和实时服务。 就 这样 , 极大的简化整个 数 仓的技术架构。可以通过云上的DTS等等同步工具 , 实时将数据源中的数据统一到AnalyticDB里。 云上的主要数据源包括关系数据库、 M ySQL数据库以及OSS等等。同时可以通过DMS 、 it works等等数据管理和开发工具进行ETL任务的开发、调度、 统一 管理、运维 并 进行数据资源管理。在数据业务层面,可以支持QuickBI 、T ableau f、FineBI 等等常见的BI工具。 还 可支持用户自助开发的这种数据产品的数据工具平台。   二、 AnalyticDB  产品特性 主要特 性 如下 : na lyticDB MySQL    版 它是基于 云 原生的技术架构 , 采用容器技术进行轻量化的部署 ,用户 间的集群资源隔离独享 , 支持全球化部署。 它 更兼容     MySQL  协议最多可以支持250个数据库 , 支持支。 数据库的数据实时更新,实时删除 , 兼容 MySQL 的权限体系。它支持 云原生 的弹性 扩容, 存储空间可从GB级扩展到PB级别 , 存储计算分离, 按量 计费 , 弹性 计算节点 。 最新的弹性版本性能得到大幅提升。在TBC - DS , 标准测试级的性能测试里面排名全球第一 , 它同时具备数据库的很多优良特性,还基于 R aft   协议,保证数据的强一致,数据写入过后立即可见,实时可查。支持ETL计算的ACLD的能力。AnalyticDB中的数据具有非常高的可靠性,默认提供三副本的存储。提供 , 每周两次的全量备份,加上日志的实时备份 , 可进行任意时间点的数据恢复。     如上图: 2020年11月份发布的弹性模式新增了很多企业级的核心功能。 它实现了存储计算分离的架构,可以根据业务特点和负载的特点,针对性的优化计算资源和存储资源 , 降低扩容成本。其次,他支持资源的分式弹性 , 可按时间段编排计算资源 , 按实际使用量计费 , 降低了计算资源的成本 , 支持资源组隔离。 可以将稳定的业务放在一个资源组 , 把临时的或者开发中的任务放在其他的资源组,可以保证核心计算任务的稳定运行不受临时和异常情况的影响。它支持冷热数据分层 。 可以将 对于性能要求高的热数据存储在高性能介质里面。将低频访问的 冷 数据存储在廉价的存储介质里面。 如此 既能保证热数据的高性能的访问 , 同时又能极大的降低数据存储成本,最多可以降低90%。   MYSQL版的数据模型如下 :   最上面一层 为 实 例 和集群 这种 级别由若干台 机 器构成一个集群,我们叫做一个实例。 在实例下面是数据库 级别。它 一个集群最多可支持256个逻辑数据库。用 于 权限隔离和表空间的管理。数据库下面是表,表可以分为普通表 、维度表 , 普通表 又称分布式表用来存储明细数据的 , 可以通过指定分布键,将数据分布到多台机器。 同时也支持维度表又成广播表,他会在每个节点冗余一份,从而达到加速关联计算速度的目的。表下面是分片 , 在建表的时候,通过指定分布键将数据分成多个指标 , 分布到若干 台 机器,一个分片也叫一个 S hard。在分片下面还可以指定一个字段进行进行分区。 可以通过数据分区,指定分区的生命周期功能可以实现两 条 数据的分成,加上数据的生命周期淘汰的功能。   AnalyticDB PG 版 兼容 PostgreSQL 生态, 高度兼容Oracle语法 生态, 它基于MPP 水平扩展 架构, 可 支持 P B 级数据查询 秒级响应。 还 支持存储过程、窗口、函数、触发器、视图等等数据库的常见功能 , 也支持很多的机器学习的算法 , 可以支持向量检索和以图收图等等 。   如上图: AnalyticDB PostgreSQL 实现了H A高可用架构 , 支持分布式事务。数据本地商户本存储可以实现高吞吐的数据导入和导出。可以进行计算节点的任意水平扩展。  如上图: 对数据表来说,还可定义按 传统行式数据 存储或者按列 式数据 存储 , 对于高并发的检查场景适合用航程。对于大批量数据加载和全表的扫描聚合计算。这种适合 列式数据储存。 AnalyticDB PostgreSQL 版弹性扩展,如下图: 在线扩容,增加MPP集群的节点 , 可自动进行数据的重新分布,可以不中断业务查询。 AnalyticDB PostgreSQL 版 特点是支持丰富的函数 、 支持存储过程,支持用户自定义的自定义函数。 如图:
0
0
Ali
4
AnalyticDB PostgreSQL版向量索引查询-阿里云开发者社区
AnalyticDB PostgreSQL版向量索引查询 1. 创建带向量索引的表并生成测试数据 创建数据库账号,实例详情页登录数据库,执行以下语句,创建向量检索插件。 CREATE EXTENSION IF NOT EXISTS fastann; set optimizer=off 执行以下语句,创建带向量索引的表。 select exec_sql_on_pg_ann_codebooks('delete from pg_ann_codebooks'); CREATE DATABASE VEC; CREATE SCHEMA vec; CREATE TABLE 'vec'.'vector_test_for_sift' ( 'id' bigint NOT NULL, 'shot_time' timestamp, 'device_id' bigint, 'feature_data' 'float4'[], PRIMARY KEY(id) ) DISTRIBUTED BY (id); ALTER TABLE vec.vector_test_for_sift ALTER COLUMN shot_time SET STORAGE PLAIN; ALTER TABLE vec.vector_test_for_sift ALTER COLUMN device_id SET STORAGE PLAIN; ALTER TABLE vec.vector_test_for_sift ALTER COLUMN feature_data SET STORAGE PLAIN; CREATE INDEX idx_vector_test_for_sift_device_id ON vec.vector_test_for_sift (device_id); CREATE INDEX idx_vector_test_for_sift_shot_time ON vec.vector_test_for_sift (shot_time); CREATE INDEX idx_vector_test_for_sift_feature_data ON vec.vector_test_for_sift USING ann(feature_data) WITH (dim=128,pq_segments=16,hnsw_m=16,external_storage=1); 2. 导入数据 将脚本 adbpg_test_tools 上传至ECS。 上传至已购买的ECS实例。 打开abdpg_test_tools文件夹,将“configuration/dbConf”文件中的信息修改为已购买AnalyticDB PostgreSQL 6.0版实例的信息,设置地址、端口、密码、数据、表名等连接信息。示例如下: 执行以下语句,生成10W测试数据。 执行以下语句,导入测试数据。 连接AnalyticDB PostgreSQL 6.0版实例,并执行ANALYZE命令。 3. 不使用向量索引进行查询 执行以下语句,不使用向量索引进行查询。 返回结果如下: 执行以下语句, 查看执行计划。 返回结果如下: 可以看到,执行逻辑是先使用顺序扫描,然后再进行排序,总共耗时72ms.。 ​ 4. 使用向量索引进行查询 换用重载过的操作符 <-> 比较向量的距离,使用向量索引进行查询。 返回相同的查询结果: 执行以下语句,查看执行计划。 返回结果如下: 从执行计划可以看出,使用向量索引,耗时仅13ms。 将两种执行方式的结果求交集,统计数量,观察召回性能。 执行结果为: 从执行结果看到总共数量为10条,在这个示例中两者的执行结果完全相同,召回率良好。 实验链接: https://developer.aliyun.com/adc/scenario/d4b623253ba14b5595cf825518883062 ​ ​
0
0
Ali
5
如何实现AnalyticDB MySQL多租户功能-阿里云开发者社区
如何实现AnalyticDB MySQL多租户功能 ​ 1. 开通AnalyticDB服务 打开AnalyticDB MySQL 购买页面 。选择对应的配置,点击购买。完成集群新建。 说明: 集群系列需为弹性模式集群版(新版)。 集群规格需为32核或以上。 集群内核版本需为3.1.3.2或以上。 前往控制台。在集群中创建数据库账号。 2. 创建资源组 登录云原生数据仓库AnalyticDB MySQL控制台。 进入集群列表页面,选中刚刚创建的集群。 在左侧导航栏,单击资源池管理。 在资源池管理页面,单击资源池列表右上角的新增资源池。 填写资源池信息。本案例创建两个资源池A_TEST和B_TEST。 3. 绑定资源组与用户 在资源池列表中选中某个资源池条目,单击绑定用户。 单击确定绑定资源组与用户。 以绑定用户的用户名和密码连接数据库。 执行查询任务时,使用具体的资源组。此时就是在使用A_TEST资源池所指定的资源在执行SQL。实现多租户隔离的效果。 ​ 实验链接: https://developer.aliyun.com/adc/scenario/9ea643cf95c044ee8a603bd6e56d6fad
0
0
Ali
6
亚马逊云科技推出基于生成式AI的临床文档工具HealthScribe预览版
最近,亚马逊云科技新推出了一项符合HIPAA标准的服务,名为AWS HealthScribe。该服务尚处于预览状态,它可以利用语音识别和生成式人工智能(基于Amazon Bedrock)来生成临床文档。 按照该公司的说法,AWS HealthScribe是会话式和生成式人工智能(AI)的结合体,可以减轻编写临床文档的负担并改善咨询体验。借助这项服务,用户可以利用一整套的人工智能功能来加快临床应用中临床文档的编制。 AWS HealthScribe为医疗卫生软件提供商提供了一个API,可以自动生成完整的记录及提取关键的详细信息(如医疗术语和药物),并根据医患之间的讨论创建可输入电子健康记录(EHR)系统的摘要。 例如,在HealthScribe中创建的笔记可以通过人工智能进行补充,包括诸如就诊原因、当前病史、评估和随访等细节。示例:医疗卫生软件开发人员可以使用AWS HealthScribe为用户提供的应用程序体验(图片来源:AWS for Industries博文) AWS for Industries博文的作者是这样描述AWS HealthScribe的好处的:通过功能整合,AWS HealthScribe减少了训练、优化、集成单个的人工智能服务和构建自定义模型的需求,加快了实施速度。客户可以专注于为最终用户提供价值,而不必费力优化单个的AI组件。 另一方面,虽然该服务符合HIPAA,但公司必须签署一份称为商业伙伴附录的合同。对此,AWS的文档做了详细说明,只有这样才能完全符合HIPAA。 除了AWS,微软和谷歌也有像AWS HealthScribe这样的医疗卫生服务。例如,云服务Microsoft Healthcare Bot就使得医疗卫生组织能够构建和部署可用于各种目的的会话代理,例如分诊和症状检查。还有Google Cloud Healthcare API,该服务提供了一套基于Google Cloud Platform构建的专门用于医疗卫生领域的产品和服务。 Bertalan Meskó是医学未来学家协会(Medical Futurist Institute)的主任、哲学和医学博士,他在LinkedIn的一篇帖子中评论道:看到科技巨头进军医疗卫生领域非常令人兴奋,我们都应该为此感到高兴,因为他们比医疗卫生/制药公司更擅长创造人们想要的技术。 此外,Batch首席执行官Simon Dawlat在推特上写到:随着亚马逊加入微软/谷歌的竞争行列推出HealthScribe,基于人工智能的临床文档API淘金热正如火如荼地进行着——然而,与那些高度专注的公司(如@NablaTech)所提供的产品相比,所有FAANG的产品都显得有些尴尬。 比赛开始了! Nuance和Cerner Corporation(Oracle)等公司也提供了其他一些类似的解决方案,前者为医疗卫生和客户互动提供了对话式人工智能,后者则是医疗卫生信息技术解决方案、服务、设备和硬件供应商。 最后,AWS HealthScribe目前仅在美国东部(弗吉尼亚州北部)地区可用,客户可以填写表单完成注册后访问该服务。了解定价细节可以查看定价页面,了解其他细节可以查阅文档。  原文链接:https://www.infoq.com/news/2023/08/aws-healthscribe-ai-preview/相关阅读:亚马逊云科技re:Inforce 2023中国站:企业如何提高数据、模型和应用安全?降本增效:Grab如何在亚马逊云科技上将Kafka消费者流量成本降到零
1,518
1,695,081,600,680
InfoQ
7
网安市场营收全球第一,这家老牌防火墙公司在AIGC时代换了新“打法”
Palo Alto Networks(派拓网络),于2005年成立,总部在硅谷圣克拉拉(Santa Clara, CA),目前服务超过150多个国家和地区,在创立之时便推出以下一代防火墙为著称的产品线。目前在全球网安市场营收排名第一,市值如果单从网络安全赛道来讲应该也是名列前茅。Palo Alto Networks服务95%的全球财富百强,72%全球2000强客户,营收连续三年来从43亿美元、55亿美元到今年7月底刚刚结束23财年的69亿美元,复合增长率达到了26%。派拓网络大中华区技术总监董春涛介绍,公司早期是基于下一代防火墙(NGFW)开展业务,在近几年派拓网络已经不再是一个传统意义上的防火墙公司。公司已经涉及多个网络安全赛道,同时也是可拓展威胁检测与响应(XDR)以及零信任(Zero Trust)概念的提出者。一直以来,Palo Alto Networks(派拓网络)都非常重视国内市场,且已经在大连设立了售后技术支持中心,并且积极把包括Prisma Cloud、Prisma SASE在内的各种各样的云上安全服务陆续落地中国,服务中国客户和在华的跨国公司。董春涛坦言,这些努力对背后离不开派拓网络与亚马逊云科技的紧密合作。在此次亚马逊云科技re:Inforce 2023中国站会后,董春涛就AI时代的网络安全这一主题回答了包括InfoQ在内多家媒体的提问。嘉宾介绍|派拓网络大中华区技术总监董春涛问:您认为AI时代的网络安全面临哪些新的挑战?Palo Alto Networks(派拓网络)是如何理解和应对这些挑战的?董春涛:Palo Alto Networks(派拓网络)在2016年就引入机器学习,或者是深度学习,或者是加强型学习促进我们防护安全攻击的能力。所以7年间我们从最早的安全沙箱引入机器学习能力以后,第一时间提出的就是防御未知威胁攻击的方式,我们不断地把这种能力渗透到各个产品,包括URL过滤,在线的防火墙机器学习能力,Prisma SASE里面也都融汇了人工智能的技术。去年年底我们推的AIOps也是利用了这样的技术,我们在之前有一个广泛的上升。但是现在来讲,生成式AI推动的安全技术使我们产生了一个新的对于安全领域的思考,肯定它是有一个非常大的变化。我们首先看到我们积累的数据价值,因为数据才是AI最核心的因素。我们在过去做安全做了十多年,沉淀了大量的高质量数据,我们认为这些高质量数据会帮助我们更好地利用新的AI技术。同时我们也看到在2018年以后坚定采用云战略也是正确的。因为没有云就没有数据的聚集,也没有算力去做这件事情,很多技术都不是突然之间发生的,一定是很多技术底层积累下来的。所以我们也看到我们在跟亚马逊云科技合作过程当中,包括我们与亚马逊云科技最新的创新服务Amazon Security Lake安全数据湖来互相交换数据,这些数据未来对AI产生极大的价值,这是一方面。第二方面是SASE,我们看到SASE方案完全构建在整个云平台上面,我们知道有一些友商做的是私有部署,或者是在IDC自建,但是我们坚定不移放在公有云上开展这个服务。在这个过程中也是把我们的集成性能力和数据整合能力都体现在这里面,使我们对AI能力的赋予就产生非常便利的条件。最后,我们说安全平台化,原来的安全行业是非常碎片化的,其实这也是因为安全领域是攻防博弈的过程,有很多创新公司有自己的新型能力去做。但是我们看到随着AI的发展,更多的平台化公司会出现,为什么要这样做?就是因为我们要有3C的数据,3C是什么呢?就是完整的(Complete)、一致的(Consistent)、正确的(Correct)数据,我们通过这样平台化的解决方案才能收集到3C的数据,有这样3C的数据我们才能有更好的AI能力和防御手段。问:Palo Alto Networks(派拓网络)是一家独立的安全公司,除了和亚马逊云科技合作之外,和别的云厂商合作情况是怎么样的?另外对于客户来说,其实很多时候面临的是多云环境,在这种情况下怎么更好地合作落地安全?董春涛:第一,我们在主流公有云上面都做了部署和尝试,更多地是以客户的需求为导向。第二,通过很多统计,我们看到用户都是多云需求的,这个趋势也是不可阻挡的。我们自己的代码是要上云的,上云过程中我们是要看成本和市场规划,然后有序地在各个云上推出和部署我们的服务。我们作为一个软件安全公司来讲本身也是认可多云战略的,并且在整个过程中看到这也是一个比较成功的方式。我们在满足客户需求的时候,有时候是客户驱动我们要用哪个,我们也在不停根据客户的需求与后台一起讨论市场的预期,然后做相应的发布。问:您提到生成式AI带来的契机把安全从IT端推向业务端,您能不能解释一下为什么这么讲?是因为生成式AI离客户的业务更近吗?您认为这会带来什么影响?会使得未来客户在安全方面的预算支出在IT当中占比明显提升吗?董春涛:我们看到安全在IT中是一部分,是一个小众的组成部分,其实常年以来它是附着在IT上的,大部分的组织结构是CEO、CIO、CISO这样一个结构。现在我们看到在整个IT发展过程当中,生成式AI的出现根本改变了IT这个领域的范畴。企业数字化本来就是在衍变,但是生成式AI起到了催化剂的作用,它的能力使每一个行业,不管是To C还是To B,都会有一个整体的发展,这个时候大家在回顾看到用生成式AI来做这种创新业务的时候,会发现安全是一个绝对不能避开的话题,是更重要的话题。我们相信安全在生成式AI主导的业务促进过程当中会是一个伴生关系,所以就突破了原来传统的IT领域。Palo Alto Networks(派拓网络)从下一代防火墙变成云安全公司之后,我们能看到自己的发展趋势,尤其是这两年大家看到很多经济在下滑的时候,所有的安全公司都在往上走,这是一个趋势。第二个趋势我们看生成式AI会把业务带到数字化转型当中,推动企业转型。这个时候也对我们整个的安全从业和服务人员来讲是一个促进,我们可能更多地会与业务负责人谈论安全的复杂性。问:刚才也提到了派拓网络有和亚马逊云科技定制的云原生保护平台,其实在国外还有一些比较流行的安全方面的产品,比如云网络安全代理、云安全态势管理、SaaS安全态势管理,还有SaaS管理平台这些新兴的工具,想问下派拓网络有没有计划把这些在国外比较流行的安全产品和工具带到国内,如果没有带到国内的话,为什么没有引入国内?是国内用户不太关注这些,还是它对中国的用户不是主流?也想请您预测一下哪些方案将成为云安全市场的主流产品,依据是什么?董春涛:在Palo Alto Networks(派拓网络)刚刚引入到中国区域的时候,做得更多的是CSPM,就是整个云使用的安全态势管理,但是正如您刚才提到几个另外的模块,这些模块其实都是在云安全里面的,就是我们在Prisma Cloud里面的安全模块。我们看到容器安全在中国有相当长一段时间是比较靠前的,尤其是金融行业先推出的。我们在早期也参与了很多类似这样的项目,我们看到容器安全,它另外一个词就是主机安全(CWP,Cloud Workload Protection)这样的概念,虽然它有时是私有化。但是它的技术和使用场景都类似的。另外几个尤其是偏SaaS应用的防护确实是国外发展得快,这也确实跟应用场景有关。国内SaaS应用场景现在慢慢多起来了,但是还是国外发展更快、更成熟,所以我们这部分确实在国外用得更多一些。但是刚才我们谈到引入云原生应用(Cloud Native Application),或者叫CNAPP也好,或者是云安全(Cloud Security)的时候,我觉得生成式AI确实能促进,在开发新型应用的时候,很多大语言模型都是开源的,所以如果企业考虑用开源模型做创新业务和生成式AI衍生业务的时候,我们就有机会把我们整个云安全(Cloud Security)的系列服务介绍进来。另外,我们看到原来每一个模块都有自己的市场,从我们自己的观察来看,整个打穿从代码(code)到构建(build),到部署(deploy)到运行(run)的防护是一体的,只有平台化之后才能看到它的关系,才能溯源到哪个最初的地方有问题,这也是我们新的Prisma Cloud UI它在整条线上溯源,如果每一个模块都是割裂的,在不同模块去做的话,很难做到这样全景化的安全防护。大家知道安全的集成是非常难的,不像传统IT集成相对容易,都是标准。安全集成数据交互非常难,所以不同厂家的集成也是很难的。我们构建在亚马逊云科技上的Prisma Cloud也会利用亚马逊云科技的安全能力,我们也希望随着亚马逊云科技在云中安全的创新,我们也实现更多的集成性的工作,通过相对完善的集成,我们在推出全套的Prisma Cloud云服务的时候,整体上也会有一套更加完善的方案。问:今年是AI全面爆发之年,想问一下,您作为一个管理者的角色,尤其是Palo Alto Networks(派拓网络)也是全球顶尖网络安全公司代表,从今年以来咱们大中华区,或者说您负责的技术相关部门有没有一些调整和变化?比如说产品或者是业务重点研发方向,人才的匹配度等方面。董春涛:关于产品结构,我们完全摆脱了原来单一硬件产品的方式进入到整个平台化,即网络安全平台,云安全平台和现代化运营安全平台,这三大平台中。所以对我们的技术人员要求是由单一的、传统的网络安全,向包括云安全、运营安全、终端安全等一体化的方向做演变。我们现在希望每一位安全从业技术人员都是全栈的,我们说云计算有全栈,那么安全现在也有全栈。问:从技术端的感知来看,国内的客户他们对于安全的需求呈现出一些什么样的特点?在国内,我们看到最早的安全在相当长一段时间是合规导向的。不能说是为了合规而做合规,更多是有一个合规框架做相应的导向,及相应产品的开发。其实Palo Alto Networks(派拓网络)一直不是这么做的,我们是基于防护的,真的防住这些攻击,所以我们觉得在国内看到很多客户已经从合规导向向真正的安全防护导向演变了。其实这也是一种被动过程,因为国内很多安全项目都是事件驱动的,就是被攻了才去买东西,这是我们在相当长时间看到项目的情况。但是我觉得现在来看,尤其是我们说到安全与业务的结合越来越紧密了,所以各个企业现在开始主动构建更高阶的安全团队,请了更资深的CISO评估更合理的,真正起到效果的安全方案,这个也是我看到的一个发展趋势。问:当初派拓网络为什么会选择与亚马逊云科技进行合作?董春涛:亚马逊云科技是全球云计算的头部企业,Palo Alto Networks是全球安全解决方案的先行者,随着数字化转型的加速,更多用户将业务迁移上云,安全是最需要首先考虑的问题。双方通过协作发挥各自优势,为用户带来更佳的安全体验。安全能力需要平台的整合,数据的整合,和AI能力的演进,需要专业安全厂商的数据,以及云厂商的计算和分析能力并需要云原生化,才能适应下一代安全的架构。此外,亚马逊云科技完善的生态使Palo Alto Networks能够更有效触达客户,让更多中国客户可以受益于Palo Alto Networks的技术,并实现贯穿于应用开发整个生命周期的安全,为开发、安全及合规团队打造方便易用的安全方案。亚马逊云科技Marketplace为Palo Alto Networks提供了有效的业务拓展渠道,帮助其触达全球用户。同时,显著降低销售成本,并缩短销售周期。
3,509
1,694,600,008,974
InfoQ
8
亚马逊云科技推出基于生成式AI的临床文档工具HealthScribe预览版
最近,亚马逊云科技新推出了一项符合HIPAA标准的服务,名为AWS HealthScribe。该服务尚处于预览状态,它可以利用语音识别和生成式人工智能(基于Amazon Bedrock)来生成临床文档。 按照该公司的说法,AWS HealthScribe是会话式和生成式人工智能(AI)的结合体,可以减轻编写临床文档的负担并改善咨询体验。借助这项服务,用户可以利用一整套的人工智能功能来加快临床应用中临床文档的编制。 AWS HealthScribe为医疗卫生软件提供商提供了一个API,可以自动生成完整的记录及提取关键的详细信息(如医疗术语和药物),并根据医患之间的讨论创建可输入电子健康记录(EHR)系统的摘要。 例如,在HealthScribe中创建的笔记可以通过人工智能进行补充,包括诸如就诊原因、当前病史、评估和随访等细节。示例:医疗卫生软件开发人员可以使用AWS HealthScribe为用户提供的应用程序体验(图片来源:AWS for Industries博文) AWS for Industries博文的作者是这样描述AWS HealthScribe的好处的:通过功能整合,AWS HealthScribe减少了训练、优化、集成单个的人工智能服务和构建自定义模型的需求,加快了实施速度。客户可以专注于为最终用户提供价值,而不必费力优化单个的AI组件。 另一方面,虽然该服务符合HIPAA,但公司必须签署一份称为商业伙伴附录的合同。对此,AWS的文档做了详细说明,只有这样才能完全符合HIPAA。 除了AWS,微软和谷歌也有像AWS HealthScribe这样的医疗卫生服务。例如,云服务Microsoft Healthcare Bot就使得医疗卫生组织能够构建和部署可用于各种目的的会话代理,例如分诊和症状检查。还有Google Cloud Healthcare API,该服务提供了一套基于Google Cloud Platform构建的专门用于医疗卫生领域的产品和服务。 Bertalan Meskó是医学未来学家协会(Medical Futurist Institute)的主任、哲学和医学博士,他在LinkedIn的一篇帖子中评论道:看到科技巨头进军医疗卫生领域非常令人兴奋,我们都应该为此感到高兴,因为他们比医疗卫生/制药公司更擅长创造人们想要的技术。 此外,Batch首席执行官Simon Dawlat在推特上写到:随着亚马逊加入微软/谷歌的竞争行列推出HealthScribe,基于人工智能的临床文档API淘金热正如火如荼地进行着——然而,与那些高度专注的公司(如@NablaTech)所提供的产品相比,所有FAANG的产品都显得有些尴尬。 比赛开始了! Nuance和Cerner Corporation(Oracle)等公司也提供了其他一些类似的解决方案,前者为医疗卫生和客户互动提供了对话式人工智能,后者则是医疗卫生信息技术解决方案、服务、设备和硬件供应商。 最后,AWS HealthScribe目前仅在美国东部(弗吉尼亚州北部)地区可用,客户可以填写表单完成注册后访问该服务。了解定价细节可以查看定价页面,了解其他细节可以查阅文档。  原文链接:https://www.infoq.com/news/2023/08/aws-healthscribe-ai-preview/相关阅读:亚马逊云科技re:Inforce 2023中国站:企业如何提高数据、模型和应用安全?降本增效:Grab如何在亚马逊云科技上将Kafka消费者流量成本降到零
1,518
1,695,081,600,680
InfoQ
9
亚马逊云科技推出基于生成式AI的临床文档工具HealthScribe预览版
最近,亚马逊云科技新推出了一项符合HIPAA标准的服务,名为AWS HealthScribe。该服务尚处于预览状态,它可以利用语音识别和生成式人工智能(基于Amazon Bedrock)来生成临床文档。 按照该公司的说法,AWS HealthScribe是会话式和生成式人工智能(AI)的结合体,可以减轻编写临床文档的负担并改善咨询体验。借助这项服务,用户可以利用一整套的人工智能功能来加快临床应用中临床文档的编制。 AWS HealthScribe为医疗卫生软件提供商提供了一个API,可以自动生成完整的记录及提取关键的详细信息(如医疗术语和药物),并根据医患之间的讨论创建可输入电子健康记录(EHR)系统的摘要。 例如,在HealthScribe中创建的笔记可以通过人工智能进行补充,包括诸如就诊原因、当前病史、评估和随访等细节。示例:医疗卫生软件开发人员可以使用AWS HealthScribe为用户提供的应用程序体验(图片来源:AWS for Industries博文) AWS for Industries博文的作者是这样描述AWS HealthScribe的好处的:通过功能整合,AWS HealthScribe减少了训练、优化、集成单个的人工智能服务和构建自定义模型的需求,加快了实施速度。客户可以专注于为最终用户提供价值,而不必费力优化单个的AI组件。 另一方面,虽然该服务符合HIPAA,但公司必须签署一份称为商业伙伴附录的合同。对此,AWS的文档做了详细说明,只有这样才能完全符合HIPAA。 除了AWS,微软和谷歌也有像AWS HealthScribe这样的医疗卫生服务。例如,云服务Microsoft Healthcare Bot就使得医疗卫生组织能够构建和部署可用于各种目的的会话代理,例如分诊和症状检查。还有Google Cloud Healthcare API,该服务提供了一套基于Google Cloud Platform构建的专门用于医疗卫生领域的产品和服务。 Bertalan Meskó是医学未来学家协会(Medical Futurist Institute)的主任、哲学和医学博士,他在LinkedIn的一篇帖子中评论道:看到科技巨头进军医疗卫生领域非常令人兴奋,我们都应该为此感到高兴,因为他们比医疗卫生/制药公司更擅长创造人们想要的技术。 此外,Batch首席执行官Simon Dawlat在推特上写到:随着亚马逊加入微软/谷歌的竞争行列推出HealthScribe,基于人工智能的临床文档API淘金热正如火如荼地进行着——然而,与那些高度专注的公司(如@NablaTech)所提供的产品相比,所有FAANG的产品都显得有些尴尬。 比赛开始了! Nuance和Cerner Corporation(Oracle)等公司也提供了其他一些类似的解决方案,前者为医疗卫生和客户互动提供了对话式人工智能,后者则是医疗卫生信息技术解决方案、服务、设备和硬件供应商。 最后,AWS HealthScribe目前仅在美国东部(弗吉尼亚州北部)地区可用,客户可以填写表单完成注册后访问该服务。了解定价细节可以查看定价页面,了解其他细节可以查阅文档。  原文链接:https://www.infoq.com/news/2023/08/aws-healthscribe-ai-preview/相关阅读:亚马逊云科技re:Inforce 2023中国站:企业如何提高数据、模型和应用安全?降本增效:Grab如何在亚马逊云科技上将Kafka消费者流量成本降到零
1,518
1,695,081,600,680
InfoQ
10
云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二)-阿里云开发者社区
开发者学习笔记【 阿里云云数据库助理工程师(ACA)认证 : 云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二) 】 课程地址 : https://edu.aliyun.com/course/3112080/lesson/19084   云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二) 三、 AnalyticDB  场景案例     AnalyticDB的应用场景主要分为几大类,首先是人群的画像由于AB , 可以支持任意维度任意条件的筛选过滤的聚合统计,在人群画像这个场景可以做到毫无毫妙计的圈人和响应。 其次,在实施营销领域 , 可以进行实时的效果计算,实现营销效果的分钟级的闭环反馈。在运营场景里面,可以对用户行为日志进行实时的分析 。 在自定义的交互式查询报表场景下,可做到查询无卡顿,方便进行探索式的多维分析 , 进行上卷和断取分析。 同时,在超大规模的复杂计算方面 , AnalyticDB可以支持万亿级别、千亿级别 的 大量数据的多表之间进行关联 、 计算,并进行过滤 、 聚合 、统计 等等分析。另外,AnalyticDB还支持非结构化数据和结构化数据的融合的分析 , 通过销量检索功能实现带有条件的以图 搜 图。 接下来讲一些具体的案例 ,如图: 在电商领域,大量客户采用AnalyticDB构建数据仓库或者分析引擎。在这个案例中,用户将原来使用的H i ve 、H Base 、k ylin 等 大数据平台迁移到AnalyticDB构建统一的数据仓库和分析平台 , 可准 时 实时的输出分析报表。可让商户的运营报表每五分钟就能更新一次 , 还可以基于AnalyticDB构建了用户的标签系统进行用户画像分析业务。 在游戏领域 ,如下图:  用户通常使用AnalyticDB构建 , 用户行为分析系统。首先可以基 于 AnalyticDB构建T+1的计算计算报表。 还 可将海量的用户登录 的 用户行为数据和业务数据结合实时的写入到AnalyticDB , 然后每天凌晨 E TL 清洗 加工计算,生成中间数据和 报表 数据。同时也可以基于AnalyticDB构建实时的业务分析报表 。 将清洗后的数据与实时的业务数据进行实时关联 、 交互式分析。同时,实时的运营效果数据可以实时回 写, 并 支持 实时效果回流分析。各方 面 的主要特点是在线分析和离线分析离站式,数据集中存储 统一 存储 ,不再需要 几个组件之间进行数据导入导出。 其次,具有数据库的应用性,通过数据库的使用方式来使用数据。 再一个  AnalyticDB  支持冷热数据分层在游戏行业里海量 的 游戏日志数据 , 可以进行廉价的存储,同时也可以对热数据进行高效的访问。 第三  AnalyticDB  支持 动态的 在线扩容 , 可用于支撑游戏业务的迅猛发展。 在互联网金融领域 ,如下图:  此前的技术方案通常是T + 1 型 报表。现基于AnalyticDB与RDS业务库以及DTS进行组合 , 构建实施出仓的方案。 将RDS里面的业务数据 , 通过DTS等工具实时的同步到AnalyticDB , 对海量离线数据,也可以通过 D ata works等工具批量等迁移至AnalyticDB构建统一的数据仓库 , 可实现实时数据分析 , 从T + 1的效果缩减到秒级。从原来的hive等等大数据分析平台的数十分钟可缩短到秒级。 AnalyticDB也通常用 于 分析领域 ,如下图: 过去采用Oracle RAC 和h adoop等等平台 , 构建的数据平台可以统一到AnalyticDB里 。 AnalyticDB 还 可支持百万级的DTS的数据的实时的写入 和 离线数据的批量导入。 基于AnalyticDB构建企业级的统一的数仓平台 , 以某种云上的客户为例 : 构建一个AnalyticDB200多个节点的统一数据仓库平台,数据存储量达到5PB , 支持十多个APP。 该解决方案的核心的优势就是平台统一,不需要维护复杂的大数据组件和复杂的数据链路性能得到大幅的提升。同时 , 它的兼容性非常好,可采用数据库的方式来访问和使用数据仓库。
0
0
Ali
11
云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二)-阿里云开发者社区
开发者学习笔记【 阿里云云数据库助理工程师(ACA)认证 : 云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二) 】 课程地址 : https://edu.aliyun.com/course/3112080/lesson/19084   云原生数据仓库AnalyticDB MySQL版/PostgreSQL版(二) 三、 AnalyticDB  场景案例     AnalyticDB的应用场景主要分为几大类,首先是人群的画像由于AB , 可以支持任意维度任意条件的筛选过滤的聚合统计,在人群画像这个场景可以做到毫无毫妙计的圈人和响应。 其次,在实施营销领域 , 可以进行实时的效果计算,实现营销效果的分钟级的闭环反馈。在运营场景里面,可以对用户行为日志进行实时的分析 。 在自定义的交互式查询报表场景下,可做到查询无卡顿,方便进行探索式的多维分析 , 进行上卷和断取分析。 同时,在超大规模的复杂计算方面 , AnalyticDB可以支持万亿级别、千亿级别 的 大量数据的多表之间进行关联 、 计算,并进行过滤 、 聚合 、统计 等等分析。另外,AnalyticDB还支持非结构化数据和结构化数据的融合的分析 , 通过销量检索功能实现带有条件的以图 搜 图。 接下来讲一些具体的案例 ,如图: 在电商领域,大量客户采用AnalyticDB构建数据仓库或者分析引擎。在这个案例中,用户将原来使用的H i ve 、H Base 、k ylin 等 大数据平台迁移到AnalyticDB构建统一的数据仓库和分析平台 , 可准 时 实时的输出分析报表。可让商户的运营报表每五分钟就能更新一次 , 还可以基于AnalyticDB构建了用户的标签系统进行用户画像分析业务。 在游戏领域 ,如下图:  用户通常使用AnalyticDB构建 , 用户行为分析系统。首先可以基 于 AnalyticDB构建T+1的计算计算报表。 还 可将海量的用户登录 的 用户行为数据和业务数据结合实时的写入到AnalyticDB , 然后每天凌晨 E TL 清洗 加工计算,生成中间数据和 报表 数据。同时也可以基于AnalyticDB构建实时的业务分析报表 。 将清洗后的数据与实时的业务数据进行实时关联 、 交互式分析。同时,实时的运营效果数据可以实时回 写, 并 支持 实时效果回流分析。各方 面 的主要特点是在线分析和离线分析离站式,数据集中存储 统一 存储 ,不再需要 几个组件之间进行数据导入导出。 其次,具有数据库的应用性,通过数据库的使用方式来使用数据。 再一个  AnalyticDB  支持冷热数据分层在游戏行业里海量 的 游戏日志数据 , 可以进行廉价的存储,同时也可以对热数据进行高效的访问。 第三  AnalyticDB  支持 动态的 在线扩容 , 可用于支撑游戏业务的迅猛发展。 在互联网金融领域 ,如下图:  此前的技术方案通常是T + 1 型 报表。现基于AnalyticDB与RDS业务库以及DTS进行组合 , 构建实施出仓的方案。 将RDS里面的业务数据 , 通过DTS等工具实时的同步到AnalyticDB , 对海量离线数据,也可以通过 D ata works等工具批量等迁移至AnalyticDB构建统一的数据仓库 , 可实现实时数据分析 , 从T + 1的效果缩减到秒级。从原来的hive等等大数据分析平台的数十分钟可缩短到秒级。 AnalyticDB也通常用 于 分析领域 ,如下图: 过去采用Oracle RAC 和h adoop等等平台 , 构建的数据平台可以统一到AnalyticDB里 。 AnalyticDB 还 可支持百万级的DTS的数据的实时的写入 和 离线数据的批量导入。 基于AnalyticDB构建企业级的统一的数仓平台 , 以某种云上的客户为例 : 构建一个AnalyticDB200多个节点的统一数据仓库平台,数据存储量达到5PB , 支持十多个APP。 该解决方案的核心的优势就是平台统一,不需要维护复杂的大数据组件和复杂的数据链路性能得到大幅的提升。同时 , 它的兼容性非常好,可采用数据库的方式来访问和使用数据仓库。
0
0
Ali
README.md exists but content is empty. Use the Edit dataset card button to edit it.
Downloads last month
0
Edit dataset card