Skip to main content

BYOC 计费说明

参考计费概要的说明,本文详细介绍 BYOC 环境下 AutoMQ Cloud 产品涉及到的各个计费项详情。

info

本文中提及的云厂商、公共云厂商等名词,均指主流的云服务商,例如 AWS、GoogleCloud、Azure 、阿里云、腾讯云、华为云等厂商。

AutoMQ 订阅费用(向 AutoMQ 支付)

在 BYOC 环境下使用 AutoMQ Cloud,需要根据用户实际的集群规模来支付订阅费用。AutoMQ 度量订阅费用的规模指标包括如下:

  • 消息处理规格 AKU(AutoMQ Kafka Unit): 必选,消息处理规格 AKU 用来衡量 Kafka 集群收发消息过程中分配的计算处理资源的规模。AKU 规格和集群的规模压力成正相关。

消息处理规格 AKU 费用

指标约束

消息处理规格 AKU 代表了集群在消息传输过程中所分配的计算处理资源。AKU 考虑了计算处理、存储 IOPS、网络吞吐等资源消耗。

为每个 AutoMQ 实例分配适当的 AKU 规格可以确保实现所需的消息传输吞吐能力。根据基准性能测试结果,每增加 1 个 AKU 规格可提供以下性能能力:

每 1AKU 提供的能力项
说明

读写吞吐


写入 30 MiB/s 或者读取 60MiB/s


消息读写调用的核心业务指标和压力。如果超过预定规格,可能造成服务响应变慢,RT 增大或者被限流失败。


tip

举例:某 AutoMQ 实例,写入吞吐 60MiB/s,读取吞吐 240MiB/s,则该实例写入吞吐消耗 60/30 = 2AKU,读取吞吐消耗 240/60=6AKU,总计 8AKU。



客户端请求频率


800 次/秒


应用通过 Kafka Producer、Consumer SDK 访问服务端的请求频率和压力。如果超过预定规格,可能造成被限流或者 RT 增大。


请求类型包括:


  • Produce
  • FetchConsumer
  • CommitOffset

分区数上限


1125 个


分区数量约束了实例同时承载的元数据规模。如果超过预定规格,可能造成如下现象:


  • 无法新建 Topic,或者扩容分区。
tip

AutoMQ 基于 S3 的共享存储架构对比 Apache Kafka在相同集群规模下 支持 10 倍 的分区性能,无需关注分区过多导致性能下降。


如果默认的分区数量不满足需求,请通过 获取人工服务▸ 联系我们。



info

生产环境中建议应用严格按照上述规格处理能力来评估资源消耗及时进行扩缩容,避免超限使用造成集群压力过大影响服务稳定性。

计算规则

每个 AutoMQ 实例(集群)可在创建、变更规格时指定所需的 AKU 规格。计量计费时会统计各实例实时消耗的 AKU 数量。

  • 统计范围:AutoMQ Kafka 每个实例的 AKU 数量。

  • 统计方式:按小时为周期,统计周期内峰值。

  • 聚合方式:按照实例粒度聚合统计。

云资源费用(部署实例依赖的云资源,向云厂商支付)

部署 AutoMQ 实例,除订阅费用外,用户还会产生依赖的资源消耗。以阿里云云厂商为例:

云产品
规格和用量
依赖说明
VM(虚拟主机)
  • 规格:依据不同地域存在差异, 可能会存在差异。
  • 用量:随用户集群规模变化而伸缩
  • AutoMQ Kafka 虚拟主机消耗随用户集群规模而变化。
  • 即使没有创建实例,也至少消耗 1 台主机用于部署管控界面。
云盘( Elastic Block Service)
  • 规格:PL1 类型
  • 用量:每个 kafka 数据节点需要消耗 40GB
  • AutoMQ Kafka 使用云盘存储临时的消息数据。
对象存储
  • 规格:标准容灾存储
  • 用量:每个环境 2 个 Bucket,存储空间随用户环境资源消耗而伸缩
  • 消息集群的核心存储依赖。
  • S3 按照实际使用空间和调用量向云厂商付费。