简介: 【开通指南】实时计算 Flink 全托管版本

1、试用的实时计算 Flink 版产品是后付费还是预付费?是否有额外费用产生?
预付费,有额外的SLB费用,一天2元封顶。(开通 Flink 全托管产品,需使用按量付费 SLB 从公网访问开发控制台产生费用,1小时≈5分钱,2元/天封顶,欠费后请续费以正常访问开发控制台;如果欠费超过7天,将会释放,释放后不能再访问开发控制台。)

2、新用户是否限制同人?
同人多个账号参与:限制; 每个人参与次数:限制 1 次

3、试用结束后客户实例的状态,是否存在停止服务及数据丢失或额外收费的情况?
购买时默认不自动续费,只要不自己点击续费,试用结束不会扣钱,试用结束后数据保留7天且会短信通知,7天后依然没有续费则数据和实例一起释放消失。

4、“飞天会员福利日”活动奖品的邮寄时长?
邮寄时长约3天,如无意外情况,活动结束后10天可以到手
开通操作指南

一、流程概要:

1.登陆阿里云账号
2.点击实时计算控制台链接, 点击购买 Flink 全托管,进行实名认证,以及RAM授权
3.选择【包年包月】、【10CU】全托管产品限时优惠99元开通并付款
4.个人体验99元/首月优惠福利,免费认证飞天会员享受首月0元试用!

二、步骤分解

前情提要

  • 开通任务请务必按文档开通,选择【包年包月】,【10CU】。
  • SLB 是为了能从公网访问开发控制台,SLB 绑定的是按量付费的 SLB 欠费后不能访问开发控制台,续费即可,1个小时大概5分钱左右,欠费超时会被释放,释放后集群不能使用,需重新购买。

0.登陆账号
登陆自己的阿里云账号

1.打开实时计算控制台

  • 点击【购买产品】,进行实名认证,如已认证请进行下部操作

2.进行RAM授权

3.出现 Flink 全托管页面,基本配置

  • 【包年包月】一定要选择包年包月
  • 【1个月】自动生成,不需要调整
  • 【自动续费】可根据自身情况选择
  • 【地域】可根据自身情况选择,记住地域,后面创建的时候会用到(注意:Flink 云原生集群只能访问相同区域下的上下游存储)
  • 【可用区】每选定一个区域,可用区是固定的,记住这个可用区,后面创建交换机的时候会用到

4.网络配置

  • 【专有网络】创建专有网络,如出现地域/可用区选项要填写基本配置里面的地域和可用区(注意:如果该账号下有上下游存储,要注意选择和存储在相同 VPC 下的 ID)
  • 【虚拟交换机】打对号,开通账号下没有虚拟交换机需要创建和基本配置中相同可用区下的交换机,如下图:

5.工作配置10CU

  • 【工作空间名称】
  • 【计算资源配额】10 CU,一定要10CU

6.创建存储配置

  • 【OSS存储】用于 jar 存储和 state 存储,如果没有点击创建,跳转到 oss 控制台中进行创建,且区域选择和基础配置相同的区域

  • 创建区域选择“基本配置”时选择的地域

7.核对金额
再次核对99元,并点击确认订单,完成付款;特别说明认证飞天会员后会显示0元。

非常重要!

原文链接
本文为阿里云原创内容,未经允许不得转载。

【开通指南】 实时计算 Flink 全托管版本的更多相关文章

  1. 实时计算Flink on Kubernetes产品模式介绍

    Flink产品介绍 目前实时计算的产品已经有两种模式,即共享模式和独享模式.这两种模式都是全托管方式,这种托管方式下用户不需要关心整个集群的运维.其次,共享模式和独享模式使用的都是Blink引擎.这两 ...

  2. 可以穿梭时空的实时计算框架——Flink对时间的处理

    Flink对于流处理架构的意义十分重要,Kafka让消息具有了持久化的能力,而处理数据,甚至穿越时间的能力都要靠Flink来完成. 在Streaming-大数据的未来一文中我们知道,对于流式处理最重要 ...

  3. Spark练习之通过Spark Streaming实时计算wordcount程序

    Spark练习之通过Spark Streaming实时计算wordcount程序 Java版本 Scala版本 pom.xml Java版本 import org.apache.spark.Spark ...

  4. Flink消费Kafka数据并把实时计算的结果导入到Redis

    1. 完成的场景 在很多大数据场景下,要求数据形成数据流的形式进行计算和存储.上篇博客介绍了Flink消费Kafka数据实现Wordcount计算,这篇博客需要完成的是将实时计算的结果写到redis. ...

  5. 《大数据实时计算引擎 Flink 实战与性能优化》新专栏

    基于 Flink 1.9 讲解的专栏,涉及入门.概念.原理.实战.性能调优.系统案例的讲解. 专栏介绍 扫码下面专栏二维码可以订阅该专栏 首发地址:http://www.54tianzhisheng. ...

  6. 一文让你彻底了解大数据实时计算引擎 Flink

    前言 在上一篇文章 你公司到底需不需要引入实时计算引擎? 中我讲解了日常中常见的实时需求,然后分析了这些需求的实现方式,接着对比了实时计算和离线计算.随着这些年大数据的飞速发展,也出现了不少计算的框架 ...

  7. 基于Kafka的实时计算引擎如何选择?Flink or Spark?

    1.前言 目前实时计算的业务场景越来越多,实时计算引擎技术及生态也越来越成熟.以Flink和Spark为首的实时计算引擎,成为实时计算场景的重点考虑对象.那么,今天就来聊一聊基于Kafka的实时计算引 ...

  8. Apache Flink 如何正确处理实时计算场景中的乱序数据

    一.流式计算的未来 在谷歌发表了 GFS.BigTable.Google MapReduce 三篇论文后,大数据技术真正有了第一次飞跃,Hadoop 生态系统逐渐发展起来. Hadoop 在处理大批量 ...

  9. Flink+kafka实现Wordcount实时计算

    1. Flink Flink介绍: Flink 是一个针对流数据和批数据的分布式处理引擎.它主要是由 Java 代码实现.目前主要还是依靠开源社区的贡献而发展.对 Flink 而言,其所要处理的主要场 ...

  10. (二)基于商品属性的相似商品推荐算法——Flink SQL实时计算实现商品的隐式评分

    系列随笔: (总览)基于商品属性的相似商品推荐算法 (一)基于商品属性的相似商品推荐算法--整体框架及处理流程 (二)基于商品属性的相似商品推荐算法--Flink SQL实时计算实现商品的隐式评分 ( ...

随机推荐

  1. Linux快速入门(六)Linux网络管理

    ping ping命令用于测试两台主机之间是否可以通信,一般情况下会使用ping www.baidu.com来测试网络连通性,如果不指定发送包的个数默认是一直发送数据包,可以使用Ctrl+C停止.网络 ...

  2. 记录--JS原型链

    这里给大家分享我在网上总结出来的一些知识,希望对大家有所帮助 引子 对于初学者学习原型链,还是有很大的困难.一方面是函数与对象分不太清楚:另一方面,不懂原型链的继承等.本人曾今也深受困惑,并且把疑惑的 ...

  3. Arch Linux 安装手记

    背景 今天尝试安装龙芯版 Linux,本来希望能安装 Debian 版,但只找到一些文档,没找到可安装版的 ISO. 后来顺着这篇文章找到了Arch Linux,就尝试安装了一下. 安装后发现竟然不会 ...

  4. KingbaseES V8R6集群备份恢复案例之---备份初始化“can not find primary node”故障

    案例说明: KingbaseES V8R6集群,备库作为repo-path节点,建立类型为'cluster'模式的备份,在执行sys_backup.sh init时,出现"can not f ...

  5. 【WCH以太网接口系列芯片】CH9121\9120、CH395\392以太网系列芯片的硬件电路注意事项

    本篇基于沁恒微电子官方的以太网接口芯片的DEMO参考原理图进行分析,对一些注意事项进行标注,如果硬件设计上出现问题可以对照参考. CH912x系列: 1.CH9121:建议设计中可以将31脚RUN脚预 ...

  6. 数据解析之re正则表达式

    数据解析之re正则表达式 1. 正则基础 1.1 为什么使用正则 需求 判断一个字符串是否是手机号 解决 编写一个函数,给函数一个字符串,如果是手机号则返回True,否则返回False 代码 def ...

  7. #dp or 贪心+堆#CF704B Ant Man

    题目 分析(dp) 考虑到对于一个排列单独抽出 \(1\sim i\) 可能会分成若干段,而贡献一定是固定的,不会影响之后的选择. 首先 \(a,c\) 加上 \(x\),\(b,d\) 减去 \(x ...

  8. Jetty的http2模块

    启用http2模块,执行如下命令: java -jar $JETTY_HOME/start.jar --add-modules=http2 命令的输出,如下: INFO : http2 initial ...

  9. 战码先锋直播预告丨参与文档贡献,开启OpenHarmony社区贡献之旅

    OpenAtom OpenHarmony(以下简称"OpenHarmony")工作委员会首度发起「OpenHarmony开源贡献者计划」(本期OpenHarmony开源贡献者计划以 ...

  10. SQL FOREIGN KEY 约束- 保障表之间关系完整性的关键规则

    SQL FOREIGN KEY 约束 SQL FOREIGN KEY 约束用于防止破坏表之间关系的操作.FOREIGN KEY 是一张表中的字段(或字段集合),它引用另一张表中的主键.具有外键的表称为 ...