一,引言 今天分享一个新的Azure 服务-----Azure Data Factory(Azure 数据工厂),怎么理解,参考根据官方解释-----数据工厂解释:大数据需要可以启用协调和操作过程以将这些巨大的原始数据存储优化为可操作的业务见解的服务. Azure 数据工厂是为这些复杂的混合提取-转换-加载 (ETL).提取-加载-转换 (ELT) 和数据集成项目而构建的托管云服务. 说简单点,Azure Data Factory 可以创建和计划数据驱动型工作,也就是 Pineline,从不同的…
一,引言 上一篇主要只讲了Azure Data Factory的一些主要概念,今天开始新的内容,我们开始通过Azure DevOps 或者 git 管理 Azure Data Factory 中的源代码,同时创建 Pipleline 将 Azure Blob1 的 Container 的数据通过 Copy Data 复制到 Azure Blob2的 Container中.我选择的是Azure DevOps 作为代码管理的工具 --------------------我是分割线----------…
问题描述 Azure Function HTTP 触发后, 230秒就超时,而其他方式触发的Function, 执行5分钟后也超时,如何调整超时时间? 问题分析 查阅官方文档,对函数应用超时持续时间有详细介绍:最新的3.X版本的默认值根据Function计划的类型不同而不同,默认的最少为5分钟,最大30分钟.消耗计划的Function最大可调整为10分钟,而其他两种无限制. 但是,非常非常重要的一点是:如果Function是HTTP触发类型.它的响应时间最大最大就是230秒. 这是因为 Azur…
一切为了安全,所有的云上资源如支持内网资源访问,则都可以加入虚拟网络 问题描述 使用Azure Function处理Storage Account中Blob 新增,更新,删除等情况.Storage Account启用虚拟网络中的服务终结点(Service Endpoint)后,可以实现只能从内网访问.同时,Azure Function也支持集成内网.并且可支持在虚拟网络中被Storage Account所触发.所以根据门户中一步一步的操作,配置完Azure Function和Storage Ac…
问题描述 经过前两篇文章,分别使用VM搭建了Kafka服务,创建了Azure Function项目,并且都在本地运行成功. [Azure Developer]在Azure VM (Windows) 中搭建 kafka服务,并且通过本地以及远程验证 发送+消费 消息 [Azure 应用服务]本地创建Azure Function Kafka Trigger 函数和Kafka output的HTTP Trigger函数实验 现在,本文中将把Kafka Trigger Function代码部署到Azur…
一,引言 由于上一节文章内容过长,无法分享Azure Data Factory 的持续集成,持续发布.今天将着重介绍一下在使用 Azure DevOps Pipeline 发布,自动进行持续集成,并且已自动化发布,将Azure Data Factory 部署到多个环境中. 其实大家也不必惊讶,这里的部署其实也没有多么神秘的,我们在ADF中的 master 分支发布之后,其实会将ADF中所有的配置信息打包,编译到adf_master 分支下面,如果大家仔细看过发布之后的代码,就很很容易发现,都是一…
问题描述 当需要在应用中有大量的出站连接时候,就会涉及到SNAT(源地址网络转换)耗尽的问题.而通过Azure App Service/Function的默认监控指标图表中,却没有可以直接查看到SNAT是否耗尽的问题(可以间接参考App Service Plan级中Metrics的 Socket Outbound All指标,但是由于它是整个Plan下所有App Service的汇总数据,不能直接表明SNAT是否超过128的限制). 这里所说的出站连接如:SQL数据库, Redis缓存以及其他的…
学习内容: 如何通过 Visual Studio 2015 中的内置工具在 Azure 应用服务中创建和部署 API 应用. 如何使用 Swashbuckle NuGet 包动态生成 Swagger API 元数据,以便自动进行 API 发现. 如何使用 Swagger API 元数据自动生成 API 应用的客户端代码. Note 若要将 Visual Studio 连接到 Azure 中国区,可按使用 Visual Studio 2015 连接中国区 Azure中的说明操作. 如果使用的是 V…
一,引言 上一篇有介绍到使用Azure Data Factory 复制数据,然后有集成 Azure DevOps 实现CI/CD,但是对于真正的项目来说,这些肯定是不够的,比如说在执行 Azure Pipeline 的过程中的监视,监视 Pipeline 的状态,想通过邮件的方式接受监视信息. --------------------我是分割线-------------------- 1,Azure Data Factory(一)入门简介 2,Azure Data Factory(二)复制数据…
一,引言 之前讲解的ADF 集成Azure DevOps 实现CI/CD,在 Releases Pipeline 阶段,我们是将两个 Blob Storage 的链接字符串复制.粘贴到 "Override template parameters",这样虽然说实现了对应的功能,但是也暴露出一定的问题,就是将 "UAT",甚至 "Pro" 环境的链接字符串暴露出来了,这样是很危险的.也是不允许的. 这个时候,有人就说了,可以使用共享访问签名,设定有效…