我最新最全的文章都在南瓜慢说 www.pkslow.com,欢迎大家来喝茶! 1 前言 之前的文章<整合Spring Cloud Stream Binder与RabbitMQ进行消息发送与接收>讲解了Spring Cloud stream与RabbitMQ的整合,本文将简单介绍一下Spring Cloud Stream与Google Cloud Pub/Sub的整合. 2 通过Emulator启动Pub/Sub 因使用实际的GCP Pub/Sub相对麻烦,本文通过模拟器来运行. 关于Googl…
如何取消 Google Cloud Platform 试用 & 关闭 GCP 帐号 & 删除信用卡 & 取消订阅 关闭您的 Google Cloud Platform 帐号 step: 1. 关停(删除)项目 https://console.cloud.google.com/cloud-resource-manager step: 2. 关闭付款账号 https://console.cloud.google.com/billing step: 3. 移除付款方式 https://p…
以前一直是财务维护的K3  Cloud突然说不能登录,用的SQL 2008的数据库,运维也搞不定,找帮忙,因为是部署在阿里云上,上去看看数据库,这个K3数据库占了600多G,想看看这个表结构,就是打不开,用了这些年的数据库,第一次碰到数据库的表结构 打不开,看了数据库没打补丁,下了个SP3,打补丁重启. 但是还是连不上,查了正在执行的sql,和运行命令,看看那些表比较大,看表大小的sql就是不能运行成功. 打开K3的页面,就报数据中心无法加载,网上查了就是  K3CloudJobProcess和…
数据对像(可以通俗地认为是文件)的分块存储具有久远的历史.长久以来,单机文件系统一直将文件切分为若干固定大小的小块.其主要目的是为了进行有效的空间管理.互联网时代,大规模数据存储逐步发展起来.出于降低成本的考虑,人们在分块存储的基础上进行数据块的复用,即所谓的“消重”.但对于大型的在线对象存储而言,分块消重是有害的. 具体来讲,分块消重是将数据对像切分成固定大小的数据块.数据对像之间有些数据块可能是一样的,那么就让它们共享数据块.换句话说,相同的数据块只留一份,所有用到这个数据块的对象,都指向这…
一.数据库查询常用表 --查询数据表select * from ( ),t1.FKERNELXML.query('//TableName')) as 'Item',t1.FKERNELXML,t2.FNAME, t1.* from T_META_OBJECTTYPE t1 left join T_META_OBJECTTYPE_L t2 on t1.FID=t2.FID --where t1.fid='SAL_SaleOrder' ) t where Item<>'' and FNAME li…
我最新最全的文章都在南瓜慢说 www.pkslow.com,欢迎大家来喝茶! 1 简介 GCP的Pubsub是一种异步消息传递服务,可将生产事件的服务与处理事件的服务隔离开.消息队列的作用就不多作介绍了,与Kafka.RabbitMQ等差不多.使用Pubsub一个重要原因是不用自己去管理整个中间件的运维,将专业的事交给专业的团队去做.这样,其实也是一种节约成本的方式. GCP还提供了更低费用的Pubsub Lite,这里不多作介绍了. 2 概念 2.1 基本概念 一些重要的核心概念: 主题:生产…
关于Google Cloud Storage Google Cloud Storage有益于大文件的存储与服务(serve).此外,Cloud Storage提供了对访问控制列表(ACLs)的使用,提供了对上传中断的恢复功能以及其他的特性.Google Cloud Storage client库对应用自动使用恢复功能,提供了一种健壮的导(stream)数据到Cloud Storage的方法. 关于client library Google Cloud Storage client库使你的应用可以…
宠物识别我们使用到了tensorflow object-detection API  (https://github.com/tensorflow/models/tree/master/research/object_detection) 其中的Quick Start 2向我们介绍了这个项目(https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/running_pets.md) 安装建议直…
即席查询普通查询 Load Data1) RDD DataFrame/Dataset2) Local Cloud(HDFS/S3) 将数据加载成RDDval masterLog = sc.textFile("file:///home/hadoop/app/spark-2.1.0-bin-2.6.0-cdh5.7.0/logs/spark-hadoop-org.apache.spark.deploy.master.Master-1-hadoop001.out")val workerLog…
http://blog.163.com/kingmax_res/blog/static/77282442201031712216508/ 先介绍一些基本函数(具体用法自己查文档):--------------------------------------------------------1.场景切换:Application.LoadLevel("Level1")2.读取场景时不移除物体:DontDestroyOnLoad(object)  //会保留该物体的任何数据,包括坐标,可以…