This is xxxxx Because MES guy mistaken , the data was wrong and made system error then. After that I plan to set "autocommit off" in sqlserver as default. However, I totally understood why can not set "auto commit off" in sqlserver aft…
20181218 - PostgreSQL Auto Commit Guide 参考官网简介,https://www.postgresql.org/docs/10/ecpg-sql-set-autocommit.html 一.功能简介 Oracle中sqlplus里面执行DML语句:是需要提交commit:若错了:也可以回滚rollback: PostgreSQL psql里面默认是自动提交:执行完就马上提交,不能回滚,可以关闭自动提交. AutoCommit基于客户端(psql.pgadmin…
为了解决写索引时频繁提交带来的效率问题,考虑使用自动提交. 在solrconfig.xml中增加以下代码: <updateHandler class="solr.DirectUpdateHandler2"> <autoCommit> <maxDocs>1000</maxDocs> <maxTime>10000</maxTime> </autoCommit> </updateHandler>…
通常我们执行sql或pl/sql时,需要我们手工提交.这样才能使所做的更改永久保存到数据库. 但有时即使我们没有在sql或pl/sql中发出commit命令,所做的更改也会被提交.这种提交是在某些特定的情况下oracle自动发生的,通常包括以下一些情况(不是很全,只是自己知道的其中几种,欢迎大家补充): DDL语句(像如:create table...)被执行; DCL语句(像如:grant.revoke..)被执行; 用户从DB中disconnect; sqlplus中使用exit命令; DM…
db2 关闭命令行CLP自动提交 --临时关闭自动提交 #db2 "update command options using C off --永久关闭自动提交 ----linux 环境下 #db2set -lr  | grep -i "db2option" ----Windows 环境下 #db2set -lr | find /i "db2option"  db2set 设置  db2set DB2OPTIONS=+c  …
Understanding Auto Layout 理解自动布局 Auto Layout dynamically calculates the size and position of all the views in your view hierarchy, based on constraints placed on those views. For example, you can constrain a button so that it is horizontally centered…
kafka auto.offset.reset参数解析 1.latest和earliest区别 2.创建topic 3.生产数据和接收生产数据 4.测试代码 auto.offset.reset关乎kafka数据的读取.常用的二个值是latest和earliest,默认是latest. 如果kafka只接收数据,从来没来消费过,程序一开始不要用latest,不然以前的数据就接收不到了.应当先earliest,然后二都都可以. earliest 当各分区下有已提交的offset时,从提交的offse…
commands : show sys connect sys as sysdba or connect system as sysdba logout or disc clear screen or cle screen (utlsample.sql  —> unlock scott tables.sql  —> all tables data.sql  —> add data into tables) connect scott/tiger start C:\utlsample.sq…
Introduction Apache Kafka is a distributed publish-subscribe messaging system. It was originally developed at LinkedIn Corporation and later on became a part of Apache project. Kafka is a fast, scalable, distributed in nature by its design, partition…
官方文档详见:http://docs.spring.io/spring-kafka/docs/1.0.2.RELEASE/reference/htmlsingle/ Authors Gary Russell , Artem Bilan 1.0.2.RELEASE Copyright © 2016 Pivotal Software Inc. Copies of this document may be made for your own use and for distribution to ot…
This is intended to be an easy to understand FAQ on the topic of Kafka. One part is for beginners, one for advanced users and use cases. We hope you find it fruitful. If you are missing a question, please send it to your favorite Cloudera representat…
my.cnf[client] 对mysql的所有客端都生效的[mysql] 只对mysql这个命令有效了[mysqd][mysqld_multi] 多实例启动[mysqld_safe][mysqldNNNN]#[global]set SQL_SAFE_UPDATES = 1;运行一段时间,mysql参数优化1 慢查询 show variables like '%slow%';mysql> show variables like '%slow%';+------------------------…
Check out my last article, Kafka Internals: Topics and Partitions to learn about Kafka storage internals. In Kafka, each topic is divided into set of partitions. Producers write messages to the tail of the partitions and consumers read them at their…
atlas  是apache下的大数据的元数据管理平台,支持对hive.storm.kafka.hbase.sqoop等进行元数据管理以及以图库的形式展示数据的血缘关系. 一.架构 整体架构实现如下图所示: Type System: Atlas allows users to define a model for the metadata objects they want to manage. The model is composed of definitions called ‘types…
一.spark structured-streaming  介绍 我们都知道spark streaming  在v2.4.5 之后 就进入了维护阶段,不再有新的大版本出现,而且 spark streaming  一直是按照微批来处理streaming  数据的,只能做到准实时,无法像flink一样做到数据的实时数据处理.所以在spark streaming  进入到不再更新的维护阶段后,spark 推出了 structured-streaming 来同flink 进行竞争,structured-…
继上一篇<Mysql事务探索及其在Django中的实践(一)>交代完问题的背景和Mysql事务基础后,这一篇主要想介绍一下事务在Django中的使用以及实际应用给我们带来的效率提升. 首先贴上Django官方文档中关于Database Transaction一章的介绍:https://docs.djangoproject.com/en/1.9/topics/db/transactions/. 在Django中实现事务主要有两种方式:第一种是基于django ORM框架的事务处理,第二种是基于原…
原文地址:http://kafka.apache.org/documentation.html ############################# System ############################# #唯一标识在集群中的ID,要求是正数. broker. #服务端口,默认9092 port= #监听地址,不设为所有地址 host.name=debugo01 # 处理网络请求的最大线程数 num.network.threads= # 处理磁盘I/O的线程数 num.i…
更多MyCat源码分析,请戳MyCat源码分析系列 SQL下发 SQL下发指的是MyCat将解析并改造完成的SQL语句依次发送至相应的MySQL节点(datanode)的过程,该执行过程由NonBlockingSession.execute()触发: public void execute(RouteResultset rrs, int type) { // clear prev execute resources clearHandlesResources(); if (LOGGER.isDe…
F.1字符函数--返回字符值 这些函数全都接收的是字符族类型的参数(CHR除外)并且返回字符值.除了特别说明的之外,这些函数大部分返回VARCHAR2类型的数值.字符函数的返回类型所受的限制和基本数据库类型所受的限制是相同的,比如: VARCHAR2数值被限制为2000字符(ORACLE 8中为4000字符),而CHAR数值被限制为255字符(在ORACLE8中是2000).当在过程性语句中使用时,它们可以被赋值给VARCHAR2或者CHAR类型的PL/SQL变量. ASCII 语法:ascii…
一直以来都想写一点关于kafka consumer的东西,特别是关于新版consumer的中文资料很少.最近Kafka社区邮件组已经在讨论是否应该正式使用新版本consumer替换老版本,笔者也觉得时机成熟了,于是写下这篇文章讨论并总结一下新版本consumer的些许设计理念,希望能把consumer这点事说清楚,从而对广大使用者有所帮助. 在开始之前,我想花一点时间先来明确一些概念和术语,这会极大地方便我们下面的讨论.另外请原谅这文章有点长,毕竟要讨论的东西很多,虽然已然删除了很多太过细节的东…
Kafka 0.9版本开始推出了Java版本的consumer,优化了coordinator的设计以及摆脱了对zookeeper的依赖.社区最近也在探讨正式用这套consumer API替换Scala版本的consumer的计划.鉴于目前这方面的资料并不是很多,本文将尝试给出一个利用KafkaConsumer编写的多线程消费者实例,希望对大家有所帮助.     这套API最重要的入口就是KafkaConsumer(o.a.k.clients.consumer.KafkaConsumer),普通的…
Kafka到底会不会丢数据(data loss)? 通常不会,但有些情况下的确有可能会发生.下面的参数配置及Best practice列表可以较好地保证数据的持久性(当然是trade-off,牺牲了吞吐量).笔者会在该列表之后对列表中的每一项进行讨论,有兴趣的同学可以看下后面的分析. block.on.buffer.full = true acks = all retries = MAX_VALUE max.in.flight.requests.per.connection = 1 使用Kafk…
简介 Apache Kafka是分布式发布-订阅消息系统.它最初由LinkedIn公司开发,之后成为Apache项目的一部分.Kafka是一种快速.可扩展的.设计内在就是分布式的,分区的和可复制的提交日志服务. Kafka架构 它的架构包括以下组件: 话题(Topic):是特定类型的消息流.消息是字节的有效负载(Payload),话题是消息的分类名或种子(Feed)名. 生产者(Producer):是能够发布消息到话题的任何对象. 服务代理(Broker):已发布的消息保存在一组服务器中,它们被…
参考 http://blog.csdn.net/superdog007/article/details/38852399 FlushMode的枚举值: FlushMode.ALWAYS:任务一条SQL语句,都会flush一次 FlushMode.AUTO :自动flush(默认) FlushMode.COMMIT: 只有在commit时才flush FlushMode.MANUAL:手动flush. FlushMode.NEVER :永远不flush 此选项在性能优化时可能用,比如session…
转载自http://www.linuxidc.com/Linux/2014-07/104470.htm 介绍 Kafka是一个分布式的.可分区的.可复制的消息系统.它提供了普通消息系统的功能,但具有自己独特的设计.这个独特的设计是什么样的呢?   首先让我们看几个基本的消息系统术语: Kafka将消息以topic为单位进行归纳. 将向Kafka topic发布消息的程序成为producers. 将预订topics并消费消息的程序成为consumer. Kafka以集群的方式运行,可以由一个或多个…
Kafka为broker,producer和consumer提供了很多的配置参数. 了解并理解这些配置参数对于我们使用kafka是非常重要的.本文列出了一些重要的配置参数. 官方的文档 Configuration比较老了,很多参数有所变动, 有些名字也有所改变.我在整理的过程中根据0.8.2的代码也做了修正. Boker配置参数 下表列出了Boker的重要的配置参数, 更多的配置请参考 kafka.server.KafkaConfig name 默认值 描述 brokerid none 每一个b…
我们继续讨论console consumer的实现原理,本篇着重探讨ZookeeperConsumerConnector的使用,即后续所有的内容都由下面这条语句而起: val connector = Consumer.create(config)   那么问题来了?这条语句后面执行了什么呢?我们先看create方法的定义 def create(config: ConsumerConfig): ConsumerConnector = {     val consumerConnect = new…
顾名思义,就是kafka的consumer api包. 一.ConsumerConfig.scala Kafka consumer的配置类,除了一些默认值常量及验证参数的方法之外,就是consumer的配置参数了,比如group.id, consumer.id等,详细列表见官网. 二.ConsumerIterator.scala     KafkaStream的迭代器类,当stream底层的阻塞队列为空时该iterator会置于阻塞状态.这个迭代器还提供了一个shutdownCommand对象可…
F.1字符函数--返回字符值 这些函数全都接收的是字符族类型的参数(CHR除外)并且返回字符值.除了特别说明的之外,这些函数大部分返回VARCHAR2类型的数值.字符函数的返回类型所受的限制和基本数据库类型所受的限制是相同的,比如: VARCHAR2数值被限制为2000字符(ORACLE 8中为4000字符),而CHAR数值被限制为255字符(在ORACLE8中是2000).当在过程性语句中使用时,它们可以被赋值给VARCHAR2或者CHAR类型的PL/SQL变量. ASCII 语法:ascii…
In this topic About using environment settings Environment settings summary table About using environment settings Each tool has a set of parameters it uses to execute an operation. Some of these parameters are common among all tools, such as a toler…