ZooKeeper 概述

Zookeeper 是一个分布式协调服务的开源框架。 主要用来解决分布式集群中
应用系统的一致性问题,例如怎样避免同时操作同一数据造成脏读的问题。
ZooKeeper 本质上是一个分布式的小文件存储系统。 提供基于类似于文件系
统的目录树方式的数据存储,并且可以对树中的节点进行有效管理。从而用来维
护和监控你存储的数据的状态变化。通过监控这些数据状态的变化,从而可以达
到基于数据的集群管理。 诸如: 统一命名服务(dubbo)、分布式配置管理(solr的配置集中管理)、分布式消息队列(sub/pub)、分布式锁、分布式协调等功能。

2.1、zookeeper的架构图

Leader:
Zookeeper 集群工作的核心
事务请求(写操作) 的唯一调度和处理者,保证集群事务处理的顺序性;
集群内部各个服务器的调度者。
对于 create, setData, delete 等有写操作的请求,则需要统一转发给leader 处理, leader 需要决定编号、执行操作,这个过程称为一个事务。
Follower:
处理客户端非事务(读操作) 请求,

转发事务请求给 Leader;

参与集群 Leader 选举投票 2n-1台可以做集群投票。

此外,针对访问量比较大的 zookeeper 集群, 还可新增观察者角色。

Observer:
观察者角色,观察 Zookeeper 集群的最新状态变化并将这些状态同步过
来,其对于非事务请求可以进行独立处理,对于事务请求,则会转发给 Leader
服务器进行处理。
不会参与任何形式的投票只提供非事务服务,通常用于在不影响集群事务
处理能力的前提下提升集群的非事务处理能力。

扯淡:说白了就是增加并发的读请求

2.2、zookeeper的特性

1.全局数据一致:每个 server 保存一份相同的数据副本, client 无论连
接到哪个 server,展示的数据都是一致的,这是最重要的特征;
2. 可靠性:如果消息被其中一台服务器接受,那么将被所有的服务器接受。
3. 顺序性:包括全局有序和偏序两种:全局有序是指如果在一台服务器上
消息 a 在消息 b 前发布,则在所有 Server 上消息 a 都将在消息
b 前被
发布;偏序是指如果一个消息 b 在消息 a 后被同一个发送者发布, a 必
将排在 b 前面。
4. 数据更新原子性:一次数据更新要么成功(半数以上节点成功),要么失
败,不存在中间状态;
5. 实时性:
Zookeeper 保证客户端将在一个时间间隔范围内获得服务器的
更新信息,或者服务器失效的信息。

2.3、三台机器zookeeper的集群环境搭建

Zookeeper 集群搭建指的是 ZooKeeper 分布式模式安装。 通常由 2n+1
台 servers 组成。 这是因为为了保证
Leader 选举(基于 Paxos 算法的实
现) 能过得到多数的支持,所以 ZooKeeper 集群的数量一般为奇数。
Zookeeper 运行需要 java 环境,
所以需要提前安装 jdk。 对于安装
leader+follower 模式的集群,
大致过程如下:
l 配置主机名称到 IP 地址映射配置
l 修改 ZooKeeper 配置文件
l 远程复制分发安装文件
l 设置 myid
l 启动 ZooKeeper 集群
如果要想使用 Observer 模式,可在对应节点的配置文件添加如下配置:
peerType=observer
其次,必须在配置文件指定哪些节点被指定为 Observer,如:
server.1:localhost:2181:3181:observer

服务器IP

主机名

myid的值

192.168.221.100

node01

1

192.168.221.110

node02

2

192.168.221.120

node03

3

第一步:下载zookeeeper的压缩包,下载网址如下

http://archive.apache.org/dist/zookeeper/

我们在这个网址下载我们使用的zk版本为3.4.9

下载完成之后,上传到我们的linux的/export/softwares路径下准备进行安装

第二步:解压

解压zookeeper的压缩包到/export/servers路径下去,然后准备进行安装

cd
/export/softwares

tar
-zxvf zookeeper-3.4.9.tar.gz -C ../servers/

第三步:修改配置文件

第一台机器修改配置文件

cd /export/servers/zookeeper-3.4.9/conf/

cp zoo_sample.cfg zoo.cfg

mkdir -p /export/servers/zookeeper-3.4.9/zkdatas/

vim  zoo.cfg

dataDir=/export/servers/zookeeper-3.4.9/zkdatas

autopurge.snapRetainCount=3

autopurge.purgeInterval=1

server.1=node01:2888:3888

server.2=node02:2888:3888

server.3=node03:2888:3888

第四步:添加myid配置

在第一台机器的

/export/servers/zookeeper-3.4.9/zkdatas/这个路径下创建一个文件,文件名为myid ,文件内容为1

echo 1 > /export/servers/zookeeper-3.4.9/zkdatas/myid

第五步:安装包分发并修改myid的值

安装包分发到其他机器

第一台机器上面执行以下两个命令

scp -r  /export/servers/zookeeper-3.4.9/ node02:/export/servers/

scp -r  /export/servers/zookeeper-3.4.9/ node03:/export/servers/

第二台机器上修改myid的值为2

echo 2 > /export/servers/zookeeper-3.4.9/zkdatas/myid

三台机器上修改myid的值为3

echo 3 > /export/servers/zookeeper-3.4.9/zkdatas/myid

第六步:三台机器启动zookeeper服务

三台机器启动zookeeper服务

这个命令三台机器都要执行

/export/servers/zookeeper-3.4.9/bin/zkServer.sh start

查看启动状态

/export/servers/zookeeper-3.4.9/bin/zkServer.sh  status

2.4、zookeeper的shell操作

2.4.1、客户端连接

运行 zkCli.sh –server ip 进入命令行工具。

输入 help,输出 zk shell 提示:

2.4.2、shell操作

创建节点

create [-s] [-e] path data acl

其中,-s 或-e 分别指定节点特性,顺序或临时节点,若不指定,则表示持 久节点;acl 用来进行权限控制。

创建顺序节点:

创建永久节点:

读取节点

与读取相关的命令有 ls  命令和 get  命令,ls 命令可以列出 Zookeeper 指

定节点下的所有子节点,只能查看指定节点下的第一级的所有子节点;get 命令

可以获取 Zookeeper 指定节点的数据内容和属性信息。 ls path [watch]

get path [watch] ls2 path [watch]

set path data [version]

data 就是要更新的新内容,version 表示数据版本。

现在 dataVersion 已经变为 1 了,表示进行了更新。

删除节点

delete path [version]

若删除节点存在子节点,那么无法删除该节点,必须先删除子节点,再删除父节点。

Rmr path

可以递归删除节点。

quota

setquota -n|-b val path 对节点增加限制。 n:表示子节点的最大个数 b:表示数据值的最大长度 val:子节点最大个数或数据值的最大长度 path:节点路径

listquota path        列出指定节点的 quota

子节点个数为 2,数据长度-1 表示没限制

delquota [-n|-b] path 删除 quota

其他命令

history : 列出命令历史

redo:该命令可以重新执行指定命令编号的历史命令,命令编号可以通过

history 查看

2.5、zookeeper的数据模型

ZooKeeper 的数据模型,在结构上和标准文件系统的非常相似,拥有一个层

次的命名空间,都是采用树形层次结构,ZooKeeper 树中的每个节点被称为—

Znode。和文件系统的目录树一样,ZooKeeper 树中的每个节点可以拥有子节点。

但也有不同之处:

  1. Znode 兼具文件和目录两种特点。既像文件一样维护着数据、元信息、ACL、 时间戳等数据结构,又像目录一样可以作为路径标识的一部分,并可以具有 子 Znode。用户对 Znode 具有增、删、改、查等操作(权限允许的情况下)。
  1. Znode 具有原子性操作,读操作将获取与节点相关的所有数据,写操作也将 替换掉节点的所有数据。另外,每一个节点都拥有自己的 ACL(访问控制列表),这个列表规定了用户的权限,即限定了特定用户对目标节点可以执行的操作。
  1. Znode 存储数据大小有限制。ZooKeeper 虽然可以关联一些数据,但并没有 被设计为常规的数据库或者大数据存储,相反的是,它用来管理调度数据, 比如分布式应用中的配置文件信息、状态信息、汇集位置等等。这些数据的 共同特性就是它们都是很小的数据,通常以 KB 为大小单位。ZooKeeper 的服 务器和客户端都被设计为严格检查并限制每个 Znode 的数据大小至多 1M,常规使用中应该远小于此值。
  1. Znode 通过路径引用,如同 Unix 中的文件路径。路径必须是绝对的,因此他 们必须由斜杠字符来开头。除此以外,他们必须是唯一的,也就是说每一个 路径只有一个表示,因此这些路径不能改变。在 ZooKeeper 中,路径由 Unicode 字符串组成,并且有一些限制。字符串"/zookeeper"用以保存管理 信息,比如关键配额信息。

2.5.1、数据结构

图中的每个节点称为一个 Znode。 每个 Znode 由 3 部分组成:

① stat:此为状态信息, 描述该 Znode 的版本, 权限等信息

② data:与该 Znode 关联的数据

③ children:该 Znode 下的子节点

2.5.2、节点类型

Znode 有两种,分别为临时节点和永久节点。

节点的类型在创建时即被确定,并且不能改变。

临时节点:该节点的生命周期依赖于创建它们的会话。一旦会话结束,临时 节点将被自动删除,当然可以也可以手动删除。临时节点不允许拥有子节点。

永久节点:该节点的生命周期不依赖于会话,并且只有在客户端显示执行删

除操作的时候,他们才能被删除。

Znode 还有一个序列化的特性,如果创建的时候指定的话,该 Znode 的名字

后面会自动追加一个不断增加的序列号。序列号对于此节点的父节点来说是唯一

的,这样便会记录每个子节点创建的先后顺序。它的格式为“%10d”(10 位数字,

没有数值的数位用 0 补充,例如“0000000001”)。

这样便会存在四种类型的 Znode 节点,分别对应:

PERSISTENT:永久节点

EPHEMERAL:临时节点

PERSISTENT_SEQUENTIAL:永久节点、序列化

EPHEMERAL_SEQUENTIAL:临时节点、序列化

创建永久节点:

[zk: localhost:2181(CONNECTED) 3] create /hello world

Created /hello

创建临时节点:

[zk: localhost:2181(CONNECTED) 5] create -e /abc 123

Created /abc

创建永久序列化节点:

[zk: localhost:2181(CONNECTED) 6] create -s /zhangsan boy

Created /zhangsan0000000004

创建临时序列化节点:

zk: localhost:2181(CONNECTED) 11] create -e -s /lisi boy

Created /lisi0000000006

2.5.3、节点属性

每个 znode 都包含了一系列的属性,通过命令 get,可以获得节点的属性。

dataVersion:数据版本号,每次对节点进行 set 操作,dataVersion 的值都

会增加 1(即使设置的是相同的数据),可有效避免了数据更新时出现的先后顺

序问题。

cversion :子节点的版本号。当 znode 的子节点有变化时,cversion 的值

就会增加 1。

aclVersion :ACL 的版本号。

cZxid :Znode 创建的事务 id。

mZxid  :Znode 被修改的事务 id,即每次对 znode 的修改都会更新 mZxid。

对于 zk 来说,每次的变化都会产生一个唯一的事务 id,zxid(ZooKeeper Transaction Id)。通过 zxid,可以确定更新操作的先后顺序。例如,如果 zxid1

小于 zxid2,说明 zxid1 操作先于 zxid2 发生,zxid 对于整个 zk 都是唯一的,

即使操作的是不同的 znode。

ctime:节点创建时的时间戳.

mtime:节点最新一次更新发生时的时间戳.

ephemeralOwner:如果该节点为临时节点, ephemeralOwner 值表示与该节点

绑定的 session id. 如果不是, ephemeralOwner 值为 0.

在 client 和 server 通信之前,首先需要建立连接,该连接称为 session。连

接建立后,如果发生连接超时、授权失败,或者显式关闭连接,连接便处于 CLOSED

状态, 此时 session 结束。

2.6、zookeeper的watch机制

ZooKeeper 提供了分布式数据发布/订阅功能,一个典型的发布/订阅模型系

统定义了一种一对多的订阅关系,能让多个订阅者同时监听某一个主题对象,当

这个主题对象自身状态变化时,会通知所有订阅者,使他们能够做出相应的处理。

ZooKeeper 中,引入了 Watcher 机制来实现这种分布式的通知功能 。

ZooKeeper 允许客户端向服务端注册一个 Watcher 监听,当服务端的一些事件触

发了这个 Watcher,那么就会向指定客户端发送一个事件通知来实现分布式的通知功能。

触发事件种类很多,如:节点创建,节点删除,节点改变,子节点改变等。

总的来说可以概括 Watcher 为以下三个过程:客户端向服务端注册 Watcher、

服务端事件发生触发 Watcher、客户端回调 Watcher 得到触发事件情况

2.6.1、watch机制特点

一次性触发

事件发生触发监听,一个 watcher event 就会被发送到设置监听的客户端,

这种效果是一次性的,后续再次发生同样的事件,不会再次触发。

事件封装

ZooKeeper 使用 WatchedEvent 对象来封装服务端事件并传递。

WatchedEvent 包含了每一个事件的三个基本属性:

通知状态(keeperState),事件类型(EventType)和节点路径(path)

event 异步发送

watcher 的通知事件从服务端发送到客户端是异步的。

先注册再触发

Zookeeper 中的 watch 机制,必须客户端先去服务端注册监听,这样事件发

送才会触发监听,通知给客户端。

2.6.2、通知状态和事件类型

同一个事件类型在不同的通知状态中代表的含义有所不同,下表列举了常见

的通知状态和事件类型。

KeeperState

EventType

触发条件

说明

None

(-1)

客户端与服务端成功建立连接

SyncConnected

(0)

NodeCreated

(1)

Watcher 监听的对应数据节点被创建

NodeDeleted

(2)

Watcher 监听的对应数据节点被删除

此时客户端和服务器处于连接状态

NodeDataChanged

3

Watcher 监听的对应数据节点的数据内容 发生变更

NodeChildChanged

(4)

Wather 监听的对应节点的子节点数据列表发生变更

Disconnected

(0)

None

(-1)

客户端与zookeeper服务器断开连接

此时客户端和服务器处于断开连接状态

Expired

(-112)

Node

(-1)

会话超时

此时客户端会话失效,通常同时也会收到SessionExpiredException 异常

AuthFailed

(4)

None

(-1)

通常有两种情况

1:使用错误的

schema 进行权限检查

2:SASL 权限检查失败

通常同时也会收到AuthFailedException 异常

其中连接状态事件(type=None, path=null)不需要客户端注册,客户端只要

有需要直接处理就行了。

2.6.3、shell客户端设置watch机制

设置节点数据变动监听:

通过另一个客户端更改节点数据:

此时设置监听的节点收到通知:

2.7、zookeeper的javaAPI

Zookeeper 是在 Java 中客户端主类,负责建立与 zookeeper 集群的会话,并提供方法进行操作。org.apache.zookeeper.Watcher

Watcher 接口表示一个标准的事件处理器,其定义了事件通知相关的逻辑,

包含 KeeperState 和 EventType 两个枚举类,分别代表了通知状态和事件类型,

同时定义了事件的回调方法:process(WatchedEvent event)。

process 方法是 Watcher 接口中的一个回调方法,当 ZooKeeper 向客户端发

送一个 Watcher 事件通知时,客户端就会对相应的 process 方法进行回调,从而

实现对事件的处理。

2.7.1、创建java工程,导入jar包

创建maven  java工程,导入jar包

<!-- <repositories>

<repository>

<id>cloudera</id>

<url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>

</repository>

</repositories> -->

<dependencies>

<dependency>

<groupId>org.apache.curator</groupId>

<artifactId>curator-framework</artifactId>

<version>2.12.0</version>

</dependency>

<dependency>

<groupId>org.apache.curator</groupId>

<artifactId>curator-recipes</artifactId>

<version>2.12.0</version>

</dependency>

<dependency>

<groupId>com.google.collections</groupId>

<artifactId>google-collections</artifactId>

<version>1.0</version>

</dependency>

</dependencies>

<build>

<plugins>

<!-- java编译插件 -->

<plugin>

<groupId>org.apache.maven.plugins</groupId>

<artifactId>maven-compiler-plugin</artifactId>

<version>3.2</version>

<configuration>

<source>1.8</source>

<target>1.8</target>

<encoding>UTF-8</encoding>

</configuration>

</plugin>

</plugins>

</build>

2.7.2、节点的操作

创建永久节点

/**

* 创建永久节点

* @throws Exception

*/

@Test

public void createNode() throws Exception {

RetryPolicy retryPolicy = new  ExponentialBackoffRetry(1000, 1);

//获取客户端对象

CuratorFramework client = CuratorFrameworkFactory.newClient("192.168.221.100:2181,192.168.221.110:2181,192.168.221.120:2181", 1000, 1000, retryPolicy);

//调用start开启客户端操作

client.start();

//通过create来进行创建节点,并且需要指定节点类型

client.create().creatingParentsIfNeeded().withMode(CreateMode.PERSISTENT).forPath("/hello3/world");

client.close();

}

创建临时节点

/**

* 创建临时节点

* @throws Exception

*/

@Test

public void createNode2() throws Exception {

RetryPolicy retryPolicy = new  ExponentialBackoffRetry(3000, 1);

CuratorFramework client = CuratorFrameworkFactory.newClient("node01:2181,node02:2181,node03:2181", 3000, 3000, retryPolicy);

client.start();

client.create().creatingParentsIfNeeded().withMode(CreateMode.EPHEMERAL).forPath("/hello5/world");

Thread.sleep(5000);

client.close();

}

修改节点数据

/**

* 节点下面添加数据与修改是类似的,一个节点下面会有一个数据,新的数据会覆盖旧的数据

* @throws Exception

*/

@Test

public void nodeData() throws Exception {

RetryPolicy retryPolicy = new  ExponentialBackoffRetry(3000, 1);

CuratorFramework client = CuratorFrameworkFactory.newClient("node01:2181,node02:2181,node03:2181", 3000, 3000, retryPolicy);

client.start();

client.setData().forPath("/hello5", "hello7".getBytes());

client.close();

}

节点数据查询

/**

* 数据查询

*/

@Test

public void updateNode() throws Exception {

RetryPolicy retryPolicy = new  ExponentialBackoffRetry(3000, 1);

CuratorFramework client = CuratorFrameworkFactory.newClient("node01:2181,node02:2181,node03:2181", 3000, 3000, retryPolicy);

client.start();

byte[] forPath = client.getData().forPath("/hello5");

System.out.println(new String(forPath));

client.close();

}

节点watch机制

/**

* zookeeper的watch机制

* @throws Exception

*/

@Test

public void watchNode() throws Exception {

RetryPolicy policy = new ExponentialBackoffRetry(3000, 3);

CuratorFramework client = CuratorFrameworkFactory.newClient("node01:2181,node02:2181,node03:2181", policy);

client.start();

// ExecutorService pool = Executors.newCachedThreadPool();

//设置节点的cache

TreeCache treeCache = new TreeCache(client, "/hello5");

//设置监听器和处理过程

treeCache.getListenable().addListener(new TreeCacheListener() {

@Override

public void childEvent(CuratorFramework client, TreeCacheEvent event) throws Exception {

ChildData data = event.getData();

if(data !=null){

switch (event.getType()) {

case NODE_ADDED:

System.out.println("NODE_ADDED : "+ data.getPath() +"  数据:"+ new String(data.getData()));

break;

case NODE_REMOVED:

System.out.println("NODE_REMOVED : "+ data.getPath() +"  数据:"+ new String(data.getData()));

break;

case NODE_UPDATED:

System.out.println("NODE_UPDATED : "+ data.getPath() +"  数据:"+ new String(data.getData()));

break;

default:

break;

}

}else{

System.out.println( "data is null : "+ event.getType());

}

}

});

//开始监听

treeCache.start();

Thread.sleep(50000000);

}

2. zookeeper介绍及集群搭建的更多相关文章

  1. 基于zookeeper的Swarm集群搭建

    简介 Swarm:docker原生的集群管理工具,将一组docker主机作为一个虚拟的docker主机来管理. 对客户端而言,Swarm集群就像是另一台普通的docker主机. Swarm集群中的每台 ...

  2. zookeeper及kafka集群搭建

    zookeeper及kafka集群搭建 1.有关zookeeper的介绍可参考:http://www.cnblogs.com/wuxl360/p/5817471.html 2.zookeeper安装 ...

  3. Zookeeper简介与集群搭建【转】

    Zookeeper简介 Zookeeper是一个高效的分布式协调服务,可以提供配置信息管理.命名.分布式同步.集群管理.数据库切换等服务.它不适合用来存储大量信息,可以用来存储一些配置.发布与订阅等少 ...

  4. 【运维技术】Zookeeper单机以及集群搭建教程

    Zookeeper单机以及集群搭建教程 单机搭建 单机安装以及启动 安装zookeeper的前提是必须有java环境 # 选择目录进行下载安装 cd /app # 下载zk,可以去官方网站下载,自己上 ...

  5. ZooKeeper 介绍及集群环境搭建

    本篇由鄙人学习ZooKeeper亲自整理的一些资料 包括:ZooKeeper的介绍,我们要学习ZooKeeper的话,首先就要知道他是干嘛的对吧. 其次教大家如何去安装这个精巧的智慧品! 相信你能研究 ...

  6. zookeeper安装与集群搭建

    此处以centos系统下zookeeper安装为例,详细步骤可参考官网文档:zookeeper教程 一.单节点部署 1.下载zookeeper wget http://mirrors.hust.edu ...

  7. 阿里云ECS服务器部署HADOOP集群(三):ZooKeeper 完全分布式集群搭建

    本篇将在阿里云ECS服务器部署HADOOP集群(一):Hadoop完全分布式集群环境搭建的基础上搭建,多添加了一个 datanode 节点 . 1 节点环境介绍: 1.1 环境介绍: 服务器:三台阿里 ...

  8. 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

    引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单 ...

  9. zookeeper高可用集群搭建

    前提:已经在master01配置好hadoop:在各个slave节点配置好hadoop和zookeeper: (该文是将zookeeper配置在各slave节点上的,其实也可以配置在各master上, ...

随机推荐

  1. 灰度图像--图像分割 Robert算子

    学习DIP第43天 转载请标明本文出处:http://blog.csdn.net/tonyshengtan,欢迎大家转载,发现博客被某些论坛转载后,图像无法正常显示,无法正常表达本人观点,对此表示很不 ...

  2. 如何使用PLX提供的官方驱动和SDK发布自己的产品?

    在我的第一篇博文Plx9030通讯卡驱动开发提到,PLX官网提供了丰富的9000系列(9030,9052,9054)芯片的驱动文件(sys)和SDK开发包.我们在发布自己的产品时,简单的话,可以直接用 ...

  3. jdk中使用的设计模式

    在JDK(Java Development Kit)类库中,开发人员使用了大量设计模式,正因为如此,我们可以在不修改JDK源码的前提下开发出自己的应用软件,研究JDK类库中的模式实例也不失为学习如何使 ...

  4. 21.Python算术运算符及用法详解

    算术运算符是处理四则运算的符号,在数字的处理中应用得最多.Python 支持所有的基本算术运算符,如表 1 所示. 表 1 Python常用算术运算符 运算符 说明 实例 结果 + 加 12.45 + ...

  5. Nginx-rtmp点播之业务流程分析

    1. 点播的播放流程分析 1.1 ngx_rtmp_cycle 在握手结束后,即进入该函数中做进一步处理. void ngx_rtmp_cycle(ngx_rtmp_session_t *s) { n ...

  6. PHP 验证5-20位数字加字母的正则(数字和字母缺一不可)!!!

    $pattern = '/^(?![0-9]+$)(?![a-zA-Z]+$)[0-9A-Za-z]{5,20}$/'; if(!preg_match($pattern,$username)){ re ...

  7. linux系统空间不足,lsof看到异常的delete状态的文件。

    #20191101更新---这篇文章适用于产生僵尸文件的进程是可kill的状态参考,就是这个进程死亡不影响业务,那么另外一种情况,也是我现在管理的项目中生产环境中出现过的情况,产生僵尸文件的进程是we ...

  8. Android jni/ndk编程五:jni异常处理

    在Java的编程中,我们经常会遇到各种的异常,也会处理各种的异常.处理异常在java中非常简单,我们通常会使用try-catch-finally来处理,也可以使用throw简单抛出一个异常.那么在jn ...

  9. Winform使用ML.NET时无法加载 DLL“CpuMathNative”问题的解决方法

    同样的代码运行在netcore下可以,运行在winform中就出现错误: 引发的异常:“System.DllNotFoundException”(位于 Microsoft.ML.Data.dll 中) ...

  10. 【React自制全家桶】九、Redux入手

    一.React项目中为什么要用Redux 上图: 左图当使用纯React开发稍微大点的项目,因为React数据是瀑布式的,只能通过父子组件传递数据,所以实现关系不大的两React的组件之间的数据传递就 ...