1.刷固件

出厂的Cubieboard是Android系统,需要Linux系统安装Hadoop,到此网址下载:

http://dl.cubieboard.org/software/a20-cubietruck/lubuntu/

①.使用PhoenixSuit一键刷机,并选择 lubuntu 系统镜像

②.电脑一方先接上 USB 线,将Cubieboard电源,电池全部拔除,按住Cubieboard FEL 按钮(此按钮在 RESET 按钮的边上)不放,此时将另外一端的 mini USB 和 Cubieboard 连接,这时候会弹出一个强制升级的提示对话框,然后就可以松开 FEL 按钮了。

③.提示对话框上选 Yes 开始刷系统。

④.刷完系统之后,拿掉和电脑连接的 USB 线,然后接上电源和网线。

2.系统配置

①.使用 linaro 用户登录上去,设置 root 的密码:

$ sudo passwd root

②.cubieboard nand 重新分区扩容

安装分区工具 nand-part (sunxi-tools)

#apt-get install git

#apt-get install  build-essential

#apt-get install pkg-config libusb-1.0

#git clone https://github.com/linux-sunxi/sunxi-tools.git

#cd sunxi-tools

#make all

现在我们查看一下 nandflash:

# ls /dev/nand* -l

brw-rw---- 1 root disk 93, 0 Jan 1 2010 /dev/nand

brw-rw---- 1 root disk 93, 1 Jan 1 2010 /dev/nanda

brw-rw---- 1 root disk 93, 2 Jan 1 2010 /dev/nandb

brw-rw---- 1 root disk 93, 3 Jan 1 2010 /dev/nandc

这里的 nand 表示了整个 nandflash,nanda、nandb、nandc 则为其 3 个分区,其中:

nanda 中包含 bootlogo、script.bin、uEnv.txt 等

nandb 中为 rootfs

nandc 有 5G 左右的空间,我觉得把它合并到 nandb 似乎是一个好的想法。敲击命令 nand-part 大概能看到如下信息(只列出主要部分):

partition  1: class =         DISK, name =   bootloader, partition start = 32768, partition size = 131072 user_type=0

partition  2: class =         DISK, name =       rootfs, partition start = 163840, partition size = 4194304 user_type=0

partition  3: class =         DISK, name =        UDISK, partition start = 4358144, partition size = 10584064 user_type=0

我们可以看到各个分区的大小,这样我们就可以重新规划一下:

# nand-part -f a20 /dev/nand 32768 'bootloader 131072' 'rootfs 14778368'

此命令执行后输出:

ready to write new partition tables:

mbr: version 0x00000200, magic softw411

2 partitions

partition  1: class =         DISK, name =   bootloader, partition start = 32768, partition size = 131072 user_type=0

partition  2: class =         DISK, name =       rootfs, partition start = 163840, partition size = 14778368 user_type=0

我们看到 bootloader(nanda)的大小未发生变化,rootfs(nandb)和 UDISK(nandc)合并了(4194304 + 10584064 = 14778368)。然后,我们重启一下系统,再敲击命令来完成 nandb 的扩展:

# resize2fs /dev/nandb

需要说明的是,这个重分区的过程不会破坏任何数据的。

处理完 nand 就可以开始处理我的 HDD 硬盘了。使用命令 fdisk 来查看 HDD 硬盘是否存在,执行 fdisk -l

分区fdisk /dev/sda

格式化mkfs.ext4 /dev/sda1

挂载mount /dev/sda1 /data

配置启动时挂载vim /etc/fstab

/dev/sda1 /data ext4 defaults 1 2

允许root用户SSH远程登录

安装OpenSSH server:

1. 使用apt命令安装openssh server

$ sudo apt-get install openssh-server

2. 可以对 openssh server进行配置

$ sudo vi /etc/ssh/sshd_config

找到PermitRootLogin no一行,改为PermitRootLogin yes

3. 重启 openssh server

$ sudo service ssh restart

4. 客户端如果是ubuntu的话,则已经安装好ssh client,可以用下面的命令连接远程服务器。

$ ssh xxx.xxx.xxx.xxx

如果是windows系统的话,可以使用SSH Secure Shell等ssh软件进行远程连接。

3.安装Hadoop

Java

vim ~/.bashrc

export JAVA_HOME=/usr/lib/java/jdk1.7.0_71

export JRE_HOME=${JAVA_HOME}/jre

export CLASS_PATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:$PATH

export PATH=${JAVA_HOME}/bin:/usr/local/hadoop/hadoop-2.2.0/bin:$PATH

source ~/.bashrc

hadoop-env.sh

export JAVA_HOME=/usr/lib/java/jdk1.7.0_71

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"

/etc/hostname

/etc/hosts

ssh-keygen -t rsa -P ""

root@m1:/home/hadoop# scp -r root@m2:/root/.ssh/id_rsa.pub ~/.ssh/m2.pub

root@m1:/home/hadoop# scp -r root@s1:/root/.ssh/id_rsa.pub ~/.ssh/s1.pub

root@m1:/home/hadoop# scp -r root@s2:/root/.ssh/id_rsa.pub ~/.ssh/s2.pub

root@m1:/home/hadoop# cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

root@m1:/home/hadoop# cat ~/.ssh/m2.pub >> ~/.ssh/authorized_keys

root@m1:/home/hadoop# cat ~/.ssh/s1.pub >> ~/.ssh/authorized_keys

root@m1:/home/hadoop# cat ~/.ssh/s2.pub >> ~/.ssh/authorized_keys

root@m1:/home/hadoop# scp -r ~/.ssh/authorized_keys root@m2:~/.ssh/

root@m1:/home/hadoop# scp -r ~/.ssh/authorized_keys root@s1:~/.ssh/

root@m1:/home/hadoop# scp -r ~/.ssh/authorized_keys root@s2:~/.ssh/

core-site.xml

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:9000/</value>

<description>The name of the default file system</description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/hadoop-2.2.0/tmp</value>

<description>A base for other temporary directories</description>

</property>

hdfs-site.xml

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>/usr/local/hadoop/hadoop-2.2.0/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>/usr/local/hadoop/hadoop-2.2.0/dfs/data</value>

</property>

mapred-site.xml

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

yarn-site.xml

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

slaves

slave001

slave002

scp -r hadoop-2.2.0/ hadoop@slave001:/usr/local/hadoop/

scp -r hadoop-2.2.0/ hadoop@slave002:/usr/local/hadoop/

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ scp -r /usr/lib/java/jdk1.7.0_71/ hadoop@slave001:/usr/lib/java/

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ scp -r /usr/lib/java/jdk1.7.0_71/ hadoop@slave002:/usr/lib/java/

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop namenode -format

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ ./start-dfs.sh

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ jps

3197 NameNode

3387 SecondaryNameNode

4236 Jps

hadoop@slave001:/usr/lib/java$ jps

6129 DataNode

6199 Jps

hadoop@slave002:/usr/lib/java$ jps

5229 DataNode

5301 Jps

http://10.6.4.226:50070/dfshealth.jsp

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ ./start-yarn.sh

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ jps

3197 NameNode

3387 SecondaryNameNode

4557 Jps

4310 ResourceManager

hadoop@slave001:/usr/lib/java$ jps

6129 DataNode

6377 NodeManager

6492 Jps

hadoop@slave002:/usr/lib/java$ jps

5229 DataNode

5478 NodeManager

5592 Jps

http://10.6.4.226:8088/cluster

http://10.6.4.227:8042/node

http://10.6.4.228:8042/node

/usr/local/hadoop/hadoop-2.2.0/sbin# ./mr-jobhistory-daemon.sh start historyserver

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/sbin$ jps

3197 NameNode

3387 SecondaryNameNode

4609 JobHistoryServer

4310 ResourceManager

4665 Jps

http://10.6.4.226:19888/jobhistory

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop fs -mkdir -p /data/wordcount

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop fs -mkdir -p /output/

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop fs -put ../etc/hadoop/*.xml /data/wordcount/

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop fs -ls /data/wordcount

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop jar ../share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount /data/wordcount /output/wordcount

hadoop@master:/usr/local/hadoop/hadoop-2.2.0/bin$ hadoop fs -cat /output/wordcount/part-r-00000 |head

Eclipse开放环境配置

1.导入eclipse的hadoop开发插紧

将hadoop-eclipse-plugin-2.2.0.jar放入/opt/eclipse/plugins

重启eclipse

cd /opt/eclipse

./eclipse

1.1开启Hadoop插件

1.2配置Hadoop安装路径

1.3新建Hadoop location

Location Name:可以任意其,标识一个"Map/Reduce Location"

Map/Reduce Master

MasterPort:9001

DFS Master

Use M/R Master host:前面的勾上。(因为我们的NameNode和JobTracker都在一个机器上。)

Port:9000

User name:hadoop

接着点击"Advanced parameters"从中找见"hadoop.tmp.dir",修改成为我们Hadoop集群中设置的地址,我们的Hadoop集群是"/home/hadoop/tmp",这个参数在"core-site.xml"进行了配置。

要关注下面几个参数:  fs.defualt.name:与core-site.xml里fs.default.name设置一致。  mapred.job.tracker:与mapred-site.xml里面mapred.job.tracker设置一致。

dfs.replication:与hdfs-site.xml里面的dfs.replication一致。

hadoop.tmp.dir:与core-site.xml里hadoop.tmp.dir设置一致。

hadoop.job.ugi:并不是设置用户名与密码。是用户与组名,所以这里填写hadoop,hadoop。

说明:第一次设置的时候可能是没有hadoop.job.ugi和dfs.replication参数的,不要紧,确认保存。打开Project Explorer中DFS Locations目录,应该可以年看到文件系统中的结构了。

至此开发环境配置完毕。

HDFS与MapReduce开发测试。

1.HDFS操作测试

1.1创建项目

1.2创建类

将core-site.xml 、hdfs-site.xml放入/home/hadoop/workspace/HDFSTest/bin工程目录下

写入代码

package com.hdfs;

import java.io.BufferedReader;

import java.io.IOException;

import java.io.InputStream;

import java.io.InputStreamReader;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

public class DFSOperator {

private static final String ROOT_PATH ="hdfs://";

private static final int BUFFER_SIZE=4096;

public DFSOperator(){}

public static boolean createFile(String path,boolean overwrite) throws IOException{

Configuration conf= new Configuration();

FileSystem fs=FileSystem.get(conf);

Path f=new Path(ROOT_PATH+path);

fs.create(f,overwrite);

fs.close();

return true;

}

public static boolean deleteFile(String path,boolean recursive) throws IOException{

Configuration conf=new Configuration();

FileSystem fs=FileSystem.get(conf);

Path f=new Path(ROOT_PATH+path);

fs.delete(f, recursive);

fs.close();

return true;

}

public static String readDFSFileToString(String path) throws IOException{

Configuration conf =new Configuration();

FileSystem fs=FileSystem.get(conf);

Path f=new Path(ROOT_PATH+path);

InputStream in=null;

String str=null;

StringBuilder sb=new StringBuilder(BUFFER_SIZE);

if(fs.exists(f)){

in=fs.open(f);

BufferedReader bf=new BufferedReader(new InputStreamReader(in));

while ((str=bf.readLine())!=null) {

sb.append(str);

sb.append("\n");

}

in.close();

bf.close();

fs.close();

return sb.toString();

}

else {

return null;

}

}

public static boolean writeStringToDFSFile(String path,String string) throws IOException{

Configuration conf=new Configuration();

FileSystem fs=FileSystem.get(conf);

FSDataOutputStream os=null;

Path f=new Path(ROOT_PATH+path);

os=fs.create(f,true);

os.writeBytes(string);

os.close();

fs.close();

return true;

}

public static void main(String[] args) {

try {

DFSOperator.createFile("/hadoop/test1.txt", true);

DFSOperator.deleteFile("/hadoop/test1.txt", true);

DFSOperator.writeStringToDFSFile("/hadoop/test1.txt", "u u u good man.\nReally?\n");

System.out.println(DFSOperator.readDFSFileToString("/hadoop/test1.txt"));

} catch (IOException e) {

// TODO Auto-generated catch block

e.printStackTrace();

}

}

}

运行

这段代码主要操作是对hdfs文件的创建、删除、以及读取。

2.Mapreduce操作测试

2.1wordcount编写。

新建MapreduceTest项目

同样需要将

新建MapClass类

package com.test.mr;

import java.io.IOException;

import java.util.StringTokenizer;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Mapper;

public class MapClass extends Mapper<Object, Text, Text, IntWritable> {

public Text keyText=new Text("key");

public IntWritable intValue=new IntWritable(1);

@Override

protected void map(Object key, Text value,

Mapper<Object, Text, Text, IntWritable>.Context context)

throws IOException, InterruptedException {

// TODO Auto-generated method stub

String str=value.toString();

StringTokenizer stringTokenizer=new StringTokenizer(str);

while (stringTokenizer.hasMoreTokens()) {

keyText.set(stringTokenizer.nextToken());

System.out.print("mapkey"+keyText.toString());

System.out.println("mapvalue"+intValue);

context.write(keyText, intValue);

}

}

}

新建ReduceClass类

package com.test.mr;

import java.io.IOException;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Reducer;

public class ReduceClass extends Reducer<Text, IntWritable, Text, IntWritable>{

public IntWritable intValue=new IntWritable(0);

@Override

protected void reduce(Text key, Iterable<IntWritable> values,

Reducer<Text, IntWritable, Text, IntWritable>.Context context)

throws IOException, InterruptedException {

// TODO Auto-generated method stub

int sum=0;

int count=0;

while (values.iterator().hasNext()) {

sum+=values.iterator().next().get();

count+=1;

}

System.out.println("sum:"+sum);

System.out.println("count:"+count);

intValue.set(sum);

context.write(key, intValue);

}

}

新建MR类

package com.test.mr;

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IntWritable;

import org.apache.hadoop.io.Text;

import org.apache.hadoop.mapreduce.Job;

import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import org.apache.hadoop.util.GenericOptionsParser;

public class MR {

public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {

// TODO Auto-generated method stub

Configuration conf=new Configuration();

String[] otherArgs=new GenericOptionsParser(conf, args).getRemainingArgs();

if (otherArgs.length!=2) {

System.err.println("Usage:wordcount <int> <out>");

System.exit(2);

}

Job job=new Job(conf, "word count");

job.setJarByClass(MR.class);

job.setMapperClass(MapClass.class);

job.setReducerClass(ReduceClass.class);

job.setOutputKeyClass(Text.class);

job.setOutputValueClass(IntWritable.class);

FileInputFormat.addInputPath(job,new Path(otherArgs[0]));

FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));

System.exit(job.waitForCompletion(true) ? 0:1);

}

}

运行代码

Hbase搭建

1.Hbase安装

进入master解压hbase-0.98.9-hadoop2-bin.tar.gz至/usr/local/hadoop

1.1配置hbase-env.sh

进入/usr/local/hadoop/hbase-0.98.9-hadoop2/conf

vim hbase-env.sh

修改JAVA_HOME如下

export JAVA_HOME=/usr/lib/java/jdk1.7.0_71

1.2配置regionservers

这里的内容要与hadoop的slaves一致

master

slave1

slave2

1.3配置hbase-site.xml

添加内容如下

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://master:9000/hbase</value>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

</property>

<property>

<name>hbase.master</name>

<value>master:60000</value>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>master,slave1,slave2</value>

</property>

<property>

<name>hbase.zookeeper.property.dataDir</name>

<value>/home/hadoop/zookeeper</value>

</property>

</configuration>

1.4将slave1、slave2上Hbase安装

将master上的Hbase通过scp命令传输到slave1和slave2上

scp /usr/local/hadoop/hbase-0.98.9-hadoop2/* hadoop@slave1:/usr/local/hadoop/hbase-0.98.9-hadoop2/

scp /usr/local/hadoop/hbase-0.98.9-hadoop2/* hadoop@slave2:/usr/local/hadoop/hbase-0.98.9-hadoop2/

1.5配置profile

修改三个节点的profile

vim /etc/profile

export JAVA_HOME=/usr/lib/java/jdk1.7.0_71

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export HADOOP_HOME=/usr/local/hadoop/hadoop-2.2.0

export HBASE_HOME=/usr/local/hadoop/hbase-0.98.9-hadoop2

export PATH=${JAVA_HOME}/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin:$PATH

使profile生效

source vim /etc/profile

1.6开启Hbase

进入master

切换到hadoop用户

su - hadoop

start-hbase.sh

使用jps命令查看master slave1 slave2进程

Master进程如下

Slave1进程如下

2.Hbase基本操作

2.1执行hbsae shell命令,进入hbase控制台

2.2显示创建的表

输入list命令,如果正常执行,表示hbase启动成功

Test为之前创建的表

2.3 Hbase基本操作

操作

命令表达式

创建表

create 'table_name, 'family1','family2','familyN'

添加记录

put 'table_name', 'rowkey', 'family:column', 'value'

查看记录

get 'table_name, 'rowkey'

查看表中的记录总数

count  'table_name'

删除记录

delete  'table_name' ,'rowkey' , 'family:column'

deleteall 'table_name','rowkey'

删除一张表

先 disable 'table_name'

再 drop 'table_name'

查看所有记录

scan "table_name"  ,很危险 最好加LIMIT : scan 'table_name',LIMIT=>10

查看某个表某个列中所有数据

scan "table" , {COLUMNS =>['family1:','family2' VERSIONS=2]} VERSIONS 选填

Cubieboard搭建Hadoop指南的更多相关文章

  1. 基于《Hadoop权威指南 第三版》在Windows搭建Hadoop环境及运行第一个例子

    在Windows环境上搭建Hadoop环境需要安装jdk1.7或以上版本.有了jdk之后,就可以进行Hadoop的搭建. 首先下载所需要的包: 1. Hadoop包: hadoop-2.5.2.tar ...

  2. [Hadoop] 在Ubuntu系统上一步步搭建Hadoop(单机模式)

    1 Hadoop的三种创建模式 单机模式操作是Hadoop的默认操作模式,当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,会保守地选择最小配置,即单机模式.该模式主要用于开发调试M ...

  3. 使用Windows Azure的VM安装和配置CDH搭建Hadoop集群

    本文主要内容是使用Windows Azure的VIRTUAL MACHINES和NETWORKS服务安装CDH (Cloudera Distribution Including Apache Hado ...

  4. 基于Eclipse搭建Hadoop源码环境

    Hadoop使用ant+ivy组织工程,无法直接导入Eclipse中.本文将介绍如何基于Eclipse搭建Hadoop源码环境. 准备工作 本文使用的操作系统为CentOS.需要的软件版本:hadoo ...

  5. Ubuntu学习笔记-win7&Ubuntu双系统简单搭建系统指南

    win7&Ubuntu双系统简单搭建系统指南 本文是自己老本子折腾Ubuntu的一些记录,主要是搭建了一个能够足够娱乐(不玩游戏)专注练习自己编程能力的内容.只是简单的写了关于系统的安装和一些 ...

  6. virtualbox 虚拟3台虚拟机搭建hadoop集群

    用了这么久的hadoop,只会使用streaming接口跑任务,各种调优还不熟练,自定义inputformat , outputformat, partitioner 还不会写,于是干脆从头开始,自己 ...

  7. 超快速使用docker在本地搭建hadoop分布式集群

    超快速使用docker在本地搭建hadoop分布式集群 超快速使用docker在本地搭建hadoop分布式集群 学习hadoop集群环境搭建是hadoop入门的必经之路.搭建分布式集群通常有两个办法: ...

  8. 搭建Hadoop集群 (三)

    通过 搭建Hadoop集群 (二), 我们已经可以顺利运行自带的wordcount程序. 下面学习如何创建自己的Java应用, 放到Hadoop集群上运行, 并且可以通过debug来调试. 有多少种D ...

  9. 搭建Hadoop集群 (一)

    上面讲了如何搭建Hadoop的Standalone和Pseudo-Distributed Mode(搭建单节点Hadoop应用环境), 现在我们来搭建一个Fully-Distributed Mode的 ...

随机推荐

  1. zabbix设置多个收件人

    1.建群组   2.添加群组权限   3.添加用户,归属到上面新建的组   4.动作里发送消息给新建的组   5.这样设置后,管理员账号不用设置收件媒介  

  2. sh脚本写法

    1.shell注释符号: 1. 单行注释: “#” 2. 多行注释: : << ! 语句1 语句2 语句3 语句4 ! http://blog.csdn.net/lansesl2008/a ...

  3. DFS || HDU 2181

    题意:一个规则的实心十二面体,它的 20个顶点标出世界著名的20个城市,你从一个城市出发经过每个城市刚好一次后回到出发的城市. 前20行的第i行有3个数,表示与第i个城市相邻的3个城市.第20行以后每 ...

  4. 数位DP || Gym 101653R Ramp Number

    每一位都大于等于前一位的数叫Ramp Number 给一个数,如果不是Ramp Number输出-1,如果是Ramp Number输出比它小的Ramp Number的个数 只和每一位上的数字有关 #i ...

  5. ios 封装sqllite3接口

    2013-03-25 17:41 261人阅读 评论(0) 收藏 举报 // #import <Foundation/Foundation.h> #import "sqlite3 ...

  6. Swift中Singleton的实现

    一.意图 保证一个类公有一个实例,并提供一个访问它的全局访问点. 二.使用场景 1.使用场景 当类只能有一个实例而且客户可以从一个众所周知的访问点访问它时 当这个唯一实例应该是通过子类化可扩展的,并且 ...

  7. 如何用 CSS 创作一个立体滑动 toggle 交互控件

    效果预览 在线演示 按下右侧的"点击预览"按钮在当前页面预览,点击链接全屏预览. https://codepen.io/zhang-ou/pen/zjoOgX 可交互视频教程 此视 ...

  8. CSS3---媒体查询与响应式布局

    1. 值 设备类型 All 所有设备 Braille 盲人用点字法触觉回馈设备 Embossed 盲文打印机 Handheld 便携设备 Print 打印用纸或打印预览视图 Projection 各种 ...

  9. 使用 ES (elasticsearch) 搜索中文

    1.创建索引 curl -XPUT http://172.16.125.139:9200/ques2.创建索引类型 curl -XPOST http://172.16.125.139:9200/que ...

  10. 负载均衡之Ocelot+Consul(配置文件注册服务)

    继上篇 Ocellot 做负载均衡之后,本篇将记录 Ocelot + Consul 试验如何做服务发现和服务注册. 服务发现和服务注册的背景知识,一搜满街都是. 在此,我还是写下自己对这个术语的理解吧 ...