大数据笔记(六)——HDFS的底层原理:JAVA动态代理和RPC
一、Java的动态代理对象
实现代码如下:
1.接口类MyService
package hdfs.proxy; public interface MyService { public void method1(); public void method2();
}
2.接口实现类MyServiceImpl
package hdfs.proxy; public class MyServiceImpl implements MyService { @Override
public void method1() {
System.out.println("************ method1 ***************");
} @Override
public void method2() {
System.out.println("************ method2 ***************"); } }
3.测试类TestMain
package hdfs.proxy; import java.lang.reflect.InvocationHandler;
import java.lang.reflect.Method;
import java.lang.reflect.Proxy; public class TestMain { public static void main(String[] args) {
//创建真正的对象
MyService obj = new MyServiceImpl(); //obj.method1(); ---> 都是直接调用真正对象
//obj.method2(); ---> 都是直接调用真正对象 /*
* Object Proxy.newProxyInstance(ClassLoader loader, 类加载器,代理对象跟真正对象是同一个类加载器
Class<?>[] interfaces, 真正对象实现的接口
InvocationHandler h) 如何处理客户端的调用
返回一个代理对象 */
//生成obj的代理对象,并且重新method2的逻辑
MyService proxy = (MyService) Proxy.newProxyInstance(TestMain.class.getClassLoader(),
obj.getClass().getInterfaces(),
new InvocationHandler() { @Override
public Object invoke(Object proxy, Method method, Object[] args) throws Throwable {
// 如何处理客户端的调用
if(method.getName().equals("method2")){
//客户端调用了method2
System.out.println("in proxy method2");
return null;
}else{
//其他方法不感兴趣
return method.invoke(obj, args);
}
}
}); //通过代理对象进行调用
proxy.method1();
proxy.method2(); } }
console:
二、RPC:远程过程调用
1.服务端:发布一个接口(MyBusiness)到RPC Server上
实现类:MyBusinessImpl
如果要把程序发布到Hadoop的RPC Server上,必须实现一个接口VersionedProtocol
2.客户端:调用服务器端的功能
得到一个签名必须与服务器发布的签名的一样
得到服务器端的对象(代理对象)
实现代码如下:
3.MyBusiness
package demo.proxy.rpc.server; import org.apache.hadoop.ipc.VersionedProtocol; public interface MyBusiness extends VersionedProtocol{
//指定一个版本号,使用这个版本号来创建签名
public static long versionID = 1l; //定义自己的业务方法
public String sayHello(String name);
}
4.MyBusinessImpl
package demo.proxy.rpc.server; import java.io.IOException; import org.apache.hadoop.ipc.ProtocolSignature; public class MyBusinessImpl implements MyBusiness{ @Override
public ProtocolSignature getProtocolSignature(String arg0, long arg1, int arg2) throws IOException {
//使用versionID创建签名
return new ProtocolSignature(versionID, null);
} @Override
public long getProtocolVersion(String arg0, long arg1) throws IOException {
// 返回ID
return versionID;
} @Override
public String sayHello(String name) {
System.out.println("*****调用Server端的方法******");
//业务方法
return "Hello" + name;
} }
5.MyRPCServer
package demo.proxy.rpc.server; import java.io.IOException; import org.apache.hadoop.HadoopIllegalArgumentException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.ipc.RPC.Server; public class MyRPCServer {
public static void main(String[] args) throws HadoopIllegalArgumentException, IOException {
//ʹ创建一个RPC Server
RPC.Builder builder = new RPC.Builder(new Configuration());
//指定Server的地址接口
builder.setBindAddress("localhost");
builder.setPort(7788); //发布程序
builder.setProtocol(MyBusiness.class);//定义的接口
builder.setInstance(new MyBusinessImpl());//发布的接口的实现 //创建RPC Server
Server server = builder.build();
server.start();
}
}
6.MyRPCClient
package demo.proxy.rpc.client; import java.net.InetSocketAddress; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC; import demo.proxy.rpc.server.MyBusiness; public class MyRPCClient { public static void main(String[] args) throws Exception {
//调用Server的功能
MyBusiness proxy = RPC.getProxy(MyBusiness.class,//调用的接口
MyBusiness.versionID,//版本的ID,必须跟服务器一致
new InetSocketAddress("localhost", 7788), //服务器的地址ַ
new Configuration()); //调用服务器端的方法
System.out.println(proxy.sayHello("梦里南柯")); } }
先启动Server端,再启动Client端
大数据笔记(六)——HDFS的底层原理:JAVA动态代理和RPC的更多相关文章
- AOP的底层实现-CGLIB动态代理和JDK动态代理
AOP是目前Spring框架中的核心之一,在应用中具有非常重要的作用,也是Spring其他组件的基础.它是一种面向切面编程的思想.关于AOP的基础知识,相信多数童鞋都已经了如指掌,我们就略过这部分,来 ...
- 大数据 --> 分布式文件系统HDFS的工作原理
分布式文件系统HDFS的工作原理 Hadoop分布式文件系统(HDFS)是一种被设计成适合运行在通用硬件上的分布式文件系统.HDFS是一个高度容错性的系统,适合部署在廉价的机器上.它能提供高吞吐量的数 ...
- 最近整理出了有关大数据,微服务,分布式,Java,Python,Web前端,产品运营,交互等1.7G的学习资料,有视频教程,源码,课件,工具,面试题等等。这里将珍藏多年的资源免费分享给各位小伙伴们
大数据,微服务,分布式,Java,Python,Web前端,产品运营,交互 领取方式在篇尾!!! 基础篇.互联网架构,高级程序员必备视频,Linux系统.JVM.大型分布式电商项目实战视频...... ...
- jdk动态代理和cglib动态代理底层实现原理详细解析(cglib动态代理篇)
代理模式是一种很常见的模式,本文主要分析cglib动态代理的过程 1. 举例 使用cglib代理需要引入两个包,maven的话包引入如下 <!-- https://mvnrepository.c ...
- 大数据笔记(四)——操作HDFS
一.Web Console:端口50070 二.HDFS的命令行操作 (一)普通操作命令 HDFS 操作命令帮助信息: hdfs dfs + Enter键 常见命令 1. -mkdir 在HDFS上 ...
- 大数据入门第六天——HDFS详解
一.概述 1.HDFS中的角色 Block数据: HDFS中的文件在物理上是分块存储(block),块的大小可以通过配置参数( dfs.blocksize)来规定,默认大小在hadoop2.x版本中是 ...
- 大数据小白系列——HDFS(2)
这里是大数据小白系列,这是本系列的第二篇,介绍一下HDFS中SecondaryNameNode.单点失败(SPOF).以及高可用(HA)等概念. 上一篇我们说到了大数据.分布式存储,以及HDFS中的一 ...
- 大数据小白系列——HDFS(1)
[注1:结尾有大福利!] [注2:想写一个大数据小白系列,介绍大数据生态系统中的主要成员,理解其原理,明白其用途,万一有用呢,对不对.] 大数据是什么?抛开那些高大上但笼统的说法,其实大数据说的是两件 ...
- 大数据开发实战:MapReduce内部原理实践
下面结合具体的例子详述MapReduce的工作原理和过程. 以统计一个大文件中各个单词的出现次数为例来讲述,假设本文用到输入文件有以下两个: 文件1: big data offline data on ...
随机推荐
- [转帖]探秘华为(二):华为和H3C(华三)的分道扬镳
探秘华为(二):华为和H3C(华三)的分道扬镳 https://baijiahao.baidu.com/s?id=1620781715767053734&wfr=spider&for= ...
- MySQL-快速入门(1)基本数据库、表操作语句
1.创建数据库 create database db_name;show create database db_name\G; //查看数据创建语句show databases; //查看当前创建的数 ...
- 关于Maven的安装和配置
1.Maven的介绍 1.Maven是一个项目管理工具(项目对象模型POM) 2.Maven可以管理项目中的jar包依赖 3.Maven的中央仓库地址 http://mvnrepository.com ...
- Python 多列数据存储
zip()函数 zip函数可以把多个列表相加成一个tuple(元组) a = [1,2,3,4] b = [11,22,33,44] c = [111,222,333,444] A = list(zi ...
- 卸载OpenIV
最近把 GTA5 卸载了,于是也想把用来修改 MOD 的 OpenIV 也卸载了. 结果在设置中,进行卸载的时候,弹出这个窗口 解决方案 1.首先打开 文件所在位置 2.右键,选择 属性,打开文件所在 ...
- 手写spring事务框架, 揭秘AOP实现原理。
AOP面向切面编程:主要是通过切面类来提高代码的复用,降低业务代码的耦合性,从而提高开发效率.主要的功能是:日志记录,性能统计,安全控制,事务处理,异常处理等等. AOP实现原理:aop是通过cgli ...
- ThinkPHP关联模型如何关联非主键
ThinkPHP关联模型默认是主键外键关联 官方并没有提供相关文档 如何实现非主键与非主键间之间的关联 <?php namespace Admin\Model; use Think\Model\ ...
- SpringBoot_03mybatisPlus
注意: mybatisPlus默认加载resources下的mapper文件夹下的xml文件 默认将数据库表的字段用驼峰标识转换成实体类的属性 官方网站: https://mp.baomidou.co ...
- 公用flex类
开发过程中,很多布局,用antd的栅格还是不灵活,flex弹性布局会更好用 Flex 是 Flexible Box 的缩写,意为"弹性布局",用来为盒状模型提供最大的灵活性. 注意 ...
- 将Docker主机数据挂在到容器中
dcoker 提供三种不同的方式将数据从宿主机挂载到容器中:volumes,bind mounts, tmpfs.volumes: Docker管理宿主机文件系统的一部分(/var/lib/docke ...