Hive的基本操作


创建数据库与创建数据库表

  • 创建数据库的相关操作

    创建数据库:CREATE TABLE IF NOT EXISTS myhive

    hive创建表成功后的存放位置由hive-site.xml配置文件中的一个属性指定

    <name>hive.metastore.warehouse.dir</name>

    <value>/user/hive/warehouse</value>



    创建数据库并指定hdfs存储位置:CREATE TABLE myhive2 LOCATION '/myhive2'



    修改数据库属性:ALTER DATABASE myhive2 SET DBPROPERITIES ('createtime'='20191201');



    查看数据库基本信息:DESC DATABASE myhive2;



    查看数据库更多详细信息:DESC DATABASE EXTENDED myhive2;



    删除数据库:DROP DATABASE myhive2;

    强制删除数据库:DROP DATABASE myhive2 CASCADE;

  • 创建数据库表的相关操作

    数据库表语法

    CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name
    [(col_name data_type [COMMENT col_comment], ...)]
    [COMMENT table_comment]
    [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)]
    [CLUSTERED BY (col_name, col_name, ...)
    [SORTED BY (col_name [ASC|DESC], ...)] INTO num_buckets BUCKETS]
    [ROW FORMAT row_format]
    [STORED AS file_format]
    [LOCATION hdfs_path]

    hive建表时的字段类型参考:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Types

  • hive当中四种常见的表模型

    管理表:又称为内部表,作出删除表的操作时,HDFS上对应的数据也会被同步删除

    创建管理表:CREATE TABLE IF NOT EXISTS stu(id INT,name STRING);

    创建完成后,表的数据会存放在HDFS的/user/hive/warehouse/你选择的数据库

    如果在创建的表时指定分隔符和存放位置需要用到关键字。hive当中的默认分隔符:\001(键盘打不出来,因为是asc码值,非打印字符,这么做是为了避免分隔符的冲突)

    CREATE TABLE IF NOT EXISIS stu2(
    id INT,name STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t'
    LOCATION '/user/stu2';

    复制表结构和表中的数据CREATE TABLE stu3 AS SELECT * FROM stu2;

    只复制表的结构,不复制表的数据:CREATE TABLE stu4 LIKE stu2;

    查询表的类型:DESC FORMATTED stu2;



    外部表:因为外部表是指定其他的HDFS路径的数据加载到表当中来,所以hive表会认为自己不完全独占这份数据,所以删除hive表的时候,数据仍然存放在HDFS当中,不会删掉

    创建外部表:

    CREATE EXTERNAL TABLE tercher(
    t_id STRING,t_name STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    CREATE EXTERNAL TABLE student(
    s_id STRING,
    s_name STRING,
    s_birth STRING,
    s_sex STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

    从本地文件向表中导入数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/student.csv' INTO TABLE student;

    从本地文件向表中导入并覆盖原有数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/student.csv' OVERWRITE INTO TABLE student;

    从HDFS文件系统向表中加载数据:LOAD DATA INPATH '/hivedatas/teacher.csv' INTO TABLE teacher;

    如果删掉student表,HDFS的数据仍然存在,并且重新创建表之后,表中就直接存在数据了,因为我们的student表使用的是外部表,drop table之后,表当中的数据依然保留在HDFS上面了



    分区表:一般没有一种独立的表模型,只有内部分区表,或者外部分区表。核心思想是分治。比如三个月的数据表,可以分区到每个月、每周甚至每天一个区,这样需要确切某一天的数据时,找起来会很方便

    创建分区表:

    CREATE TABLE score(
    s_id STRING,c_id STRING,s_score INT)
    PARTITIONED BY (MONTH STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

    创建一个表带多个分区:

    CREATE TABLE score2(
    s_id STRING,c_id STRING,s_score INT)
    PARTITIONED BY (YEAR STRING,MONTH STRING,DAY STRING)
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

    向分区表中导入数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/score.csv' INTO TABLE score PARTITION (MONTH='201806');

    向一个多分区表中导入数据:LOAD DATA LOCAL INPATH '/export/servers/hivedatas/score.csv' INTO TABLE score2 PARTITION (YEAR='2018',MONTH='06',DAY='01');

    多分区联合查询:

    SELECT * FROM score WHERE month='201806'
    UNION ALL
    SELECT * FROM score WHERE month='201806';

    查看分区:SHOW PARTITIONS score;

    添加一个分区或者多个分区:

    ALTER TABLE score ADD PARTITION(month='201805');

    ALTER TABLE score ADD PARTITION(month='201804') PARTITION(month='201803');

    删除分区:ALTER TABLE score DROP PARTITION(month='201806');

    创建外部分区表

    CREATE EXTERNAL TABLE score4(
    s_id STRING,c_id STRING,s_score INT)
    PARTITIONED BY (month='201806')
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

    MSCK REPAIR TABLE score4;



    分桶表:一般也是与内部表或者外部表搭配使用,就是将数据按照字段进行划分,可以将数据按照字段划分到多个文件当中去

    开启桶表功能:set hive.enforce.bucketing=true;

    创建分桶表

    CREATE TABLE course(
    c_id STRING,c_name STRING,t_id STRING)
    CLUSTERED BY (c_id) INTO 3 BUCKETS
    ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

    给分桶表添加数据:INSERT OVERWRITE TBALE course SELECT * FROM course_common CLUSTER BY (c_id);

    修改表的名字:ALTER TABLE score4 RENAME score5;

    增加或修改表内列信息:

    ALTER TABLE score5 ADD columns(mycol STRING,mysco STRING);

    ALTER TABLE score CHANGE column mysco mysconew INT;

    加载数据

    直接向分区表中插入数据:INSERT INTO TABLE score3 PARTITION(month='201807') VALUES('001','002','003');(不推荐用该方法)

    通过查询插入数据:

    (1) LOAD DATA LOCAL INPATH '/export/servers/hivedatas/score.csv' OVERWRITE INTO TABLE score PARTITION(month='201806');

    (2) INSERT OVERWRITE TABLE score PARTITION(month='201806') SELECT s_id,c_id,s_score FROM score;(关键字overwrite必须要有)

    多插入模式

    FROM score
    INSERT OVERWRITE TABLE score_first PARTITION(month='201806') SELECT s_id,c_id,s_score
    INSERT OVERWRITE TABLE score_second PARTITION(month='201806') SELECT s_id,c_id,s_score

hive查询语法(大部分和sql语法相同)

  • 格式

    SELECT [ALL | DISTINCT] select_expr, select_expr, ...
    FROM table_reference
    [WHERE where_condition]
    [GROUP BY col_list [HAVING condition]]
    [CLUSTER BY col_list | [DISTRIBUTE BY col_list] [SORT BY| ORDER BY col_list]]
    [LIMIT number]
  • SELECT

    SELECT * FROM socre; 全表查询

    SELECT s_id,c_id FROM score; 指定列查询

    SELECT s_id AS studentID,c_id FROM score; 指定别名查询

  • 常用函数

    SELECT COUNT(1) FROM score; 总行数

    SELECT MAX(s_score) FROM score; 求指定字段最大值

    SELECT MIN(s_score) FROM score; 求指定字段最小值

    SELECT SUM(s_score) FROM score; 求指定字段总和

    SELECT AVG(s_score) FROM score; 求指定字段平均值

  • LIMIT

    SELECT * FROM score LIMIT 3 返回指定行数的数据

  • WHERE

    SELECT * FROM score WHERE s_score > 60; 只查询出符合条件的数据

  • LIKE和RLIKE

    SELECT * FROM score WHERE s_score LIKE '8%'; 查找以8开头的指定字段

    SELECT * FROM score WHERE s_score LIKE '_9%;' 查找第二个数值是9的指定字段

    SELECT * FROM score WHERE s_score RLIKE '[9]';查找成绩中含有9的指定字段

  • GROUP BY

    SELECT s_id,AVG(s_score) FROM score GROUP BY s_id; 按照s_id进行分组,并求出每个学生的平均分数(GROUP BY的字段必须是SELECT后面的字段,SELECT后面的字段不能比GROUP BY后面的字段多)

  • HAVING

    HAVING和WHERE的区别:

    1.WHERE是首次筛选,是在产生结果之前进行筛选

    2.HAVING是二次筛选,是在产生结果后对结果再次筛选

    3.WHERE后面不能写分组函数,HAVING可以

    4.HAVING只和GROUP BY一起用

    SELECT s_id,AVG(s_score) AS avgScore FROM score
    GROUP BY s_id
    HAVING avgScore>85;
  • JOIN

    (Hive只支持等值连接,不支持非等值连接)

    INNER JOIN(内连接):只有进行连接的两个表中都存在与连接条件相匹配的数据才会被保留下来。

    SELECT * FROM teacher AS t
    INNER JOIN course AS c
    ON t.t_id=c.t_id;

    LEFT JOIN(左外连接):JOIN操作符左边表中符合WHERE子句的所有记录将会被返回。

    SELECT * FROM teacher AS t
    LEFT JOIN course AS c
    ON t.t_id=c.t_id;

    RIGHT JOIN(右外连接):JOIN操作符右边表中符合WHERE子句的所有记录将会被返回。

    SELECT * FROM teacher AS t
    RIGHT JOIN course AS c
    ON t.t_id=c.t_id;

    FULL JOIN(满外连接):将会返回所有表中符合WHERE语句条件的所有记录。如果任一表的指定字段没有符合条件的值的话,那么就使用NULL值替代。

    SELECT * FROM teacher AS t
    FULL JOIN course AS c
    ON t.t_id=c.t_id;

    多表连接:连接 n个表,至少需要n-1个连接条件。

    SELECT * FROM teacher AS t
    LEFT JOIN course AS c
    ON t.t_id=c.t_id
    LEFT JOIN score AS s
    ON s.c_id=c.c_id
    LEFT JOIN student AS stu
    ON s.s_id=stu.s_id;
  • ORDER BY(全局排序)

    只有一个reduce

    降序 | 升序

    SELECT * FROM student AS stu
    LEFT JOIN score AS s
    ON stu.s_id=s.s_id
    ORDER BY s.s_score DESC|ASC;

    多个列排序

    SELECT s_id,AVG(s_score) AS avgScore
    FROM score
    GROUP BY s_id
    ORDER BY s_id,avgScore;
  • SORT BY(局部排序)

    每个MapReduce内部进行排序,对全局结果集来说不是排序。

    set mapreduce.job.reduces=3 设置reduce个数

    SELECT * FROM score SORT BY s_score; 按照降序查看成绩

    INSERT OVERWRITE LOCAL DIRECTORY '/export/servers/hivedatas/sort' SELECT * FROM score SORT BY s_score; 按照降序的成绩结果导入到文件中

  • DISTRIBUTE BY(分区排序)

    类似MR中partition,进行分区,结合sort by使用,并且要将DISTRIBUTE BY的语句写在SORT BY之前。(对于distribute by进行测试,一定要分配多reduce进行处理,否则无法看到distribute by的效果)

    先按照学生id进行分区,再按照学生成绩进行排序

    set mapreduce.job.reduces=7 先设置reduce的个数为7个

    通过DISTRIBUTE BY 进行分区,在通过SORT BY排序

INSERT OVERWRITE LOCAL DIRECTORY '/export/servers/hivedatas/sort'
SELECT * FROM score
DISTRIBUTE BY s_id
SORT BY s_score;
  • CLUSTER BY

    当DISTRIBUTE BY和SORT BY字段相同时,可以使用CLUSTER BY方式。

    CLUSTER BY除了具有DISTRIBUTE BY的功能外还兼具SORT BY的功能。但是排序只能是倒序排序,不能指定排序规则为ASC或者DESC。

    SELECT * FROM score CLUSTER BY s_id; 相当于 SELECT * FROM score DISTRIBUTE BY s_id SORT BY s_id;

Hive Shell参数

  • Hive命令行

    语法结构 hive [-hiveconf x=y] * [<-i filename>]* [<-f filename>|<-e query-string>] [-S]

    -i 从文件初始化HQL

    -e 从命令行执行指定的HQL

    -f 执行HQL脚本

    -v 输出执行的HQL语句到控制台

    -hiveconf 设置hive运行时候的参数配置

  • Hive参数配置方式

    Hive参数参考:https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties

    对于一般参数,有三种设定方式:

    配置文件:用户自定义配置会覆盖默认配置(用户自定义配置文件:$HIVE_CONF_DIR/hive-site.xml/默认配置文件:$HIVE_CONF_DIR/hive-default.xml)。另外,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop的客户端启动的,Hive的配置会覆盖Hadoop的配置。配置文件的设定对本机启动的所有Hive进程都有效。

    命令行参数:启动Hive(客户端或Server方式)时,可以在命令行添加-hiveconf param=value来设定参数。例如bin/hive -hiveconf hive.root.logger=INFO,console。命令行参数只对本次启动的Session(对于Server方式启动,则是所有请求的Sessions)有效。

    参数声明:可以在HQL中使用SET关键字设定参数,例如:set mapred.reduce.tasks=100;。这一设定的作用域也是session级的。

    优先级:参数声明 > 命令行参数 > 配置文件参数(hive)


Hive函数

  • 内置函数

    参考文档:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF

    SHOW FUNCTIONS; 查看系统自带的函数

    DESC FUNCTION UPPER 显示自带函数的用法

    DESC FUNCTION EXTENDED UPPER 显示更为详细的自带函数的用法

  • 自定义函数

    当Hive提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数.

    自定义函数可以分为三种:

    UDF(User Defined Function):一进一出类型的,比如大小写转换

    UDAF(User Defined Aggregation Function):聚集函数,多进一出,比如求最值和总数等;

    UDTF(User Defined Table-Generating Function):一进多出,比如lateral view explore()

    官方文档:https://cwiki.apache.org/confluence/display/Hive/HivePlugins

  • UDF开发实例

    第一步:创建maven java工程,导入jar包

    <repositories>
    <repository>
    <id>cloudera</id>
    <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url>
    </repository>
    </repositories>
    <dependencies>
    <dependency>
    <groupId>org.apache.hadoop</groupId>
    <artifactId>hadoop-common</artifactId>
    <version>2.6.0-cdh5.14.0</version>
    </dependency>
    <dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-exec</artifactId>
    <version>1.1.0-cdh5.14.0</version>
    </dependency>
    </dependencies>
    <build>
    <plugins>
    <plugin>
    <groupId>org.apache.maven.plugins</groupId>
    <artifactId>maven-compiler-plugin</artifactId>
    <version>3.0</version>
    <configuration>
    <source>1.8</source>
    <target>1.8</target>
    <encoding>UTF-8</encoding>
    </configuration>
    </plugin>
    <plugin>
    <groupId>org.apache.maven.plugins</groupId>
    <artifactId>maven-shade-plugin</artifactId>
    <version>2.2</version>
    <executions>
    <execution>
    <phase>package</phase>
    <goals>
    <goal>shade</goal>
    </goals>
    <configuration>
    <filters>
    <filter>
    <artifact>*:*</artifact>
    <excludes>
    <exclude>META-INF/*.SF</exclude>
    <exclude>META-INF/*.DSA</exclude>
    <exclude>META-INF/*/RSA</exclude>
    </excludes>
    </filter>
    </filters>
    </configuration>
    </execution>
    </executions>
    </plugin>
    </plugins>
    </build>

    第二步:开发java类继承UDF,并重载evaluate方法

    package cn.itcast.udf;
    
    import org.apache.hadoop.hive.ql.exec.UDF;
    import org.apache.hadoop.io.Text; public class ItcastUDF extends UDF {
    public Text evaluate(final Text s) {
    if (null == s) {
    return null;
    }
    return new Text(s.toString().toUpperCase());
    }
    }

    第三步:将项目打包,并上传到hive的lib目录下

    第四步:添加jar包

    mv original-day06_hive-1.0-SNAPSHOT.jar udf.jar 重命名jar包

    add jar /export/servers/hive-1.1.0-cdh5.14.0/lib/udf.jar; 把jar包添加到hive客户端

    第五步:关联自定义函数

    create temporary function touppercase AS 'cn.itcast.udf.ItcastUDF';

    第六步:使用自定义函数

    SELECT touppercase('abc');


开启Map输出阶段和Reduce输出阶段压缩

开启map输出阶段压缩可以减少job中MapTask和ReduceTask间数据传输量。

set hive.exec.compress.intermediate=true; 开启hive中间传输数据压缩功能

set mapreduce.map.output.compress=true; 开启mapreduce中map输出压缩功能

set mapreduce.map.output.compress.codec=org.apache.hadoop.io.compress.SnappyCodec; 设置mapreduce中map输出数据的压缩方式



set hive.exec.compress.output=true; 开启hive最终输出数据压缩功能

set mapreduce.output.fileoutputformat.compress=true; 开启mapreduce最终输出数据压缩

set mapreduce.output.fileoutputformat.compress.codec = org.apache.hadoop.io.compress.SnappyCodec; 设置mapreduce最终数据输出压缩方式

set mapreduce.output.fileoutputformat.compress.type=BLOCK; 设置mapreduce最终数据输出压缩为块压缩


Hive的数据存储格式

  • 支持的存储格式

    Hive支持的存储数的格式主要有:TEXTFILE(行式存储) 、SEQUENCEFILE(行式存储)、ORC(列式存储)、PARQUET(列式存储)。

  • 列式存储和行式存储



    列式存储的特点: 因为每个字段的数据聚集存储,在查询只需要少数几个字段的时候,能大大减少读取的数据量;每个字段的数据类型一定是相同的,列式存储可以针对性的设计更好的设计压缩算法。

    行式存储的特点: 查询满足条件的一整行数据的时候,列存储则需要去每个聚集的字段找到对应的每个列的值,行存储只需要找到其中一个值,其余的值都在相邻地方,所以此时行存储查询的速度更快。



    一般拿到原始数据都是TextFile格式,需要经过分析后,通过INSERT OVERWRITE TABLE tbl_name SELECT * FROM tbl_name2;将分析出的结果导入到另一张临时表中就可以使用Parquet或者orc这些列式存储格式了。



    注意:存储格式和压缩方式没有关系,但是实际工作当中存储格式一般都会和压缩方式一起使用

    orc存储格式本身自带一个叫zlib的压缩方式,就算orc去除掉zlib压缩,它因为列式存储的优势,还是可以将原有的数据变小。

    虽然用zlib压缩的文件大小更小,但是压缩和解压都计较耗时,实际工作中一般都是将orc的存储格式和snappy的压缩方式一起用。

【Hadoop离线基础总结】Hive的基本操作的更多相关文章

  1. 【Hadoop离线基础总结】Hive调优手段

    Hive调优手段 最常用的调优手段 Fetch抓取 MapJoin 分区裁剪 列裁剪 控制map个数以及reduce个数 JVM重用 数据压缩 Fetch的抓取 出现原因 Hive中对某些情况的查询不 ...

  2. 【Hadoop离线基础总结】oozie的安装部署与使用

    目录 简单介绍 概述 架构 安装部署 1.修改core-site.xml 2.上传oozie的安装包并解压 3.解压hadooplibs到与oozie平行的目录 4.创建libext目录,并拷贝依赖包 ...

  3. 【Hadoop离线基础总结】Hue的简单介绍和安装部署

    目录 Hue的简单介绍 概述 核心功能 安装部署 下载Hue的压缩包并上传到linux解压 编译安装启动 启动Hue进程 hue与其他框架的集成 Hue与Hadoop集成 Hue与Hive集成 Hue ...

  4. 【Hadoop离线基础总结】impala简单介绍及安装部署

    目录 impala的简单介绍 概述 优点 缺点 impala和Hive的关系 impala如何和CDH一起工作 impala的架构及查询计划 impala/hive/spark 对比 impala的安 ...

  5. 【Hadoop离线基础总结】流量日志分析网站整体架构模块开发

    目录 数据仓库设计 维度建模概述 维度建模的三种模式 本项目中数据仓库的设计 ETL开发 创建ODS层数据表 导入ODS层数据 生成ODS层明细宽表 统计分析开发 流量分析 受访分析 访客visit分 ...

  6. 【Hadoop离线基础总结】Sqoop常用命令及参数

    目录 常用命令 常用公用参数 公用参数:数据库连接 公用参数:import 公用参数:export 公用参数:hive 常用命令&参数 从关系表导入--import 导出到关系表--expor ...

  7. Hadoop(分布式系统基础架构)---Hive与HBase区别

    对于刚接触大数据的用户来说,要想区分Hive与HBase是有一定难度的.本文将尝试从其各自的定义.特点.限制.应用场景等角度来进行分析,以作抛砖引玉之用.  Hive是什么? Apache Hive是 ...

  8. 【Hadoop离线基础总结】Hue与Hive集成

    目录 1.更改hue的配置hue.ini 2.启动hive的metastore以及hiveserver2服务 3.启动hue进程,查看Hive是否与Hue集成成功 1.更改hue的配置hue.ini ...

  9. 【Hadoop离线基础总结】Hive的安装部署以及使用方式

    Hive的安装部署以及使用方式 安装部署 Derby版hive直接使用 cd /export/softwares 将上传的hive软件包解压:tar -zxvf hive-1.1.0-cdh5.14. ...

随机推荐

  1. SVG案例:动态去创建元素createElementNS

    案例一: <!DOCTYPE html> <html> <head> <meta charset="utf-8"> <titl ...

  2. A Bug's Life POJ 2492

    D - A Bug's Life 二分图 并查集 BackgroundProfessor Hopper is researching the sexual behavior of a rare spe ...

  3. Linux相关操作

    ssh配置秘钥 连接远程服务器时:需要用户持有“公钥/私钥对”,远程服务器持有公钥,本地持有私钥. 客户端向服务器发出请求.服务器收到请求之后,先在用户的主目录下找到该用户的公钥,然后对比用户发送过来 ...

  4. 常见的Web源码泄漏漏洞及其利用

    Web源码泄露的漏洞: git源码泄露 svn源码泄露 hg源码泄漏 网站备份压缩文件 WEB-INF/web.xml 泄露 DS_Store 文件泄露 SWP 文件泄露 CVS泄露 Bzr泄露 Gi ...

  5. [Php][linux][nginx] 安装总结

    就想总结一份安装环境文档,因为文档很多问题也很多,总结一份自己的安装文档! 首先,环境CentOS7,linux环境,windows! 1. 网络配置! vi /etc/sysconfig/netwo ...

  6. java 方法的重载、重写与重构

    首先我们要知道重载.重写.重构的区别 重载:指的是在同一个类中,方法名相同,但是参数数量.参数类型或者返回类型不同的方法就叫做重载. 重写: 重写分两种.第一种的是在子类继承父类的情况下,通过@Ove ...

  7. df卡住的解决办法

    在使用网络存储时,如果网络存储出问题.比如使用NFS,网络中断,df -h会卡住 情形一 ctrl+c是能取消中断的,这种情况算是比较幸运.使用mount查看有哪些挂载点,将其卸载即可. 情形二 ct ...

  8. 用 Python 黄图批量鉴别审核

    前言 最近写了一款微信小程序需要用到图片审核,人工审核是不可能的人工审核的太费精力了,所以我就写了一个多线程批量识别脚本来处理,主要是调用百度AI的接口,这里我是付费了也不贵审核一条1分钱不到,再说我 ...

  9. linux上Docker安装gogs私服亲测(详解)

    一.前言 有网友问我为什么要使用私服,可能大部分人都不是太懂,网上那么多存储仓库而且好用方便,但是你想过没有如果企业中的项目,放在人家的仓库上这个安全性不是太好,所以说一般企业都会有自己的私服.本章教 ...

  10. Java中Double保留小数位

    1.能四舍五入 double d = 114.145; d = (double) Math.round(d * 100) / 100; System.out.println(d); 2. BigDec ...