Elasticsearch Date类型使用技巧
elasticsearch原生支持date类型。这里简单记录下使用的方法。
使用date类型可以用如下两种方式:
使用毫秒的时间戳,直接将毫秒值传入即可。
传入格式化的字符串,默认是ISO 8601标准,例如
2015-02-27T00:07Z
(零时区)、2015-02-27T08:07+08:00
(东八区),这两个时间实际是同一个,只是时区不同。另外还可以自定义时间格式,参见es的文档。但个人不建议使用自定义格式,设置不当容易遇到时区问题。在php中获取ISO 8601
标准的时间很简单,date('c',time())
即可。
elasticsearch默认会自动识别date类型,如果想关闭该功能,修改mapping的设置'date_detection' => false
即可 。
贴下我的代码:
package com.osp.log.service.impl; import java.text.DecimalFormat;
import java.util.HashMap;
import java.util.LinkedList;
import java.util.List;
import java.util.Map; import javax.ws.rs.core.Response; import org.elasticsearch.action.search.SearchResponse;
import org.elasticsearch.action.search.SearchType;
import org.elasticsearch.client.transport.TransportClient;
import org.elasticsearch.common.text.Text;
import org.elasticsearch.common.xcontent.XContentType;
import org.elasticsearch.index.query.BoolQueryBuilder;
import org.elasticsearch.index.query.QueryBuilders;
import org.elasticsearch.search.SearchHit;
import org.elasticsearch.search.SearchHits;
import org.elasticsearch.search.aggregations.AggregationBuilders;
import org.elasticsearch.search.aggregations.bucket.terms.Terms;
import org.elasticsearch.search.aggregations.bucket.terms.Terms.Bucket;
import org.elasticsearch.search.aggregations.bucket.terms.TermsAggregationBuilder;
import org.elasticsearch.search.aggregations.metrics.avg.AvgAggregationBuilder;
import org.elasticsearch.search.aggregations.metrics.avg.InternalAvg;
import org.elasticsearch.search.fetch.subphase.highlight.HighlightBuilder;
import org.elasticsearch.search.sort.SortOrder;
import org.springframework.stereotype.Service; import com.osp.common.json.JsonUtil;
import com.osp.log.config.ESConfig;
import com.osp.log.model.SearchModel;
import com.osp.log.model.SearchResultBean;
import com.osp.log.model.TomcatModel;
import com.osp.log.service.SearchService;
import com.osp.log.util.ESUtil;
import com.osp.log.util.TimeUtils; /**
* 关键字搜索
*
* @author zhangmingcheng 2017-09-26
*/
@Service
public class SearchServiceImpl implements SearchService { public static final String INDEX_NAME = "logstash-apacheaccesslog*"; // 索引名称
public static final String INDEX_TYPE = "logs"; // 索引类型 /**
* 关键字搜索
*
* @param q
* 关键词
* @param page
* 页码
* @param pageSize
* 页数大小
* @param ip
* 请求客户端ip
* @param city
* 请求客户端所在城市
* @return
*/
@Override
public SearchResultBean getSearchesult(String keyword, String ip, String city, Integer page, Integer pagesize) {
TransportClient client = ESUtil.getClient();
BoolQueryBuilder boolQueryBuilder = new BoolQueryBuilder();
if (keyword.isEmpty()) {
boolQueryBuilder.must(QueryBuilders.matchAllQuery());
} else {
boolQueryBuilder.must(QueryBuilders.multiMatchQuery(keyword, "request", "verb", "clientip", "message",
"path", "response", "host", "timestamp"));
}
/**
* 高亮设置
*/
HighlightBuilder hiBuilder = new HighlightBuilder();
hiBuilder.preTags("<span class=\'pointKey\'>");
hiBuilder.postTags("</span>");
hiBuilder.field("request", 50);
hiBuilder.field("message", 30);
/**
* 开始搜索
*/
SearchResponse response = client.prepareSearch(SearchServiceImpl.INDEX_NAME)
.setTypes(SearchServiceImpl.INDEX_TYPE).setSearchType(SearchType.DEFAULT).setQuery(boolQueryBuilder)
.setFrom(pagesize * (page - 1)).setSize(pagesize).highlighter(hiBuilder).setExplain(true) // 设置是否按查询匹配度排序
.get();
SearchHits myhits = response.getHits();
LinkedList<TomcatModel> newsList = new LinkedList<>();
for (SearchHit hit : myhits) {
Map<String, Object> map = hit.getSource();
TomcatModel tomcatModel = new TomcatModel();
String request = this.getHighlightFieldString(hit, "request");
String message = this.getHighlightFieldString(hit, "message");
if (request.isEmpty()) {
tomcatModel.setRequest((String) map.get("request"));
} else {
tomcatModel.setRequest(request);
}
if (message.isEmpty()) {
tomcatModel.setMessage((String) map.get("message"));
} else {
tomcatModel.setMessage(message);
}
tomcatModel.setPath((String) map.get("path"));
tomcatModel.setClientip((String) map.get("clientip"));
tomcatModel.setResponse((String) map.get("response"));
tomcatModel.setType((String) map.get("verb"));
tomcatModel.setTimestamp((String) map.get("timestamp"));
newsList.add(tomcatModel);
}
/**
* 记录本次客户端查询:翻页不存储
*/
String usetime = response.getTook().toString();
if (page == 1) {
String json = JsonUtil.beanToJson(new SearchModel(keyword, TimeUtils.getCurrentTime(), ip, city,
Integer.parseInt(usetime.substring(0, usetime.length() - 2)), System.currentTimeMillis()));
client.prepareIndex(ESConfig.SEARCHINDEX, ESConfig.SEARCHTYPE).setSource(json, XContentType.JSON).get();
}
/**
* 开始存储结果
*/
SearchResultBean searchResult = new SearchResultBean();
searchResult.setPage(page);
searchResult.setPagesize(pagesize);
searchResult.setTotal(myhits.getTotalHits());
searchResult.setUsetime(usetime);
searchResult.setNewsList(newsList);
return searchResult;
} /**
* 获取搜索统计数据
*/
@Override
public Response getcount() {
HashMap<String, Object> RealReult = new HashMap<>();
TransportClient client = getClient();
TermsAggregationBuilder agg_clientip = AggregationBuilders.terms("cilentip_count").field("clientip");
AvgAggregationBuilder avg_usetime = AggregationBuilders.avg("avg_usetime").field("usetime");
TermsAggregationBuilder agg_message = AggregationBuilders.terms("agg_message").field("message");
SearchResponse response = client.prepareSearch(ESConfig.SEARCHINDEX).setTypes(ESConfig.SEARCHTYPE)
.addAggregation(agg_clientip).addAggregation(avg_usetime).addAggregation(agg_message)
.setQuery(QueryBuilders.matchAllQuery()).execute().actionGet();
/**
* 搜索次数
*/
RealReult.put("total", response.getHits().getTotalHits());
/**
* 统计访问人数
*/
Terms terms = response.getAggregations().get("cilentip_count");
List<Bucket> buckets = terms.getBuckets();
RealReult.put("people", buckets.size());
/**
* 统计平均搜索用时
*/
InternalAvg avg = response.getAggregations().get("avg_usetime");
DecimalFormat df = new DecimalFormat("#.00");
RealReult.put("avgUsetime", df.format(avg.getValue()).trim() + "ms");
/**
* 统计最多搜索的10个词(聚合默认返回10个值)
*/
Terms messageTerms = response.getAggregations().get("agg_message");
List<Bucket> messageBuckets = messageTerms.getBuckets();
LinkedList<TopWord> result = new LinkedList<TopWord>();
for (Bucket bucket : messageBuckets) {
TopWord topWord = new TopWord();
topWord.set_id((String) bucket.getKey());
topWord.setCount((int) bucket.getDocCount());
result.add(topWord);
}
RealReult.put("Top", result);
return Response.status(200).entity(RealReult).build();
} /**
* 获取历史搜索记录
*/
@Override
public String getHistoryList(Integer page, Integer pagesize) {
LinkedList<Map<String, Object>> result = new LinkedList<>();
TransportClient client = getClient();
SearchResponse response = client.prepareSearch(ESConfig.SEARCHINDEX).setTypes(ESConfig.SEARCHTYPE)
.setQuery(QueryBuilders.matchAllQuery()).addSort("createDate", SortOrder.DESC)
.setFrom(pagesize * (page - 1)).setSize(pagesize).get();
SearchHits myhits = response.getHits();
for (SearchHit hit : myhits) {
Map<String, Object> hitmap = hit.getSource();
HashMap<String, Object> map = new HashMap<>();
map.put("q", hitmap.get("message"));
map.put("usetime", hitmap.get("usetime"));
map.put("city", hitmap.get("city"));
map.put("ip", hitmap.get("clientip"));
map.put("total", myhits.getTotalHits());
map.put("time", hitmap.get("timestamp"));
result.add(map);
}
HashMap<String, Object> RealReult = new HashMap<>();
RealReult.put("rows", result);
RealReult.put("total", myhits.getTotalHits());
return JsonUtil.beanToJson(RealReult);
} public String getHighlightFieldString(SearchHit hit, String field) {
String content = "";
if (hit.getHighlightFields().containsKey(field)) {
Text[] text = hit.getHighlightFields().get(field).getFragments();
for (Text str : text) {
content = content + str;
}
}
return content;
} public TransportClient getClient() {
return ESUtil.getClient();
} class TopWord {
private String _id;
private int count; public String get_id() {
return _id;
} public void set_id(String _id) {
this._id = _id;
} public int getCount() {
return count;
} public void setCount(int count) {
this.count = count;
}
}
}
Elasticsearch Date类型使用技巧的更多相关文章
- Elasticsearch Date类型,时间存储相关说明
资料 网址 Elasticsearch 插入时间字段时数据格式问题 https://segmentfault.com/a/1190000016296983 Elasticsearch Date类型,时 ...
- Elasticsearch date 类型详解
引言 一直对 elasticsearch 中的 date 类型认识比较模糊,而且在使用中又比较常见,这次决定多花些时间,彻底弄懂它,希望能对用到的同学提供帮助. 注意:本文测试使用是 elastics ...
- Oracle-数据类型为date 日期查询技巧
date类型是oracle中存储日期类的一种常用类型,其处理也是在数据库使用中比较多需要注意的地方.如我们可以使用to_char函数将其转化为任意时间格式的字符串,也可使用to_date函数转化相应的 ...
- Elasticsearch 日期类型的自动监测,官方文档
资料 网址 Elasticsearch Reference [7.3] » Mapping » Field datatypes » Date datatype https://www.elastic. ...
- 【Spring】SpringMVC中浅析Date类型数据的传递
在控制器中加入如下代码: @InitBinder public void initBinder(ServletRequestDataBinder bin){ SimpleDateFormat sdf ...
- 向mysql中插入Date类型的数据
先看数据库表的定义 date字段为sql.date类型.我要向其中插入指定的日期和当前日期. 一.插入当前日期 思路:先获取当前系统,在将当前系统时间转换成sql类型的时间,然后插入数据库.代码如下 ...
- java基础--java.util.Date类型小结
首先先来了解一下Date数据类型: . Date类型通常要和另一个 java.text.SimpleDateFormat类联合使用. 把long-->Date: public Date(long ...
- ES数据-MySql处理Date类型的数据导入处理
用ES的小伙伴们,相信大家都遇到过Mapping处理Date类型的数据头疼问题吧. 不用头疼了,我来给你提供一种解决方案: 1.Maping定义为: { "mappings": ...
- java 中的SimpleDateFormat、Date函数以及字符串和Date类型互转
SimpleDateFormat是一个以与语言环境有关的方式来格式化和解析日期的具体类.它允许进行格式化(日期 -> 文本).解析(文本 -> 日期)和规范化. SimpleDateFor ...
随机推荐
- 【python3】urllib.error.URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:777)>
在玩爬虫的时候,针对https ,需要单独处理.不然就会报错: 解决办法:引入 ssl 模块即可 核心代码 imort ssl ssl._create_default_https_context = ...
- vim重复操作的宏录制
在编辑某个文件的时候,可能会出现需要对某种特定的操作进行许多次的情况,以编辑下面的文件为例: ;==================================================== ...
- swagger环境搭建
下面所用工具下载 http://editor.swagger.io/#/ demo 一.安装 swagger editor 说明:安装swagger前需要安装node工具 工具安装 ...
- 从零开始学习Hadoop--第4章 序列化(转载)
作者对序列化的描述浅显易懂!(https://www.douban.com/note/313096752/) 1. 序列化从头说 在面向对象程序设计中,类是个很重要的概念.所谓“类”,可以将它想像成建 ...
- Linux 下Redis集群安装部署及使用详解(在线和离线两种安装+相关错误解决方案)
一.应用场景介绍 本文主要是介绍Redis集群在Linux环境下的安装讲解,其中主要包括在联网的Linux环境和脱机的Linux环境下是如何安装的.因为大多数时候,公司的生产环境是在内网环境下,无外网 ...
- 升级后重启造成fsck.ext3: Unable to resolve UUID
这篇文章帮了我的大忙了:转载自:http://wilber82.blog.51cto.com/1124820/724472 今天在做服务器补丁部署,有一台ESX4.1的服务器在升级后重启过程中挂了,通 ...
- wireshark 表达式备忘录
参考资料: https://blog.csdn.net/wojiaopanpan/article/details/69944970 wireshark分两种表达式,一种是捕获表达式,这个是在捕获时用的 ...
- slf4j + log4j 是如何初始化的
SLF4J的全称是 Simple Logging Facade for Java(简单java日志门面) SLF4J自己不提供具体的日志功能实现,只是提供了一个统一的日志门面,在这个统一的门面之下,用 ...
- FileInputStream 和 FileOutputStream
简介 FileInputStream和FileOutputStream都是用来处理二进制数据源磁盘文件的流的. 他们分别派生自顶层抽象类InputStream和OutputStream FileInp ...
- NHibernate.3.0.Cookbook第一章第六节Handling versioning and concurrency的翻译
NHibernate.3.0.Cookbook第一章第六节Handling versioning and concurrency的翻译 第一章第二节Mapping a class with XML ...