将日志中的json请求提取,并且发送到另外一个机器上: for i in ` cat impression.log.2016-04-08-10 |awk -F"\t" ' {print $6}' ` ; do curl "http://localhost:9888$i" ; done 使用cat 文件,read line 的形式实现 遍历行循环发送: #!/bin/bash cat data.txt | while read line do # echo $line…
项目上线后经常出现需要统计用户数据.接口请求等.完美的情况下,在项目开始前就设计好哪些request.中间过程需要落地到db.或以一定格式存入专门的log中,但也常需要同学们临时去业务日志中grep 大致分为三步:找到包含数据的行.提取出行中需要的数据.输出到文件并提取到本地 实践中用到的一种方式: }' > machine1_userId_2017-09-04.log 用到的命令: zcat:就是查看压缩文件的内容,如果日志未压缩,直接cat也行 grep:找到包含数据的行 awk:用法为 a…
前言:jar 包中的 servlet 必须可以处理前端发出的 ajax 请求,接收参数,并返回结果. github地址:yuleGH github 这里有个约定,url 地址是 .json 结尾的,如果是 .json 结尾的则当成 ajax 访问, 如果不是,则当成查找普通文件处理. 处理 json 请求的异常处理方式: if (path.endsWith(".json")){ try{ //处理ajax请求 dealJsonService(request, response, pat…
POST请求发送 重写爬虫应用文件中继承Spider类的 类的里面的start_requests(self)这个方法 def start_requests(self): #请求的url post_url = 'http://fanyi.baidu.com/sug' # post请求参数 formdata = { 'kw': 'wolf', } # 发送post请求 yield scrapy.FormRequest(url=post_url, formdata=formdata, callback…
最近在做http加密接口,请求头的uid参数及body的请求json参数都经过加密再发送请求,加密方式为:ase256.所以,jmeter发送请求前也需要对uid及json参数进行加密.我这里是让开发写了个加密.解密的jar,jmeter直接调用这个jar包进行加密.解密. 1.加解密的jar包放到jmeter的lib\ext目录下 2.在测试计划-->Add directory or jar to classpath 添加需要调用的jar包…
最近在做http加密接口,请求头的uid参数及body的请求json参数都经过加密再发送请求,加密方式为:ase256.所以,jmeter发送请求前也需要对uid及json参数进行加密.我这里是让开发写了个加密.解密的jar,jmeter直接调用这个jar包进行加密.解密. 1.加解密的jar包放到jmeter的lib\ext目录下 2.在测试计划-->Add directory or jar to classpath 添加需要调用的jar包…
Spring中处理JSON请求通常使用@RequestBody和@ResponseBody注解,针对JSON请求加解密和过滤字符串,Spring提供了RequestBodyAdvice和ResponseBodyAdvice两个接口 具体使用 1.解密: import com.hive.util.AESOperator; import org.apache.commons.io.IOUtils; import org.slf4j.Logger; import org.slf4j.LoggerFac…
1  背景 接口用例已经在项目中的yml文件中编写,但是yml文件不能做为交付文档用,本文对工作中从接口输出日志中提取用例信息,并导入到excel文件中做了总些 2  工具 idea,notepad++,excel 3  提取用例 总体思路是代码中将要提取的数据打印到日志中,对日志信息进行处理,然后以文本导入向导的方式导入到excel中 3.1 日志输出 为了便于从日志中提取用例所需要的信息(用例名称,入参,出参),所以代码中要将这几个全部打印到日志中,并加入部分分隔符方便后续处理,如: Mer…
一.post请求发送 - 问题:爬虫文件的代码中,我们从来没有手动的对start_urls列表中存储的起始url进行过请求的发送,但是起始url的确是进行了请求的发送,那这是如何实现的呢? - 解答:其实是因为爬虫文件中的爬虫类继承到了Spider父类中的start_requests(self)这个方法,该方法就可以对start_urls列表中的url发起请求: def start_requests(self): for u in self.start_urls: yield scrapy.Re…
一.创建线程安全的okhttp单例 import service.NetworkIntercepter;import service.RetryIntercepter;import okhttp3.*;import org.slf4j.Logger;import org.slf4j.LoggerFactory; import java.io.IOException;import java.util.HashMap;import java.util.Map;import java.util.con…