1. #!/usr/bin/python
  2. # -*- coding: cp936 -*-
  3. ###################################################
  4. #基于百度翻译的爬虫翻译器
  5. #by 68xi
  6. #2018/07/10
  7. ###################################################
  8.  
  9. from ScrolledText import ScrolledText
  10. from Tkinter import *
  11. import requests
  12.  
  13. # ______________清屏_______________#
  14. def qp():
  15.     e.delete("1.0", 'end')
  16.     d.delete("1.0", 'end')
  17.  
  18. # ______________翻译______________#
  19. def fy():
  20.     e.delete("1.0", 'end')
  21.     url = 'http://fanyi.baidu.com/v2transapi/'
  22.     datelist = d.get('1.0', 'end').split('\n')
  23.     for one in range(0, len(datelist) - 1):
  24.         if datelist[one] == '':
  25.             e.insert(AtEnd(), '\n')
  26.             continue
  27.         data = {'query': datelist[one]}
  28.         response = requests.post(url, data)
  29.         e.insert(AtEnd(), response.json()['trans_result']['data'][0]['dst'] + '\n')
  30.  
  31. # ________main________#
  32. root = Tk()
  33. root.title("翻译器 made by pengyao1207".decode("gbk"))
  34. root.geometry('800x600')
  35. root.resizable(width=False, height=False)
  36.  
  37. d = ScrolledText(root, width=100, height=20)
  38. d.pack(side=TOP)
  39.  
  40. frm1 = Frame(root)
  41. fy = Button(frm1, text="翻译".decode('gbk'), font=("Arial", 12), width=5, height=2, command=fy).pack(side=LEFT)
  42. Label(frm1, text="          ", width=20, height=2).pack(side=LEFT)
  43. Button(frm1, text="清屏".decode('gbk'), font=("Arial", 12), width=5, height=2, command=qp).pack(side=LEFT)
  44. frm1.pack(side=TOP)
  45.  
  46. dfy = StringVar()
  47. e = ScrolledText(root, width=100, height=20)
  48. e.pack(side=TOP)
  49.  
  50. root.mainloop()

  代码挺简单的,但是实用!可以看看,如果有哪些不足和意见可以和我一起探讨!

python制作的翻译器基于爬取百度翻译【笔记思路】的更多相关文章

  1. 【学习笔记】Python 3.6模拟输入并爬取百度前10页密切相关链接

    [学习笔记]Python 3.6模拟输入并爬取百度前10页密切相关链接 问题描述 通过模拟网页,实现百度搜索关键词,然后获得网页中链接的文本,与准备的文本进行比较,如果有相似之处则代表相关链接. me ...

  2. Python爬虫实战二之爬取百度贴吧帖子

    大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 前言 亲爱的们,教程比较旧了,百度贴吧页面可能改版,可能代码不 ...

  3. 转 Python爬虫实战二之爬取百度贴吧帖子

    静觅 » Python爬虫实战二之爬取百度贴吧帖子 大家好,上次我们实验了爬取了糗事百科的段子,那么这次我们来尝试一下爬取百度贴吧的帖子.与上一篇不同的是,这次我们需要用到文件的相关操作. 本篇目标 ...

  4. python爬取百度翻译返回:{'error': 997, 'from': 'zh', 'to': 'en', 'query 问题

    解决办法: 修改url为手机版的地址:http://fanyi.baidu.com/basetrans User-Agent也用手机版的 测试代码: # -*- coding: utf-8 -*- & ...

  5. Python爬虫:通过关键字爬取百度图片

    使用工具:Python2.7 点我下载 scrapy框架 sublime text3 一.搭建python(Windows版本) 1.安装python2.7 ---然后在cmd当中输入python,界 ...

  6. Python 基础语法+简单地爬取百度贴吧内容

    Python笔记 1.Python3和Pycharm2018的安装 2.Python3基础语法 2.1.1.数据类型 2.1.1.1.数据类型:数字(整数和浮点数) 整数:int类型 浮点数:floa ...

  7. python简单爬虫 用beautifulsoup爬取百度百科词条

    目标:爬取“湖南大学”百科词条并处理数据 需要获取的数据: 源代码: <div class="basic-info cmn-clearfix"> <dl clas ...

  8. Python爬虫之简单的爬取百度贴吧数据

    首先要使用的第类库有 urllib下的request  以及urllib下的parse  以及 time包  random包 之后我们定义一个名叫BaiduSpider类用来爬取信息 属性有 url: ...

  9. python 爬取百度翻译进行中英互译

    感谢RoyFans 他的博客地址http://www.cnblogs.com/royfans/p/7417914.html import requests def py(): url = 'http: ...

随机推荐

  1. SQL查询优化思维即SQL子查询

    一. 什么叫子查询 定义及分类 子查询又称内部查询,而包含子查询的语句称之外部查询(又称主查询).所有的子查询可以分为两类,即相关子查询和非相关子查询. 非相关子查询是独立于外部查询的子查询,子查询总 ...

  2. SpringBoot系列教程JPA之query使用姿势详解之基础篇

    前面的几篇文章分别介绍了CURD中的增删改,接下来进入最最常见的查询篇,看一下使用jpa进行db的记录查询时,可以怎么玩 本篇将介绍一些基础的查询使用姿势,主要包括根据字段查询,and/or/in/l ...

  3. Block chain 1_The Long Road to Bitcoin

    The path to Bitcoin is littered with the corpses of failed attempts. I've compiled a list of about a ...

  4. Shell编程学习记录

    一.shell中单引号和双引号的区别: 1).单引号属于强引用,它会忽略所有被引起来的字符的特殊处理,被引用起来的字符会被原 封不动的使用,唯一需要注意的点是不允许引用自身: 2).双引号属于弱引用, ...

  5. flask框架(五)——支持正则写法、模板用法、请求响应、session

    如果用正则的话,我们要用自定义的路由. 1导入from werkzeug.routing import BaseConverter 2我先要写一个类,然后继承BaseConverter,然后实现__i ...

  6. fastjson框架如何处理boolean?CURRENT_TIMESTAMP使用报错?什么是 ONLINE DDL 及 pt-online-schema-change ? getBytes引起的乱码问题?

    一.使用fastjson框架进行序列化时,若莫个参数为Boolean类型,而json里的值是其它类型时,框架如何处理? 1.true, false,正常赋值2.int类型,若为1,则为true,否则为 ...

  7. PDA日常问题

    一.连接网络异常 1.摩托摩拉3190连接wifi时报错,提示:scan error adapter unavailable 确认网卡是不是禁用状态,CE是右下角有个蓝色的图,上面有个X,点一下,然后 ...

  8. Java冒泡排序与快速排序笔记

    public class Sort { public static void sort() { Scanner input = new Scanner(System.in); int sort[] = ...

  9. C# 使用代理实现方法过滤

    一.为什么要进行方法过滤 一些情况下我们需要再方法调用前记录方法的调用时间和使用的参数,再调用后需要记录方法的结束时间和返回结果,当方法出现异常的时候,需要记录异常的堆栈和原因,这些都是与业务无关的代 ...

  10. 实现负载均衡的小demo

    首先我们先来了解负载均衡: 负载均衡是为了缓解网络压力的,服务器端进行扩容的重要手段 实现有两种方式:硬件F5    .   软件nginx.Dubbo 为了实现负载均衡的原理,我们基于以下两篇随笔继 ...