最近有个需求,要检测配置中的那些url的域名是否都正常,即是否都能ping通. 不过配置中url格式是这样的 http://www.something.com:1234/ . 要ping的是www.something.com. 要把url中的域名抽离出来,一般会想到的是切割字符串,或者用正则表达式. 不过有个更干净利落的方法,就是python标准库自带的urlparse.url的各个部分都可以用这个东东抽离出来. >> url = 'http://www.something.com:1234/…
安装 PyPI的最新稳定版本: pip install tld 或者GitHub的最新稳定版本: pip install https://github.com/barseghyanartur/tld/archive/stable.tar.gz 或BitBucket的最新稳定版本: 点击安装https://bitbucket.org/barseghyanartur/tld/get/stable.tar.gz 用法示例 从给定的URL 获取TLD名称作为字符串 from tld import get…
1.IIFE: Immediately-Invoked function Expression 函数模块自调用 2.代码实现 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>Title</title> <div id="demo">的么的事</div> <…
VIM 的作者Bram Moolenaar在一篇叫高效文本编辑器的7个习惯的ppt中有这么一段话. Three basic steps 1.    Detect inefficiency 2.    Find a quicker way 3.    Make it a habit 即 1.检测哪里效率低下 2.找到一种更快的方法 3.养成习惯   这3个步骤可谓是大道至简.放之四海而皆准. 不止适用于vim,一样适用于python以及其他语言,也适用于现实生活. 这简单的道理很多人都懂,但是却有…
1.python中的urlencode与urldecode 2.各种编码转换在线工具 3.python用于url解码和中文解析的小脚本(python url decoder) 4.如何只对url中的中文编码 5.[python]——关于中文字串与URL编码之间的转化 6.python中unicode.utf8.gbk等编码问题…
使用Python 内置的模块 urlparse from urlparse import * url = 'https://docs.google.com/spreadsheet/ccc?key=blah-blah-blah-blah#gid=1' result = urlparse(url) result 包含了URL的所有信息 >>> from urlparse import * >>> url = 'https://docs.google.com/spreadsh…
新创建项目   自己写个url映射到自定义的视图函数 在url中传递参数 app.py from flask import Flask app = Flask(__name__) @app.route('/') def hello_world(): return 'Hello World!' #自定义访问返回结果 @app.route('/list/') def article_list(): return 'article list' #带参数传递 @app.route('/article/<…
Feigong --非攻 非攻 取自<秦时明月>--非攻,针对不同情况自由变化的武器 Feigong,针对各种情况自由变化的mysql注入脚本 Feigong,In view of the different things freely change the mysql injection script 什么是非攻? 在sqlmap的使用过程中,常常碰到很普通的绕过过滤方式,例如空格-->%0b.%0a,但是却没办法使用sqlmap来获取数据的情况,于是花了很长时间来完善脚本,让非攻可以…
本篇博文跟上一篇[Python][flask][flask-wtf]关于flask-wtf中API使用实例教程有莫大的关系. 简介:Flask-Login 为 Flask 提供了用户会话管理.它处理了日常的登入,登出并且长时间记住用户的会话. 直白的讲,flask-login包为用户管理了涉及到用户登录相关的缓存(Session)管理. Posted by Alima | cnblogs. 一.安装(Install) PC环境:Windows 7,Python 3.5.2. PS:此次配置环境阶…
python笔记之提取网页中的超链接 对于提取网页中的超链接,先把网页内容读取出来,然后用beautifulsoup来解析是比较方便的.但是我发现一个问题,如果直接提取a标签的href,就会包含javascript:xxx和#xxx之类的,所以要对这些进行特殊处理. #!/usr/bin/env python #coding: utf-8 from bs4 import BeautifulSoup import urllib import urllib2 import sys reload(sy…