temp = input("请输入1到100之间的数字:") num = int(temp) if 1 <= num <= 100:                         # 这一点给赞 省得用 and 或 &了 print('你妹好漂亮^_^')                    # tab键,还有":" else: print('你大爷好丑T_T')                     # tab键   还有":&…
习题: L = [1,2] L.append(L) Print L 问,结果是什么. 结果是,[1,2,[...]] 这是什么意思呢?就是说[...]表示的对[1,2]的无限循环.这一点是在C#等静态语言中做不到的,因为C#中的数组长度是固定的,List又限定了数据的类型.…
Python,while循环小例子--猜拳游戏(三局二胜) import random all_choice = ['石头', '剪刀', '布'] prompt = '''(0)石头 (1)剪刀 (2)布 请选择(0\1\2)''' # 人的计分板 pwin = 0 # 计算机的计分板 cwin = 0 # 人和计算机都没有赢够两次则继续 while pwin < 2 and cwin < 2: # 人的选择在前,计算机随机选择在后,组成小列表,把所有人赢的情况再放到大列表中 win_lis…
[每日一个小技巧]Python | input的提示信息换行输出,提示信息用变量表示 在书写代码的途中,经常会实现这样功能: 请输入下列选项前的序号: 1.选择1 2.选择2 3.选择3 在python中具体的实现的方法有: print("请输入下列选项前的序号\n",\ "1.选择1\n",\ "2.选择2\n",\ "3.选择3") i = input() 结果: >>> print("请输入下…
想要用java 连接数据库,需要在classpath中加上jdbc的jar包路径 在eclipse中,Project的properties里面的java build path里面添加引用 连接成功的一个小例子数据库如下如…
最近两天公司事比较多,这两天自己主要跟xml打交道,今天更一下用java操作xml的一个小例子. 原来自己操作xml一直用这个包:xstream-1.4.2.jar.然后用注解的方式,很方便,自己只要定义好bean的层次结构就可以了,第三方包会自动生成和解析xml. 但是今天发现,这个包有两个问题: 一个是比较复杂(我是菜鸟,求别喷,我真的觉得他挺复杂的..).比如说你要想处理既有属性又有值的xml就比较麻烦.(@XStreamConverter注解这种方法报这个错:com.thoughtwor…
使用SilverLight.WPF也有很长时间了,但是知道Binding.Command的基本用法,对于原理性的东西,一直没有深究.如果让我自己建一个MVVM模式的项目,感觉还是无从下手,最近写了一个小例子,贴上代码,自己感觉比较经典. 首先是依赖属性的基类,继承自INotifyPropertyChanged Command基类1(图片太大): Command基类2: Command基类3: 前台View: 后台ViewModel: 后台ViewModel: 现在贴出图片,等有时间了自己敲代码,…
使用Trinity拼接以及分析差异表达一个小例子  2017-06-12 09:42:47     293     0     0 Trinity 将测序数据分为许多独立的de Brujin graph,理论上每一个图对应一个表达的基因. 整个流程分为三个步骤:Inchworm, Chrysalis, and Butterfly Inchworm: 从reads中提取所有的重叠k-mers,根据丰度递减的顺序检查每个k-mers,然后将重叠的k-mers延长到不能再延长,称为一个contig C…
学习了一段时间的web前端,感觉有点看不清前进的方向,于是就写了一个小爬虫,爬了51job上前端相关的岗位,看看招聘方对技术方面的需求,再有针对性的学习. 我在此之前接触过Python,也写过一些小脚本,于是决定用Python来完成这个小项目. 首先说说一个爬虫的组成部分: 1.目标连接,就是我需要爬取信息的网页的链接: 2.目标信息,就是网页上我需要抓取的信息: 3.信息梳理,就是对爬取的信息进行整理. 下面我来说说整个爬虫的设计思路: 总体思路:以“前端”关键字进行搜索,把搜索结果上面每一个…
通过一个小案例深入理解IO多路复用 假如我们现在有这样一个普通的需求,写一个简单的爬虫来爬取校花网的主页 import requests import time start = time.time() url = 'http://www.xiaohuar.com/' result = requests.get(url).text print(result) print(time.time()-start) 这样子是显然没啥问题的,总共耗时约为6秒 但是有没有办法更进一步优化呢,这里如果需要优化我…