main.py import pymysql import re import requests # 连接数据库函数 from bs4 import BeautifulSoup def insertCvpr(value): try: db = pymysql.connect(host="localhost", user="root", password="password", database="article",charse…
main.py #保存单个界面数据 def getInfo(url): # url='https://openaccess.thecvf.com/WACV2021' header={ 'User-Agent':'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Mobile Safari/537.36' } html=…
一.Github地址      课程项目要求    队友博客 二.具体分工 031602225 林煌伟 :负责C++部分主要功能函数的编写,算法的设计以及改进优化 031602230 卢恺翔 : 爬虫实现以及附加功能,代码框架设计,接口封装 三.psp表格 & 学习进度条 psp表格 PSP2.1 Personal Software Process Stages 预估耗时(分钟) 实际耗时(分钟) Planning 计划 60 60 · Estimate · 估计这个任务需要多少时间 30 30…
#该脚本可以提取沪深两市上市公司股票信息,并按以下信息分类:(1)当天股价创近10个交易日新高的股票:(2)停牌的股票:(3)复牌不超过一个交易日或者新发行的股票 #将分类后的股票及其信息(股价新高.当前状态等)存入mysql数据库 from time import * import pandas as pd import tushare as ts from datetime import date import datetime import MySQLdb import sys reloa…
目标:将不同格式的JSON文件存入MySQL数据库 涉及的点有: 1. java处理JSON对象,直接见源码. 2. java.sql.SQLException: Incorrect string value: ‘\xF0\x9F\x99\x8F\xE5\x8D…’ for column ‘text’ at row 1报错问题,报错原因:因为我没有对插入文本做任何处理,文本内有不同字节的utf8字符,我的处理方式就是过滤后再插入,因为特殊的字符其实也没什么用. public static Str…
mysql版本:5.7 : 数据库:rdshare:表captain_america3_sd用来记录某帧是否被检测.表captain_america3_d用来记录检测到的数据. python模块,包部分内容参考http://www.runoob.com/python/python-modules.html  https://www.cnblogs.com/ningskyer/articles/6025964.html 一.连接数据库 参考: # 将视频插入数据库 def video_insert…
mysql数据库可以远程连接或者说用IP地址可以访问 一般情况不建议直接修改root的权限, 先看下,自己mysql数据库的用户级权限 mysql -u root -p----->用root登陆   use mysql------->切换到mysql数据库(这个mysql是数据库的名字,---->安装的时候系统自带的吧) 可以看到我的是这样的,至于为什么有2个root我还不太清楚,我记得mysql安装的时候有个选项是---(是否可以远程访问)可能第一个root是这个作用吧,而我们常用的是…
转自原文操作服务器及MySQL数据库可以使其远程链接 一般情况分三个地方准备,MySQL数据库,防火墙,还有你的服务器主机的准备 操作系统为centos6.5.其他系统大致差不多. 1:在服务器中安装mysql,具体安装过程,请自行查询.安装好后,输入mysql -u root -p,再输入密码(输入密码时,密码不会显示)就会进入到MySQL如下界面. 2:进入MySQL后,show databases; use mysql; select User,Host,Password from use…
网页情况: 代码: import requests from requests.exceptions import RequestException from bs4 import BeautifulSoup as bs import re import time import pymysql def get_one_page(url): #得到一页的内容 try: headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x…
1.Scrapy使用流程 1-1.使用Terminal终端创建工程,输入指令:scrapy startproject ProName 1-2.进入工程目录:cd ProName 1-3.创建爬虫文件(此篇介绍使用spider下的Crawlspider 派生类新建爬虫文件 ),scrapy genspider -t craw spiderFile www.xxx.com 1-4.执行工程,scrapy crawl spiderFile (待编程结束执行此命名) 需到新建工程下执行  2.创建爬虫并…