什么是Neo4j?

  Neo4j是一个高性能的NoSQL图形数据库(Graph Database),它将结构化数据存储在网络上而不是表中。它是一个嵌入式的、基于磁盘的、具备完全的事务特性的Java持久化引擎,但是它将结构化数据存储在网络(从数学角度叫做图)上而不是表中。Neo4j也可以被看作是一个高性能的图引擎,该引擎具有成熟数据库的所有特性。

  作为图形数据库,Neo4j最让人惊喜的功能就是它可以直观地展示图,也就是节点与节点之间的关系,当然,它还有其它的优势,比如:

  • 很容易表示连接的数据;
  • 检索/遍历/导航更多的连接数据是非常容易和快速的;
  • 能轻松地表示半结构化数据;
  • Neo4j CQL查询语言命令类似于SQL,可读性好,容易学习;
  • 使用简单而强大的数据模型;
  • 不需要复杂的连接来检索连接的/相关的数据。

  在本文中,笔者希望能够通过一个简单的例子来展示Neo4j的使用以及它的强大之处,这无疑更适合于初学者,因为笔者也是刚入门。

  以下,笔者并不会过多地介绍Neo4j的操作,只是希望读者能对Neo4j的功能有直观的感受,至于教程之类的,可以参考文章最后的参考文献。

  下面,让我们进入本次的Neo4j之旅~

项目展示

  由于《流浪地球》的大热以及笔者对此的欣赏,因此,此次的项目为分析中国电影票房排行。我们的数据来自于百度百科,用爬虫得到我们需要的数据,主要是电影的相关信息,如排名,票房,上映日期等,以及电影的主演。将数据储存为CSV文件,并导入至Neo4j,最后得到电影的简单分析及可视化。

  整个项目主要是以下三步:

  • 数据获取:利用爬虫实现;
  • 数据导入:利用Py2neo实现;
  • 数据展示:利用Neo4j实现。

其中,Py2neo为Neo4j的Python接口。

  整个项目的结构如下图:

  接下来,笔者将详细地介绍每一步的操作及代码,let's go ~

数据获取

  数据的获取始终是一个重要的问题,好在我们有爬虫这个工具。为了能够展示中国电影票房排行中的电影信息以及演员与电影的关系,首先的重要一步就是获取我们需要的需要。

  我们需要两份数据。第一份数据,就是中国电影票房排行数据,网址为:https://baike.baidu.com/item/中国电影票房/4101787?fr=aladdin,页面如下:

  我们制作爬虫,将这个表格爬取下来,并将表格的第一行(字段名称)作为电影的相关信息,然后储存为movies.csv。整个过程的Python代码(movie.py)如下:(因为这是公开数据,这个爬虫是合理的。)

  1. # -*- coding: utf-8 -*-
  2. import requests
  3. import pandas as pd
  4. from bs4 import BeautifulSoup
  5. url = "https://baike.baidu.com/item/%E4%B8%AD%E5%9B%BD%E7%94%B5%E5%BD%B1%E7%A5%A8%E6%88%BF/4101787"
  6. # 请求头部
  7. headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'}
  8. r = requests.get(url, headers=headers)
  9. soup = BeautifulSoup(r.text.encode('ISO-8859-1'),'lxml')
  10. table = soup.find('table')('tr')
  11. movies = []
  12. for line in table[1:]:
  13. movie = {'rank': int(line('td')[0].text),
  14. 'src': line('td')[1]('a')[0]['href'],
  15. 'name': line('td')[1].text,
  16. 'box_office': line('td')[2].text,
  17. 'avg_price': int(line('td')[3].text),
  18. 'avg_people': int(line('td')[4].text),
  19. 'begin_date': line('td')[5].text.strip(),
  20. }
  21. # print(movie)
  22. movies.append(movie)
  23. # print(movies)
  24. df = pd.DataFrame({'rank': [movie['rank'] for movie in movies],
  25. 'src': [movie['src'] for movie in movies],
  26. 'name': [movie['name'] for movie in movies],
  27. 'box_office': [movie['box_office'] for movie in movies],
  28. 'avg_price': [movie['avg_price'] for movie in movies],
  29. 'avg_people': [movie['avg_people'] for movie in movies],
  30. 'begin_date': [movie['begin_date'] for movie in movies]
  31. })
  32. # print(df.head())
  33. df.to_csv(r'./movies.csv', index=False)

  movies.csv中的数据如下:

  OK,第二份数据,每部电影(共20部)的主演,以《流浪地球》为例,网址为:https://baike.baidu.com/item/流浪地球/16278407,页面如下:

我们只需要爬取每部电影的主演就够了,也就是上图中的红色部分,实现的Python代码(actor.py)如下:

  1. # -*- coding: utf-8 -*-
  2. import requests
  3. import pandas as pd
  4. from bs4 import BeautifulSoup
  5. def get_actors(src):
  6. url = "https://baike.baidu.com"+src
  7. # 请求头部
  8. headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'}
  9. r = requests.get(url, headers=headers)
  10. soup = BeautifulSoup(r.text.encode('ISO-8859-1'),'lxml')
  11. names = soup.find_all('dt', class_="basicInfo-item name")
  12. values = soup.find_all('dd', class_="basicInfo-item value")
  13. actors = []
  14. for name, value in zip(names, values):
  15. # print(name.text)
  16. if '主' in name.text and '演' in name.text:
  17. # print(name.text.replace('    ', ''), value.text)
  18. actors = value.text.strip().split(',')
  19. actors = [actor.strip().replace('\xa0', '').replace('\n[6]', '') for actor in actors if actor]
  20. # print(actors)
  21. return ','.join(actors)
  22. df = pd.read_csv('./movies.csv')
  23. actors_list = []
  24. for name, src in zip(list(df['name']), list(df['src'])):
  25. actors = get_actors(src)
  26. # print(name, actors)
  27. actors_list.append(actors)
  28. new_df = pd.DataFrame({'actors': actors_list})
  29. new_df['name'] = df['name']
  30. # print(new_df)
  31. new_df.to_csv(r'./actors.csv', index=False)

  生成的actor.csv数据如下:

  OK,数据收集的任务就到此完成了,有了爬虫,轻松搞定数据难题。

导入数据

   接着,我们需要用到刚才储存的movies.csv和actor.csv,利用Py2neo来将数据导入至Neo4j中。

   首先,需要确保你的电脑已安装好Neo4j,Py2neo,并开启了Neo4j服务,具体的安装流程可参考网址:https://www.w3cschool.cn/neo4j/neo4j_features_advantages.html

   利用Py2neo,我们就可以用Python轻松地实现将数据导入至Neo4j,实现的功能为:创建电影节点以及演员节点,并创建两者之间的关系,关系名称为“ACT_IN”。实现的Python代码()如下:

  1. # -*- coding: utf-8 -*-
  2. import pandas as pd
  3. from py2neo import Graph, Node, Relationship, NodeMatcher
  4. # 读取csv文件
  5. movies_df = pd.read_csv(r'./movies.csv')
  6. actors_df = pd.read_csv(r'./actors.csv')
  7. # 连接Neo4j服务
  8. graph = Graph(host="localhost://7474", auth=("neo4j", "jc147369"))
  9. # 创建电影节
  10. for i in range(movies_df.shape[0]):
  11. rank = str(movies_df.iloc[i, :]['rank'])
  12. name = movies_df.iloc[i, :]['name']
  13. box_office = movies_df.iloc[i, :]['box_office']
  14. avg_price = str(movies_df.iloc[i, :]['avg_price'])
  15. avg_people = str(movies_df.iloc[i, :]['avg_people'])
  16. begin_date = movies_df.iloc[i, :]['begin_date']
  17. node = Node("Movie",
  18. name=name,
  19. rank=rank,
  20. box_office=box_office,
  21. avg_price=avg_price,
  22. avg_people=avg_people,
  23. begin_date=begin_date
  24. )
  25. # print(movies_df.iloc[i, :]['rank'])
  26. graph.create(node)
  27. print('create movie nodes successfully!')
  28. # 创建演员节点
  29. all_actors = set()
  30. for i in range(actors_df.shape[0]):
  31. actor_list = actors_df.iloc[i, :]['actors'].split(',')
  32. for actor in actor_list:
  33. all_actors.add(actor)
  34. for actor in all_actors:
  35. node = Node("Actor", name=actor)
  36. graph.create(node)
  37. print('create actor nodes successfully!')
  38. # 创建演员——电影关系
  39. for i in range(actors_df.shape[0]):
  40. name = actors_df.iloc[i, :]['name']
  41. matcher = NodeMatcher(graph)
  42. movie_node = matcher.match("Movie", name=name).first()
  43. actors = actors_df.iloc[i, :]['actors'].split(',')
  44. # print(name, actors)
  45. for actor in actors:
  46. actor_node = matcher.match("Actor", name=actor).first()
  47. relationship = Relationship(actor_node, 'ACT_IN', movie_node)
  48. graph.create(relationship)
  49. print('create relationships successfully!')
  50. print('You can check Neo4j now!')

  只要你的电脑已安装好Neo4j,Py2neo,并开启了Neo4j服务,不出意外,那么你的Neo4j已经默默地储存了这些数据,而它们将会给出带来巨大的惊喜:天呐,这竟然是个数据库!

  在浏览器中输入“localhost:7474”,并点击左上方的数据库图标,就能看到下图:

  可以看到,在Neo4j中,我们创建了142个节点,分为两类:Movie和Actor,以及136对关系,关系名称为ACT_IN. 当然,这些都是枯燥的,那么我们来看看数据展示这步吧,它会给我们带来什么惊喜?

数据展示

  好不容易到了数据展示这一步,之前的努力都不会白费!

  在Neo4j的前端页面(也就是网址:http://localhost:7474)中的命令行中输入命令:

  1. MATCH (Movie)
  2. RETURN (Movie);

运行命令后,很快就能得到整个图(包含电影节点、演员节点以及关系)的可视化展示,由于图像过大,不能看清细节,因此,就局部放大来看,同时得到一些简单的分析。

  首先是图一,吴京主演的电影。

在中国电影票房排行榜的前20名中,吴京主演了《战狼2》与《流浪地球》,且两者没有其他更多的相同主演。

  接着是图二,沈腾主演的电影。

在中国电影票房排行榜的前20名中,沈腾主演了《西虹市首富》、《疯狂的外星人》以及《羞羞的铁拳》,这显示了沈腾的票房号召力(他也是笔者喜欢的喜剧演员),不过开心麻花团队的其他成员在这三部电影的拍摄中应该见不到面。

  接着是图三,《捉妖记》及《捉妖记2》。

捉妖记系列电影无疑是成功的,两部电影都进了票房的前20,他们的共同主演就多了,有曾志伟,吴君如,井柏然,白百何。

  接着是图四,主要是看看Neo4j帮我们挖掘了哪些潜在的关系。

从《唐人街探案2》到《捉妖记2》,这个不算长的链条给了我们一些惊喜,原来,刘昊然可以通过尚语贤再通过曾志伟认识李宇春,一个very interesting的分析。当然,这个是笔者的分析,他俩到底认不认识笔者是不知道滴~

  分析到此结束,如果读者想看原图,可以参看该项目的github地址:https://github.com/percent4/Neo4j_movie_demo

总结

  感谢读者不厌其烦地看到了这里,看完了这篇“又臭又长”的文章,好在图比较多,应该能稍微减轻点阅读的压力。

  再说说该项目的不足之处:那就是Neo4j的操作语法展示的比较少,约等于没有,这主要是笔者也是初入门,不熟。如果后续对Neo4j的操作语法CQL熟练了,我们就能能到更多有趣的结果,而不是这么一句简单的分析(有敷衍的嫌疑)。

  最后,对此项目感兴趣的读者,可以移步该项目的github地址:https://github.com/percent4/Neo4j_movie_demo

注意:不妨了解下笔者的微信公众号: Python爬虫与算法(微信号为:easy_web_scrape), 欢迎大家关注~

参考文献

  1. Neo4j_百度百科:https://baike.baidu.com/item/Neo4j/9952114?fr=aladdin
  2. neo4j教程:https://www.w3cschool.cn/neo4j/neo4j_features_advantages.html
  3. The Py2neo v3 Handbook: https://py2neo.org/v3/index.html
  4. Neo4j简介及Py2Neo的用法: https://cuiqingcai.com/4778.html

Neo4j入门之中国电影票房排行浅析的更多相关文章

  1. ActiveReports 大数据分析报告:2018中国电影再次迎来黄金时代

    回顾2018,中国电影市场收获颇丰.先是凭借春节档<红海行动>.<唐人街探案>双双实现30亿票房突破,而后暑期档火力全开,<我不是药神>.<西虹市首富> ...

  2. VR电影这一新概念在中国电影道路上的探索

    在12月的一个下午,Kevin Geiger正在进行关于VR中的故事讲述的一次再普通不过的演讲.地点是北京电影学院里一个围的水泄不通的场馆,他鼓励大家都来参与电影制作,无论是导演.演员还是电影行业的任 ...

  3. kaggle——TMDB 电影票房收入预测

    介绍 看电影是目前人们休闲娱乐,消遣时光的选择之一.我们都知道,有些电影的票房很高,有的电影票房却很低,那么决定票房的因素是什么呢?本次将介绍,如何根据电影上映前的一些信息来预测出该电影的票房. 知识 ...

  4. python实现的、带GUI界面电影票房数据可视化程序

    代码地址如下:http://www.demodashi.com/demo/14588.html 详细说明: Tushare是一个免费.开源的python财经数据接口包.主要实现对股票等金融数据从数据采 ...

  5. python实现的电影票房数据可视化

    代码地址如下:http://www.demodashi.com/demo/14275.html 详细说明: Tushare是一个免费.开源的python财经数据接口包.主要实现对股票等金融数据从数据采 ...

  6. 【python数据分析实战】电影票房数据分析(一)数据采集

    目录 1.获取url 2.开始采集 3.存入mysql 本文是爬虫及可视化的练习项目,目标是爬取猫眼票房的全部数据并做可视化分析. 1.获取url 我们先打开猫眼票房http://piaofang.m ...

  7. 【python数据分析实战】电影票房数据分析(二)数据可视化

    目录 图1 每年的月票房走势图 图2 年票房总值.上映影片总数及观影人次 图3 单片总票房及日均票房 图4 单片票房及上映月份关系图 在上一部分<[python数据分析实战]电影票房数据分析(一 ...

  8. python网络爬虫(11)近期电影票房或热度信息爬取

    目标意义 为了理解动态网站中一些数据如何获取,做一个简单的分析. 说明 思路,原始代码来源于:https://book.douban.com/subject/27061630/. 构造-下载器 构造分 ...

  9. Python学习 —— 爬虫入门 - 爬取Pixiv每日排行中的图片

    更新于 2019-01-30 16:30:55 我另外写了一个面向 pixiv 的库:pixiver 支持通过作品 ID 获取相关信息.下载等,支持通过日期浏览各种排行榜(包括R-18),支持通过 p ...

随机推荐

  1. xamarin android网络请求总结

    xamarin android中网络请求的框架非常多,在项目中使用的是第三方的一个网络请求框架restsharp,应该是github上.net网络请求最多star的框架,没有之一.这里就简单汇总了其他 ...

  2. 关于CocoaPods的ruby镜像文件问题

    项目遇到第三方库更新问题 时   用到cocoaPods更换淘宝ruby镜像问题的时候  报错 后来 又在别处找了下 发现 用的是 https  如下: 后来细想  可能跟Xcode7 要求HTTPs ...

  3. 如何解决在ie下,Echarts多次使用setOption更改数据时,数据错乱问题

    一.问题描述 根据用户的操作,通过Ajax请求,获取某段时间内的某数据趋势折线图数据.用户切换数据项或更改时间段时,ie中渲染的折线图包含了上一次获取的数据,导致数据错乱,如下图所示: 二.代码 数据 ...

  4. SpringBoot(一)_快速实战搭建项目

    现在在学习springboot 相关的知识,感觉真的很好用,用idea 进行开发,根据慕课网和纯洁的微笑的课程.进行总结下. 使用idea创建springboot项目 (1)单击 File | New ...

  5. 来聊一聊不low的Linux命令——find、grep、awk、sed

    前几天面试,被一位面试官嫌弃了"你的Linux命令有点low".被嫌弃也挺正常的,因为我的简历写的我自己都有点看不下去:了解Linux常用命令,如ls,tail -f等命令,基本满 ...

  6. JS点击图片更改照片

    <img src="../../img/20190224185111.png" alt="" id="zhaopian"/> - ...

  7. forEach循环对集合进行循环时,需判断是否为null;

    分析forEach的源码会发现:foreach源码例子: public class Foreach { public static void main(String[] args) { List< ...

  8. Morris遍历-如何用空间复杂度O(1)来遍历二叉树

    参照和学习: https://www.cnblogs.com/AnnieKim/archive/2013/06/15/morristraversal.html 解决的问题:如何使用空间复杂度O(1), ...

  9. 如何使用 Enterprise Architect 画 UML

    本文同时发布于http://fantasylion.github.io/tools/How-to-use-EA 重识 EA (Enterprise Architect) 公司使用的 OMS 是从外面买 ...

  10. 国内常用DNS

    114.114.114.114 国内移动,电信,联通通用DNS 223.5.5.5 阿里 223.6.6.6 阿里 180.76.76.76 百度