out=groupby_sum.ix[:'to_uid','sum(diamonds)']
使用ix在提取数据的时候,out的数据类型通常为<class 'pandas.core.series.Series'>,即为Series类型。 但是Series类型没有直接的to_excel方法(out.to_excel('data2.xlsx','Sheet1')),所以是不能直接写入到文件中的, 解决办法:
将Series转化为DataFrame,然后再写入问价中即可。
Series.to_frame(name=None)

注意事项:在pandas官方文档的API Reference下有大量的类似知识,需要好好的研究。
#http://pandas.pydata.org/pandas-docs/stable/generated/pandas.Series.to_frame.html 下面是一个demo:
# -*- coding: utf-8 -*-
# Time : 2016/11/29 11:17
# Author : XiaoDeng
# version : python3.5
# Software: PyCharm Community Edition import pandas as pd
import numpy as np
import matplotlib.pyplot as plt #装载关系网UID
uid_dict={}
uid_list=[]
for k in open('关系网data.txt'):
k=k.strip()
k=k.split('\t')
uid=k[0]#即为需要查询数据的某ID
to_uid=k[1] #接收礼物的id uid_list.append(int(to_uid)) #注意:记得转化为int类型 if uid not in uid_dict:
uid_dict[uid]=[to_uid]
else:
uid_dict[uid].append(to_uid) # print(uid_dict)
df=pd.read_csv('201611.csv')
# print(df) intday=df['intday']
send_uid=df['send_uid']#送礼的人
to_uid=df['to_uid']#接收礼物的人
gid=df['gid']#礼物编号
sum_diamonds=df['sum(diamonds)'] #对应编号礼物的钻石数合计 #过滤
# print(uid_list)
guolv=df['to_uid'].isin(uid_list)
s=df[guolv]
# print(s)
# s.to_excel('data2.xlsx','Sheet1') groupby_sum=s.groupby('to_uid').sum()
# print(groupby_sum) #写入文件
out=groupby_sum.ix[:'to_uid','sum(diamonds)']
print(type(out))
out=out.to_frame()
# print(out) # out.to_excel('data2.xlsx','Sheet1',index=False)#不要索引
out.to_excel('data2.xlsx','Sheet1') if __name__=='__main__':
pass

 

Series转化为DataFrame数据的更多相关文章

  1. 将Dictionary序列化为json数据 、json数据反序列化为Dictionary

    需要引用System.Web.Extensions  dll类库 /// <summary> /// 将json数据反序列化为Dictionary /// </summary> ...

  2. 在DataFrame数据表里面提取需要的行

    在DataFrame数据表里面提取需要的行 代码功能: 在DataFrame表格中使用loc(),得到我们想要的行,然后根据某一列元素的值进行排序 此代码中还展示了为DataFrame添加列,即直接n ...

  3. Python3 Pandas的DataFrame数据的增、删、改、查

    Python3 Pandas的DataFrame数据的增.删.改.查 一.DataFrame数据准备 增.删.改.查的方法有很多很多种,这里只展示出常用的几种. 参数inplace默认为False,只 ...

  4. Pandas DataFrame数据的增、删、改、查

    Pandas DataFrame数据的增.删.改.查 https://blog.csdn.net/zhangchuang601/article/details/79583551 #删除列 df_2 = ...

  5. spark 将dataframe数据写入Hive分区表

    从spark1.2 到spark1.3,spark SQL中的SchemaRDD变为了DataFrame,DataFrame相对于SchemaRDD有了较大改变,同时提供了更多好用且方便的API.Da ...

  6. 将DataFrame数据如何写入到Hive表中

    1.将DataFrame数据如何写入到Hive表中?2.通过那个API实现创建spark临时表?3.如何将DataFrame数据写入hive指定数据表的分区中? 从spark1.2 到spark1.3 ...

  7. JSONArray ja = JSONArray.fromObject(list);//特殊类 用于将list转化为JSON 数据并返回 out.print(ja);

    JSONArray ja = JSONArray.fromObject(list);//特殊类 用于将list转化为JSON 数据并返回out.print(ja);

  8. 将pandas的DataFrame数据写入MySQL数据库 + sqlalchemy

    将pandas的DataFrame数据写入MySQL数据库 + sqlalchemy import pandas as pd from sqlalchemy import create_engine ...

  9. 吴裕雄--天生自然python学习笔记:pandas模块DataFrame 数据的修改及排序

    import pandas as pd datas = [[65,92,78,83,70], [90,72,76,93,56], [81,85,91,89,77], [79,53,47,94,80]] ...

随机推荐

  1. 成员变量传参,jion方法的使用

    package charpter06; //MyThread02和MyThread01两个类 相互调用的结果public class MyThread01 extends Thread { // 用全 ...

  2. jQuery+存储过程实现无刷新分页(九)

    涉及到得知识点: 1.分页存储过程 2.分页原理 3.jQuery DOM操作 4.jQuery Ajax存取数据   效果图:

  3. Django ORM中使用update_or_create功能再解

    以前,我解过这个问题,现在百度搜索,发了像也只能找到我这个帖子. https://www.cnblogs.com/aguncn/p/4922654.html 今天,看了看官方文档,关于这个update ...

  4. Arbitrage HDU1217

    汇率转换问题: 怎么样才能套利 可以用Floyd算法: #include<bits/stdc++.h> using namespace std; ][]; int main() { int ...

  5. 用mybatis的代码自动生成工具,炒鸡好用,推荐一下别人的操作

    http://www.cnblogs.com/smileberry/p/4145872.html

  6. Python3 图片水平镜像实现

    # -*- coding: utf-8 -*- """ Created on Sun Feb 4 12:15:38 2018 @author: markli " ...

  7. ClassLoader如何加载class?

    ClassLoader一个经常出现又让很多人望而却步的词,本文将试图以最浅显易懂的方式来讲解 ClassLoader,希望能对不了解该机制的朋友起到一点点作用. 要深入了解ClassLoader,首先 ...

  8. 2D Tookit简单教程

    1. 在Project Window中点击Create > tk2d > Sprite Collection”点击Sprite Collection,创建一个Sprite Collecti ...

  9. (58)Wangdao.com第九天_JavaScript 对象的基本操作

    对象的基本操作 创建对象 var 对象名 = new Object();        // new 函数;    称为构造函数,专门用来创建对象的函数 var god =  给对象增加属性 删除对象 ...

  10. jdk 10.0.2 bug修复

    之前记录过jdk9+版本的1个bug,某些情况下会导致方法执行二遍,今天早上打开笔记本(mac),弹出一个框提示jdk升级10.0.2,顺手点了一下,然后验证了下该bug,发现居然fix掉了,推荐大家 ...