import pandas as pd
df=pd.read_csv(your_file_path, header=0)
df.columns=your_columns_list
df.to_csv(your_file_path, index=False)
百度知道pandas透视之后如何表头很奇怪
司徒为0f1
贡献了超过424个回答
关注
成为第1位粉丝
1、修改表头(columns)1、修改所有列列名如:a,b修改为A、B。df.columns = ['A','B']print(df)结果:A B0 1 11 2 22、只修改指定列列名如:a修改为Adf.rename(columns={'a':'A'},inplace=True)print(df)1212结果A b0 1 11 2 22 3 31其他df:任意的Pandas DataFrame对象s:任意的Pandas Series对象raw:行标签col:列标签导入依赖包:import pandas as pdimport numpy as np12121、导入数据pd.read_csv(filename_path):从CSV文件导入数据pd.read_table(filename_path):从限定分隔符的文本文件导入数据pd.read_excel(filename_path):从Excel文件导入数据pd.read_sql(query, connection_object):从SQL表/库导入数据pd.read_json(json_string):从JSON格式的字符串导入数据pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格pd.read_clipboard():从你的粘贴板获取内容,并传给read_table()pd.DataFrame(dict):从字典对象导入数据,Key是列名,Value是数据2、导出数据df.to_csv(filename_path):导出数据到CSV文件df.to_excel(filename_path):导出数据到Excel文件df.to_sql(table_name, connection_object):导出数据到SQL表df.to_json(filename_path):以Json格式导出数据到文本文件3、创建测试数据pd.DataFrame(np.random.rand(20,5)):创建20行5列的随机数组成的DataFrame对象pd.Series(my_list):从可迭代对象my_list创建一个Series对象df.index = pd.date_range('1900/1/30', periods=df.shape[0]):增加一个日期索引4、查看、检查数据df.head(n):查看DataFrame对象的前n行(不加参数,默认前10行)df.tail(n):查看DataFrame对象的最后n行(不加参数,默认后10行)df.shape():查看行数和列数(维度查看)df.info():查看索引、数据类型和内存信息df.describe():查看数值型列的汇总统计s.value_counts(dropna=False):查看Series对象的唯一值和计数df.apply(pd.Series.value_counts):查看DataFrame对象中每一列的唯一值和计数df.dtypes:查看每一列的数据类型(扩展:df['two'].dtypes,查看“two”列的类型)df.isnull():查看空置(注:空置部分会用true显示,不是空置False显示)(扩展:df['two'].isnull,查看“two”这一列的空置)df.values:查看数据表的值df.column5、数据选取(具体使用见https://www.cnblogs.com/luckyplj/p/13274662.html)df.isin([5]):判断全部数据值中是否有5df[col].isin([5]):判断列col中是否有5df[col]:根据列名,并以Series的形式返回列df[[col1, col2]]:以DataFrame形式返回多列s.iloc[0]:按位置选取行数据s.loc['index_one']:按索引选取行数据df.loc[:,'reviews'] 获取指定列的数据 注意: 第一个参数为:表示所有行,第2个参数为列名,设置获取列名为review的数据df.loc[[0,2],['customername','reviews','review_fenci']] 选择指定的多行多列 参数说明: [0,2] 这个列表有两个元素0,2表示选择第0行和第2行['customername','reviews','review_fenci']这个列表有3个元素表示选择列名为'customername','reviews','review_fenci‘的这3列df.iloc[0,:]:返回第一行df.iloc[0,0]:返回第一行的第一个元素df.ix[0] 或 df.ix[raw] :ix函数可以根据行位置或行标签选择行数据注:loc函数根据行/列标签(用户自定义的行名、列名)进行行选择;iloc函数根据行/列位置(默认的行列索引)进行行选择;6、数据清理df.columns = ['a','b','c']:重命名列名pd.isnull():检查DataFrame对象中的空值,并返回一个Boolean数组pd.notnull():检查DataFrame对象中的非空值,并返回一个Boolean数组df.dropna():删除所有包含空值的行df.dropna(axis=1):删除所有包含空值的列df.dropna(axis=1,thresh=n):删除所有小于n个非空值的行df.fillna(x):用x替换DataFrame对象中所有的空值(注:fillna()会填充nan数据,返回填充后的结果。如果希望在原DataFrame中修改,则把inplace设置为True。如,df.fillna(0,inplace=True))mydf['列名']=mydf['列名'].fillna(0) 某一列的空值补零s.astype(float):将Series中的数据类型更改为float类型df[col].astype(float):将DataFrame某列数据类型改为float类型s.replace(1,'first'):用‘first’代替所有等于1的值(替换的是值,不是列名也不是索引名)s.replace([1,3],['one','three']):用'one'代替1,用'three'代替3df[col].replace(1,1.0,inplace=True):列col中的值1用1.0替换df.replace([1,3],['one','three'])df.rename(columns=lambda x: x + 1):批量更改列名df.rename(columns={'old_name': 'new_ name'}):选择性更改列名df.set_index('column_one'):将column_one这一列变为索引列df.rename(index=lambda x: x + 1):批量重命名索引df[col]=df[col].str.upper()或df[col].str.lower():基于列的大小写转换df[col]=df[col].map(str.strip):清除某列的空格df.drop_duplicates(subset=col,keep='fisrt',inplace=Flase)注:这个drop_duplicate方法是对DataFrame格式的数据,去除特定列下面的重复行。返回DataFrame格式的数据。subset : column label or sequence of labels, optional 用来指定特定的列,默认所有列keep : {‘first’, ‘last’, False}, default ‘first’ 删除重复项并保留第一次出现的项inplace : boolean, default False 是直接在原来数据上修改还是保留一个副本7、数据处理df[df[col] >0.5]:选择col列的值大于0.5的行df.sort_values(col1):按照列col1排序数据,默认升序排列df.sort_values(col2, ascending=False):按照列col1降序排列数据df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列数据df.groupby(col):返回一个按列col进行分组的Groupby对象df.groupby([col1,col2]):返回一个按多列进行分组的Groupby对象df.groupby(col1)[col2]:返回按列col1进行分组后,列col2的均值df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):创建一个按列col1进行分组,并计算col2和col3的最大值的数据透视表df.groupby(col1).agg(np.mean):返回按列col1分组的所有列的均值data.apply(np.mean):对DataFrame中的每一列应用函数np.meandata.apply(np.max,axis=1):对DataFrame中的每一行应用函数np.maxdf.isin8、数据合并df1.append(df2):将df2中的行添加到df1的尾部df.concat([df1, df2],axis=1):将df2中的列添加到df1的尾部df1.join(df2,on=col1,how='inner'):对df1的列和df2的列执行SQL形式的join9、数据统计
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)