咱们从网上爬取数据,最终一步会考虑怎么存储数据。假如数据量不大,往往不会挑选存储到数据库,而是挑选存储到文件中,例如文本文件、CSV 文件、xls 文件等。由于文件具有携带便利、查阅直观。
Python 作为胶水言语,搞定这些当然不在话下。但在写数据过程中,常常因数据源中带有中文汉字而报错。最让人头皮发麻的编码问题。
我先说下编码相关的常识。编码方法有许多种:UTF-8, GBK, ASCII 等。
ASCII 码是美国在上个世纪 60 时代拟定的一套字符编码。主要是规范英语字符和二进制位之间的联系。英语词汇组成简略,由 26 个字母构成。运用一个字节就能表明一个字母符号。外加各种符号,运用 128 个字符就满意编码要求。
不同国家有不同言语文字。一起,文字组成部分的数量比较英语字母要多许多。依据不完全统计,汉字的数量大约将近 10 万个,日常所运用的汉字有 3000 个。明显,ASCII 编码无法满意需求。所以汉字选用 GBK 编码,运用两个字节表明一个汉字。简体中文的编码方法是 GBK2312。
那 UTF-8 又是什么编码?这要先说 Unicode 了。Unicode 意图是为了一致各种编码。由于各国都各自的编码方法。假如运用一种编码编码,运用另一种编码解码。这会形成呈现乱码的状况。但 Unicode 仅仅一个符号集,它只规则了符号的二进制代码,却没有规则这个二进制代码应该怎么存储。UTF-8 就是在互联网上运用最广的一种 Unicode 的完成方法。
因而,假如咱们要写数据到文件中,最好指定编码方法为 UTF-8。
Python 规范库中,有个名为 csv 的库,专门处理 csv 的读写操作。详细运用实例如下:
import csv
import codecs
# codecs 是自然言语编码转化模块
fileName = ‘PythonBook.csv’
# 指定编码为 utf-8, 防止写 csv 文件呈现中文乱码
with codecs.open(fileName, ‘w’, ‘utf-8’) as csvfile:
# 指定 csv 文件的头部显现项
filednames = [‘书名’, ‘作者’]
writer = csv.DictWriter(csvfile, fieldnames=filednames)
books = []
book = {
‘TItle’: ‘笑傲江湖’,
‘author’: ‘金庸’,
}
books.append(book)
writer.writeheader()
for book in books:
try:
writer.writerow({‘书名’:book[‘TItle’], ‘作者’:book[‘author’]})
except UnicodeEncodeError:
print(“编码过错, 该数据无法写到文件中, 直接疏忽该数据”)
这种方法是逐行往 CSV 文件中写数据, 所以功率会比较低。假如想批量将数据写到 CSV 文件中,需求用到 pandas 库。
pandas 是第三方库,所以运用之前需求装置。经过 pip 方法装置是最简略、最便利的。
pip install pandas
运用 pandas 批量写数据的用法如下:
import pandas as pd
fileName = ‘PythonBook.csv’
number = 1
books = []
book = {
‘TItle’: ‘笑傲江湖’,
‘author’: ‘金庸’,
}
# 假如 book 条数足够多的话,pandas 会每次往文件中写 50 条数据。
books.append(book)
data = pd.DataFrame(books)
# 写入csv文件,‘a+’是追加形式
try:
if number == 1:
csv_headers = [‘书名’, ‘作者’]
data.to_csv(fileName, header=csv_headers, index=False, mode=‘a+’, encoding=‘utf-8’)
else:
data.to_csv(‘fileName, header=False, index=False, mode=’a+‘, encoding=’utf-8‘)
number = number + 1
except UnicodeEncodeError:
print(“编码过错, 该数据无法写到文件中, 直接疏忽该数据”)