简介

今天试着用ptyhon做了一个抓取网页内容,并生成word文档的功能,功能很简单,做一下记录以备以后用到。

生成word用到了第三方组件python-docx,所以先进行第三方组件的安装。由于windows下安装的python默认不带setuptools这个模块,所以要先安装setuptools这个模块。

安装

1、在python官网上找到 https://bootstrap.pypa.io/ez_setup.py  ,把代码保存到本地并执行:  python ez_setup.py

2、下载python-docx  (https://pypi.python.org/pypi/python-docx/0.7.4),下载完成后解压并进入到  XXX\python-docx-0.7.4 安装python-docx : python setup.py install

这样python-docx就安装成功了,可以用它来操作word文档了,word文档的生成参考的这里https://python-docx.readthedocs.org/en/latest/index.html

html解析用到的是sgmllib里的SGMLParser  url内容的获取用到的是urllib、urllib2

实现代码

# -*- coding: cp936 -*-
from sgmllib import SGMLParser
import os
import sys
import urllib
import urllib2
from docx import Document
from docx.shared import Inches
import time 

##获取要解析的url
class GetUrl(SGMLParser):
  def __init__(self):
    SGMLParser.__init__(self)
    self.start=False
    self.urlArr=[] 

  def start_div(self,attr):
    for name,value in attr:
      if value=="ChairmanCont Bureau":#页面js中的固定值
        self.start=True 

  def end_div(self):
    self.start=False 

  def start_a(self,attr):
    if self.start:
      for name,value in attr:
        self.urlArr.append(value) 

  def getUrlArr(self):
    return self.urlArr 

##解析上面获取的url,获取有用数据
class getManInfo(SGMLParser):
  def __init__(self):
    SGMLParser.__init__(self)
    self.start=False
    self.p=False
    self.dl=False
    self.manInfo=[]
    self.subInfo=[] 

  def start_div(self,attr):
    for name,value in attr:
      if value=="SpeakerInfo":#页面js中的固定值
        self.start=True 

  def end_div(self):
    self.start=False 

  def start_p(self,attr):
    if self.dl:
      self.p=True 

  def end_p(self):
    self.p=False 

  def start_img(self,attr):
    if self.dl:
      for name,value in attr:
        self.subInfo.append(value) 

  def handle_data(self,data):
    if self.p:
      self.subInfo.append(data.decode('utf-8')) 

  def start_dl(self,attr):
    if self.start:
      self.dl=True 

  def end_dl(self):
    self.manInfo.append(self.subInfo)
    self.subInfo=[]
    self.dl=False 

  def getManInfo(self):
    return self.manInfo 

urlSource="http://www.XXX"
sourceData=urllib2.urlopen(urlSource).read() 

startTime=time.clock()
##get urls
getUrl=GetUrl()
getUrl.feed(sourceData)
urlArr=getUrl.getUrlArr()
getUrl.close()
print "get url use:" + str((time.clock() - startTime))
startTime=time.clock() 

##get maninfos
manInfos=getManInfo()
for url in urlArr:#one url one person
  data=urllib2.urlopen(url).read()
  manInfos.feed(data)
infos=manInfos.getManInfo()
manInfos.close()
print "get maninfos use:" + str((time.clock() - startTime))
startTime=time.clock() 

#word
saveFile=os.getcwd()+"\\xxx.docx"
doc=Document()
##word title
doc.add_heading("HEAD".decode('gbk'),0)
p=doc.add_paragraph("HEADCONTENT:".decode('gbk')) 

##write info
for infoArr in infos:
  i=0
  for info in infoArr:
    if i==0:##img url
      arr1=info.split('.')
      suffix=arr1[len(arr1)-1]
      arr2=info.split('/')
      preffix=arr2[len(arr2)-2]
      imgFile=os.getcwd()+"\\imgs\\"+preffix+"."+suffix
      if not os.path.exists(os.getcwd()+"\\imgs"):
        os.mkdir(os.getcwd()+"\\imgs")
      imgData=urllib2.urlopen(info).read() 

      try:
        f=open(imgFile,'wb')
        f.write(imgData)
        f.close()
        doc.add_picture(imgFile,width=Inches(1.25))
        os.remove(imgFile)
      except Exception as err:
        print (err) 

    elif i==1:
      doc.add_heading(info+":",level=1)
    else:
      doc.add_paragraph(info,style='ListBullet')
    i=i+1 

doc.save(saveFile)
print "word use:" + str((time.clock() - startTime)) 

总结

以上就是本文关于python解析html提取数据,并生成word文档实例解析的全部内容,希望对大家有所帮助。感兴趣的朋友可以继续参阅本站其他相关专题,如有不足之处,欢迎留言指出。感谢朋友们对本站的支持!

您可能感兴趣的文章:

  • Python读取指定目录下指定后缀文件并保存为docx
  • Python复制Word内容并使用格式设字体与大小实例代码
  • Python读取word文本操作详解
  • 利用python批量修改word文件名的方法示例
  • 用python结合jieba和wordcloud实现词云效果
  • Python+Wordpress制作小说站
  • python 出现SyntaxError: non-keyword arg after keyword arg错误解决办法
  • python批量替换页眉页脚实例代码
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。