最近微博上一个接一个的瓜,本文将介绍如何用 Python 自动抓取微博热搜,并定时发送到QQ邮箱.首要分为三个部分:

  

  

  *爬行微博热搜。

  

  

  *整理数据和发送电子邮件。

  

  

  *定期执行。

  

  

  # 1.抓取热搜数据。

  

  

  进入https://s.weibo.com/top/summary,某微博热搜榜后,整体页面如下:

  

  

  5ykhacj30r2.jpg

  

  

  咱们可以看到咱们需要的热搜列表信息在页面中央(共50个热搜),这里需要抓取的信息包括热搜标题、话题搜索量、话题索引。按F12进入网页源代码页面,点击元素阅读如下:

  

  

  f4bgt12zsie.jpg

  

  

  选择鼠标选项,然后单击要爬网的信息,以查看相应的html源代码。咱们在这里抓取的内容分为三个部分:标题、数量、索引和网站,从网页的源代码中可以找到以下规则:

  

  

  信息法律标题标题号索引。

  

  

  Class='td-03 '索引索引1(。*?)连接

  

  

  Target='_blank' title。

  

  

  注意:这里之所以有index和index 1源代码,是因为前者得到的数据是有噪声的,所以需要再次使用index 1才能得到最终的信息。

  

  

  之后,咱们使用requests包对网页的源代码进行抓取,并通过re模块定期提取抓取的内容,因为一天只执行一次,所以不需要考虑请求头。Python代码如下:

  

  

  import request import re URL=' https://s . Weibo.com/top/summary?Cate=realtimehot' # Weibo网站ret=requests . get(URL)test=ret . textu _ href='https://www.hack6.com/337422/。*?u_title='(。*?)' u_amount='(。*?)' u_category='(。*?)“u_href=https://www.hack6.com/337422/”。*?title=re.findall(u_title,test)金额=re.findall(u_amount,test)类别=re.findall(u_category,test)href=https://www.hack6.com/337422/re.findall(u_href,test)

  

  

  # 2.数据清理。

  

  

  以上四个索引,标题、金额、类别、href,是未处理的主题、主题搜索量、主题索引、主题连接。接下来,咱们先处理它并编码。

  

  

  将熊猫导入为pdf title=title[:-2]title=title[1:]href=https://www.hack6.com/337422/href[:-2]href=https://www.hack6.com/337422/href[1:]代表范围内的j(len(href)): href[j]=' https://s . Weibo.com/' href[j]同样代表范围内的I(len(类别)):如果类别[='':类别[i]=re.findall((。*?)',类别[I]) [0]如果类别[I]==' :类别[I]='空'类别=类别[1:]同样在类别:类别中'推荐'删除('推荐')。Df=pd。data frame()df[' keywords ']=title df[' amount ']=amount df[' category ']=category ydf[' href ']=href df=df . sort _ values(' amount ')。Df2=df[df['类别']=='爆炸']df3=df[df['类别']=='沸腾']df4=df[df['类别']='热']df5=。

  

df[df['category']=='新']df6=df[df['category']=='空']df=pd.concat([df2,df3,df4,df5,df6],ignore_index=True)df.to_csv('微博热搜.csv',encoding='gbk')#输出为csv文本格式

  

下面对title进行处理,第一节爬取到的title是这样的,

  

nyllantjcvu.jpg

  

总共只有50条热搜,怎么多出来3条?可以看到最后的两条是不需要的,所以用列表提取的方法提取前50行。还有一个元素多出来?就是咱们的第一个元素,即是title[0],title[0]是没有序号与热搜搜索量的,如图:

  

hwhd05j05gf.jpg

  

“天问一号成功着陆”这一话题有指数无搜索量,是属于缺失数据,这里咱们删除它,同样用到列表提取元素方法。

  

对href连接的处理与title的处理相同。

  

接着对搜索量做处理,采用了删除空格的语句。原因是热搜榜中会出现推荐的话题,而推荐的话题是没有搜索量的,故咱们删除它。

  

最后轮到指数处理,先看未处理前的指数,

  

xb1eemk4er3.jpg

  

上面显而易见咱们要提取的指数信息就在每个元素里面,同样利用re模块正则提取,提取出来后做三件事:

  

* 去除第一个元素(原因已在title处理上讲解)

  

* 空字符串部分以中文空子代替

  

* 去除推荐的话题

  

上面三步的代码已附上。代码里最后的步骤就是运用pandas模块对数据进行整理得到美观的数据框形式。效果如下:

  

lhe1zgihlla.jpg

  

# 三、发邮箱与设置定时

  

用Python可以模拟许多大厂的邮箱发送,本文选择常用的腾讯QQ邮箱。在此之前需要做一个准备(获取SMTP授权码):

  

登录QQ邮箱并单击设置按钮,然后进入账户这个页面

  

55ya35q1xuk.jpg

  

进入之后向下拖动来到POP3/IMAP/SMTP/Exchange/CardDAV/CalDAV服务这栏,这里单击POP3/SMTP服务右侧的开启,单击后会有一个验证密保的过程,按照提示即可。最终会弹出一个框,里面包含

  

SMTP授权码 ,这里可以找个地方记录起来,Python代码就可以用到。

  

先上发送QQ邮箱的代码模板:

  

import smtplibfrom email.mime.text import MIMETextfrom email.mime.multipart import MIMEMultipartnumber='你的QQ邮箱号码'smtp='邮箱对应的STMP授权码'to='需要发送到的QQ邮箱号码' # 可以是非QQ的邮箱mer=MIMEMultipart()# 设置邮件正文内容head='''

微博热搜榜信息

最热门词条为

{}

排名前五的热搜

{}

{}

{}

{}

{}

'''.format(df.iloc[0,:]['href'],df.iloc[0,:]['关键词'], df.iloc[1,:]['href'],df.iloc[1,:]['关键词'], df.iloc[2,:]['href'],df.iloc[2,:]['关键词'], df.iloc[3,:]['href'],df.iloc[3,:]['关键词'], df.iloc[4,:]['href'],df.iloc[4,:]['关键词'], df.iloc[5,:]['href'],df.iloc[5,:]['关键词'])mer.attach(MIMEText(head, 'html', 'utf-8'))fujian=MIMEText(open('微博热搜.csv', 'rb').read(), 'base64', 'utf-8')fujian["Content-Type"]='application/octet-stream' #附件内容fujian.add_header('Content-Disposition', 'file', filename=('utf-8', '', '微博热搜.csv')) mer.attach(fujian)mer['Subject']='每日微博热搜榜单' #邮件主题mer['From']=number #发送人mer['To']=to #接收人# 5.发送邮件s=smtplib.SMTP_SSL('smtp.qq.com', 465)s.login(number, smtp)s.send_message(mer) # 发送邮件s.quit()print('成功发送')

  

代码框架基本如此,你需要更改的地方有如下,其余的内容可以不改:

  

* 邮件主题

  

* 发送人

  

* 接收人

  

* SMTP授权码

  

* 附件内容

  

运行成功后,输出框会有“成功发送”打印,如果你的微信绑定了你的发送QQ邮箱,那么你就可以点击其中的附件,也就是csv文件。

  

b1fx2ao2pdk.jpg

  

按照咱们设置的格式,把最热门的词条和排名前五的词条放入head正文内容中,效果如下:

  

j14heac33jh.jpg

  

(这里存在延时,所以热搜榜和上面不一)

  

最后就是设置定时执行这个代码也即是发送微博热搜榜信息,利用Schedule库可以实现。

  

schedule模块设置定时的模板只需改2个地方,一个是schedule.every().day.at("18:00").do(email)中的时间,一个是def函数里面运行的内容。While

  

True的功能就是让程序不停止。

  

咱们定每晚6点进行自动发送,代码如下:

  

import scheduleimport timedef email(): number='你的QQ邮箱号码' smtp='邮箱对应的STMP授权码' to='需要发送到的QQ邮箱号码' # 可以是非QQ的邮箱 mer=MIMEMultipart() # 设置邮件正文内容 head='''

微博热搜榜信息

最热门词条为

{}

排名前五的热搜

{}

{}

{}

{}

{}

'''.format(df.iloc[0,:]['href'],df.iloc[0,:]['关键词'], df.iloc[1,:]['href'],df.iloc[1,:]['关键词'], df.iloc[2,:]['href'],df.iloc[2,:]['关键词'], df.iloc[3,:]['href'],df.iloc[3,:]['关键词'], df.iloc[4,:]['href'],df.iloc[4,:]['关键词'], df.iloc[5,:]['href'],df.iloc[5,:]['关键词']) mer.attach(MIMEText(head, 'html', 'utf-8')) fujian=MIMEText(open('微博热搜.csv', 'rb').read(), 'base64', 'utf-8') fujian["Content-Type"]='application/octet-stream' #附件内容 fujian.add_header('Content-Disposition', 'file', filename=('utf-8', '', '微博热搜.csv')) mer.attach(fujian) mer['Subject']='每日微博热搜榜单' #邮件主题 mer['From']=number #发送人 mer['To']=to #接收人 # 5.发送邮件 s=smtplib.SMTP_SSL('smtp.qq.com', 465) s.login(number, smtp) s.send_message(mer) # 发送邮件 s.quit() print('成功发送') schedule.every().day.at("18:00").do(email)while True: schedule.run_pending() time.sleep(5)

  

这样,咱们就完成了利用 Python 自动爬取微博热搜,并在天天指定时间自动发送整理后的结果至邮箱。当然你也可以自已更改逻辑,例如

  

当出现指定关键词、指定tag时发送邮箱,感兴趣的读者可以关注