百度热搜词词云图-python

百度热搜词词云图-python

import time
import imageio
import requests
from wordcloud import WordCloud

url = 'http://top.baidu.com/region/singlelist'

'''
省份热搜词
'''
# 城市列表
list = [928, 934, 911, 904, 909, 913, 925, 912, 902, 920, 921, 927, 908, 906, 930, 922, 916, 903, 907, 905, 919, 918,
        910, 914, 901, 929, 924, 923, 931, 932, 933, 926, 915, 917, ]
result = {}
# 循环获取信息
for i in list:
    data = {
        'boardid': '2',
        'divids[]': i,
    }
    html = requests.post(url=url, data=data).json()
    x = str(i)
    data = html['topWords'][x]
    lists = {i['keyword']: i['searches'] for i in data}
    result.update(lists)
# pic为背景形状
Pic = imageio.imread('chinamap.png')
# 实例化词云
w = WordCloud(width=1000, height=700, font_path='simhei.ttf', background_color='white', mask=Pic, scale=15)
# 将爬取的数据给词云
w.fit_words(result)
# 将结果根据时间写到图片
now = time.strftime('%Y-%m-%d', time.localtime())
w.to_file(f'{now}resou.png')


本文地址: https://www.lanol.cn/post/141.html
版权声明:本文为原创文章,版权归  Lan 所有,欢迎分享本文,转载请保留出处!
点赞
赞赏 打赏二维码
PREVIOUS:4月最新稳定蓝光直播源
NEXT:提问的艺术:如何让别人喜欢回答你的提问

文章导航

Vastsa
关注 关注
  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搜集百度关键词的相关网站、生成词云
技术菜鸟博客
10-31 4135
百度“AI”这个关键词为例子,搜集搜索结果相关网站中的网页内容,用Python+matplotlib+wordcloud生成词云图
python爬虫代码示例-Python爬虫爬取百度搜索内容代码实例
weixin_37988176的博客
10-29 978
这篇文章主要介绍了Python爬虫爬取百度搜索内容代码实例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友可以参考下搜索引擎用的很频繁,现在利用Python爬虫提取百度搜索内容,同时再进一步提取内容分析就可以简便搜索过程。详细案例如下:代码如下# coding=utf8import urllib2import stringimport urllibimpor...
词云(标签云)demo
06-27
词云(标签云)demo 源码下载:http://down.alixixi.com 模板下载:http://mb.alixixi.com 电子书籍:http://book.alixixi.com 网页特效:http://js.alixixi.com 韩国酷站:http://cool.alixixi.com/ 技术论坛:http://bbs.alixixi.com
基于微博搜生成词云图
lucaszy的博客
05-31 4819
1.引入模块和函数 import numpy as np import jieba from PIL import Image import PIL from wordcloud import WordCloud,STOPWORDS import matplotlib.pyplot as plt import pandas as pd 温馨提示:生成词云图需要用到jieba和wordcloud这两个模块,需提前安装哦!! 2.对语句进行合理拆分 #利用pandas读取文档 读excel=pd..
Python 可视化近 90 天的百度搜索指数 + 词云图
AI科技大本营
02-10 2834
作者 | 叶庭云来源 |AI庭云君一、简介 在实际业务中我们可能会使用爬虫根据关键词获取百度搜索指数历史数据,然后进行对应的数据分析。百度指数,体验大数据之美。但要获取百度指数相关的数据...
html显示百度搜,Python获取百度搜的完整代码
weixin_42431577的博客
06-17 3714
好久没写了,就把上课做的一个小东西拿出来分享一下吧。百度网页截图如下 ↓↓↓程序运行输出结果截图 ↓↓↓上代码 ↓↓↓from lxml import etreefrom lxml import htmlimport requestsheaders={'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like...
数据分析和图标-Python制作酷炫词云图-Python源码示例.zip
12-13
数据分析和图标-Python制作酷炫词云图-Python源码示例.zip
数据分析和图标-按图片轮廓绘制词云图-Python源码示例.zip
12-13
数据分析和图标-按图片轮廓绘制词云图-Python源码示例.zip
数据图标分析-电商关键词分析并生成词云图-Python实例源码.zip
12-13
数据图标分析-电商关键词分析并生成词云图-Python实例源码.zip
豆瓣映影评分析词云图生成 python代码
06-08
系统环境:python...词云图 暗恋·橘生淮南 (2022) https://cdn.jsdelivr.net/gh/EverettSy/ImageBed@master/uPic/luJwZo.png 豆瓣映 https://cdn.jsdelivr.net/gh/EverettSy/ImageBed@master/uPic/SBRvJn.png
Python 实例 - 生成词云图 Python源码
最新发布
10-20
Python 实例 - 生成词云图 Python源码Python 实例 - 生成词云图 Python源码Python 实例 - 生成词云图 Python源码Python 实例 - 生成词云图 Python源码Python 实例 - 生成词云图 Python源码Python 实例 - 生成词云图 ...
Python 获取百度
qq_43225919的博客
04-05 848
好久没写了,就把上课做的一个小东西拿出来分享一下吧。 from lxml import etree from lxml import html import requests headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.63 Safari/537.36'} page = requests.get("https://www.baidu
10行python代码爬取百度
一个超会写Bug的程序猿的博客
02-21 1037
百度搜榜python爬虫,仅供学习交流 源码: import requests from bs4 import BeautifulSoup response = requests.get("http://top.baidu.com/buzz?b=1") response.encoding = response.apparent_encoding soup = BeautifulSoup(response.text, 'lxml') target = soup.find_all(attrs={"cl.
基于百度LAC2.0的词云图生成——各大分词工具实战比较
RadiumTang的博客
06-27 2028
1.前言 2.百度LAC2.0介绍 根据百度官方消息,LAC全称Lexical Analysis of Chinese,是百度NLP(自然语言处理部)研发的一款词法分析工具,可实现中文分词、词性标注、专名识别等功能。 百度方面宣称,LAC在分词、词性、专名识别的整体准确率超过90%,以专名识别为例,其效果要比同类词法分析工具提升10%以上。 目前,百度已经发布了LAC2.0版本,之前的1.0版本我也写过一篇博文加以探讨,彼时的1.0版本还是融合在paddlehub中的一个模型,详见利用百度超大规模预训练模型
Python爬虫 百度
AdigaAdele的博客
06-29 824
import requests import xlwt from bs4 import BeautifulSoup def getItem(): hd = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.89 Safari/537.36 SLBrowser/7.0.0.4071 SLBChan/21"} url = "
使用Python-Scrapy框架爬取百度搜榜,代码无报错,运行之后却爬取不到内容的情况
m0_46503626的博客
05-28 1350
用scrapy爬取百度搜榜,代码无报错,运行之后却爬取不到内容 运行结果(截取部分): 2020-05-28 19:29:22 [scrapy.middleware] INFO: Enabled item pipelines: ['demo2.pipelines.Demo2Pipeline'] 2020-05-28 19:29:22 [scrapy.core.engine] INFO: Spider opened 2020-05-28 19:29:22 [scrapy.extensions.logst
python网络爬虫:用selenium+BeautifulSoup库实现百度搜榜数据的爬取
weixin_38262238的博客
06-24 4992
上图就是百度实时点的界面,本次的任务就是爬取到排行榜上的前50排名的关键词以及它的搜索指数。用到的库:1、selenium              2、BeautifulSoup              3、xlwt(一):分析:爬取一个网页的首要工作是分析网页的源代码:可以看到tr标签里面就有我们想要的东西,排名,关键词,搜索指数tr标签里面的三个class属性为:first,keywor...
Pyhon项目开发之爬取百度搜榜总结
Jim2g
12-22 1112
一:需要的模块 import re import time import requests import csv import json import pymysql.cursors import stylecloud import matplotlib.pyplot as plt 二:数据爬取 使用requests库爬取网站源代码 def spider(type): url = "https://top.baidu.com/board?tab={}".format(type) header
python +flask 制作一个实时搜采集接口 加入百度搜和微博搜 并实时滚动代码 嵌入到你的帝国CMS或WP博客 或任意框架网站
ZhiMaoYiDeHuaiRen的博客
07-26 1160
示例帝国CMS网站效果: 超级简单的实现,两个步骤搞定: 1.写python采集接口,采集数据。 接口代码:需要安装对应的库。 # coding=utf-8 import re import urllib.parse import random import requests import datetime from flask import Flask from flask import request def getweibo(): url = 'https://s.weibo.com/to
爬取百度搜制作词云图
06-09
好的,下面是具体步骤: 首先,我们需要导入所需的库,包括 requests、BeautifulSoup、jieba 和 wordcloud。 ```python import requests from bs4 import BeautifulSoup import jieba from wordcloud import WordCloud import matplotlib.pyplot as plt ``` 接下来,我们需要爬取百度搜的页面内容,并使用 BeautifulSoup 进行解析,提取出搜的关键词列表。 ```python url = 'http://top.baidu.com/buzz?b=1&fr=topindex' html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') hot_list = [] for item in soup.select('.list-table tr'): try: hot_list.append(item.select('.keyword a')[0].text) except: pass ``` 接下来,我们需要将关键词列表进行分词,并使用 jieba 库来进行分词操作。 ```python text = ' '.join(jieba.cut(''.join(hot_list))) ``` 接下来,我们就可以利用 WordCloud 库生成词云图了。首先,我们需要先设置一下词云图的参数,包括背景颜色、字体、图片尺寸等。然后,我们可以使用 `generate()` 函数来生成词云图。 ```python wordcloud = WordCloud(background_color='white', font_path='msyh.ttc', width=800, height=600).generate(text) ``` 最后,我们可以使用 matplotlib.pyplot 库中的 `imshow()` 函数来显示词云图。 ```python plt.imshow(wordcloud, interpolation='bilinear') plt.axis('off') plt.show() ``` 完整代码如下: ```python import requests from bs4 import BeautifulSoup import jieba from wordcloud import WordCloud import matplotlib.pyplot as plt url = 'http://top.baidu.com/buzz?b=1&fr=topindex' html = requests.get(url).text soup = BeautifulSoup(html, 'html.parser') hot_list = [] for item in soup.select('.list-table tr'): try: hot_list.append(item.select('.keyword a')[0].text) except: pass text = ' '.join(jieba.cut(''.join(hot_list))) wordcloud = WordCloud(background_color='white', font_path='msyh.ttc', width=800, height=600).generate(text) plt.imshow(wordcloud, interpolation='bilinear') plt.axis('off') plt.show() ``` 执行完上述代码后,就可以得到一张基于百度搜关键词的词云图了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • QQ提示当前网页非官方页面,请勿输入QQ账号和密码,如需访问,请复制后使用浏览器访问... 17889
  • MSDN I TELL YOU 新站点NEXT I TELL YOU 开放邀请码注册!今日限额5000个! 12028
  • 如果使用ssms连接SQLserver的时候出现无法连接到服务器。 10997
  • 自动更新QQ昵称为当前时间 8858
  • Burp抓取安卓模拟器包教程 5909

分类专栏

  • JS逆向 1篇
  • 日常博文 3篇

最新评论

  • Burp抓取安卓模拟器包教程

    Shaddock_peel: 亲测有用,谢谢佬

  • JS解密之有道词典

    CSDN-Ada助手: 能否谈谈前端项目的静态资源CDN化呢?

  • 渣男手册,安卓恋爱话术库API

    Vastsa: 时隔太久,估计变了

  • 渣男手册,安卓恋爱话术库API

    优雅的马: 接口返回空 {"count":0,"pageNumber":1,"list":[],"totalPage":0}

  • 获取Github Copilot的Token

    CSDN-Ada助手: 恭喜你写了第9篇博客!获取Github Copilot的Token这个话题很有深度,希望你可以继续分享关于Github Copilot更多的实用技巧和经验,也可以尝试探讨一些与之相关的编程工具或者技术趋势。期待你的下一篇作品!

您愿意向朋友推荐“博客详情页”吗?

  • 强烈不推荐
  • 不推荐
  • 一般般
  • 推荐
  • 强烈推荐
提交

最新文章

  • 推荐一个开源的监控程序-Uptime
  • 获取Github Copilot的Token
  • 绕过某博客查看文章验证码,关注公众号得验证码
2023年3篇
2022年1篇
2020年180篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

两个鬼故事吴姓起名字简单大气稀有私服吧公司起名两个字邓姓起名字我靠美颜稳住天下武汉汉街官运扫黑风暴全集资源云盘梦之缘鼠男宝起名字给集团起名怎样学好语文不能没有家电视剧贸易有限公司起名大全集属水有什么字起名北京挂号网8877b起名免费网 店铺姓宁女孩起名字吗冻货店起名字时光代理人在线观看裴素恩起名字八字名典免费起名测名网隋唐英雄6战帝叶南弦和沈蔓歌全文最新章节免费阅读技工学校起名店名起什么好科技公司起名大全最新两个字少年生前被连续抽血16次?多部门介入两大学生合买彩票中奖一人不认账让美丽中国“从细节出发”淀粉肠小王子日销售额涨超10倍高中生被打伤下体休学 邯郸通报单亲妈妈陷入热恋 14岁儿子报警何赛飞追着代拍打雅江山火三名扑火人员牺牲系谣言张家界的山上“长”满了韩国人?男孩8年未见母亲被告知被遗忘中国拥有亿元资产的家庭达13.3万户19岁小伙救下5人后溺亡 多方发声315晚会后胖东来又人满为患了张立群任西安交通大学校长“重生之我在北大当嫡校长”男子被猫抓伤后确诊“猫抓病”测试车高速逃费 小米:已补缴周杰伦一审败诉网易网友洛杉矶偶遇贾玲今日春分倪萍分享减重40斤方法七年后宇文玥被薅头发捞上岸许家印被限制高消费萧美琴窜访捷克 外交部回应联合利华开始重组专访95后高颜值猪保姆胖东来员工每周单休无小长假男子被流浪猫绊倒 投喂者赔24万小米汽车超级工厂正式揭幕黑马情侣提车了西双版纳热带植物园回应蜉蝣大爆发当地回应沈阳致3死车祸车主疑毒驾恒大被罚41.75亿到底怎么缴妈妈回应孩子在校撞护栏坠楼外国人感慨凌晨的中国很安全杨倩无缘巴黎奥运校方回应护栏损坏小学生课间坠楼房客欠租失踪 房东直发愁专家建议不必谈骨泥色变王树国卸任西安交大校长 师生送别手机成瘾是影响睡眠质量重要因素国产伟哥去年销售近13亿阿根廷将发行1万与2万面值的纸币兔狲“狲大娘”因病死亡遭遇山火的松茸之乡“开封王婆”爆火:促成四五十对奥巴马现身唐宁街 黑色着装引猜测考生莫言也上北大硕士复试名单了德国打算提及普京时仅用姓名天水麻辣烫把捣辣椒大爷累坏了

两个鬼故事 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化