当前位置: 首页 > news >正文

如何制作简单网站系统优化软件哪个最好的

如何制作简单网站,系统优化软件哪个最好的,网站 费用,分类网站 php一、任务目标 (1)用合适的格式读取文本数据 (2)使用jieba分词对文本数据进行分词,并可视化分词效果 (3)设计停止词表,对文本数据的多余部分进行删除 (4)对文本…

一、任务目标
(1)用合适的格式读取文本数据
(2)使用jieba分词对文本数据进行分词,并可视化分词效果
(3)设计停止词表,对文本数据的多余部分进行删除
(4)对文本数据进行词云展示
(5)TF-IDF提取关键词
(6)LDA主题模型
(7)新闻数据分类

二、代码及效果
(1)导入包

#导入必须的包
import pandas as pd
import jieba
import numpy

(2)读取文本数据

df_news = pd.read_table('./data/val.txt',name=['category','theme','url','content'],encoding = 'utf-8')
df_news = df_news.dropna(axis=0)#删除掉一行数据中有缺失项的
df_news.head()#读取前几条信息
df_news.shape #查看数据规模

(3)使用jieba进行分词

content = df_news.content.values.tolist() #将数据df_news里面的content转换成list数据,方便jieba进行分词
print(content[1000]) #展示分词前的数据内容
content_S=[] #预设定,存入分词后的数据
for line in content:current_segment = jieba.lcut(line) #进行分词处理if(len(current_segment)>1 and current_segment !='\r\n'): #加入换行符content_S.append(current_segment) #将分词结果存入content_S[1000] #展示分词效果df_content = pd.DataFrame({'content_S':content_S}) #可视化每一条文本数据的分词结果
df_content.head()

在这里插入图片描述

(4)设计停止词表,对文本数据的多余部分进行删除,可视化所有词,并统计次数

stopwords = pd.read_csv("stopwords.txt",index_col = False, sep="\t",quoting=3,names=['stopwords'])
stopwords.head(20)

在这里插入图片描述

def drop_stopwords(contents,stopwords):contents_clean=[]all_words=[]for line in contents:line_clean=[]for word in line:if word in stopwords:continueline_clean.append(word)all_words.append(str(word))contents_clean.append(line_clean)return contents_clean,all_wordscontents = df_content.content_S.values.tolist()
stopwords = stopwords.stopword.values.tolist()
contents_clean,all_words =drop_stopwords(contents,stopwords)df_content = pd.DataFrame({'contents_cleadn':contents_clean})
df_content.head
df_all_words = pd.DataFrame({'all_words':all_words})
words_count = df_all_words.groupby(by=['all_words'])['all_words'].agg({'count':numpy.size})
words_count = words_count.reset_index().sort_values(by=['count'],ascending = False)
words_count.head()

(5)词云展示

import matplotlib.pyplot as plt
from wordcloud import WordCloud
import matplotlibmatplotlib.rcParams['figure.figsize'] = (10.0,5.0)
wordcloud = WordCloud(font_path = "./data/simhei.ttf",background_color="white",max_front_size=80)
word_frequence = {x[0]: x[1] for x in words_count.head(100).values}
wordcloud = wordcloud.fit_words(word_frequence)
plt.imshow(wordcloud)

在这里插入图片描述
(6)TF-IDF提取关键词

import jieba.analyse
index = 2000
print(df_news['content'][index])
content_S_str="".join(content_S[index])
print("".join(jieba.analyse.extract_tags(content_S_str,topK=10,withWeight=False)))

在这里插入图片描述
(7)LDA主题模型

from gensim import corpora,models,similarities
import gensimdictionary = corpora.Dictionary(contents_clean)
corpus = [dictionary.doc2bow(sentence) for sentence in contents_clean]
lda = gensim.models.ldamodel.LdaModel(corpus=corpus,id2word=dictionary,num_topics=20)
print(lda.print_topic(1,topn=5))

在这里插入图片描述

在这里插入图片描述
(8)基于贝叶斯算法的新闻数据分析

df_train = pd.DataFrame({'contents_clean':contents_clean,'label':df_news['category']})
df_train.tail()df_train.label.unique()
label_mapping = {"汽车":1,"财经":2,"科技":3,"健康":4,"体育":5,"教育":6,"文化":7,"军事":8,"娱乐":9,"时尚":0}
df_train['label']=df_train['label'].map(label_mapping)from sklearn.model_selection import train_test_split
x_train, x_test, y_train, y_test = train_test_split(df_train['contents_clean'].values, df_train['label'].values,random_state=1)words = []
for line_index in range(len(x_train)):try:words.append(' '.join(x_train[line_index]))except:print(line_index)print(words[0])
print(len(words))from sklearn.feature_extraction.text import CountVectorizer
vec = CountVectorizer(analyzer = 'word', max_features=4000, lowercase=False)
vec.fit(words)from sklearn.naive_bayes import MultinomialNB
classifier = MultinomialNB()
classifier.fit(vec.transform(words), y_train)test_words = []
for line_index in range(len(x_test)):try:test_words.append(" ".join(x_test[line_index]))except:print(line_index)
test_words[0]print(classifier.score(vec.transform(test_words),y_test))

在这里插入图片描述

http://www.hkea.cn/news/365741/

相关文章:

  • 动态网站制作流程友情链接的定义
  • 企业网站开发方案免费建立一个网站
  • 网站引导页面制作的四个任务名称推广引流的10个渠道
  • 南宁网站建设制作后台网站关键词优化价格
  • 微信小程序商城制作公司宁波seo推广服务
  • 响应式购物网站公司seo是什么意思
  • 360未经证实的网站如何做电商运营方案
  • 网站建设类公司排名营销方案范文100例
  • 郑州网站设计 郑州网站开发网络优化有前途吗
  • 黑河做网站首页关键词排名优化
  • 网站二级域名怎么解析公司网络搭建
  • wordpress做网店win10优化大师是官方的吗
  • 弄个做网站公司产品宣传
  • 商品房建设信息网站googleplay商店
  • 菏泽 网站建设优化工具箱
  • 网站建设找哪家公司百度搜索热度
  • 网页设计论文引言北海百度seo
  • 网站空间哪家做的好网络营销的常用工具
  • 网站开发具体问题优化营商环境
  • wordpress4.5 火车头廊坊seo培训
  • 怎么做多个网站单点登录艺考培训
  • 网站怎么做双语种seo关键词如何设置
  • 用java做的游戏下载网站有哪些内容成都网络推广优化
  • 慈溪市网站建设google官网
  • 网站建设计划seo网站排名优化软件是什么
  • 大连网站建设谁家好郴州网站定制
  • 网站建设背景怎么写一个企业该如何进行网络营销
  • 为女朋友做的表白网站百度大数据分析工具
  • 上海高端网站建设服务公seo推广公司
  • 找人合伙做网站平台仿站定制模板建站