当前位置: 首页 > news >正文

房城乡建设部门户网站社保局网站建设意义

房城乡建设部门户网站,社保局网站建设意义,腾讯风铃做的网站有期限吗,宁波网站设计推广服务公司一、说明 关于文本分类#xff0c;文章已经很多#xff0c;本文这里有实操代码#xff0c;明确而清晰地表述这种过程#xff0c;是实战工程师所可以参照和依赖的案例版本。 本文是 2023 年 1 月的 WomenWhoCode 数据科学跟踪活动提供的会议系列文章中的一篇。 之前的文章在… 一、说明 关于文本分类文章已经很多本文这里有实操代码明确而清晰地表述这种过程是实战工程师所可以参照和依赖的案例版本。 本文是 2023 年 1 月的 WomenWhoCode 数据科学跟踪活动提供的会议系列文章中的一篇。         之前的文章在这里第 2 部分涵盖 NLP 简介、第 3 部分涵盖 NLTK 和 SpaCy 库、第 4 部分涵盖文本预处理技术、第 部分涵盖文本表示技术。 二、什么是文本分类 文本分类是指将一段文本例如客户评论、电子邮件、网页、新闻文章分类为一些预定义的类别或类。正面、负面或中立的评论评论、垃圾邮件或非垃圾邮件、作为个人或商业页面的网页、有关政治、体育或金融的新闻文章即文本分类是为给定文本分配标签或类的任务。例如将电子邮件归类为垃圾邮件。出于分类的目的通常从输入文本中识别出一些信息量很大的特征。监督机器学习和无监督学习可用于 NLP 中的文本分类。监督学习涉及在标记的数据集上训练分类器。无监督学习不需要标记的数据集它使用数据的固有属性相似性将数据聚类到组中。高质量的标记数据通常来自人类注释者对于监督机器学习非常重要。标记的数据通常分为 3 个部分训练集、验证集和测试集。分类器的性能使用准确率、精确度、召回率和 F1 分数等指标进行评估。 三、文本分类的重要用例 情绪分析POS 标签自然语言推理 — 推断两段文本之间的关系——前提和假设。这种关系的类型——蕴涵性、矛盾性和中性性。 蕴涵假设由前提支持矛盾假设被前提否定中性假设和前提之间没有关系 例如前提我现在正在看电影。假设我现在正在打板球。关系标签矛盾 4. 检查语法正确性可接受/不可接受。 四、使用 NLTK 进行文本分类 对于文本分类的第一个示例我们将使用 nltk 库中内置的movie_reviews语料库。您可以使用 nltk.download 函数下载 movie_reviews 包 import nltk nltk.download(movie_reviews) fileids 方法允许我们访问 nltk.corpus 中数据集中所有文件的列表。movie_reviews数据集有 2000 个文本文件每个文件都有一个 fileid。这些文件中的每一个都包含对电影的评论。其中 1000 个文件包含负面评论1000 个包含正面评论。负面文件位于名为“neg”的文件夹中所有包含正面评论的文件都位于名为“pos”的文件夹中。 #Required imports import nltk import random from nltk.corpus import movie_reviews#Total no. of review files in corpus ##There are 1000 negative reviews, and 1000 positive reviews (one review per file) len(movie_reviews.fileids())#separating filenames in two lists one for positive reviews, one for negative reviews(based on which folder they exists in corpus) negative_fileids movie_reviews.fileids(neg) positive_fileids movie_reviews.fileids(pos)# Now we will load all reviews and their labels (i.e., folder name pos or neg in which the review file is present)reviewswithcategory [(list(movie_reviews.words(fileid)), category) for category in movie_reviews.categories()for fileid in movie_reviews.fileids(category)] random.shuffle(reviewswithcategory) 接下来让我们做一些文本预处理 # Text pre-processing - lower casing, removing stop words and punctuation marks import string from nltk.corpus import stopwords stop_words stopwords.words(english) def text_preprocessing(review):review [w.lower() for w in review]review [w.translate(str.maketrans(, , string.punctuation)) for w in review]review [w for w in review if w not in stop_words]review list(filter(None, review)) #Remove empty stringsreturn reviewcleaned_reviewswithcategory [] for review, cat in reviewswithcategory:cleanreview text_preprocessing(review)cleaned_reviewswithcategory.append((cleanreview, cat))# Our variable cleaned_reviewswithcategory is a list of tuples, # each tuple in it has a list of words and category label# here we all getting all words from all tuples into a single iterable allcleanwords list(itertools.chain(*cleaned_reviewswithcategory)) allcleanwordslist [] for m in range(len(allcleanwords)):# traversing the inner listsfor n in range (len(allcleanwords[m])):# Add each element to the result listallcleanwordslist.append(allcleanwords[m][n])接下来我们从电影评论数据中清理过的单词列表中确定 5000 个最常见的单词 # Using NLTK FreqDist for computing word frequencies freqd nltk.FreqDist(allcleanwordslist) # Identifying 5000 most frequent words from Frequency Distribution frequent_words list(freqd.keys())[:5000] 现在我们将只使用这 5000 个单词。对于正面和负面类别中的每条评论特征向量将包含这些常用词和一个布尔值 True如果该词存在于该评论中否则为 False。 # Identify the presence of these most frequent words in out positive and negative reviews. # This function returns word and True if word is present, else it returns word and False. def extract_frequentwordfeatures(text):words set(text) # computing all unique words (vocabulary) in input textfeatures {}for w in frequent_words:features[w] (w in words)return featuresreview_features [(extract_frequentwordfeatures(review), category) for (review, category) in cleaned_reviewswithcategory]现在每个评论都由其特征表示该特征是一个单词列表和一个布尔值 True 或 False指示该单词是否存在于评论中。列表中共有 2000 条评论。接下来我们将评审功能拆分为训练和测试部分。在 2000 条评论中我们将使用 1800 条来训练来自 NLTK 的朴素贝叶斯分类器并使用 200 条来测试其性能。 # Splitting the documents into training and test portions train_data review_features[:1800] # set that well test against. test_data review_features[1800:]# use Naive Bayes classifier from NLTK to train clf_nb nltk.NaiveBayesClassifier.train(train_data)# After training, let us see the accuracy print( Accuracy:,(nltk.classify.accuracy(clf_nb, test_data))) 五、使用 sklearn 分类器对上述评论数据进行分类 from nltk.classify.scikitlearn import SklearnClassifier from sklearn.linear_model import LogisticRegression from sklearn.naive_bayes import MultinomialNB from sklearn.svm import SVC from sklearn.metrics import classification_report, accuracy_score, confusion_matrixnames [Logistic Regression,Multinomial Naive Bayes, Support Vector Machine]classifiers [LogisticRegression(),MultinomialNB(),SVC(kernellinear)] models zip(names, classifiers)text_features, labels zip(*test_data)for name, model in models:nltk_clf SklearnClassifier(model)nltk_clf.train(train_data)accuracy nltk.classify.accuracy(nltk_clf, test_data)print(\n{} Classifier Accuracy: {}.format(name, accuracy)) 六、使用 Keras 进行文本分类 在这部分我们将使用来自 UCI 存储库的 Sentiment Labelled Sentences 数据集。此数据集包含标有正面或负面情绪的句子。情绪是分数的形式分数是 1 表示积极情绪0 表示消极情绪。这些句子来自三个不同的网站imdb.com、amazon.com yelp.com 对于每个网站存在 500 个正面句子和 500 个负面句子。在这里的示例中我们将仅使用文件amazon_cells_labelled.txt中的亚马逊评论。 首先我们将使用 pandas 将数据读入 pandas 数据帧。此数据有两列 — 句子和标签。句子是产品评论标签是 0 或 1。标签 1 表示积极情绪0 表示消极情绪。 import pandas as pd df pd.read_csv(amazon_cells_labelled.txt, names[sentence, label], sep\t) df.head() 接下来我们对句子列中的文本进行预处理 # This process_text() function returns list of cleaned tokens of the text import numpy import re import string import unicodedata from nltk.corpus import stopwords from nltk.stem import WordNetLemmatizer stop_words stopwords.words(english) lemmatizer WordNetLemmatizer()def process_text(text):text unicodedata.normalize(NFKD, text).encode(ascii, ignore).decode(utf-8, ignore)text re.sub(r[^a-zA-Z\s], , text)text text.translate(str.maketrans(, , string.punctuation))text text.lower()text .join([word for word in str(text).split() if word not in stop_words])text .join([lemmatizer.lemmatize(word) for word in text.split()])return text df[sentence] df[sentence].apply(process_text) df[sentence] 现在我们将数据分为训练和测试部分在此之前让我们将“句子”列中的文本和“标签”列中的标签分为两个pandas系列——“句子”和“标签”。 # Taking cleaned text and sentiment labels in two separate variables sentences df[sentence] labels df[label]# Splitting into train-test portions from sklearn.model_selection import train_test_split sentences_train, sentences_test, labels_train, labels_test train_test_split(sentences, labels, test_size0.25, random_state1000) 接下来我们使用 sklearn 中带有 CountVectorizer 的词袋模型以向量形式表示句子中的文本 # Converting sentences to vectors using Bag of words model with CountVectorizer from sklearn.feature_extraction.text import CountVectorizer cv CountVectorizer() cv.fit(sentences_train)vc_traindata cv.transform(sentences_train) vc_testdata cv.transform(sentences_test) vc_traindata 现在我们将使用 Keras 进行分类因此应该在我们的计算机上安装 TensorFlow 和 Keras 库。可以使用 pip 命令从 Jupyter Notebook 中安装它们 !pip install tensorflow !pip install keras 首先我们将使用 Keras Tokenizer 来计算文本的单词嵌入 # Using Keras Tokenizer to compute embeddings for text from keras.preprocessing.text import Tokenizer tokenizer Tokenizer(num_words5000) tokenizer.fit_on_texts(df[sentence])# Take the sentence text in a variable X and labels in y. X df[sentence] y df[label]#Splitting X and y into train and test portions X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.25, random_state1000)#converting sentences into vector sequences X_train tokenizer.texts_to_sequences(X_train) X_test tokenizer.texts_to_sequences(X_test)# Total number of unique words in our sentences vocab_size len(tokenizer.word_index) 1 # Adding 1 because of reserved 0 index print(Vocabulary size: , vocab_size) 然后我们将填充所有向量代表产品评论的文本的长度相同 — 50 # padding vector sequences to make them all of same length from keras_preprocessing.sequence import pad_sequences maxlen 50 X_train pad_sequences(X_train, paddingpost, maxlenmaxlen) X_test pad_sequences(X_test, paddingpost, maxlenmaxlen) print(X_train[4, :]) 七、使用 Keras 的嵌入层 我们现在将使用 Keras 的嵌入层它采用先前计算的整数并将它们映射到嵌入的密集向量。它需要以下参数 input_dim词汇量的大小output_dim: the size of the dense vectorinput_length: the length of the sequence 我们可以获取嵌入层的输出并将其插入密集层。为此我们需要在中间添加一个 Flatten 层为 Dense 层准备顺序输入。 在训练期间要训练的参数数vacab_size乘以embedding_dim。嵌入层的权重是随机初始化的然后在训练期间使用反向传播进行微调。该模型将按句子顺序出现的单词作为输入向量 在下面的代码中我们使用嵌入层 GlobalMaxPool1D 进行扁平化以及由 15 个神经元和一个输出层组成的密集层。我们编译了 keras 模型。 from keras.models import Sequential from keras import layersembedding_dim 100 maxlen 50 model Sequential() model.add(layers.Embedding(input_dimvocab_size, output_dimembedding_dim, input_lengthmaxlen)) model.add(layers.GlobalMaxPool1D()) model.add(layers.Dense(15, activationrelu)) model.add(layers.Dense(1, activationsigmoid)) model.compile(optimizeradam,lossbinary_crossentropy,metrics[accuracy]) model.summary() 接下来我们将模型拟合在 50 个 epoch 的训练数据上并评估其性能。使用 matplotlib 绘制模型的准确性 import matplotlib.pyplot as plt plt.figure(figsize(9, 5))history model.fit(X_train, y_train,epochs50, verboseFalse,validation_data(X_test, y_test), batch_size10) loss, accuracy model.evaluate(X_train, y_train, verboseFalse) print(Training Accuracy: {:.4f}.format(accuracy)) loss, accuracy model.evaluate(X_test, y_test, verboseFalse) print(Testing Accuracy: {:.4f}.format(accuracy))acc history.history[accuracy] val_acc history.history[val_accuracy] loss history.history[loss] val_loss history.history[val_loss] x range(1, len(acc) 1) plt.plot(x, acc, b, labelTraining acc) plt.plot(x, val_acc, r, labelValidation acc) plt.legend() plt.title(Training and validation accuracy) plt.show() 在下一篇文章中我们将看看变形金刚。代码出处尼姆里塔·库尔 参考和引用 https://developers.google.com/machine-learning/guides/text-classificationText Classification with Python and Scikit-Learnhttps://towardsdatascience.com/a-practitioners-guide-to-natural-language-processing-part-i-processing-understanding-text-9f4abfd13e72Text Classification using NLTK | Foundations of AI MLPractical Text Classification With Python and Keras – Real PythonText Classification with NLTK | Chans Jupyterhttps://www.analyticsvidhya.com/blog/2018/04/a-comprehensive-guide-to-understand-and-implement-text-classification-in-python/https://medium.com/analytics-vidhya/nlp-tutorial-for-text-classification-in-python-8f19cd17b49ePractical Text Classification With Python and Keras – Real Python
http://www.hkea.cn/news/14305308/

相关文章:

  • 网站怎么做可以合法让别人充钱ux设计师是做什么的
  • 怎么用织梦做网站后台岗顶网站建设
  • 网站开发networdpress nginx php
  • 建设厅网站打不开wordpress 头像不见
  • dns网站建设WordPress主题如何更新
  • 空壳网站主体注销wordpress设置 文件
  • idc自动续费网站源码西宁微信网站建设需要多少钱
  • 长沙企业关键词优化哪家好谷歌seo推广服务
  • 四川省广安建设局网站一个好网站
  • 微商城网站建设方案做药品的电商网站
  • seo网站优化培训开发网站多少钱
  • 婚庆网站开发要达到的目标装网要多少钱
  • 郑州恩恩网站建设网站域名不备案要证书有啥用
  • 湟中县公司网站建设建设网站计划书
  • 平台网站怎么做的外贸网站谷歌优化
  • 初学者求教怎样做网站wordpress彩色标签云插件
  • 上海opencart网站建设wordpress多条件过滤
  • 大连专业手机自适应网站制作上海提供虚拟注册地址的园区
  • 信用网站建设内容公司画册
  • 网站设计建设合同html网页制作企业类网站
  • wordpress个人博客模板下载台州优化排名推广
  • 大型集团网站免费模板网站都有什么
  • 加强校园网站建设方案下列选项哪些是网络营销的特点
  • 元典科技网站建设泸州网站制作
  • 网站建设所用的工具十大高端全屋定制
  • 中国联通网站建设与维护百度上做网站
  • 医联体网站建设集团高端网站
  • 网站设计软件培训怎么样设计素材类网站开发策划书
  • 网站建设注意哪些内容新闻营销
  • 一流的龙岗网站建设网站添加漂浮二维码怎么做