当前位置: 首页 > news >正文

做外贸没有网站需要注意什么条件wordpress企业官网主题

做外贸没有网站需要注意什么条件,wordpress企业官网主题,重庆市工程建设标准化网站,菠菜网站开发计算机视觉和图像处理 Tensorflow入门深度神经网络图像分类目标检测图像分割OpenCVPytorchNLP自然语言处理 NLP自然语言处理 一、NLP简介二、文本预处理2.1 文本预处理简介2.2 文本处理的基本方法2.3 文本张量表示方法2.3.1 onehot编码2.3.2 word2vec编码 2.4 文本数据分析2.5…计算机视觉和图像处理 Tensorflow入门深度神经网络图像分类目标检测图像分割OpenCVPytorchNLP自然语言处理 NLP自然语言处理 一、NLP简介二、文本预处理2.1 文本预处理简介2.2 文本处理的基本方法2.3 文本张量表示方法2.3.1 onehot编码2.3.2 word2vec编码 2.4 文本数据分析2.5 文本特征处理2.5.1 添加n_grams特征2.5.2 文本长度规范 2.6 文本数据增强 三、HMM和CRF四、RNN架构解析4.1 RNN模型简介4.2 传统RNN的使用4.3 LSTM模型的使用4.4 GRU模型的使用4.5 注意力机制 五、RNN经典案例——人名分类器五、Transformer 一、NLP简介 自然语言处理Natural Language Processing简称 NLP是计算机科学、人工智能和语言学的一个分支旨在使计算机能够理解、解释和生成人类的自然语言。NLP 的目标是弥合人类通信和计算机理解之间的差距使得计算机能够以更智能、更有效的方式处理文本和语音数据。 NLP 的主要任务 文本分类 情感分析判断文本的情感倾向如正面、负面或中性。主题分类将文档归类到预定义的主题类别中。垃圾邮件检测识别电子邮件或消息是否为垃圾信息。 命名实体识别NER 识别文本中的特定实体如人名、地名、组织名、日期等。 关系抽取 从文本中提取实体之间的关系如“奥巴马是美国的总统”。 句法分析 词性标注为每个词标注其词性名词、动词、形容词等。依存关系分析分析句子中词与词之间的依存关系。 语义分析 语义角色标注识别句子中的谓词及其论元。共指消解确定文本中哪些词语指的是同一个实体。 机器翻译 将一种自然语言翻译成另一种自然语言如将英文翻译成中文。 对话系统 聊天机器人构建能够与用户进行自然对话的系统。语音识别将语音信号转换为文本。语音合成将文本转换为语音信号。 文本生成 自动摘要生成文本的简洁摘要。创意写作生成诗歌、故事等创意文本。 NLP 的技术方法 统计方法 使用统计模型如朴素贝叶斯、支持向量机、隐马尔可夫模型等来处理文本数据。 深度学习方法 循环神经网络RNN处理序列数据适用于文本生成和序列标注任务。长短期记忆网络LSTM改进的 RNN能够更好地处理长依赖问题。Transformer 模型基于自注意力机制的模型广泛应用于各种 NLP 任务如 BERT、GPT 等。卷积神经网络CNN用于提取局部特征适用于文本分类任务。 二、文本预处理 2.1 文本预处理简介 文本语料在输送给模型前一般需要一系列的预处理工作, 才能符合模型输入的要求, 如: 将文本转化成模型需要的张量, 规范张量的尺寸等, 而且科学的文本预处理环节还将有效指导模型超参数的选择, 提升模型的评估指标. 2.2 文本处理的基本方法 分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。 分词的作用: 词作为语⾔语义理解的最小单元, 是⼈类理解文本语言的基础. 因此也是AI解决NLP领域高阶任务, 如自动问答, 机器翻译, 文本生成的重要基础环节. jieba分词器 使用jieba前需要先导包在命令行输入pip install jieba 精确模式分词试图将句子最精确地切开适合文本分析. import jieba# 精确模式分词cut_allFalse content 它的主要功能是作为Jupyter的内核允许 Jupyter Notebook与不同的Python环境进行交互。 jieba.cut(content,cut_allFalse)返回一个生成器对象 # lcut直接显示分词内容 words jieba.lcut(content) result .join(words) result全模式分词把句子中所有的可以成词的词语都扫描出来, 速度非常快但是不能消除歧义 # 全模式分词cut_allTrue content 它的主要功能是作为Jupyter的内核允许 Jupyter Notebook与不同的Python环境进行交互 jieba.cut(content,cut_allTrue)words jieba.lcut(content) result .join(words) result搜索引擎模式分词在精确模式的基础上对长词再次切分提高召回率。 # 搜索引擎模式分词 content 它的主要功能是作为Jupyter的内核允许 Jupyter Notebook与不同的Python环境进行交互 jieba.cut_for_search(content)words jieba.lcut_for_search(content) result .join(words) result中文繁体分词 content 煩惱即是菩提我暫且不提 jieba.cut(content,cut_allFalse) jieba.lcut(content)自定义词典分词 # 使用不了自定义词典加载不到userdict.txt 但方法就是这方法 jieba.load_userdict(./userdict.txt) jieba.lcut(⼋⼀双⿅更名为⼋⼀南昌篮球队)使用jieba进行中文词性标注 # 使用jieba进行中文词性标注 import jieba.posseg as pseg pseg.lcut(我爱北京天安门)2.3 文本张量表示方法 2.3.1 onehot编码 # 用于对象的保存和加载 import joblib from tensorflow.keras.preprocessing.text import Tokenizer# onehot编码 words {周杰伦, 陈奕迅, 王力宏, 李宗盛, 吴亦凡, 鹿晗}# 实例化词汇映射器对象 # char_level词汇单位是单词而不是字符 t Tokenizer(num_wordsNone,char_levelFalse) # 拟合现有的文本数据 t.fit_on_texts(words) print(f词汇表及索引{t.word_index})for word in words:one_hot [0]*len(words)# texts_to_sequences将当前词汇转换为其在词汇表中的索引位置# 返回样式[[1]]、[[2]]等word_index t.texts_to_sequences([word])[0][0] - 1one_hot[word_index] 1print(f{word} 的one-hot编码为{one_hot})#保存映射 tokenizer_path ./Tokenizer joblib.dump(t,tokenizer_path)# onehot编码器的使用# 加载之间保存的Tokenizer t joblib.load(tokenizer_path) # 编码王力宏 word 王力宏 word_index t.texts_to_sequences([word])[0][0] - 1 one_hot[word_index] 1 print(f{word}的one-hot编码为{one_hot})2.3.2 word2vec编码 fasttext包我导不进来调了两三个小时 import fasttext# 第一步获取训练数据 data [周杰伦是一位著名的歌手,陈奕迅的歌曲非常受欢迎,王力宏的音乐风格多样,李宗盛的歌词很有深度,吴亦凡出演过多部电影,鹿晗在社交媒体上非常活跃 ]# 将数据写入文件 with open(train.txt, w, encodingutf-8) as f:for line in data:f.write(line \n)# 第二步训练词向量 # 模型超参数设定 model fasttext.train_unsupervised(train.txt,modelcbow, # 模型类型cbow 或 skipgramdim100, # 词向量的维度ws5, # 窗口大小epoch5, # 训练轮数minCount1 # 最小词频 )# 第四步模型效果检验 vector model.get_word_vector(周杰伦) print(f周杰伦的词向量: {vector})similar_words model.get_nearest_neighbors(周杰伦, k5) print(f与周杰伦最相似的词: {similar_words})# 第五步模型的保存与重加载 model.save_model(model.bin)# 重加载模型 loaded_model fasttext.load_model(model.bin)# 检查重加载的模型 vector loaded_model.get_word_vector(周杰伦) print(f重加载后周杰伦的词向量: {vector})similar_words loaded_model.get_nearest_neighbors(周杰伦, k5) print(f重加载后与周杰伦最相似的词: {similar_words})2.4 文本数据分析 import pandas as pd import seaborn as sns import matplotlib.pyplot as plt绘制数据标签数量分布 # 读取数据 # TSV文件使用制表符\t作为分隔符 train_data pd.read_csv(./train.tsv, sep\t) test_data pd.read_csv(./dev.tsv, sep\t)# 绘制数据标签数量分布 sns.countplot(xlabel,datatrain_data) plt.title(train_data) plt.show()sns.countplot(xlabel,datatest_data) plt.title(test_data) plt.show()在深度学习模型评估中, 我们一般使用ACC作为评估指标, 若想将ACC的基线定义在50%左右, 则需要我们的正负样本比例维持在1:1左右, 否则就要进行必要的数据增强或数据删减. 上图中训练和验证集正负样本都稍有不均衡, 可以进行一些数据增强. 绘制句子长度分布图 # 获取训练集和验证集的句子长度分布 train_data[sentence_length] list(map(lambda x:len(x),train_data[sentence])) test_data[sentence_length] list(map(lambda x:len(x),test_data[sentence]))sns.countplot(xsentence_length,datatrain_data) plt.xticks([]) plt.show()# 绘制dist长度分布图 sns.distplot(train_data[sentence_length]) plt.yticks([]) plt.show()sns.countplot(xsentence_length,datatest_data) plt.xticks([]) plt.show()# 绘制dist长度分布图 sns.distplot(test_data[sentence_length]) plt.yticks([]) plt.show()通过绘制句子长度分布图, 可以得知我们的语料中大部分句子长度的分布范围, 因为模型的输入要求为固定尺寸的张量合理的长度范围对之后进行句子截断补齐(规范长度)起到关键的指导作用. 上图中大部分句子长度的范围大致为20-250之间. 绘制样本长度散点图 # 获取训练集和验证集的正负样本长度散点分布 sns.stripplot(xlabel,ysentence_length,datatrain_data) plt.show()sns.stripplot(xlabel,ysentence_length,datatest_data) plt.show()通过查看正负样本长度散点图, 可以有效定位异常点的出现位置, 帮助我们更准确进行人工语料审查. 上图中在训练集正样本中出现了异常点, 它的句子长度近3500左右, 需要我们人工审查。 统计不同词汇总数 # 获取训练集和验证集不同词汇总数统计 import jieba # 使用chain方法扁平化列表 from itertools import chain# 对训练集的句子进行分词并统计出不同词汇的总数 # 解包操作符 * 将 map 返回的迭代器中的每个列表展开使 chain 能够将它们连接在一起。 train_words set(chain(*map(lambda x:jieba.lcut(x),train_data[sentence]))) print(训练集共包含不同词汇总数为:,len(train_words))test_words set(chain(*map(lambda x:jieba.lcut(x),test_data[sentence]))) print(训练集共包含不同词汇总数为:,len(test_words))绘制高频形容词词云 # 获得训练集上正负样本的高频形容词词云# 使⽤jieba中的词性标注功能 import jieba.posseg as pseg from wordcloud import WordCloud # 获取形容词 def get_list(text):r []for g in pseg.lcut(text):if g.flag a:r.append(g.word)return r# 绘制词云 def get_word_cloud(keywords_list):# 实例化绘制词云类wordcloud WordCloud(font_path./SimHei.ttf,max_words100,background_colorwhite)# 将传入的列表转化为字符串keywords_string .join(keywords_list)# 生成词云wordcloud.generate(keywords_string)# 绘制图像plt.figure(figsize(10,8))plt.imshow(wordcloud)plt.axis(off)plt.show()# 获得训练集上正样本 p_train_data train_data[train_data[label]1][sentence] # 获取形容词 p_train_adj chain(*map(lambda x:get_list(x),p_train_data))# 获得训练集上负样本 n_train_data train_data[train_data[label]0][sentence] # 获取形容词 n_train_adj chain(*map(lambda x:get_list(x),n_train_data))get_word_cloud(p_train_adj) get_word_cloud(n_train_adj)根据高频形容词词云显示, 我们可以对当前语料质量进行简单评估, 同时对违反语料标签含义的词汇进行人工审查和修正, 来保证绝大多数语料符合训练标准. 上图中的正样本大多数是褒义词, 而负样本⼤多数是贬义词, 基本符合要求, 但是负样本词云中也存在便利这样的褒义词, 因此可以人工进行审查. 2.5 文本特征处理 2.5.1 添加n_grams特征 n-gram 是自然语言处理NLP中的一种常用技术通过将文本分割成连续的子序列称为“n-grams”来捕捉文本中的局部结构。 import jieba # CountVectorizer用于将文本数据转换为数值型特征向量 from sklearn.feature_extraction.text import CountVectorizer# 示例文本 documents [我喜欢编程Python 很强大,今天天气真好适合出去玩,Python 是一门强大的编程语言 ]# 分词 tokenized_documents [ .join(jieba.cut(doc)) for doc in documents]# 创建 CountVectorizer 实例指定 n-gram 范围 # ngram_range(2, 2) 生成两个词和双组合的n_grams vectorizer CountVectorizer(ngram_range(2, 2)) # 拟合并转换文本数据 # 首先学习词汇表然后将文档转换为词频矩阵。 x vectorizer.fit_transform(tokenized_documents)# 获取特征名称 # 返回词汇表中的所有特征名称包含所有生成的 n-gram 特征名称 feature_names vectorizer.get_feature_names_out()# 打印特征名称和对应的计数值 print(Feature names:, feature_names) # n-gram出现的次数 print(Counts:\n, x.toarray())2.5.2 文本长度规范 # 截断文本到指定的最大长度 def truncate_text(text, max_length, truncation_typeend):if len(text) max_length:if truncation_type start:return text[:max_length]elif truncation_type middle:start (len(text) - max_length) // 2return text[start:start max_length]else: # endreturn text[-max_length:]return text# 填充文本到指定的最大长度 def pad_text(text, max_length, padding_tokenPAD, padding_typepost):if len(text) max_length:num_padding max_length - len(text)if padding_type pre:return (padding_token * num_padding) textelse: # postreturn text (padding_token * num_padding)return text# 规范化文本长度先截断再填充 def normalize_text_length(text, max_length, truncation_typeend, padding_tokenPAD, padding_typepost):# 截断truncated_text truncate_text(text, max_length, truncation_type)# 填充normalized_text pad_text(truncated_text, max_length, padding_token, padding_type)return normalized_text# 示例文本 texts [This is a short sentence.,This is a much longer sentence that needs to be truncated or padded to fit the specified length.,Another example sentence. ]# 设置最大长度 max_length 27# 规范化文本长度 normalized_texts [normalize_text_length(text, max_length) for text in texts]# 打印结果 for original, normalized in zip(texts, normalized_texts):print(fOriginal: {original})print(fNormalized: {normalized}\n)2.6 文本数据增强 回译数据增强法 是将源语言的句子翻译成另一种语言然后再将翻译后的句子翻译回源语言从而生成新的训练样本。这种方法可以增加训练数据的多样性提高模型的泛化能力。 from transformers import MarianMTModel,MarianTokenizer import torch# 加载中文到英文的翻译模型和分词器 # huggingFace官网进不去无法下载Helsinki-NLP/opus-mt-zh-en model_name_zh_to_en Helsinki-NLP/opus-mt-zh-en tokenizer_zh_to_en MarianTokenizer.from_pretrained(model_name_zh_to_en) model_zh_to_en MarianMTModel.from_pretrained(model_name_zh_to_en)# 加载英文到中文你的翻译模型和分词器 model_name_en_to_zh Helsinki-NLP/opus-mt-en-zh tokenizer_en_to_zh MarianTokenizer.from_pretrained(model_name_en_to_zh) model_en_to_zh MarianMTModel.from_pretrained(model_name_en_to_zh)# 翻译文本 def translate(text,tokenizer,model):# 将文本转换为模型可以处理的数值形式inputs tokenizer(text,return_tensorspt)print(inputs)with torch.no_grad:# **操作符用于解包字典将字典中的键值对作为关键字参数传递给函数。outputs model.generate(**inputs)# 将生成的张量解码为文本translated_text tokenizer.batch_decode(outputs,skip_special_tokensTrue)return translated_text# 回译文本 def back_translate(text,tokenizer1,model1,tokenizer2,model2):# zh_to_entranslated_text translate(text,tokenizer1,model1)# en_to_zhback_translated_text translate(translated_text,tokenizer2,model2)return back_translated_texttexts [这是一个简短的句子。,这是一个需要回译的较长句子。,另一个示例句子。 ]back_translated_texts [back_translate(text,tokenizer_zh_to_en, model_zh_to_en, tokenizer_en_to_zh, model_en_to_zh) for text in texts]for original,back_translated in zip(texts,back_translated_texts):print(fOriginal:{original})print(fBack_Translated:{back_translated})三、HMM和CRF HMM和CRF慢慢淡出⼈们的视野 HMM 是一种用来预测隐藏状态的模型。想象你有一串观察到的数据比如一句话中的单词你想要知道每个单词背后隐藏的状态比如每个单词的词性。 CRF是一种用来预测输出序列的模型它直接根据输入序列来预测输出序列而不是像 HMM 那样通过隐藏状态来间接预测。 四、RNN架构解析 4.1 RNN模型简介 RNN中文称作循环神经网络他一般以序列数据为输入通过网络内部的结构设计有效捕捉序列之间的关系特征一般也是以序列形式进行输出。 RNN 的基本概念 循环结构 RNN 的核心特点是其循环结构这意味着网络中的某些节点不仅接收当前时间步的输入还接收前一个时间步的隐藏状态。这种结构使得 RNN 能够捕捉输入序列中的时间依赖关系。 隐藏状态 RNN 维护一个隐藏状态hidden state它在每个时间步更新。隐藏状态可以看作是网络的记忆用于存储过去的信息。 时间步 在处理序列数据时每个时间步对应序列中的一个元素。例如在处理一个句子时每个时间步可以对应一个单词。 RNN模型的作用 因为RNN结构能够很好利用序列之间的关系, 因此针对自然界具有连续性的输入序列, 如人类的语言, 语音等进行很好的处理, 广泛应用于NLP领域的各项任务, 如文本分类, 情感分析, 意图识别, 机器翻译等。 4.2 传统RNN的使用 import torch import torch.nn as nn# 实例化RNN对象 # 第一个参数:input_size输入张量x的维度 # 第二个参数:hidden_size隐藏层的维度隐藏层神经元个数 # 第三个参数:num_layers隐藏层的层数 rnn nn.RNN(5,6,1) # 设定输入张量x # 第一个参数:sequence_length输入序列的长度时间步 # 第二个参数:batch_size批次的样本数 # 第三个参数:input_size输入张量x的维度 inputs torch.randn(1,3,5) # 创建初始隐藏状态张量 # 第一个参数:num_layers隐藏层的层数 # 第二个参数:batch_size批量大小 # 第三个参数:hidden_size隐藏层的维度 h0 torch.randn(1,3,6)# 运行RNN output,hn rnn(inputs,h0)# RNN 的输出张量 print(output) # 最后一个时间步的隐藏状态张量 print(hn)4.3 LSTM模型的使用 LSTM也称长短时记忆结构它是传统RNN的变体与经典RNN相比能够有效捕捉长序列之间的语义关联缓解梯度消失或爆炸现象。 import torch import torch.nn as nn# 实例化LSTM # 第一个参数:input_size输入特征维度 # 第二个参数:hidden_size隐藏层的状态维度 # 第三个参数:num_layers隐藏层数量表示两层LSTM单元 rnn nn.LSTM(5,6,2)# 设定LSTM的输入 # 第一个参数:sequence_length序列长度 # 第二个参数:batch_size批量大小 # 第三个参数:input_size输入特征维度 input torch.randn(2,3,5)# 初始化隐藏层状态和细胞状态 # 第一个参数:num_layers隐藏层数量 # 第二个参数:batch_size批量大小 # 第三个参数:hidden_size输入特征维度 h0 torch.randn(2,3,6) c0 torch.randn(2,3,6)# cn最后一个细胞状态张量 output,(hn,cn) rnn(input,(h0,c0))# 遍历 output 的每个时间步 for i in range(output.size(0)):print(fOutput at time step {i}:)print(output[i])4.4 GRU模型的使用 GRU也称门控循环单元结构它是传统RNN的变体能够有效捕捉长序列之间的语义关联缓解梯度消失或爆炸现象。 import torch import torch.nn as nnrnn nn.GRU(5,6,2) input torch.randn(1,3,5) h0 torch.randn(2,3,6)output,hn rnn(input,h0) output4.5 注意力机制 注意力机制是一种在深度学习模型中用于增强模型对输入序列中重要部分的关注的技术。注意力机制的核心思想是让模型在处理每个时间步时能够动态地关注输入序列中的不同部分从而提高模型的性能和解释性。 注意力机制的基本概念 查询Query 查询是模型在当前时间步的输入或隐藏状态用于决定应该关注输入序列的哪些部分。 键Key 键是输入序列中的每个元素的表示用于与查询进行匹配。 值Value 值是输入序列中的每个元素的表示用于生成最终的加权和。 注意力分数 注意力分数是查询与键之间的相似度度量通常通过点积或加性方法计算。 注意力权重 注意力权重是对注意力分数进行归一化后的结果通常使用 softmax 函数。 上下文向量 上下文向量是值的加权和权重由注意力权重确定。 import torch import torch.nn as nn import torch.nn.functional as Fclass Attention(nn.Module):def __init__(self,query_dim,key_dim,value_dim):super(Attention,self).__init__()# 缩放因子self.scale 1.0/(key_dim ** 0.5)def forward(self,query,key,value):# query: (batch_size, query_dim)# key: (batch_size, seq_len, key_dim)# value: (batch_size, seq_len, value_dim)# 计算注意力分数scores torch.bmm(query.unsqueeze(1),key.transpose(1,2)) #(batch_size, 1, seq_len)# 防止点积结果过大导致梯度消失或爆炸scores scores * self.scale# 计算注意力权重表示每个查询向量对每个键向量的注意力权重attn_weights F.softmax(scores,dim2) # (batch_size, 1, seq_len)# 计算上下文向量context torch.bmm(attn_weights,value).squeeze(1) # (batch_size, value_dim)return attn_weights,contextbatch_size 2 query_dim 10 key_dim 10 value_dim 15 seq_len 5# 随机生成输入 query torch.randn(batch_size, query_dim) key torch.randn(batch_size, seq_len, key_dim) value torch.randn(batch_size, seq_len, value_dim)# 创建注意力机制实例 attention Attention(query_dim, key_dim, value_dim)# 计算注意力 context, attn_weights attention(query, key, value)print(Context Vector:, context) print(Attention Weights:, attn_weights)五、RNN经典案例——人名分类器 点击跳转新的页面进行查看人名分类器 五、Transformer 正在学习ing
http://www.hkea.cn/news/14553759/

相关文章:

  • 青海网站开发 建设商城网站 不易优化
  • vs 网站项目html5微网站模板
  • 做网站需要提供的资料河北高端网站建设
  • 四川seo整站优化费用大学生饮料营销策划方案创意
  • 黑色背景的网站开发工具邯郸房产
  • 商河县做网站公司如果你会建网站
  • 推荐自助建网站平台电子建设网站的目的
  • 合肥做网站域名的公司太原免费建站
  • 免费空间访客领取网站直播网站建设需要什么软件
  • 互联网金融型网站开发肇庆东莞网站建设
  • 建设网站的风险6做任务打字赚钱的网站
  • 金戈西地那非片能延时多久网站整站优化
  • 寮步营销型网站建设极速建站系统开发
  • 个人建站除了wordpress如何写手机适配网站
  • 企业建站系统平台手机制作网页的app
  • 上海网站建设多少旅游攻略网站开发
  • 双语网站系统wordpress很难
  • 做百度手机网站快速排网站建设销售合同
  • 凯里公司网站建设济南疾控最新发布
  • 婚庆摄影网站模板制作图片工具
  • 网站设计企业联系方式内容中国建设银行官网开户行查询
  • 用excel可以做网站90平装修大约多少钱
  • 北京网站制作闪快电子商务营销师
  • 临潼微网站建设网站安全建设的重要性
  • 做网站备案是个人还是企业好巨鹿建设银行网站首页
  • 云南城市建设培训中心网站百度集团总部在哪里
  • 双语网站模板建设安全员协会网站
  • 旅游网站开发公司网站后台管理系统数据库
  • 游戏网站建设多少钱订货商城小程序源码
  • 一站式网站建设哪家做网站公司