当前位置: 首页 > news >正文

自己做网站怎么搜索免费网站制作成品

自己做网站怎么搜索,免费网站制作成品,深圳网站seo建设,在线磁力搜索神器一、本文介绍 本篇文章给大家带来的是利用我个人编写的架构进行TCN时间序列卷积进行时间序列建模#xff08;专门为了时间序列领域新人编写的架构#xff0c;简单不同于市面上大家用GPT写的代码#xff09;#xff0c;包括结果可视化、支持单元预测、多元预测、模型拟合效…   一、本文介绍 本篇文章给大家带来的是利用我个人编写的架构进行TCN时间序列卷积进行时间序列建模专门为了时间序列领域新人编写的架构简单不同于市面上大家用GPT写的代码包括结果可视化、支持单元预测、多元预测、模型拟合效果检测、预测未知数据、以及滚动长期预测功能。该结构是一个通用架构任何模型嵌入其中都可运行。下面来介绍一下TCN时间序列卷积的基本原理时间序列卷积Temporal Convolutional Network, TCN通过一系列卷积层处理数据每个层都能捕捉到不同时间范围内的模式其主要通过以下三个操作因果卷积、扩张卷积、残差链接三个操作来进行预测功能的实现。  专栏目录时间序列预测目录深度学习、机器学习、融合模型、创新模型实战案例 专栏 时间序列预测专栏基础知识数据分析机器学习深度学习Transformer创新模型 预测功能效果展示(不是测试集是预测未知数据)- ​ 损失截图(损失这里我就没有画图直接打印下来了很直观)-  根据损失来看模型的拟合效果还是很好的但后面还是做了检验模型拟合效果的功能让大家真正的评估模型的效果。 检验模型拟合情况- (从下面的图片可以看出模型拟合的情况很好)  目录 一、本文介绍 二、TCN的框架原理 2.1 TCN的主要思想 2.2 因果卷积 2.3  扩张卷积 2.4 无便宜填充 三、数据集介绍 四、参数讲解  五、完整代码 六、训练模型  七、预测结果 7.1 预测未知数据效果图 7.2 测试集效果图  7.3 CSV文件生成效果图  7.4 检验模型拟合效果图 八、全文总结 二、TCN的框架原理 2.1 TCN的主要思想 TCN即Temporal Convolutional Network是一种专门用于时间序列数据处理的神经网络架构。TCN的关键特点包括 1. 因果卷积TCN使用因果卷积来确保在预测未来值时只会使用当前和过去的信息而不会出现信息泄露。 2. 扩张卷积通过扩张卷积TCN可以在不丢失时间分辨率的情况下增加感受野即模型可以观察到的历史信息范围。扩张卷积通过间隔地应用卷积核来实现。 3. 无偏移填充为了保持输出的时间长度与输入相同TCN在卷积操作前使用了一种特殊的填充方式。 下图是时间序列卷积的示意图 下面我来分别介绍这几种机制- 2.2 因果卷积 什么是因果卷积首先我们来确定这个问题 因果关系意味着输出序列中的元素只能依赖于输入序列中它前面的元素。为了确保输出张量与输入张量具有相同的长度我们需要进行零填充。如果我们只用零填充输入张量的左侧那么因果卷积是有保证的。在下图中是通过组合生成的,​,确保不会泄露信息。 此操作生成和它们是无关的应该在将输出传递到下一层之前删除。 TCN有两个基本原则 序列的输入和输出长度保持不变。过去不能有任何泄漏。 为了达到第一点TCN利用了第二点TCN利用了因果卷积。1D FCN ( Fully Convolutional Network) 2.3  扩张卷积 扩张卷积的工作原理 增加感受野在标准的卷积中卷积核覆盖的区域是连续的。扩张卷积通过在卷积核的各个元素之间插入空格称为“扩张”来扩大其覆盖区域。例如一个扩张率为2的3x3卷积核实际上会覆盖一个5x5的区域但只使用9个权重。 保持时间分辨率与池化操作不同扩张卷积不会减少数据的时间维度。这意味着输出数据在时间上的分辨率保持不变这对于时间序列分析和音频处理等领域至关重要。 间隔应用扩张卷积通过间隔地应用卷积核来实现其效果。这种间隔方式意味着卷积核可以跨越更大的区域而不是只聚焦于紧邻的输入单元。 扩张卷积在TCN中的应用 在时间卷积网络TCN中扩张卷积允许模型有效地处理长时间序列。通过增大感受野TCN可以捕捉到更长范围内的依赖关系这对于许多序列预测任务如语音识别、自然语言处理等非常有用。此外扩张卷积的使用使得TCN在处理长序列时计算效率更高因为它避免了重复计算和不必要的参数增加。 2.4 无便宜填充 无偏移填充在时间卷积网络TCN中的使用是为了保持输出序列的时间长度与输入序列相同从而允许模型在处理序列数据时保持时间对齐。在传统的卷积操作中通常会因为卷积核覆盖的范围而导致输出序列的长度减少。为了解决这个问题TCN采用了无偏移填充的策略。 无偏移填充Zero Padding的工作原理 填充操作无偏移填充是指在输入序列的开始部分添加适量的零值以使得卷积操作后的输出序列长度不减少。这种填充方式通常用于时间序列的处理中确保经过卷积后时间维度上的长度保持不变。 保持时间对齐在处理时间序列数据时保持时间上的对齐非常重要尤其是在预测未来事件或者在时间序列上做分类任务时。无偏移填充确保了输入和输出在时间维度上保持对齐。 防止信息丢失在没有填充的情况下卷积操作可能会导致序列边缘的信息丢失因为卷积核无法完全覆盖这些区域。通过使用无偏移填充可以保证序列的每个部分都被卷积核等同地处理。 在TCN中的应用 在TCN中无偏移填充通常与扩张卷积结合使用。通过在卷积层之前适当地添加零值可以保证即使在使用较大扩张率的情况下输出序列的长度也与输入序列的长度相同。这样不仅保留了时间序列数据的完整性还允许模型捕捉到长距离的依赖关系提高模型对时间序列数据的处理能力。 三、数据集介绍 本文是实战讲解文章上面主要是简单讲解了一下网络结构比较具体的流程还是很复杂的涉及到很多的数学计算下面我们来讲一讲模型的实战内容第一部分是我利用的数据集。 本文我们用到的数据集是ETTh1.csv该数据集是一个用于时间序列预测的电力负荷数据集它是 ETTh 数据集系列中的一个。ETTh 数据集系列通常用于测试和评估时间序列预测模型。以下是 ETTh1.csv 数据集的一些内容 数据内容该数据集通常包含有关电力系统的多种变量如电力负荷、价格、天气情况等。这些变量可以用于预测未来的电力需求或价格。 时间范围和分辨率数据通常按小时或天记录涵盖了数月或数年的时间跨度。具体的时间范围和分辨率可能会根据数据集的版本而异。  以下是该数据集的部分截图- 四、参数讲解  parser.add_argument(-model, typestr, defaultTCN, help模型持续更新)parser.add_argument(-window_size, typeint, default128, help时间窗口大小, window_size pre_len)parser.add_argument(-pre_len, typeint, default24, help预测未来数据长度)# dataparser.add_argument(-shuffle, actionstore_true, defaultTrue, help是否打乱数据加载器中的数据顺序)parser.add_argument(-data_path, typestr, defaultETTh1-Test.csv, help你的数据数据地址)parser.add_argument(-target, typestr, defaultOT, help你需要预测的特征列这个值会最后保存在csv文件里)parser.add_argument(-input_size, typeint, default7, help你的特征个数不算时间那一列)parser.add_argument(-output_size, typeint, default1, help输出特征个数只有两种选择和你的输入特征一样即输入多少输出多少另一种就是多元预测单元)parser.add_argument(-feature, typestr, defaultMS, help[M, S, MS],多元预测多元,单元预测单元,多元预测单元)parser.add_argument(-model_dim, typelist, default[64, 128, 256], help这个地方是这个TCN卷积的关键部分,它代表了TCN的层数我这里输入list中包含三个元素那么我的TCN就是三层这个根据你的数据复杂度来设置层数越多对应数据越复杂但是不要超过5层)# learningparser.add_argument(-lr, typefloat, default0.001, help学习率)parser.add_argument(-drop_out, typefloat, default0.05, help随机丢弃概率,防止过拟合)parser.add_argument(-epochs, typeint, default20, help训练轮次)parser.add_argument(-batch_size, typeint, default32, help批次大小)parser.add_argument(-save_path, typestr, defaultmodels)# modelparser.add_argument(-hidden_size, typeint, default64, help隐藏层单元数)parser.add_argument(-kernel_sizes, typeint, default3)parser.add_argument(-laryer_num, typeint, default1)# deviceparser.add_argument(-use_gpu, typebool, defaultFalse)parser.add_argument(-device, typeint, default0, help只设置最多支持单个gpu训练)# optionparser.add_argument(-train, typebool, defaultTrue)parser.add_argument(-predict, typebool, defaultTrue)parser.add_argument(-inspect_fit, typebool, defaultTrue)parser.add_argument(-lr-scheduler, typebool, defaultTrue) 为了大家方便理解文章中的参数设置我都用的中文所以大家应该能够更好的理解。下面我在进行一遍讲解。  参数名称参数类型参数讲解1modelstr模型名称2window_sizeint时间窗口大小用多少条数据去预测未来的数据 3 pre_lenint预测多少条未来的数据4shufflestore_true是否打乱输入dataloader中的数据不是数据的顺序 5 data_pathstr你输入数据的地址6targetstr你想要预测的特征列 7 input_sizeint输入的特征数不包含时间那一列8output_sizeint输出的特征数只可以是1或者是等于你输入的特征数 9 featurestr[M, S, MS],多元预测多元,单元预测单元,多元预测单元 10 model_dimlist这个地方是这个TCN卷积的关键部分,它代表了TCN的层数我这里输入list中包含三个元素那么我的TCN就是三层这个根据你的数据复杂度来设置层数越多对应数据越复杂但是不要超过5层!!!!重点部分11lrfloat学习率大小 12 drop_out float丢弃概率13epochsint训练轮次 14 batch_sizeint批次大小15svae_pathstr模型的保存路径 16 hidden_sizeint隐藏层大小17kernel_sizeint卷积核大小 18 layer_numintlstm层数19use_gpubool是否使用GPU 20 deviceintGPU编号21trainbool是否进行训练 22 predictbool是否进行预测 23 inspect_fitbool是否进行检验模型24lr_schdulerbool是否使用学习率计划 五、完整代码 复制粘贴到一个文件下并且按照上面的从参数讲解配置好参数即可运行~(极其适合新手和刚入门的读者) import argparse import time import numpy as np import pandas as pd from matplotlib import pyplot as plt from sklearn.preprocessing import StandardScaler, MinMaxScaler from torch.utils.data import DataLoader from torch.utils.data import Dataset from tqdm import tqdm import torch import torch.nn as nn from torch.nn.utils import weight_norm # 随机数种子 np.random.seed(0)def plot_loss_data(data):# 使用Matplotlib绘制线图plt.plot(data)# 添加标题plt.title(loss results Plot)# 显示图例plt.legend([Loss])class TimeSeriesDataset(Dataset):def __init__(self, sequences):self.sequences sequencesdef __len__(self):return len(self.sequences)def __getitem__(self, index):sequence, label self.sequences[index]return torch.Tensor(sequence), torch.Tensor(label)def create_inout_sequences(input_data, tw, pre_len, config):# 创建时间序列数据专用的数据分割器inout_seq []L len(input_data)for i in range(L - tw):train_seq input_data[i:i tw]if (i tw pre_len) len(input_data):breakif config.feature MS:train_label input_data[:, -1:][i tw:i tw pre_len]else:train_label input_data[i tw:i tw pre_len]inout_seq.append((train_seq, train_label))return inout_seqdef calculate_mae(y_true, y_pred):# 平均绝对误差mae np.mean(np.abs(y_true - y_pred))return maedef create_dataloader(config, device):print(创建数据加载器)df pd.read_csv(config.data_path) # 填你自己的数据地址,自动选取你最后一列数据为特征列 # 添加你想要预测的特征列pre_len config.pre_len # 预测未来数据的长度train_window config.window_size # 观测窗口# 将特征列移到末尾target_data df[[config.target]]df df.drop(config.target, axis1)df pd.concat((df, target_data), axis1)cols_data df.columns[1:]df_data df[cols_data]# 这里加一些数据的预处理, 最后需要的格式是pd.seriestrue_data df_data.values# 定义标准化优化器scaler_train StandardScaler()scaler_valid StandardScaler()scaler_test StandardScaler()train_data true_data[int(0.3 * len(true_data)):]valid_data true_data[int(0.15 * len(true_data)):int(0.30 * len(true_data))]test_data true_data[:int(0.15 * len(true_data))]print(训练集尺寸:, len(train_data), 测试集尺寸:, len(test_data), 验证集尺寸:, len(valid_data))# 进行标准化处理train_data_normalized scaler_train.fit_transform(train_data)test_data_normalized scaler_test.fit_transform(test_data)valid_data_normalized scaler_valid.fit_transform(valid_data)# 转化为深度学习模型需要的类型Tensortrain_data_normalized torch.FloatTensor(train_data_normalized).to(device)test_data_normalized torch.FloatTensor(test_data_normalized).to(device)valid_data_normalized torch.FloatTensor(valid_data_normalized).to(device)# 定义训练器的的输入train_inout_seq create_inout_sequences(train_data_normalized, train_window, pre_len, config)test_inout_seq create_inout_sequences(test_data_normalized, train_window, pre_len, config)valid_inout_seq create_inout_sequences(valid_data_normalized, train_window, pre_len, config)# 创建数据集train_dataset TimeSeriesDataset(train_inout_seq)test_dataset TimeSeriesDataset(test_inout_seq)valid_dataset TimeSeriesDataset(valid_inout_seq)# 创建 DataLoadertrain_loader DataLoader(train_dataset, batch_sizeargs.batch_size, shuffleTrue, drop_lastTrue)test_loader DataLoader(test_dataset, batch_sizeargs.batch_size, shuffleFalse, drop_lastTrue)valid_loader DataLoader(valid_dataset, batch_sizeargs.batch_size, shuffleFalse, drop_lastTrue)print(通过滑动窗口共有训练集数据, len(train_inout_seq), 转化为批次数据:, len(train_loader))print(通过滑动窗口共有测试集数据, len(test_inout_seq), 转化为批次数据:, len(test_loader))print(通过滑动窗口共有验证集数据, len(valid_inout_seq), 转化为批次数据:, len(valid_loader))print(创建数据加载器完成)return train_loader, test_loader, valid_loader, scaler_train, scaler_test, scaler_validclass Chomp1d(nn.Module):def __init__(self, chomp_size):super(Chomp1d, self).__init__()self.chomp_size chomp_sizedef forward(self, x):return x[:, :, :-self.chomp_size].contiguous()class TemporalBlock(nn.Module):def __init__(self, n_inputs, n_outputs, kernel_size, stride, dilation, padding, dropout0.2):super(TemporalBlock, self).__init__()self.conv1 weight_norm(nn.Conv1d(n_inputs, n_outputs, kernel_size,stridestride, paddingpadding, dilationdilation))self.chomp1 Chomp1d(padding)self.relu1 nn.ReLU()self.dropout1 nn.Dropout(dropout)self.conv2 weight_norm(nn.Conv1d(n_outputs, n_outputs, kernel_size,stridestride, paddingpadding, dilationdilation))self.chomp2 Chomp1d(padding)self.relu2 nn.ReLU()self.dropout2 nn.Dropout(dropout)self.net nn.Sequential(self.conv1, self.chomp1, self.relu1, self.dropout1,self.conv2, self.chomp2, self.relu2, self.dropout2)self.downsample nn.Conv1d(n_inputs, n_outputs, 1) if n_inputs ! n_outputs else Noneself.relu nn.ReLU()self.init_weights()def init_weights(self):self.conv1.weight.data.normal_(0, 0.01)self.conv2.weight.data.normal_(0, 0.01)if self.downsample is not None:self.downsample.weight.data.normal_(0, 0.01)def forward(self, x):out self.net(x)res x if self.downsample is None else self.downsample(x)return self.relu(out res)class TemporalConvNet(nn.Module):def __init__(self, num_inputs, outputs, pre_len, num_channels, kernel_size2, dropout0.2):super(TemporalConvNet, self).__init__()layers []self.pre_len pre_lennum_levels len(num_channels)for i in range(num_levels):dilation_size 2 ** iin_channels num_inputs if i 0 else num_channels[i-1]out_channels num_channels[i]layers [TemporalBlock(in_channels, out_channels, kernel_size, stride1, dilationdilation_size,padding(kernel_size-1) * dilation_size, dropoutdropout)]self.network nn.Sequential(*layers)self.linear nn.Linear(num_channels[-1], outputs)def forward(self, x):x x.permute(0, 2, 1)x self.network(x)x x.permute(0, 2, 1)x self.linear(x)return x[:, -self.pre_len:, :]def train(model, args, device):start_time time.time() # 计算起始时间lstm_model modelloss_function nn.MSELoss()optimizer torch.optim.Adam(lstm_model.parameters(), lr0.005)epochs args.epochslstm_model.train() # 训练模式results_loss []for i in tqdm(range(epochs)):losss []for seq, labels in train_loader:optimizer.zero_grad()lstm_model.train()optimizer.zero_grad()y_pred lstm_model(seq)single_loss loss_function(y_pred, labels)single_loss.backward()optimizer.step()losss.append(single_loss.detach().cpu().numpy())tqdm.write(f\t Epoch {i 1} / {epochs}, Loss: {sum(losss) / len(losss)})results_loss.append(sum(losss) / len(losss))save_loss []if save_loss:valid_loss valid(model, args, scaler_valid, valid_loader)# 尚未引入学习率计划后期补上torch.save(lstm_model.state_dict(), save_model.pth)time.sleep(0.1)# 保存模型print(f模型已保存,用时:{(time.time() - start_time) / 60:.4f} min)# plot_loss_data(results_loss)test(model, args, scaler_test, test_loader)return scaler_traindef valid(model, args, scaler, valid_loader):lstm_model model# 加载模型进行预测lstm_model.load_state_dict(torch.load(save_model.pth))lstm_model.eval() # 评估模式losss []for seq, labels in valid_loader:pred lstm_model(seq)mae calculate_mae(pred.detach().numpy().cpu(), np.array(labels.detach().cpu())) # MAE误差计算绝对值(预测值 - 真实值)losss.append(mae)# print(验证集误差MAE:, losss)return sum(losss)/len(losss)def test(model, args, scaler, test_loader):lstm_model model# 加载模型进行预测lstm_model.load_state_dict(torch.load(save_model.pth))lstm_model.eval() # 评估模式losss []for seq, labels in test_loader:pred lstm_model(seq)mae calculate_mae(pred.detach().cpu().numpy(), np.array(labels.detach().cpu())) # MAE误差计算绝对值(预测值 - 真实值)losss.append(mae)# 此处缺少一个绘图功能后期补上检验测试集情况print(测试集误差MAE:, losss)# 检验模型拟合情况 def inspect_model_fit(model, args, train_loader, scaler_train):df pd.read_csv(args.data_path)df_inverse df[int(0.3 * len(df)):][[OT]].reset_index(dropTrue)scaler_pre StandardScaler().fit(df_inverse)model modelmodel.load_state_dict(torch.load(save_model.pth))model.eval() # 评估模式results []labels []for i in range(len(train_loader)):for seq, label in train_loader:pred model(seq)[:, 0, :]label label[:, 0, :]if args.feature M or args.feature S:pred scaler_train.inverse_transform(pred.detach().cpu().numpy())label scaler_train.inverse_transform(label.detach().cpu().numpy())else:pred scaler_pre.inverse_transform(pred.detach().cpu().numpy())label scaler_pre.inverse_transform(label.detach().cpu().numpy())for i in range(len(pred)):results.append(pred[i][-1])labels.append(label[i][-1])# 绘制历史数据plt.plot(labels, labelHistory)# 绘制预测数据# 注意这里预测数据的起始x坐标是历史数据的最后一个点的x坐标plt.plot(results, labelPrediction)# 添加标题和图例plt.title(inspect model fit state)plt.legend()plt.show()def predict(model, args, device, scaler):# 预测未知数据的功能df pd.read_csv(args.data_path)scaler_data df[[args.target]][int(0.3 * len(df)):]scaler_pre StandardScaler().fit(scaler_data)df df.iloc[:, 1:][-args.window_size:].values # 转换为nadarrypre_data scaler.transform(df)tensor_pred torch.FloatTensor(pre_data).to(device)tensor_pred tensor_pred.unsqueeze(0) # 单次预测 , 滚动预测功能暂未开发后期补上model modelmodel.load_state_dict(torch.load(save_model.pth))model.eval() # 评估模式pred model(tensor_pred)[0]if args.feature M or args.feature S:pred scaler.inverse_transform(pred.detach().cpu().numpy())else:pred scaler_pre.inverse_transform(pred.detach().cpu().numpy())# 假设 df 和 pred 是你的历史和预测数据# 计算历史数据的长度history_length len(df[:, -1])# 为历史数据生成x轴坐标history_x range(history_length)# 为预测数据生成x轴坐标# 开始于历史数据的最后一个点的x坐标prediction_x range(history_length - 1, history_length len(pred[:, -1]) - 1)# 绘制历史数据plt.plot(history_x, df[:, -1], labelHistory)# 绘制预测数据# 注意这里预测数据的起始x坐标是历史数据的最后一个点的x坐标plt.plot(prediction_x, pred[:, -1], markero, labelPrediction)plt.axvline(history_length - 1, colorred) # 在图像的x位置处画一条红色竖线# 添加标题和图例plt.title(History and Prediction)plt.legend()if __name__ __main__:parser argparse.ArgumentParser(descriptionTime Series forecast)parser.add_argument(-model, typestr, defaultTCN, help模型持续更新)parser.add_argument(-window_size, typeint, default128, help时间窗口大小, window_size pre_len)parser.add_argument(-pre_len, typeint, default24, help预测未来数据长度)# dataparser.add_argument(-shuffle, actionstore_true, defaultTrue, help是否打乱数据加载器中的数据顺序)parser.add_argument(-data_path, typestr, defaultETTh1-Test.csv, help你的数据数据地址)parser.add_argument(-target, typestr, defaultOT, help你需要预测的特征列这个值会最后保存在csv文件里)parser.add_argument(-input_size, typeint, default7, help你的特征个数不算时间那一列)parser.add_argument(-output_size, typeint, default1, help输出特征个数只有两种选择和你的输入特征一样即输入多少输出多少另一种就是多元预测单元)parser.add_argument(-feature, typestr, defaultMS, help[M, S, MS],多元预测多元,单元预测单元,多元预测单元)parser.add_argument(-model_dim, typelist, default[64, 128, 256], help这个地方是这个TCN卷积的关键部分,它代表了TCN的层数我这里输入list中包含三个元素那么我的TCN就是三层这个根据你的数据复杂度来设置层数越多对应数据越复杂但是不要超过5层)# learningparser.add_argument(-lr, typefloat, default0.001, help学习率)parser.add_argument(-drop_out, typefloat, default0.05, help随机丢弃概率,防止过拟合)parser.add_argument(-epochs, typeint, default20, help训练轮次)parser.add_argument(-batch_size, typeint, default32, help批次大小)parser.add_argument(-save_path, typestr, defaultmodels)# modelparser.add_argument(-hidden_size, typeint, default64, help隐藏层单元数)parser.add_argument(-kernel_sizes, typeint, default3)parser.add_argument(-laryer_num, typeint, default1)# deviceparser.add_argument(-use_gpu, typebool, defaultFalse)parser.add_argument(-device, typeint, default0, help只设置最多支持单个gpu训练)# optionparser.add_argument(-train, typebool, defaultTrue)parser.add_argument(-predict, typebool, defaultTrue)parser.add_argument(-inspect_fit, typebool, defaultTrue)parser.add_argument(-lr-scheduler, typebool, defaultTrue)args parser.parse_args()if isinstance(args.device, int) and args.use_gpu:device torch.device(cuda: f{args.device})else:device torch.device(cpu)train_loader, test_loader, valid_loader, scaler_train, scaler_test, scaler_valid create_dataloader(args, device)# 实例化模型try:print(f开始初始化{args.model}模型)model TemporalConvNet(args.input_size,args.output_size, args.pre_len,args.model_dim, args.kernel_sizes).to(device)print(f开始初始化{args.model}模型成功)except:print(f开始初始化{args.model}模型失败)# 训练模型if args.train:print(f开始{args.model}模型训练)train(model, args, device)if args.inspect_fit:print(f开始检验{args.model}模型拟合情况)inspect_model_fit(model, args, train_loader, scaler_train)if args.predict:print(f预测未来{args.pre_len}条数据)predict(model, args, device, scaler_train)plt.show() 六、训练模型  我们配置好所有参数之后就可以开始训练模型了根据我前面讲解的参数部分进行配置不懂得可以评论区留言。 七、预测结果 7.1 预测未知数据效果图 TCN的预测效果图(这里我只预测了未来24个时间段的值为未来一天的预测值)- 7.2 测试集效果图  测试集上的表现(这个模型的测试集我还没有画图功能如有需要请催更)- 如果补充测试集的画图功能应该如下一样。 同时我也可以将输出结果用csv文件保存但是功能还没有做我在另一篇informer的文章里实习了这个功能大家如果有需要可以评论区留言有时间我会移植过来。 7.3 CSV文件生成效果图  另一篇文章链接-时间序列预测实战(十九)魔改Informer模型进行滚动长期预测科研版本结果可视化 将滚动预测结果生成了csv文件方便大家对比和评估以下是我生成的csv文件可以说是非常的直观。 我们可以利用其进行画图从而评估结果-  7.4 检验模型拟合效果图 检验模型拟合情况- (从下面的图片可以看出模型拟合的情况很好)  八、全文总结 到此本文的正式分享内容就结束了在这里给大家推荐我的时间序列专栏本专栏目前为新开的平均质量分98分后期我会根据各种最新的前沿顶会进行论文复现也会对一些老的模型进行补充目前本专栏免费阅读(暂时大家尽早关注不迷路~)如果大家觉得本文帮助到你了订阅本专栏关注后续更多的更新~ 专栏回顾 时间序列预测专栏——持续复习各种顶会内容——科研必备 如果大家有不懂的也可以评论区留言一些报错什么的大家可以讨论讨论看到我也会给大家解答如何解决最后希望大家工作顺利学业有成
http://www.hkea.cn/news/14292640/

相关文章:

  • 自助建站系统源码下载wordpress安卓源代码
  • 市场营销策划公司seo兼职
  • 网站上的付费文章怎么做wordpress中文cms
  • 潍坊路通工程建设有限公司网站wordpress每个文章底部
  • 政务信息公开和网站建设自评链接分析属于网站开发
  • 南阳网站seo淘宝联盟如何建设个人网站
  • 面试网站建设工程师直播app开发费用
  • 如何利用网站赚钱dw个人网站设计
  • 主流网站宽度做外贸seo优化的公司
  • 校园网站建设软件中国商业网点
  • 金利福珠宝的网站建设理念备案一个网站为什么需要域名
  • 济南手机网站建设电话WordPress行距太大
  • 手工视频制作网站网站设置了跳转被qq拦截
  • 做网站优化的工资有多高大棚网站建设
  • 怎么给别人做网站优化扁平化网站源码
  • 吉首自治州住房和城乡建设局网站html自学
  • 免费网站推广文章网站建站网站设计公司
  • 网站建设名列前茅网页制作三剑客不包括
  • 精品课程网站建设论文利用别人域名做自己的网站
  • 免费下载简历模板网站专门做推广的网站
  • 禅城网站建设代理邯郸网站设计联系电话
  • 网站程序开发制作十大品牌软件开发工程师简历
  • 邯郸市永年区做网站的公司沧州网站建没
  • 商城网站功能表网页设计模板素材图片简单
  • 阿里云服务器网站备份网络平台推广广告费用
  • 高端网站建站公司手机腾讯网
  • 做视频开头的外国网站wordpress 显示错误500
  • 做网站需要做数据库用mvc做网站报告
  • 页面编辑wordpresswordpress速度优化
  • 如何进行网站推广活动过程中国建设教育协会的网站