当前位置: 首页 > news >正文

深圳网站建设工作社交电商app开发

深圳网站建设工作,社交电商app开发,263企业邮箱登录首页,网站公告设计目录 1 实验数据集 2 如何运行自己的数据集 3 报错分析 1 实验数据集 实验数据集采用数据集4#xff1a;2016年电工数学建模竞赛负荷预测数据集#xff08;下载链接#xff09;#xff0c;数据集包含日期、最高温度℃ 、最低温度℃、平均温度℃ 、相对湿度(平均) 、降雨…目录 1 实验数据集 2 如何运行自己的数据集 3 报错分析 1 实验数据集 实验数据集采用数据集42016年电工数学建模竞赛负荷预测数据集下载链接数据集包含日期、最高温度℃ 、最低温度℃、平均温度℃ 、相对湿度(平均) 、降雨量mm、日需求负荷KWh时间间隔为1H。 在使用数据之前相对数据进行处理用其他数据集时也是同样的处理方法。首先读取数据发数据不是UTF-8格式通过添加encoding gbk读取数据模型传入的数据必须是UTF-8格式。 df pd.read_table(E:\\课题\\08数据集\\2016年电工数学建模竞赛负荷预测数据集\\2016年电工数学建模竞赛负荷预测数据集.txt,encoding gbk) 然后检查数据是否有缺失值 df.isnull().sum() 发现数据存在少量缺失值分析数据特点可以通过前项或后项填充填补缺失值 df df.fillna(methodffill) 后面需要将表格列名改为英文时间列名为date不然后面运行时会报错 df.columns [date,max_temperature(℃),Min_temperature(℃ ),Average_temperature(℃),Relative_humidity(average),Rainfall(mm),Load] 最后将数据按UTF-8格式保存 load.to_csv(E:\\课题\\08数据集\\2016年电工数学建模竞赛负荷预测数据集\\2016年电工数学建模竞赛负荷预测数据集_处理后.csv, indexFalse,encoding utf-8) 最后可视化看一下数据 # 可视化 load.drop([date], axis1, inplaceTrue) cols list(load.columns) fig plt.figure(figsize(16,6)) plt.tight_layout() plt.subplots_adjust(leftNone, bottomNone, rightNone, topNone, wspaceNone, hspace0.8) for i in range(len(cols)):ax fig.add_subplot(3,2,i1)ax.plot(load.iloc[:,i])ax.set_title(cols[i])# plt.subplots_adjust(hspace1) 2 如何运行自己的数据集 前面两篇文章介绍了论文的原理、代码解析和官方数据集训练和运行那么大家在利用模型训练自己的数据集的时候需要修改的几处地方。 parser.add_argument(--data, typestr, defaultcustom, helpdata) parser.add_argument(--root_path, typestr, default./data/Load/, helproot path of the data file) parser.add_argument(--data_path, typestr, defaultload.csv, helpdata file) parser.add_argument(--features, typestr, defaultMS, helpforecasting task, options:[M, S, MS]; M:multivariate predict multivariate, S:univariate predict univariate, MS:multivariate predict univariate) parser.add_argument(--target, typestr, defaultLoad, helptarget feature in S or MS task) parser.add_argument(--freq, typestr, defaulth, helpfreq for time features encoding, options:[s:secondly, t:minutely, h:hourly, d:daily, b:business days, w:weekly, m:monthly], you can also use more detailed freq like 15min or 3h) data必须填写 defaultcustom也就是改为自定义的数据root_path填写数据文件夹路径data_path填写具体的数据文件名features前面有讲解features有三个选项MMSS分别是多元预测多元多元预测单元单元预测单元具体是看你自己的数据集。target就是你数据集中你想要知道那列的预测值的列名这里改为Loadfreq就是你两条数据之间的时间间隔。 parser.add_argument(--seq_len, typeint, default96, helpinput sequence length of Informer encoder) parser.add_argument(--label_len, typeint, default48, helpstart token length of Informer decoder) parser.add_argument(--pred_len, typeint, default24, helpprediction sequence length) seq_len用过去的多少条数据来预测未来的数据label_len可以裂解为更高的权重占比的部分要小于seq_lenpred_len预测未来多少个时间点的数据 parser.add_argument(--enc_in, typeint, default6, helpencoder input size) parser.add_argument(--dec_in, typeint, default6, helpdecoder input size) parser.add_argument(--c_out, typeint, default1, helpoutput size) enc_in你数据有多少列,要减去时间那一列这里我是输入8列数据但是有一列是时间所以就填写7dec_in同上c_out这里有一些不同如果你的features填写的是M那么和上面就一样如果填写的MS那么这里要输入1因为你的输出只有一列数据。 ## 解析数据集的信息 ## # 字典data_parser中包含了不同数据集的信息键值为数据集名称ETTh1等对应一个包含.csv数据文件名 # 目标特征、M、S和MS等参数的字典 data_parser {ETTh1:{data:ETTh1.csv,T:OT,M:[7,7,7],S:[1,1,1],MS:[7,7,1]},ETTh2:{data:ETTh2.csv,T:OT,M:[7,7,7],S:[1,1,1],MS:[7,7,1]},ETTm1:{data:ETTm1.csv,T:OT,M:[7,7,7],S:[1,1,1],MS:[7,7,1]},ETTm2:{data:ETTm2.csv,T:OT,M:[7,7,7],S:[1,1,1],MS:[7,7,1]},WTH:{data:WTH.csv,T:WetBulbCelsius,M:[12,12,12],S:[1,1,1],MS:[12,12,1]},ECL:{data:ECL.csv,T:MT_320,M:[321,321,321],S:[1,1,1],MS:[321,321,1]},Solar:{data:solar_AL.csv,T:POWER_136,M:[137,137,137],S:[1,1,1],MS:[137,137,1]},Custom:{data:load.csv,T:Load,M:[137,137,137],S:[1,1,1],MS:[6,6,1]}, } 预测结果保存在result文件下保存格式为numpy可以通过下面的脚本进行可视化预测结果 import numpy as np import pandas as pd import matplotlib.pyplot as plt# 指定.npy文件路径 file_path1 results/informer_ETTh1_ftM_sl96_ll48_pl24_dm512_nh8_el2_dl1_df2048_atprob_fc5_ebtimeF_dtTrue_mxTrue_test_0/true.npy file_path2 results/informer_ETTh1_ftM_sl96_ll48_pl24_dm512_nh8_el2_dl1_df2048_atprob_fc5_ebtimeF_dtTrue_mxTrue_test_1/pred.npy# 使用NumPy加载.npy文件 true_value [] pred_value [] data1 np.load(file_path1) data2 np.load(file_path2) print(data2) for i in range(24):true_value.append(data2[0][i][6])pred_value.append(data1[0][i][6])# 打印内容 print(true_value) print(pred_value)#保存数据 df pd.DataFrame({real: true_value, pred: pred_value}) df.to_csv(results.csv, indexFalse)#绘制图形 fig plt.figure(figsize( 16, 8)) plt.plot(df[real], markero, markersize8) plt.plot(df[pred], markero, markersize8) plt.tick_params(labelsize 28) plt.legend([real,pred],fontsize28) plt.show() 最后预测的效果如下发现并不是太好后续看参数调优后是否能提升模型预测效果。  3 报错分析 报错1UnicodeDecodeError: utf-8 codec cant decode bytes in position 56-57: invalid continuation byte具体来说utf-8 编解码器无法解码文件中的某些字节因为它们不符合 UTF-8 编码的规则。 File D:\Progeam Files\python\lib\site-packages\pandas\io\parsers\c_parser_wrapper.py, line 93, in __init__self._reader parsers.TextReader(src, **kwds)File pandas\_libs\parsers.pyx, line 548, in pandas._libs.parsers.TextReader.__cinit__File pandas\_libs\parsers.pyx, line 637, in pandas._libs.parsers.TextReader._get_headerFile pandas\_libs\parsers.pyx, line 848, in pandas._libs.parsers.TextReader._tokenize_rowsFile pandas\_libs\parsers.pyx, line 859, in pandas._libs.parsers.TextReader._check_tokenize_statusFile pandas\_libs\parsers.pyx, line 2017, in pandas._libs.parsers.raise_parser_error UnicodeDecodeError: utf-8 codec cant decode bytes in position 56-57: invalid continuation byte 解决办法 (1) 根据提示要将数据更改utf-8格式最简便的方法将数据用记事本打开另存为是通过UTF-8格式保存   (2) 尝试使用其他编解码器如 latin1来读取文件或者在读取文件时指定正确的编码格式。 报错2ValueError: list.remove(x): x not in list试从列表中删除两个元素但是这两个元素中至少有一个不在列表中。 File E:\课题\07代码\Informer2020-main\Informer2020-main\data\data_loader.py, line 241, in __read_data__ cols list(df_raw.columns); cols.remove(self.target); cols.remove(date) ValueError: list.remove(x): x not in list 解决办法在没有找到具体原因的时候可以在删除元素之前先检查一下列表中是否包含要删除的元素或者使用 try-except 语句来捕获异常以便在元素不存在时不会导致程序中断。通过检查数据中的列名最好改为英文避免产生乱码。 if self.cols:colsself.cols.copy()cols.remove(self.target) else:# 添加调试信息cols list(df_raw.columns)print(cols) # 输出列的内容if self.target in cols:cols.remove(self.target)else:print(f{self.target} not in columns)if date in cols:cols.remove(date)else:print(date not in columns)# 添加调试信息cols list(df_raw.columns); cols.remove(self.target); cols.remove(date) df_raw df_raw[[date]cols[self.target]]
http://www.hkea.cn/news/14549876/

相关文章:

  • 网站为什么没有被收录杭州云优化信息技术有限公司
  • 申请免费网站多少钱机械产品做那几个网站好
  • 毕业设计网站怎么做人力资源管理师
  • nike网站建设方案网站管理助手4.0破解
  • 张家港网站制作哪家好jsp做网站下载图片
  • 郑州网站搭建加快wordpress图片的插件
  • 天津做公司的网站网站顶部导航文件代码在吗
  • 江门微信网站建设郑州新闻发布会最新消息今天
  • 百度中搜到网站名字广告视频制作公司
  • jsp网站入门广元市网站建设
  • 南京网站设计搭建公司微信公众账号登录官网
  • 黄山建设工程信息网站专业网站开发公司
  • 北京网站推广营销服务电话珲春建设银行网站
  • 网站后台删除二级栏目搜索引擎seo关键词优化
  • 提高wordpress网站wordpress企业汉化主题
  • 知名网站建设推荐深圳定制巴士怎么预约
  • 网站编辑外包网站后台开发 必备技能
  • 网站 网页区别是什么做网站投广告攻略
  • 海淀做网站哪家公司好门户网站项目开发案例
  • 有后天管理的网站怎么建设建设网站空间合同
  • 网站推广app软件下载国际网站平台
  • dnf怎么做提卡网站wordpress 什么值得买主题
  • 什么样的资质做电子商务网站上海浦东网站建设
  • 策划人网站广东企业信息查询系统
  • 定州网站建设电话网站建设程序都有哪些
  • 网站建设合同附件网站首页制作采用
  • 网站优化定做营销推广包括什么
  • 网站建设联雅网站高速下载如何做
  • 建设工程考试官方网站做网站上传视频
  • 有没有做网站源代码 修改的wordpress 修改样式