当前位置: 首页 > news >正文

销售产品网站有哪些wordpress 多个分类查找

销售产品网站有哪些,wordpress 多个分类查找,企业宣传网站模板下载,网站的搜索框如何做一、值迭代过程 上面是贝尔曼最优公式#xff0c;之前我们说过#xff0c;f(v)v#xff0c;贝尔曼公式是满足contraction mapping theorem的#xff0c;能够求解除它最优的策略和最优的state value#xff0c;我们需要通过一个最优v*#xff0c;这个v*来计算状态pi*…一、值迭代过程 上面是贝尔曼最优公式之前我们说过f(v)v贝尔曼公式是满足contraction mapping theorem的能够求解除它最优的策略和最优的state value我们需要通过一个最优v*这个v*来计算状态pi*而vk通过迭代就可以求出唯一的这个v*而这个算法就叫做值迭代。V(s)是状态s的最优价值R是在状态s时执行动作a可获得的y是折扣因子(衰减系数)还有状态概率矩阵P 1.1 初始化状态价值函数 我们说过这个函数有两个未知量。v与pi因此要计算最优策略我们就需要先假设一个初始值。选择一个初始值先来表示每个状态的价值。假设我们就可以设置所有价值V(s)都为0 1.2 迭代更新价值函数 使用贝尔曼最优方程更新状态价值函数对于与每个状态s计算改状态下所有可能的动作a下的期望值然后选择最大值作为新的状态价值函数。Vk是第k次迭代时s的状态他会更新为k1直到k1是最优时刻为止具体的更新公式为 这上面就包含了所说了两个步骤 第一步 ploicy update 第二部 value update 每次更新一个pik1之后代入就可以得到迭代后的vk1但是这里有个点迭代过程中左侧他是vk1所以他并不是我们所说的state value他是一个值 1.2.1 Ploicy update 我们把上面的公式具体的拆成每个状态对应的element得到 vk是已知的(假设了v0假设现在就是v0求pi1)那么qk(s,a)  (q1)是已知的最优策略就会选取qk最大时的action其他行动为0这样就只与q(s,a)相关那么pik1就知道了就是pik1(s)最大的一个 1.2.2 Value update 对于其elementwise form  按照迭代顺序写出每一个值从1.2.1我们就可以知道qk(s,a)是能求出的注意一点策略迭代里面求出了最大的value对应的state那么我们就知道这个pik1求出最后的结果 1.3 判断收敛性 每次迭代后检查状态价值函数的变化。如果状态价值变化小于某个阈值例如 ϵ\epsilonϵ则认为收敛可以终止迭代。常见的收敛条件是 通常    是一个小的正数用于表示精度要求。如果状态价值函数的变化足够小算法收敛。 根据例子给出一个python代码 import numpy as np# 初始化参数 gamma 0.9 # 折扣因子 epsilon 1e-6 # 收敛阈值 max_iterations 1000 # 最大迭代次数 S 4 # 状态空间大小 A 5 # 动作空间大小# 转移概率矩阵 P(s|s, a) - 4x5x4 的三维矩阵 P np.zeros((S, A, S))## 顺时针行动 # 奖励函数 R(s, a) - 4x5 的矩阵 R np.array([[-1, 4, -1, -1, -1],[-1, 4, -1, -1, -1],[4, -1, -1, -1, -1],[-1, -1, -1, -1, 1]])# 转移概率矩阵 # 动作 a1 P[:, 0, :] np.array([[0.8, 0.1, 0.1, 0],[0.1, 0.8, 0.1, 0],[0.2, 0.2, 0.6, 0],[0, 0, 0, 1]])# 动作 a2 P[:, 1, :] np.array([[0.6, 0.3, 0.1, 0],[0.1, 0.7, 0.2, 0],[0.3, 0.3, 0.4, 0],[0, 0, 0, 1]])# 动作 a3 P[:, 2, :] np.array([[0.7, 0.2, 0.1, 0],[0.1, 0.8, 0.1, 0],[0.2, 0.2, 0.6, 0],[0, 0, 0, 1]])# 动作 a4 P[:, 3, :] np.array([[0.5, 0.4, 0.1, 0],[0.2, 0.7, 0.1, 0],[0.4, 0.4, 0.2, 0],[0, 0, 0, 1]])# 动作 a5 P[:, 4, :] np.array([[0.9, 0.05, 0.05, 0],[0.05, 0.9, 0.05, 0],[0.1, 0.1, 0.8, 0],[0, 0, 0, 1]])# 初始化状态价值函数 V(s) V np.zeros(S)# 记录最优策略 pi np.zeros(S, dtypeint)# 值迭代算法 for k in range(max_iterations):V_new np.zeros(S)delta 0 # 最大值变化# 遍历每个状态for s in range(S):# 对每个动作计算期望回报value -float(inf) # 当前最大回报初始化为负无穷for a in range(A):# 计算该动作下的期望回报expected_return R[s, a] gamma * np.sum(P[s, a, :] * V)value max(value, expected_return) # 保持最大的期望回报# 更新当前状态的价值V_new[s] valuedelta max(delta, abs(V_new[s] - V[s])) # 计算状态价值的变化# 更新状态价值V V_new# 如果变化小于 epsilon认为收敛if delta epsilon:break# 根据最优状态价值函数计算最优策略 for s in range(S):max_value -float(inf)best_action -1for a in range(A):# 计算每个动作下的期望回报expected_return R[s, a] gamma * np.sum(P[s, a, :] * V)if expected_return max_value:max_value expected_returnbest_action api[s] best_action# 输出结果 print(最优状态价值函数 V*(s):) print(V)print(最优策略 pi*(s):) print(pi)MATLAB实现 % 初始化参数 gamma 0.9; % 折扣因子 epsilon 1e-6; % 收敛阈值 max_iterations 1000; % 最大迭代次数 S 4; % 状态空间大小 A 5; % 动作空间大小% 转移概率矩阵 P(s|s, a) - 4x5x4 的三维矩阵 P zeros(S, A, S);% 奖励函数 R(s, a) - 4x5 的矩阵 R [-1, 4, -1, -1, -1;-1, 4, -1, -1, -1;4, -1, -1, -1, -1;-1, -1, -1, -1, 1];% 转移概率矩阵 % 动作 a1 P(:, 1, :) [0.8, 0.1, 0.1, 0; 0.1, 0.8, 0.1, 0; 0.2, 0.2, 0.6, 0; 0, 0, 0, 1];% 动作 a2 P(:, 2, :) [0.6, 0.3, 0.1, 0;0.1, 0.7, 0.2, 0;0.3, 0.3, 0.4, 0;0, 0, 0, 1];% 动作 a3 P(:, 3, :) [0.7, 0.2, 0.1, 0;0.1, 0.8, 0.1, 0;0.2, 0.2, 0.6, 0;0, 0, 0, 1];% 动作 a4 P(:, 4, :) [0.5, 0.4, 0.1, 0;0.2, 0.7, 0.1, 0;0.4, 0.4, 0.2, 0;0, 0, 0, 1];% 动作 a5 P(:, 5, :) [0.9, 0.05, 0.05, 0;0.05, 0.9, 0.05, 0;0.1, 0.1, 0.8, 0;0, 0, 0, 1];% 初始化状态价值函数 V(s) V zeros(S, 1);% 记录最优策略 pi zeros(S, 1);% 值迭代算法 for k 1:max_iterationsV_new zeros(S, 1);delta 0; % 最大值变化% 遍历每个状态for s 1:S% 对每个动作计算期望回报value -Inf; % 当前最大回报初始化为负无穷for a 1:A% 计算该动作下的期望回报expected_return R(s, a) gamma * sum(squeeze(P(s, a, :)) .* V);value max(value, expected_return); % 保持最大的期望回报end% 更新当前状态的价值V_new(s) value;delta max(delta, abs(V_new(s) - V(s))); % 计算状态价值的变化end% 更新状态价值V V_new;% 如果变化小于 epsilon认为收敛if delta epsilonbreak;end end% 根据最优状态价值函数计算最优策略 for s 1:Smax_value -Inf;best_action -1;for a 1:A% 计算每个动作下的期望回报expected_return R(s, a) gamma * sum(squeeze(P(s, a, :)) .* V);if expected_return max_valuemax_value expected_return;best_action a;endendpi(s) best_action; end% 输出结果 disp(最优状态价值函数 V*(s):); disp(V);disp(最优策略 pi*(s):); disp(pi);修改奖励与衰减系数可得到不同V
http://www.hkea.cn/news/14298949/

相关文章:

  • 吴忠网站建设报价怎样学网站建设
  • 企业门户网站怎么做WordPress文章添加动态背景
  • 湘潭租房网站靖江网站设计
  • 科协网站建设的意见用帝国cms做门户网站
  • 网站服务器怎么看是哪个厂家的创意广告图片及文字解析
  • 浏览器 网络 网站营销思路八大要点
  • 营销网站解决方案学院网站设计案例
  • 网站制作公司网站建设网站沈阳曙光医院看男科怎么样
  • 移动网站优化外贸网站示例
  • 开发网站的空间分录网站开发中应注意哪些问题
  • 百度搜索搜不到网站公司注册网上怎样注册
  • 权威的公司网站制作windows系统的vps网站防攻击
  • 清理网站后台缓存wap网站 链接微信
  • 华建设计网站wordpress文章目录插件
  • p2p网站建设资质门户网站建设经验总结报告
  • 中山网站制作专业石家庄网站优化招聘
  • 工商局网站建设查不到维护网站要做哪些工作
  • 行业网站做的好的杭州app开发公司定制外包
  • 做分色找工作网站产品做国外网站有哪些
  • 合肥建设企业网站做网站是否要去工商备案
  • 百度网站开发wordpress 一栏主题
  • 手机制作网站免费建设个人网上银行登录入口官网
  • jsp网站开发学习心得设计家网站
  • 四川网站建设和优化wordpress 雅黑字体
  • 如何建立网站管理系统如何创建一个网站0元
  • 成都记者留言网站网站seo步骤
  • 网站的网站维护的原因企业服务包括哪些方面
  • 做网站优化需要多少钱组织建设一百年全文
  • 怎么做网站关键词排名怎么使网站降权
  • 不良网站进入窗口免费正能量收费电影网站怎么做