DQN算法:

基础入门看看

  1. # -*- coding: utf-8 -*-
  2. import random
  3. import gym
  4. import numpy as np
  5. from collections import deque
  6. from keras.models import Sequential
  7. from keras.layers import Dense
  8. from keras.optimizers import Adam
  9.  
  10. EPISODES = 1000
  11.  
  12. class DQNAgent:
  13. def __init__(self, state_size, action_size):
  14. self.state_size = state_size
  15. self.action_size = action_size
  16. self.memory = deque(maxlen=2000)
  17. self.gamma = 0.95 # discount rate
  18. self.epsilon = 1.0 # exploration rate
  19. self.epsilon_min = 0.01
  20. self.epsilon_decay = 0.995
  21. self.learning_rate = 0.001
  22. self.model = self._build_model()
  23.  
  24. def _build_model(self):
  25. # Neural Net for Deep-Q learning Model
  26. model = Sequential()
  27. model.add(Dense(24, input_dim=self.state_size, activation='relu'))
  28. model.add(Dense(24, activation='relu'))
  29. model.add(Dense(self.action_size, activation='linear'))
  30. model.compile(loss='mse',
  31. optimizer=Adam(lr=self.learning_rate))
  32. return model
  33.  
  34. def remember(self, state, action, reward, next_state, done):
  35. self.memory.append((state, action, reward, next_state, done))
  36.  
  37. def act(self, state):
  38. if np.random.rand() <= self.epsilon:
  39. return random.randrange(self.action_size)
  40. act_values = self.model.predict(state)
  41. return np.argmax(act_values[0]) # returns action
  42.  
  43. def replay(self, batch_size):
  44. minibatch = random.sample(self.memory, batch_size)
  45. for state, action, reward, next_state, done in minibatch:
  46. target = reward
  47. if not done:
  48. target = (reward + self.gamma *
  49. np.amax(self.model.predict(next_state)[0]))
  50. target_f = self.model.predict(state)
  51. print target_f
  52. print target
  53. target_f[0][action] = target
  54. self.model.fit(state, target_f, epochs=1, verbose=0)
  55. if self.epsilon > self.epsilon_min:
  56. self.epsilon *= self.epsilon_decay
  57.  
  58. def load(self, name):
  59. self.model.load_weights(name)
  60.  
  61. def save(self, name):
  62. self.model.save_weights(name)
  63.  
  64. if __name__ == "__main__":
  65. env = gym.make('CartPole-v1')
  66. state_size = env.observation_space.shape[0]
  67. action_size = env.action_space.n
  68. agent = DQNAgent(state_size, action_size)
  69. # agent.load("./save/cartpole-dqn.h5")
  70. done = False
  71. batch_size = 32
  72.  
  73. for e in range(EPISODES):
  74. state = env.reset()
  75. state = np.reshape(state, [1, state_size])
  76. for time in range(500):
  77. # env.render()
  78. action = agent.act(state)
  79. next_state, reward, done, _ = env.step(action)
  80. reward = reward if not done else -10
  81. print 'reward:',reward
  82. next_state = np.reshape(next_state, [1, state_size])
  83. agent.remember(state, action, reward, next_state, done)
  84. state = next_state
  85. if done:
  86. print("episode: {}/{}, score: {}, e: {:.2}"
  87. .format(e, EPISODES, time, agent.epsilon))
  88. break
  89. if len(agent.memory) > batch_size:
  90. agent.replay(batch_size)
  91. # if e % 10 == 0:
  92. # agent.save("./save/cartpole-dqn.h5")

DQN算法的更多相关文章

  1. 【强化学习】DQN 算法改进

    DQN 算法改进 (一)Dueling DQN Dueling DQN 是一种基于 DQN 的改进算法.主要突破点:利用模型结构将值函数表示成更加细致的形式,这使得模型能够拥有更好的表现.下面给出公式 ...

  2. DQN算法原理详解

    一. 概述 强化学习算法可以分为三大类:value based, policy based 和 actor critic. 常见的是以DQN为代表的value based算法,这种算法中只有一个值函数 ...

  3. 【转】【强化学习】Deep Q Network(DQN)算法详解

    原文地址:https://blog.csdn.net/qq_30615903/article/details/80744083 DQN(Deep Q-Learning)是将深度学习deeplearni ...

  4. 实现DQN算法玩CartPole

    先安装tensorflow 1.2版本和python 3.6, 接着安装: numpy-1.13.1+mkl-cp36-cp36m-win_amd64.whl 的版本,这个是windows下的,如果l ...

  5. 强化学习算法DQN

    1 DQN的引入 由于q_learning算法是一直更新一张q_table,在场景复杂的情况下,q_table就会大到内存处理的极限,而且在当时深度学习的火热,有人就会想到能不能将从深度学习中借鉴方法 ...

  6. 强化学习(十二) Dueling DQN

    在强化学习(十一) Prioritized Replay DQN中,我们讨论了对DQN的经验回放池按权重采样来优化DQN算法的方法,本文讨论另一种优化方法,Dueling DQN.本章内容主要参考了I ...

  7. 强化学习(十)Double DQN (DDQN)

    在强化学习(九)Deep Q-Learning进阶之Nature DQN中,我们讨论了Nature DQN的算法流程,它通过使用两个相同的神经网络,以解决数据样本和网络训练之前的相关性.但是还是有其他 ...

  8. 强化学习(十一) Prioritized Replay DQN

    在强化学习(十)Double DQN (DDQN)中,我们讲到了DDQN使用两个Q网络,用当前Q网络计算最大Q值对应的动作,用目标Q网络计算这个最大动作对应的目标Q值,进而消除贪婪法带来的偏差.今天我 ...

  9. 强化学习(九)Deep Q-Learning进阶之Nature DQN

    在强化学习(八)价值函数的近似表示与Deep Q-Learning中,我们讲到了Deep Q-Learning(NIPS 2013)的算法和代码,在这个算法基础上,有很多Deep Q-Learning ...

随机推荐

  1. SLAM入门之视觉里程计(2):相机模型(内参数,外参数)

    相机成像的过程实际是将真实的三维空间中的三维点映射到成像平面(二维空间)过程,可以简单的使用小孔成像模型来描述该过程,以了解成像过程中三维空间到二位图像空间的变换过程. 本文包含两部分内容,首先介绍小 ...

  2. C 真正理解二级指针

    本文转载自CSDN博主liaoxinmeng,做数据结构时遇到指针方面的问题,想了许久,因此我觉得很有必要复习一下二级指针及其使用 正文如下: 指针是C语言的灵魂,我想对于一级指针大家应该都很熟悉,也 ...

  3. 引言关于本博客的ES6

    本博客ES6全部取自于阮一峰的<ES6标准入门>里面掺杂着一些node.js,写这些东西是为了让大家更好的去理解这本书,其实更像是一个教材参考,里面有一些是阮一峰先生可能没有考虑到新手的某 ...

  4. VMware的一些总结

    一.虚拟主机联网的三种方式: 1.仅主机(Host Only),虚拟主机只能与宿主机联网通信,无法访问外网和宿主机所在局域网的其它主机. 2.桥接(Bridge),在桥接模式下,虚拟主机就像是宿主机所 ...

  5. qt关键字高亮

    qt的高亮显示主要是使用qsyntaxhighlighter类,由于qsyntaxhighlighter是抽象基类,所以需要继承并自己实现 //头文件 #ifndef MARKDOWN_HIGHLIG ...

  6. 童话故事 --- 什么是SQL Server Browser

    高飞狗这几天特别郁闷,不知该如何通过TCP/IP协议连接SQL Server数据库.好在功夫不负有心人,经过几天的刻苦研究,终于得到了答案. 高飞狗呼叫UDP1434端口,"叮铃铃,叮铃铃- ...

  7. php date函数

    PHP星期几获取代码: 1 date("l"); 2 //data就可以获取英文的星期比如Sunday 3 date("w"); 4 //这个可以获取数字星期比 ...

  8. 源码中的哲学——通过构建者模式创建SparkSession

    spark2.2在使用的时候使用的是SparkSession,这个SparkSession创建的时候很明显的使用了创建者模式.通过观察源代码,简单的模拟了下,可以当作以后编码风格的参考: 官方使用 i ...

  9. 完美解决浮动IE6 7中的兼容性BUG问题

    想要创建出漂亮的网页设计,除了要认真学习每一个html和CSS代码之外,不可能不去了解一下臭名昭著的IE6和更早的那些IE浏览器的坏脾气,因为你本来写出的规规矩矩的代码,漂亮的设计就此就要完成了,却发 ...

  10. SqlServer Lock_Escalation

    在今天的文章里,我想谈下SQL Server里锁升级(Lock Escalations).锁升级是SQL Server使用的优化技术,用来控制在SQL Server锁管理里把持锁的数量.我们首先用SQ ...