Skip to content

Commit

Permalink
initial commit
Browse files Browse the repository at this point in the history
  • Loading branch information
Naresh1318 committed Dec 7, 2017
1 parent 49e5354 commit 34427f4
Show file tree
Hide file tree
Showing 6 changed files with 1,338 additions and 0 deletions.
33 changes: 33 additions & 0 deletions mission_control_breakout_ram.py
Original file line number Diff line number Diff line change
@@ -0,0 +1,33 @@
########################################################################################################################
# Training
learning_rate = 0.00025
batch_size = 32
observation_time = int(1e6) # 1e3
rand_observation_time = int(5e4) # 5e2
target_network_update = int(1e4) # 1e3
prob_random = 1
gamma = 0.99
n_episodes = int(2e4) # 10
fit_epochs = 1
weight_init = 0.01
momentum = 0.95
epsilon = 0.01


########################################################################################################################
# Agent Model
dense_1 = 400
dense_2 = 180
dense_3 = 100


########################################################################################################################
# Control
train_model = True
show_ui = True
show_action = False


########################################################################################################################
# Paths
logdir = "./Results/Breakout_ram/" # Use: "./Results/CartPole/", "./Results/Breakout/"
33 changes: 33 additions & 0 deletions mission_control_pacman_ram.py
Original file line number Diff line number Diff line change
@@ -0,0 +1,33 @@
########################################################################################################################
# Training
learning_rate = 0.0025
batch_size = 32
observation_time = int(5e5) # 1e3
rand_observation_time = int(10e3) # 5e2
target_network_update = int(1e3) # 1e3
prob_random = 1
gamma = 0.90
n_episodes = int(2e4) # 10
fit_epochs = 1
weight_init = 0.01
momentum = 0.95
epsilon = 0.01


########################################################################################################################
# Agent Model
dense_1 = 400
dense_2 = 180
dense_3 = 100


########################################################################################################################
# Control
train_model = True
show_ui = False
show_action = False


########################################################################################################################
# Paths
logdir = "./Results/Pacman_ram/" # Use: "./Results/CartPole/", "./Results/Breakout/"
38 changes: 38 additions & 0 deletions mission_control_pong.py
Original file line number Diff line number Diff line change
@@ -0,0 +1,38 @@
########################################################################################################################
# Training
learning_rate = 0.00025
batch_size = 32
observation_time = int(1e6) # 1e3
rand_observation_time = int(5e4) # 5e2
target_network_update = int(1e4) # 1e3
prob_random = 1
gamma = 0.99
n_episodes = int(2e4) # 10
fit_epochs = 1
weight_init = 0.01
momentum = 0.95
epsilon = 0.01


########################################################################################################################
# Agent Model
conv_1 = [8, 8, 4, 32]
stride_1 = [1, 4, 4, 1]
conv_2 = [4, 4, 32, 64]
stride_2 = [1, 2, 2, 1]
conv_3 = [3, 3, 64, 64]
stride_3 = [1, 1, 1, 1]
dense_1 = 512
dense_2 = 6


########################################################################################################################
# Control
train_model = True
show_ui = True
show_action = False


########################################################################################################################
# Paths
logdir = "./Results/Pong/" # Use: "./Results/CartPole/", "./Results/Breakout/"
Loading

0 comments on commit 34427f4

Please sign in to comment.