[PYTHON] Verstärkungslernen 9 ChainerRL Magic Remodeling

Es wird davon ausgegangen, dass Sie die Stärkung des Lernens abgeschlossen haben 8.

In Strengthing Learning 8 wurde die Chainer-Benutzeroberfläche umgestaltet. Das ist in Ordnung, aber diesmal mache ich dasselbe mit ChainerRL.

Zuerst, userFolder/anaconda3/envs/chainer/lib/python3.7/site-packages/chainerrl/experiments/evaluator.py Ändern Sie die 31. Zeile von.

Vorher ändern

_basic_columns = ('steps', 'episodes', 'elapsed', 'mean',
                  'median', 'stdev', 'max', 'min')

Nach der veränderung

_basic_columns = ('step', 'episode', 'elapsed_time', 'mean',
                  'median', 'stdev', 'max', 'min')

Dadurch wird der Header score.txt geändert, sodass Sie die ChainerRL nicht ändern müssen.

der andere ist, userFolder / anaconda3 / envs / chainer / lib / python3.7 / site-packages / chainerrl / Experiments / train_agent.py Fügen Sie es am Ende der Funktion def train_agent_with_evaluation in Zeile 93 hinzu. Da Python mit Einrückungen arbeitet, müssen Sie beim Einrücken vorsichtig sein.

    json_list = []

    with open(os.path.join(outdir, 'scores.txt'), 'r') as f:
        for row in csv.DictReader(f,delimiter='\t'):
            for key in row:
                row[key]=float(row[key])
            json_list.append(row)
    with open(os.path.join(outdir, 'log'), 'w') as f:
        json.dump(json_list, f)

Fügen Sie auch Import hinzu.

import json
import csv

Wenn Sie es umbauen, können Sie es leicht auf der normalen Chainer-Benutzeroberfläche sehen. Ich hoffe, dass die Chainer RL-Kopffamilie es auch unterstützt. Da Fenster etwas anders sind, werde ich sie in Enhanced Learning 12 zusammen schreiben.

Recommended Posts

Verstärkungslernen 9 ChainerRL Magic Remodeling
Stärkung des Lernens 18 Colaboratory + Acrobat + ChainerRL
Stärkung des Lernens 17 Colaboratory + CartPole + ChainerRL
Stärkung des Lernens 28 colaboratory + OpenAI + chainerRL
Stärkung des Lernens 19 Colaboratory + Mountain_car + ChainerRL
Stärkung des Lernens 2 Installation von Chainerrl
Stärkung des Lernens 20 Colaboratory + Pendulum + ChainerRL
Lernen stärken 13 Probieren Sie Mountain_car mit ChainerRL aus.
Stärkung des Lernens 22 Colaboratory + CartPole + ChainerRL + A3C
Stärkung des Lernens 24 Colaboratory + CartPole + ChainerRL + ACER
[Einführung] Stärkung des Lernens
Zukünftiges Verstärkungslernen_2
Zukünftiges Verstärkungslernen_1
Stärkung des Lernens 14 Pendel wurde bei ChainerRL durchgeführt.
Stärkung des Lernens 11 Probieren Sie OpenAI Acrobot mit ChainerRL aus.
Stärkung des Lernens 12 ChainerRL-Kurzanleitung Windows-Version
Verstärkungslernen 27 kollaborative 90-Minuten-Regel misst chainerRL (+ chokozainerRL)
Erweitertes Lernen 1 Python-Installation
Stärkung des Lernens 3 OpenAI-Installation
[Lernen stärken] Banditenaufgabe
Python + Unity Enhanced Learning (Lernen)
Stärkung des Lernens 1 Einführungsausgabe
[Lernen stärken] Tracking durch Multi-Agent
Stärkung des Lernens 6 First Chainer RL
Verbessertes Lernen ab Python
Verstärkungslernen 5 Versuchen Sie, CartPole zu programmieren?
Lernen stärken Lernen Sie von heute
Stärkung des Lernens 4 CartPole erster Schritt
Tiefe Stärkung des Lernens 1 Einführung in die Stärkung des Lernens
Tiefes Lernen der Verstärkung 2 Implementierung des Lernens der Verstärkung
DeepMind Enhanced Learning Framework Acme
Verstärktes Lernen: Beschleunigen Sie die Wertiteration
Ich habe mit ChainerRL Deep Enforcement Learning (Double DQN) ausprobiert
TF2RL: Erweiterte Lernbibliothek für TensorFlow2.x
Verstärkungslernen 34 Erstellen Sie fortlaufende Agentenvideos
Python + Unity Verbesserte Erstellung von Lernumgebungen
Entdecken Sie das Labyrinth mit erweitertem Lernen
Stärkung des Lernens 8 Versuchen Sie, die Chainer-Benutzeroberfläche zu verwenden
Verstärkungslernen 3 Dynamische Planungsmethode / TD-Methode
Deep Strengthing Learning 3 Praktische Ausgabe: Block Breaking
Ich habe versucht, mit PyBrain verstärkt zu lernen
Lerne beim Machen! Tiefes Verstärkungslernen_1