Termin | Einführung |
Std | Übung | vertiefende Themen |
Std | Übung |
7.10. | Überblick, Einführung | 1 | ||||
11.11. | Neuronale Netze | 2 | Übung 1 | Past Tense Models | 1 | |
20.11. | verteilte Repräsentationen | 2 | Deep Learning & Neocognitron | 1 | ||
25.11. | verteilte
Repräsentationen, Modelle des Lernens |
2 | Übung 2 | Place
Cells / Concept Cells |
1 | Übung 4 |
02.12. | Netze mit Schleifen, dyn. Systeme | 2 | Reinforcement
Learning |
1 |
Übung 5 | |
09.12. | State
Spaces & Chomsky Hierarchy, Chaos-Modelle, liquid state
machines |
3 | ||||
18.12. | Spiking Neurons, compartmental | 2 | Übung 3 | Synchronisation | 1 | Übung 6 |
8.1. | Übungsbesprechung |
2 | ||||
22.1. |
Informatik in Neurologie |
1 |
"Mind Reading" with fMRI | 1 |
||
27.1. | Test | 1 | Test | 1 |
Zeit für die Ausarbeitung: jeweils mindestens 2 Wochen
R. Legenstein and W. Maass. What
makes a dynamical system computationally powerful?. In
New Directions in Statistical Signal
Processing: From Systems to Brains, S. Haykin,
J. C. Principe, T.J. Sejnowski, and J.G. McWhirter,
editors, pages 127-154. MIT
Press,
2007.
Pollack J.: Recursive distributed representations. Artificial Intelligence, 46(1-2):77-105, 1990.
Referenz zur Backpropagation:
Referenzen zu Brain Imaging: