2023 gestartet. Fokus auf das, was wirklich funktioniert.
Keine theoretischen Exkurse ohne Praxis. Keine vorgefertigten Templates ohne Erklärung. Nur konkrete Workshops, bei denen du jede Schicht selbst baust und verstehst, warum sie so strukturiert ist.
Unsere Teilnehmer kommen aus 17 Ländern. Manche arbeiten bereits mit ML-Systemen, andere fangen bei den Basics an. Alle lernen durch direktes Experimentieren.
Jeder Workshop beginnt mit einem funktionierenden Minimal-Netzwerk. Dann fügen wir Layer für Layer hinzu, testen nach jeder Änderung und sehen sofort, was sich verbessert oder verschlechtert.
Du arbeitest mit realen Daten, nicht mit Spielzeugbeispielen. Bilderkennung mit ImageNet-Subsets, Textklassifikation mit echten Reviews, Zeitreihenanalyse mit Börsendaten.
Wir zeigen absichtlich, was passiert, wenn man bestimmte Designentscheidungen trifft. Overfitting durch zu viele Parameter, Vanishing Gradients bei tiefen Netzen, falsche Aktivierungsfunktionen.
Zweimal pro Woche durchlaufen wir Teilnehmer-Implementierungen live. Du siehst verschiedene Lösungsansätze für dasselbe Problem und lernst, welche Patterns sich bewährt haben.
CNNs gegen ViTs für Bildverarbeitung. LSTMs gegen Transformer für Sequenzen. Wir implementieren beide Varianten parallel und messen die Unterschiede in Training-Zeit und Genauigkeit.
Ein funktionierendes Modell ist nur der Anfang. Wir optimieren für Inference-Speed, quantisieren Weights, konvertieren zu ONNX und testen auf verschiedenen Hardware-Setups.
Keine große Organisation, kein Corporate-Apparat. Ein kleines Team von Leuten, die jahrelang mit neuronalen Netzen gearbeitet haben und jetzt zeigen wollen, wie das wirklich funktioniert – ohne Marketing-Versprechen.
Lead Instructor & Platform-Entwickler
Sechs Jahre Research an der TU München, hauptsächlich Computer Vision. Hat an Objekterkennung für autonome Systeme gearbeitet, dann festgestellt, dass er lieber erklärt als forscht.
2023
Wir haben mit acht Teilnehmern angefangen. Vier Wochen intensive CNN-Architektur. Das Format war noch sehr starr, aber die Rückmeldungen zeigten klar: Leute wollen mehr praktische Fehlersuche und weniger Theorie-Slides.
2024
Statt monolithischer Kurse haben wir auf fokussierte Workshops umgestellt. Jeder behandelt ein spezifisches Thema: Attention-Mechanismen, Batch-Normalization, Learning-Rate-Scheduling. Teilnehmer können gezielt das auswählen, was sie brauchen.
2025
Der größte Durchbruch war, als wir angefangen haben, echte Probleme live zu debuggen. Ein Teilnehmer bringt sein nicht-konvergierendes Netzwerk mit, wir analysieren gemeinsam Gradients, Learning-Curves und Daten-Distribution.
Aktuell
Wir erweitern gerade um Graph Neural Networks und Self-Supervised Learning. Die ersten Beta-Workshops laufen bereits mit Teilnehmern, die spezifisch diese Architekturen brauchen.
Wir verwenden Cookies, um Ihre Erfahrung auf unserer Website zu verbessern. Bitte wählen Sie Ihre Präferenzen.