Programmieren ist sowohl Handwerk als auch Werkzeug – ich entwickle gut strukturierte, zuverlässige Systeme, die den Alltag still und leise verbessern. Mein Schwerpunkt liegt auf Backend-Entwicklung und KI/ML, wobei ich Wert auf eine saubere Architektur, praktische Schnittstellen und leicht verständliche Tools lege.
Ich arbeite hauptsächlich mit Python und betreibe meine Dienste in ordentlichen Docker-Containern auf meinem Heimserver. Linux ist ein fortlaufendes Projekt, bei dem ich jedes Detail so lange optimiere, bis das System genau das tut, was ich möchte. Ich schreibe pragmatischen, lesbaren Code, der unnötige Abhängigkeiten vermeidet – einfach genug, um ihn zu verstehen, spezifisch genug, um echte Probleme zu lösen, und immer mit Blick auf zukünftige Erweiterbarkeit.
Mein Interesse an KI basiert auf praktischer Arbeit. Für meine Bachelorarbeit habe ich ein neuronales Netzwerk von Grund auf in Python und Rust implementiert und einen benutzerdefinierten Benchmark entwickelt, um die Kompromisse zwischen Leistung und Präzision bei diesen Implementierungen zu untersuchen.
Außerhalb der Technik finde ich Klarheit in der Fotografie und der Natur – ein Auge für Licht, Struktur und Details bringt zusätzliche Präzision in meinen Code. Viele meiner Nebenprojekte beginnen klein, entwickeln sich aber nach und nach zu robusten Werkzeugen.
Lass dir Zeit beim Umsehen.
2 Monate (Dez 2024 - Jan 2025)
Kubernetes, K3s, ArgoCD, GitOps, GitHub Actions, Docker, Prometheus, Grafana, Proxmox, CI/CD, DevOps
Aufbau einer vollständigen Kubernetes-Infrastruktur von Grund auf in Proxmox, um DevOps-Praktiken durch praktische Umsetzung statt reinem Tutorial-Folgen zu erlernen.
Implementierung eines 3-Node K3s-Clusters mit High-Availability-Deployment-Patterns, privater Docker-Registry und self-hosted GitHub Actions Runner, um die gesamte Pipeline im lokalen Netzwerk zu halten.
Etablierung eines GitOps-Workflows mit ArgoCD für automatisierte Deployments - Code-Änderungen triggern die CI/CD-Pipeline, aktualisieren Manifeste in Git, und ArgoCD synchronisiert automatisch zum Cluster (~5 Minuten von Push bis Production).
Konfiguration eines umfassenden Monitorings mit Prometheus und Grafana, inklusive Custom Application Metrics via FastAPI-Instrumentierung und ServiceMonitor-Konfiguration.
Lösung realer Infrastruktur-Herausforderungen: Debugging von ServiceMonitor-Discovery-Problemen, Verhinderung von Infinite CI/CD-Loops mit skip-ci-Tags und Path-Ignores, sowie Implementierung von Anti-Affinity-Scheduling für Pod-Verteilung.
Vollständige Dokumentation des gesamten Aufbaus inklusive aller Troubleshooting-Schritte und gelernten Lektionen zur Reproduzierbarkeit und als Lernressource.
3 Monate
Python, Rust, Neuronale Netze, MLP, Künstliche Intelligenz, Benchmarking, CSV-Logging, PNG-Plots, CLI
Implementierung eines minimalen, aber vollständigen MLP (Multilayer Perceptron) von Grund auf in zwei Sprachen: einer Python-Variante auf Basis des Buches 'Neural Networks from Scratch in Python' (NNFS) sowie einer unabhängig entwickelten, low-level Rust-Version.
Ziel war ein direkter Vergleich beider Implementierungen, um zu bewerten, ob ein komplett eigenständiges Rust-Modell in Bezug auf Korrektheit und Performance mit dem NNFS-basierten Python-Modell mithalten kann.
Aufbau eines reproduzierbaren Workflows mit CSV-Logging und statischer Visualisierung (PNG) von Metriken wie Loss, Genauigkeit und Vorhersageverteilung.
Evaluation auf dem Fashion-MNIST-Datensatz, um eine standardisierte Basis für Klassifikationsexperimente zu schaffen.
Definition von Vergleichskriterien sowie Auswertung der Lernkurven und finalen Kennzahlen zur Validierung numerischer Konsistenz.
Bereitstellung einer schlanken CLI zur Durchführung und Auswertung der Experimente mit Fokus auf Transparenz und Wiederholbarkeit.
3 Monate (Mai 2024 - Juli 2024)
Raspberry Pi, Ubuntu, Bash, Cron, Docker Compose, SurrealDB (Prototyp), Netzwerk, VPN, SSH Reverse Tunnel, IoT, Git, Hochschulprojekt
Exploratives Hochschulprojekt in Kooperation mit der Fakultät Gartenbau. In einem 10-köpfigen Team verantwortete ich die serverseitige Dateninfrastruktur sowie die Netzwerkanbindung zwischen Raspberry-Pi-Messknoten und dem zentralem Server.
Aufsetzen eines Ubuntu-Servers für Ingestion/Storage und Aufbau einer stabilen Verbindung zum Raspberry Pi (Raspberry Pi OS 12) über eduVPN sowie SSH-Reverse-Tunneling durch das Uninetz.
Automatisierte Datensynchronisation (Stickstoff-Sensordaten und Bilder) vom Pi zum Server mittels Cron und Bash; Integration des Bildaufnahme-Skripts direkt auf dem Pi (Bash mit optionalem Python-Aufruf).
Strukturierte Ablage der Bilddaten in einer klaren Ordnerhierarchie; Versionsverwaltung mit Git und Python-Laufzeit für Skripte/Analysen.
Vorbereitung einer SurrealDB-Instanz via Docker Compose (prototypischer DB-Connection-Service; im Projektzeitraum nicht produktiv genutzt) sowie Zugang zu einem separaten Docker-basierten AI-Server, dessen Einrichtung ich begonnen habe.
Laufend seit 2023
Proxmox VE, Docker, ZFS, Ubuntu LTS, Home Assistant
Mein Homelab bildet die Basis meiner selbst-gehosteten Infrastruktur und verbindet Virtualisierung, Containerisierung, Speicher und Automatisierung.
Es stellt eine stabile Umgebung für Dienste wie Monitoring, Automatisierung, Produktivität und Dateiverwaltung bereit – komplett ohne Herstellerbindung.
Der Fokus liegt auf Wartbarkeit und Ausfallsicherheit, mit ZFS-gestütztem Speicher, automatisierten Backups und einem modularen Service-Stack.

4 Wochen
Python, PyQt5, PyAutoGUI, OpenCV, Tesseract OCR, PIL/Pillow, Win32 API, JSON
Ein experimentelles Desktop-Automatisierungswerkzeug, das versucht, repetitive Aufgaben durch visuelle Programmierung zu automatisieren. Die Anwendung macht Screenshots von UI-Elementen und versucht, mit Desktop-Anwendungen zu interagieren, indem sie Bilder erkennt und grundlegende Maus-/Tastaturaktionen ausführt. Nutzer können einfache Automatisierungssequenzen über eine Drag-and-Drop-Oberfläche erstellen, wobei das System noch Verbesserungen für den produktiven Einsatz benötigt.
Die Grundfunktionalität umfasst ein einfaches Aktionsmanagement mit Unterstützung für bedingte Logik und Ressourcenüberwachung. Aktionen können in Playsets und Actionsets für modulare Workflows organisiert werden, die durch visuelle Hinweise oder einfache Bedingungen ausgelöst werden. Die Anwendung implementiert Timing-Mechanismen, Maussimulation und Tastatureingabe sowie grundlegende Bilderkennung mit PyAutoGUI und OCR über Tesseract.
Die Architektur trennt UI-Management, Automatisierungslogik und JSON-basierte Konfigurationsspeicherung. Während die Grundkonzepte funktionieren, würde das System von verbessertem Error Handling, zuverlässigerer Bilderkennung und einer besseren Benutzererfahrung profitieren. Die aktuelle Implementierung dient als funktionsfähiger Prototyp, der Möglichkeiten automatisierter Interaktion demonstriert.
k.A.
TensorFlow, OpenCV, CUDA, Labelme, Echtzeit
Entwicklung eines Echtzeit-Systems zur Gesichtsdetektion und -erkennung mit OpenCV, TensorFlow und GPU-Beschleunigung über CUDA.
Trainingsdaten wurden über die Webcam aufgenommen und mit Labelme manuell gelabelt, um ein individuelles Erkennungsmodell zu trainieren.
Das System konnte bekannte Gesichter live im Webcam-Feed erkennen – mit durchaus brauchbarer Genauigkeit.
3 Monate
Angular, Firebase, UI-Umsetzung, Komponentenstruktur
Technische Überarbeitung und Erweiterung einer bestehenden Fachschafts-Website mit Angular und Firebase.
Die öffentliche Seite und das interne Dashboard wurden auf Basis eines extern erstellten Designs (UX-Designer) neu umgesetzt und strukturell überarbeitet.
Funktionen wie eine To-do-Liste und eine Finanzübersicht mit Buchungsverwaltung wurden zur Unterstützung interner Abläufe ergänzt.