Portfolio
Ein Überblick über von mir entwickelte Produkte und Systeme.
Filtern nach
Weblösungen
Unternehmenswebsite für IC-Aumont – eine lizenzierte Personalagentur in der Slowakei mit Schwerpunkt Industrie-Personal und langfristige Workforce-Lösungen. Die Plattform ist als Marketing-Instrument mit hoher Conversion gedacht: klare Leistungsstruktur, schnelle Navigation, direkte Pfade für Bewerber und Geschäftskunden. Stellenangebote sind leicht zu durchsuchen, Kontaktstrecken reduzieren Reibung und erhöhen eingehende Leads. Das Design folgt einer markanten visuellen Identität (Rot/Schwarz/Weiß), kräftiger Typografie und klaren CTAs. Mobile-first für ein gutes Erlebnis auf allen Geräten, besonders für Jobsuchende. SEO-taugliche Architektur mit sauberen URLs und strukturierten Seiten für regionale Suche, sowie Barrierefreiheit und Performance für schnelles Laden und Bedienbarkeit.
Eine dunkle, minimalistische Personal-Branding-Site für Alex DDK: starker Hero mit Typografie, Projekt-Highlights, kurzer Philosophie-Abschnitt und klaren Kontaktpfaden. Redaktionelle Inhalte laufen über Notion als Backend — Texte und Projekteinträge lassen sich in Notion pflegen und auf der Landingpage ausspielen, ohne den gesamten Frontend-Deploy zu wiederholen. Das Layout bleibt bewusst ruhig: hoher Kontrast (Schwarz, Weiß, Gold-Akzent), großzügiges Spacing und responsive Bilder, damit der erste Eindruck wie ein kuratiertes Portfolio wirkt.
SaaS-Systeme
Attendance Analyzer ist ein internes Tool im SaaS-Stil für Workforce-Betriebe: Es verarbeitet reale, unübersichtliche Anwesenheitsdaten und macht daraus klare, nutzbare Erkenntnisse. Das System analysiert hochgeladene Dochadzka-`.txt`-Dateien trotz inkonsistenter Formatierung, Encoding-Problemen oder Duplikaten. Statt auf die Dateistruktur zu vertrauen, wird jeder Mitarbeitende gegen Kalendertage geprüft – das ermöglicht zuverlässige Erkennung kritischer Fälle wie ungemeldete Abwesenheiten oder fehlende Stempel. Ein übersichtliches Dashboard zeigt Kennzahlen mit Priorisierung nach Schweregrad. Koordinatoren prüfen Einträge, kopieren Daten und exportieren nach CSV. Frontend: React, Vite und Tailwind; Backend: Node.js und Express – mit Fokus auf Performance und Zuverlässigkeit. Mehrsprachig (Slowakisch / Russisch / Englisch), heller und dunkler Modus; Auslieferung als eigenständiges Desktop-ähnliches Tool per gebündeltem Deployment. Für echte Betriebsumgebungen: Zuverlässigkeit vor Annahmen – ein verlässliches Werkzeug für Teams mit großen Anwesenheitsdatenmengen.
End-to-End-Telegram-Bot für unabhängige Kursanbieter und Infoprodukt-Verkäufer: Nutzer finden Angebote im Chat, bezahlen ohne Telegram zu verlassen, und Materialien werden automatisch erhalten. Bot API, sichere Webhooks, idempotente Payment-Callbacks und Konfiguration pro Verkäufer (Preise, Bundles, Promo-Codes und Erstattungsregeln). Zahlungen über Karte und regionale Methoden; native Telegram-Flows wo möglich, sonst Redirect/Checkout. Nach erfolgreicher Zahlung: Channel-/Gruppen-Einladungen, freigeschaltete Dateilinks oder zeitlich begrenzte Download-Token in PostgreSQL, Redis für Rate Limits und Session-Hinweise. Fehlgeschlagene oder strittige Zahlungen rollen den Zugriff zurück; Support hat eine kleine Admin-Ansicht für Suche und erneutes Senden von Links. Derselbe Stack skaliert auf viele Verkäufer: isolierte Instanzen/Namespaces, rotierende Secrets, Audit-Logs. Typischer Kursverkäufer-Workflow – Launch, Upsell, Kohorten – ohne Kunden in eine andere App zu zwingen.
Ein vollständiges SaaS-System für Authentifizierung und Autorisierung – für sichere, skalierbare Benutzerverwaltung in modernen Anwendungen. Die Plattform unterstützt mehrere Anmeldevarianten: klassisches E-Mail/Passwort, OAuth 2.0 (Google, GitHub) sowie optionale Zwei-Faktor-Authentifizierung (TOTP). Sitzungen werden über JWT in HTTP-only-Cookies abgewickelt, Sicherheit und flüssige Nutzererfahrung effektiv ausbalanciert. Rollenbasierter Zugriff (RBAC) ermöglicht feingranulare Rechteverwaltung; Anwendungen definieren Rollen und steuern den Zugriff im großen Maßstab. Modularer Aufbau für einfache Erweiterung, Integration und Anpassung an verschiedene Produkte. Backend: Node.js, Express und TypeScript; Prisma ORM für die Datenbank (standardmäßig SQLite, einfacher Wechsel zu PostgreSQL). Frontend: React und Vite – schnelle, responsive Oberfläche. Für den Produktionseinsatz konzipiert, behält das System eine gute Developer Experience unter realistischen Sicherheitsanforderungen bei – insofern eignet es sich als Basis für SaaS-Produkte, interne Tools oder Multi-Tenant-Plattformen.
Öffentliche Marketing-Site für DirectHeader: schneller Auftritt mit Hero, Produktabschnitten, Social Proof und klaren CTAs zu Registrierung und Demo. Static-first-Frontend mit optimierten Assets, responsivem Layout und zugänglicher Typografie sowie Fokus-States. Inhalt für SEO strukturiert – semantische Überschriften, Meta-Tags, stabile URLs; Kontakt- und Lead-Formulare an eine kleine API mit Spam-Schutz und optional CRM/E-Mail. Performance: Bildformate, Lazy Loading, minimales Layout-Shift, damit Core Web Vitals auf dem Smartphone im grünen Bereich bleiben. Design-Tokens für Abstände und Farben, damit künftige Seiten (Blog, Changelog, Rechtliches) konsistent bleiben. Screenshots können nachgereicht werden – bis dahin Platzhalter.
Eine produktionsreife Analyseumgebung für Teams, die sehen müssen, was in ihrem Produkt gerade passiert – nicht den gestrigen Batch-Report. Die Plattform nimmt hochvolumige Ereignisströme auf, normalisiert sie nahezu in Echtzeit und liefert Live-Updates per WebSocket an den Browser, damit Dashboards ohne manuelles Neuladen oder Polling aktuell bleiben. Im Backend skalieren Ingestion-Worker horizontal hinter einer partitionierten Queue; Hot Paths sind auf planbare Latenz optimiert, Aggregationspipelines fassen Rohereignisse zu zeitbasierten Metriken in PostgreSQL zusammen, Redis dient als schneller Cache für aktuelle Zähler und Bestenlisten. Das Frontend ist eine React-Anwendung mit Diagrammen für große Datenmengen: virtualisierte Tabellen, entprellte Filter und gespeicherte Ansichten für Power-User. Betriebswerkzeuge umfassen Sichtbarkeit von Ratenlimits pro Mandant, Dead-Letter-Inspektion für fehlerhafte Payloads und konfigurierbare Aufbewahrung, damit Speicherkosten kontrolliert bleiben. Das System verarbeitet in Lasttests stabil deutlich über eine Million Ereignisse pro Tag; Monitoring und Alerting nutzen dieselben Metriken wie die Kunden – so werden Regressionen früh sichtbar.
Backend
Eine headless Commerce-API als alleinige Quelle für Katalog, Preise, Bestand, Warenkörbe und Bestellungen. Clients sind Storefronts, Mobile-Apps und interne Admin-Tools; alles läuft über versionierte REST-Endpunkte mit einheitlichen Fehlerformaten, Idempotenz-Schlüsseln bei Schreibvorgängen und OpenAPI-Dokumentation im Einklang mit dem Code. Zahlungen laufen über eine Provider-Abstraktion: Capture, Erstattungen und Teil-Captures sind explizit modelliert; Webhooks werden verifiziert und sicher wiederholt, damit der Bestellstatus nicht vom Provider abweicht. Der Bestand nutzt optimistische Sperren und Reservierungen, damit zwei parallele Checkouts dieselbe SKU nicht doppelt verkaufen; Schwellen für niedrigen Bestand lösen Benachrichtigungen für das Merchandising aus. Der Dienst ist modular (Katalog, Checkout, Fulfillment-Hooks) mit klaren Grenzen, Integrationstests gegen typische Warenkörbe und Seed-Daten für die lokale Entwicklung. Hintergrundjobs übernehmen Bestellexporte, E-Mails und Abgleichsberichte – alles für einen echten Shop ohne angeklebte Einmal-Skripte.
Internes Dashboard im SaaS-Stil für Engineering-Teams: CI/CD-Gesundheit über viele Repositories und Umgebungen hinweg. Jeder Pipeline-Lauf ist mit Commit-Metadaten, Testergebnissen und Deploy-Zielen verknüpft; bei Fehlern gibt es direkte Links zu Logs und Artefakten – On-Call kann von einem Bildschirm aus triagieren. Docker-zentrierte Workflows sind gleichberechtigt: laufende Images, Image-Tags zwischen Stufen und Zusammenfassungen von Vulnerability-Scans neben jedem Release. Deploy-Tracking zeigt wer was wann ausgerollt hat, optional mit Freigaben für Produktion. Service-Gruppen und Ownership steuern Benachrichtigungen in die richtigen Slack-Kanäler oder PagerDuty-Policies. Für den täglichen Einsatz gebaut: schnelle Suche, Tastatur-Navigation und rollenbasierter Zugriff, damit Auftragnehmer nur nötige Projekte sehen. Die Roadmap folgte der Nutzung: gespeicherte Filter, geteilte Dashboards und exportierbare Incident-Timelines für Postmortems.
Echtzeit-Messaging-Client und Dienste mit Fokus auf Zuverlässigkeit unter Last. Nachrichten laufen über WebSockets mit automatischem Reconnect, clientseitiger Reihenfolge pro Konversation und optimistischen UI-Updates, die sauber zusammenlaufen, wenn der Server-Zeitstempel maßgeblich ist. Ende-zu-Ende-Verschlüsselung für Direktnachrichten nach etablierten Schlüsselaustauschmustern; Gruppenkanäle nutzen ein anderes, für Security-Reviews dokumentiertes Modell. Datei-Uploads über Pre-Signed Object Storage mit Virenscan-Hooks und Größenkontingenten pro Workspace. Moderation und Compliance: Aufbewahrungsrichtlinien, Export für Legal Hold, Admin-Tools für Mitglieder und Rollen. Observability im Fokus: Verbindungszahlen, Fan-out-Latenz und Fehlerraten – datenbasierte Kapazitätsplanung statt Raten.
Infrastruktur & DevOps
Referenzimplementierung einer verteilten Plattform: domänenorientierte Services, asynchrone Events und ein Service Mesh für Traffic-Politik. Synchrone Aufrufe bleiben in Bounded Contexts; domänenübergreifende Effekte gehen auf einen persistenten Event Bus, damit Consumer ohne enge Kopplung reagieren können. Kubernetes hostet die Workloads mit Health Probes, Resource Requests und Pod Disruption Budgets pro Service. gRPC für interne APIs mit starken Verträgen; REST nach außen für öffentliche Consumer. Message Broker (z. B. RabbitMQ-ähnlich) mit Backpressure und Retries, idempotente Consumer gegen doppelte Nebenwirkungen. Einheitliche Observability: verteiltes Tracing über das Mesh, strukturierte Logs mit Trace-IDs, RED-ähnliche Metriken pro Service. Sicherheit: mTLS im Mesh, rotierende Credentials, Netzwerkrichtlinien gegen lateral movement. So kann das System teamweise wachsen – unabhängig deployen, dort skalieren, wo es eng wird, ohne eine gemeinsame Datenbank als globalen Flaschenhals.
Mehrseitige Broschüren-Website für eine Professional-Services-Firma: Start, Leistungen, Cases, Team, Kontakt. Klarheit und Vertrauen – scanbare Leistungsstufen, kurze Case-Texte, ein Haupt-Konversionspfad (Termin buchen oder Angebot anfragen). Leicht CMS-freundlich aufgebaut, damit Marketing Texte und Case Studies ohne Entwickler pflegen kann; Formulare per E-Mail, optional Kalender für Discovery Calls. Zurückhaltender Stil, auch druckfreundlich für PDFs aus denselben Inhalten. Technisch: responsive Breakpoints, Tastatur-Navigation, Textblöcke für spätere Lokalisierung. Analytics und Einwilligung datenschutzbewusst (aggregierte Events, keine unnötigen Drittanbieter-Skripte).
KI-Automatisierung
Interne Automatisierungsschicht: eingehende Support-Tickets und operative Anfragen durchlaufen Klassifikation mit LLM, Entitätsextraktion und Policy-Checks, bevor sie in menschliche Warteschlangen gelangen. Ziel ist nicht, Agenten zu ersetzen, sondern repetitive Triage zu entfernen, Fehlleitungen zu reduzieren und strukturierte Zusammenfassungen zu liefern. Die Pipeline nimmt E-Mails und Formular-Daten auf, normalisiert sie in ein kanonisches Schema und führt einen RAG-Schritt über internes Wissen (FAQs, Runbooks, Produktgrenzen) aus – Vorschläge für Kategorie, Priorität und nächste Schritte. Konfidenz und Guardrails entscheiden, wann ein Antwortentwurf sinnvoll ist und wann eskalieren muss. Modellausgaben werden mit Trace-IDs für Audit und Regressionstests geloggt. Nachgelagert: dieselbe Orchestrierung an Webhooks und CRM – Auto-Tagging, SLA-Timer, Übergabenotizen für Spezialisten. API-first, Queue-Worker für Spitzenlast, Human-in-the-Loop für sensible Kategorien – typische Produktions-KI-Automatisierung, keine Einmal-Demo.