Agenten mit Freigaben & Logs
Eigene agentische Workflows mit Human-in-the-Loop, Audit-Log und Eskalation, eingebettet in Deine APIs, Identity und Datenhaltung. Keine Schatten-IT auf Subscriptions.
KI · Agents · Daten · Sichere Lieferung
ChatGPT auf einem Laptop ist keine KI-Strategie. Wir bauen orchestrierte, agentische Workflows mit Spezial-Agenten unter Policies, Human-in-the-Loop und klaren Schnittstellen zu Deinen Systemen. Datenpipelines und KI-Endpunkte laufen dort, wo Deine Infrastruktur es verlangt, mit Tests an jeder Schnittstelle, Evals gegen Halluzinationen und EU-AI-Act-Readiness. Egal ob On-Prem, Microsoft-, Google- oder Hybrid-Stack.
KI-Tooling
Eigene agentische Workflows mit Human-in-the-Loop, Audit-Log und Eskalation, eingebettet in Deine APIs, Identity und Datenhaltung. Keine Schatten-IT auf Subscriptions.
Strukturierte Extraktion und Anreicherung mit Quellenrechten, Aufbewahrung und Qualitätsfiltern. Du erhältst Daten, die im Audit Bestand haben, nicht nur im Notebook.
EU-Hosting, VPC oder On-Prem für sensible Daten, die keinen öffentlichen Modell-Endpunkt vertragen dürfen. Open-Weights, wo es Sinn ergibt; Frontier-Modelle, wo nicht.
Orchestrierung · Agentik · Integration
In produktiven Umgebungen zählt Koordination: mehrere spezialisierte Agenten oder Teil-Workflows (Planung, Ausführung, Prüfung), gemeinsame Policies, Tool-Zugriffe nach Berechtigung und nachvollziehbare Übergaben. Die Orchestrierungsschicht entscheidet, wer wann welches Modell oder welche API nutzt, gebunden an Identity, Logs und Freigaben. Das gilt gleichermaßen für On-Prem-Installationen, Microsoft-365-/Azure-Landschaften und Google Cloud, die Architektur bleibt wartbar, nur die Anbindung wechselt.
Worauf wir vor dem ersten Agent achten. Spezialisierte Agenten, klare Übergaben, eine gemeinsame Policy- und Tool-Schicht: Ohne diese Basis wird aus „Agentic AI“ schnell ein Skript-Friedhof. Wir definieren Rollen, Eskalationen und Schnittstellen, bevor Code entsteht, damit Erweiterung möglich bleibt und nichts an Einzelpersonen hängt.
Mehr als ein Coding-Tool. Coding-Agenten wie Claude Code sind starke Werkzeuge, aber session-gebunden und ohne institutionelles Gedächtnis. Egregor ist die Schicht darüber: ein Wissensgraph (AKG) mit Anforderungen, Entscheidungen und Implikationsketten, eine Synchronisation paralleler Agenten, ein revisionssicheres Audit-Log und Anbindungen an Docker, Trigger und Kommunikationskanäle. Damit aus „die KI hat es so gemacht“ ein nachvollziehbarer, wartbarer Engineering-Prozess wird.
Wir planen KI dort, wo Deine Daten und Identitäten ohnehin liegen: Rechenzentrum, VPC, Microsoft-Tenant oder Google-Projekt. Die Fragen bleiben dieselben: Wer darf was? Wo liegen Logs? Wie sieht ein Freigabe-Pfad aus?
Skalierung & Automation
KI-Pipelines werden teuer und gefährlich, wenn Logs, Drift und Datenflüsse nicht mitgedacht werden. Wir automatisieren genau dort, wo Fehler richtig wehtun, mit Observability (z. B. Sentry), reproduzierbaren Deployments und Evals, die Halluzinationen vor dem Kunden abfangen.
Quellen & Rechte
Domänen, APIs, Crawling-Grenzen und Aufbewahrung klären, bevor Code fließt, Datenschutz und Einkauf sind ab Tag 1 mit am Tisch.
Extraktion & Qualität
Strukturierte Schemas, Validierung und Drift-Monitoring. Ausreißer werden gemeldet, nicht stillschweigend in den Index gewaschen.
Orchestrierung & Freigaben
Human-in-the-Loop, klare Eskalation und nachvollziehbare Logs für Audit und Betrieb, auch Wochen nach dem Vorfall noch reproduzierbar.
Tests, Evals & Rollout
Schnittstellentests, KI-Evals gegen Halluzinationen und Lastpfade auf kritischen Queries, vom Staging bis in die Produktion, reproduzierbar.
Typische Bausteine in Kundenprojekten: offene Schnittstellen, kein Lock-in, kein Mystery-Stack.
Runtime & Orchestrierung
Daten & Speicher
Qualität & Betrieb
Deine KI-Logik läuft dort, wo Deine Daten liegen - nicht in einer SaaS-Box, deren AGB sich morgen ändern können. Rollen, Freigaben und Eskalation mappen wir so, dass Legal, IT und Fachbereich an einem Strang ziehen.
Workshops & Trainings
Hands-on zu Prompting, Agent-Design, RAG-Mustern, Evals und Betrieb: Deine Entwicklerinnen und Entwickler sowie Fachrollen bauen anschließend eigenständig weiter. Wir liefern den Take-off, nicht die ewige Abhängigkeit.
Beratung & EU AI Act
Risikoklassen, Dokumentationspflichten und technische Pflichten gemeinsam mit Deinem Legal-Team in eine Backlog-Sprache übersetzt, die Entwicklerinnen und Entwickler sowie Auditorinnen und Auditoren gleichermaßen verstehen.
Datenschutz & Governance
Wir liefern technische und organisatorische Maßnahmen, die im Audit standhalten, DSGVO, EU AI Act und ISMS/ISO-27001-orientiert, mit Beweisen aus dem System, nicht aus PowerPoint.
Schick uns Domäne, Datenklassen, Zielsysteme und regulatorische Vorgaben. Du erhältst eine konkrete Skizze: Architektur, Eval-Plan, Betriebsmodell, plus klare Antwort, wo Risiko zuerst gegen Wert prüft.