Warum KMU gerade jetzt auf lokale KI setzen
Viele Geschäftsführer stehen 2026 vor der gleichen Frage: Wie nutzen wir KI in unserem Unternehmen, ohne Kundendaten in fremde Cloud-Systeme zu schicken? Die Antwort, die sich in der Praxis durchsetzt, kombiniert zwei Open-Source-Werkzeuge: n8n als Automatisierungsplattform und Llama 3 als lokal betriebenes Sprachmodell. Zusammen ermöglichen sie KI-gestützte Workflows, bei denen kein Datenpunkt das eigene Netzwerk verlässt.
Das ist kein Nischenthema mehr. Laut einer Bitkom-Erhebung hat sich die KI-Nutzung in deutschen Unternehmen 2025 nahezu verdoppelt: von 20 auf 36 Prozent. Weitere 47 Prozent planen oder diskutieren den Einsatz aktuell. Die Frage ist also nicht mehr ob, sondern wie.
Was steckt hinter n8n und Llama 3?
n8n ist eine Open-Source-Workflow-Automatisierungsplattform aus Berlin, die sich am einfachsten so beschreiben lässt: Stellen Sie sich Zapier vor, nur dass die Software auf Ihrem eigenen Server läuft und Sie nichts pro Ausführung bezahlen. Prozesse werden visuell zusammengebaut, einzelne Schritte heißen “Nodes” und können E-Mails lesen, Datenbanken abfragen, Formulare verarbeiten oder eben KI-Modelle ansprechen.
Llama 3 ist Metas Familie offener Sprachmodelle, vergleichbar mit ChatGPT, aber mit einem entscheidenden Unterschied: Die Modellgewichte sind frei verfügbar und können auf der eigenen Hardware betrieben werden. Das Zwischenstück, das Llama 3 lokal ausführbar macht, heißt Ollama. Ollama startet das Modell als lokalen Dienst auf Port 11434, n8n spricht diesen Dienst direkt an. Beide Werkzeuge tauschen Daten nur intern aus, also innerhalb Ihrer eigenen Infrastruktur.
Was das konkret für den Datenschutz bedeutet
Der DSGVO-Vorteil dieser Architektur ist struktureller Natur. Wenn KI-Verarbeitung innerhalb der eigenen Compliance-Grenze bleibt, muss der Datenschutzbereich nicht auf die Server eines Cloud-Anbieters ausgeweitet werden. Es entfallen Auftragsverarbeitungsverträge mit KI-Anbietern, Datentransfers in Drittländer und die Frage, ob Prompt-Inhalte zum Training genutzt werden.
Zum Vergleich: Analysen zu cloudbasierter KI zeigen, dass ein erheblicher Anteil der Eingaben personenbezogene Informationen enthält, während das “Recht auf Vergessenwerden” bei cloud-gespeicherten Modellen strukturell kaum erfüllbar ist. Bei einer lokalen Lösung existiert dieses Problem schlicht nicht.
Hinweis zur Regulatorik: Ab August 2026 tritt das Hochrisiko-Regime der EU-KI-Verordnung in Kraft. Wer KI-Systeme mit personenbezogenen Daten betreibt, muss dann sowohl DSGVO als auch KI-VO gleichzeitig einhalten. Eine lokale Architektur vereinfacht die Compliance erheblich, weil die Verarbeitung vollständig kontrollierbar und dokumentierbar bleibt.
Drei konkrete Anwendungsfälle aus dem KMU-Alltag
Automatische Zusammenfassung von Systemprotokollen
Ein klassischer Einstieg: n8n liest täglich die letzten Systemereignisse oder Fehlerprotokolle eines Servers, übergibt diese an Llama 3 via Ollama und erhält eine strukturierte Zusammenfassung mit hervorgehobenen Sicherheitswarnungen. Das Ergebnis wird per E-Mail an den zuständigen Mitarbeiter verschickt. Rohdaten verlassen dabei zu keinem Zeitpunkt das eigene Netzwerk.
Intelligente E-Mail-Vorverarbeitung
n8n kann eingehende E-Mails lesen, Llama 3 kategorisiert den Inhalt, priorisiert Anfragen und schlägt eine Antwortformulierung vor. Dieser Workflow läuft vollständig intern und lässt sich mit dem in Januar 2026 ausgelieferten Human-in-the-Loop-Feature von n8n kombinieren: Bevor eine Antwort automatisch versendet wird, gibt ein Mitarbeiter explizit seine Freigabe.
Dynamischer Modell-Router für verschiedene Aufgaben
n8n bietet ein offizielles Workflow-Template, das je nach Aufgabe automatisch das passende lokale Modell auswählt: Textmodelle wie Llama 3.2 für Konversationsaufgaben, Code-Modelle wie qwen2.5-coder für Programmierunterstützung, Vision-Modelle für Bildanalyse. Das ermöglicht einen einzigen, flexiblen KI-Agenten auf der eigenen Hardware, der unterschiedliche Aufgabentypen korrekt zuordnet.
Was kostet der selbstgehostete Stack wirklich?
Hier liegt ein oft unterschätzter Vorteil. Die selbstgehostete Community Edition von n8n ist vollständig kostenlos: keine Limits bei Ausführungen, Workflows oder Nutzern. Die einzigen laufenden Kosten entstehen für die Hosting-Infrastruktur, typischerweise 5 bis 20 Euro pro Monat für einen virtuellen Server.
Zum Vergleich: Zapier berechnet jeden einzelnen Aktionsschritt als separaten Task. Ein Workflow mit 50 Schritten kostet bei n8n eine einzige Ausführung, bei Zapier dagegen 50 Tasks. Ein E-Mail-Verarbeitungs-Agent mit Llama 3 via Ollama läuft auf demselben 5-Dollar-Server, der ohnehin schon für n8n genutzt wird. Ein vergleichbarer Zapier-Workflow würde aufgrund der mehrstufigen Abrechnung deutlich mehr kosten.
Hinzu kommt der Kostenvorteil bei der KI-Inferenz selbst. Lokale Verarbeitung mit Ollama kostet lediglich Strom. Cloud-KI-APIs berechnen pro verarbeitete Textmenge Beträge, die bei regelmäßiger intensiver Nutzung schnell in den dreistelligen Monatsbereich steigen.
- n8n selbstgehostet: kostenlos, nur Hosting-Kosten
- Ollama + Llama 3: kostenlos, läuft auf eigenem Server oder Büro-PC
- Gesamter Stack: 5 bis 20 Euro monatlich für die Infrastruktur
- Keine API-Kosten pro KI-Anfrage, keine Nutzerlimits, keine Ausführungslimits
Wie schwer ist der Einstieg für KMU ohne IT-Abteilung?
Die gute Nachricht aus der Praxis: Etwa 80 Prozent der typischen KMU-Projekte lassen sich mit n8n lösen, ohne eine einzige Zeile Code zu schreiben. Workflows werden visuell zusammengebaut, Ollama wird einmalig installiert und läuft dann im Hintergrund. Es gibt offizielle Dokumentation für die Verbindung beider Systeme sowie fertige Docker-Compose-Templates, die den gesamten Stack mit wenigen Befehlen aufsetzen.
Wer dennoch Unterstützung bei der Einrichtung, dem Datenschutzkonzept oder der Entwicklung spezifischer Workflows benötigt, findet bei erfahrenen Dienstleistern einen direkten Einstieg. Bei ConRat WebSolutions etwa begleiten wir KMU von der ersten Anforderungsanalyse über die DSGVO-konforme Implementierung bis hin zur Befähigung des Teams, Workflows eigenständig weiterzuentwickeln.
Jetzt ist der richtige Zeitpunkt
Die Kombination aus n8n und Llama 3 ist im April 2026 ausgereift, gut dokumentiert und in der Praxis erprobt. Die Werkzeuge sind kostenlos verfügbar, die Hardware-Anforderungen moderat und der Datenschutz strukturell gelöst. Mit dem Hochrisiko-Regime der EU-KI-Verordnung, das ab August 2026 greift, wird eine lokale, kontrollierbare KI-Architektur für viele Unternehmen zudem zur Compliance-Notwendigkeit.
Wer jetzt mit einem überschaubaren ersten Workflow beginnt, zum Beispiel der automatischen Zusammenfassung von E-Mails oder Berichten, sammelt Erfahrung und schafft eine Grundlage für komplexere Automatisierungen. Der Aufwand für den Einstieg ist gering. Der Nutzen wächst mit jedem weiteren Prozess, der damit abgedeckt wird.
Sprechen Sie uns an, wenn Sie einen konkreten Anwendungsfall in Ihrem Unternehmen identifiziert haben und wissen möchten, wie ein erster Workflow aussehen könnte.

