AI Consulting · KI-Agenten · Automatisierung · DACH 2026

KI-Beratung für Unternehmen,
die aus AI Arbeit macht.

Hermes AI Consulting richtet sich an deutsche Unternehmen, die nicht noch ein Chatbot-Experiment brauchen, sondern produktive KI-Agenten, automatisierte Prozesse und eine belastbare AI-Infrastruktur. Wir beraten bei Use-Case-Auswahl, Wirtschaftlichkeit, Tool-Architektur, DSGVO, Security, Modellwahl und Self-Hosting. Wenn ein autonomer Agent sinnvoll ist, setzen wir auf Open-Source-Technologien wie den Hermes Agent von Nous Research: ein System, das auf deinem Server läuft, Memory aufbaut, Skills entwickelt und wiederkehrende Aufgaben uebernimmt.

Beratung, Setup, Betrieb EU-Hosting möglich Sandbox & Governance Hostinger Referral: hermesai
Helle AI-Consulting-Szene fuer KI-Beratung und Prozessautomatisierung in deutschen Unternehmen
KI-Strategie fuer KMU, Agenturen und B2B-Teams AI-Agenten, Workflows und Self-Hosting statt Tool-Wildwuchs Security, DSGVO und Betrieb von Anfang an mitdenken
7Plattformen (Telegram, Discord, Slack, WhatsApp, Signal, E-Mail, CLI)
5Sandbox-Backends (lokal, Docker, SSH, Singularity, Modal)
Persistente Memory & auto-generierte Skills
MITOpen-Source-Lizenz von Nous Research
AI Consulting · fuer deutsche Unternehmen

Von der KI-Idee zum produktiven Automatisierungs-System

Viele Unternehmen haben 2026 genug Chatbot-Experimente gesehen. Der naechste Schritt ist ein kontrollierter KI-Betrieb: klarer Use-Case, eigener Server, nachvollziehbare Logs, definierte Tool-Rechte, saubere Kostenkontrolle und ein Rollout, der Datenschutz, IT und Fachabteilung mitnimmt.

KI-Strategie & Use-Case-Auswahl

Wir priorisieren Prozesse, bei denen AI Agents wirklich Wert stiften: Recherche, Support-Triage, Reporting, Backoffice-Automation, Lead-Qualifizierung, interne Wissenssuche und wiederkehrende Admin-Aufgaben. Kein KI-Theater, sondern ein belastbarer Business Case.

Self-Hosting & AI-Infrastruktur

Wir planen VPS-Groesse, Domain, Reverse Proxy, Backups, Monitoring, Secrets, Sandbox-Backend und Deployment. Der Hostinger-Link mit hermesai ist der direkte Infrastruktur-CTA, weil ein KVM-VPS fuer viele AI-Agent-Piloten reicht.

DSGVO, Security, Governance

Ein Unternehmens-Agent braucht Regeln: welche Tools er nutzen darf, welche Daten in Memory landen, welche LLM-Provider erlaubt sind, wie Logs aufbewahrt werden und wann ein Mensch freigeben muss. Diese Leitplanken gehoeren vor den ersten produktiven Task.

Pilot, Messung, Skalierung

Wir definieren KPIs wie Antwortzeit, gesparte Bearbeitungszeit, Erfolgsquote, Eskalationsrate, API-Kosten pro Aufgabe und Fehlerklassen. So wird aus dem ersten Hermes-Agenten ein wiederholbares Betriebsmodell fuer weitere Teams.

Kapitel 1 · Definition

Was ist ein Hermes Agent?

Hermes ist der Open-Source-Versuch von Nous Research, einen echten autonomen Agenten zu bauen, der auf einem Server dauerhaft läuft, sich erinnert und im Laufe der Zeit eigene Werkzeuge entwickelt – statt eines Modell-Wrappers, der bei jeder Anfrage von vorn anfängt.

Mehr als ein Chatbot

Klassische ChatGPT- oder Claude-Frontends sind zustandslos: Du öffnest ein Fenster, schickst Text, bekommst Text zurück, schließt es. Selbst „Memory"-Features in Konsumenten-UIs sind enge, vom Anbieter kuratierte Snippets. Ein Hermes Agent dagegen ist ein langlaufender Prozess auf einem Server, der jede Konversation mit dir, jede gelöste Aufgabe und jede neue Skill-Definition in eine eigene, von dir kontrollierte Datenbank schreibt – und beim nächsten Mal darauf zurückgreift.

Der Unterschied wird erst nach Wochen sichtbar: Ein Hermes, den du seit drei Monaten bei dir laufen hast, kennt deine Projekte, deine API-Keys, deine wiederkehrenden Reports und deine Ton-Vorlieben. Er ist kein „General-Purpose-Assistent" mehr, sondern dein Assistent.

Mehr als ein Coding-Copilot

GitHub Copilot, Cursor und Codeium sind an die IDE gebunden – sie sehen den Buffer und nichts darüber hinaus. Hermes lebt einen Layer höher: Er kann lesen, schreiben, Shell-Befehle ausführen, Browser fernsteuern, Container starten, Cron-Jobs planen, dir morgens Briefings auf Telegram schicken und nachts deine Logs durchsehen.

Anders gesagt: Copilot hilft dir beim Tippen; Hermes erledigt die Aufgabe komplett, während du in einem anderen Fenster bist.


Wer steckt dahinter?

Nous Research ist eines der bekanntesten Open-Source-AI-Labs der USA – verantwortlich u. a. für die Hermes-Modellfamilie (Hermes 2 / 2.5 / 3 auf Llama-Basis), für DPO-Forschung und für eine sehr aktive Discord-Community. Der „Hermes Agent" ist Nous' eigenes Agent-Framework: Es ist modell-agnostisch (kann mit OpenAI-, Anthropic-, Google- oder lokalen Modellen via Ollama laufen) und steht unter MIT-Lizenz.

In der Praxis bedeutet das: Du kannst Hermes mit dem Sprachmodell deiner Wahl betreiben, sogar mit Hermes-eigenen Open-Weights-Modellen, wenn du Datenschutz maximieren willst.

Warum passt das zu AI Consulting?

Ein produktiver Unternehmens-Agent sitzt zwischen natürlicher Sprache und operativen Systemen: Shells, APIs, Browser, Datenbanken, CRM, Messenger und Reporting. Genau hier entsteht Beratungsbedarf, weil ein falscher Tool-Zugriff, eine unklare Memory-Regel oder ein ungeprüfter Datenfluss schnell mehr Risiko als Nutzen erzeugt.

Hermes AI Consulting betrachtet Hermes Agent deshalb als einen möglichen Baustein in einer breiteren KI-Architektur. Entscheidend ist nicht der Name des Frameworks, sondern ob der Workflow messbar Zeit spart, kontrollierbar bleibt und mit Datenschutz und IT-Betrieb vereinbar ist.

Kapitel 2 · Funktionen

Was ein Hermes-basierter AI-Agent-Stack kann

Sechs Kernfähigkeiten, die in der offiziellen Hermes-Dokumentation als Pillars geführt werden – und die zusammen erklären, warum dieses Agent-Framework als ernstzunehmende Alternative zu kommerziellen „Agentic"-Plattformen wie OpenAI Operator, Anthropic Computer Use oder Devin gehandelt wird.

Lebt, wo du bist

Telegram, Discord, Slack, WhatsApp, Signal, E-Mail und CLI – plus eine wachsende Liste weiterer Plattformen via Adapter. Du startest eine Konversation auf dem Handy, setzt sie am Laptop fort, bekommst die Antwort als Mail. Same agent, same memory, anywhere.

Wächst, je länger er läuft

Persistente Memory in einer lokalen Vektor- und SQL-Datenbank. Auto-generierte Skills: Wenn Hermes eine Aufgabe gelöst hat, kann er die Lösung als wiederverwendbares Skill abspeichern. Beim nächsten ähnlichen Auftrag ist er sofort schnell und konsistent.

Geplante Automationen

Cron-Jobs in natürlicher Sprache: „Schick mir jeden Montag um 9 die Conversion-Zahlen aus Plausible." Hermes baut den Job, hält ihn am Laufen und meldet sich, wenn er bricht. Reports, Backups, Health-Checks, Deal-Briefings – alles unbeaufsichtigt.

Delegiert & parallelisiert

Isolierte Subagenten mit eigener Konversation, eigenem Terminal und eigener Python-RPC-Bridge. So entstehen mehrstufige Pipelines ohne Context-Kosten: Der Hauptagent bekommt nur die Zusammenfassung, nicht die 50.000 Tokens, die der Subagent gelesen hat.

Echtes Sandboxing

Fünf Backends für Code-Ausführung: local (schnell, riskant), Docker (Standard), SSH (Remote-Maschinen), Singularity (HPC-Cluster), Modal (Serverless GPU). Container-Hardening und Namespace-Isolation, damit du einem Agenten Code ausführen lassen kannst, ohne dass er deinen Host gefährdet.

Voller Web- & Browser-Zugriff

Web-Suche, Browser-Automation (Playwright/Chromium), Vision auf Screenshots und Bildern, Image-Generierung, Text-to-Speech und Multi-Model-Reasoning. Hermes „klickt" notfalls selber durch eine alte Behördenseite, wenn keine API existiert.

Kapitel 3 · Plattformen

Wo Hermes mit dir spricht

Die wenigsten Agenten-Frameworks decken sieben Messenger plus E-Mail plus CLI ab. Hier eine ehrliche Einordnung, welcher Kanal sich für welchen Use-Case eignet – inklusive der Stolpersteine, die in der offiziellen Doku gerne kurz behandelt werden.

Plattform Wofür ideal Setup-Komplexität DACH-Praxis
Telegram Solo-Founder-Cockpit, schnelle Briefings, Push-Reports unterwegs 5 Min Bot via @BotFather Sehr beliebt; rechtlich für interne Kommunikation unproblematisch.
Discord Community-Operations, Modding-Helfer, FAQ-Agent in Servern 10 Min Bot via Developer-Portal Stark in Tech-Communities; OAuth-Slash-Commands sind ein Killerfeature.
Slack Team-Workflows, Integrationen mit Linear/Jira/GitHub 20 Min App-Manifest + Bot-Token In KMU/Agenturen Standard; achte auf Workspace-Approval-Policies.
WhatsApp Kunden-Snippets, persönlicher Concierge auf dem Handy 30 Min Cloud-API oder Twilio Meta-Business-Account nötig; nicht für Massenversand benutzen.
Signal Privatsphäre-bewusste Anwender, Journalisten, Beratung 30 Min signal-cli-Bridge Kein offizielles Bot-API – Hermes nutzt einen Bridge-Daemon. Funktioniert.
E-Mail (IMAP/SMTP) Asynchrone Aufträge, Newsletter-Triage, Vertrags-Workflows 10 Min App-Passwort + IMAP-Host Charmant unspektakulär; ideal für Kunden, die keine App installieren wollen.
CLI Power-User, Devs, Pipelines, „hermes" als Befehl im Terminal 2 Min Standard-Install Default. Schnellste Iterationsgeschwindigkeit. Ideal zum Lernen.

Heißer Tipp aus der Praxis: Starte immer auf der CLI. Erst wenn du die Memory- und Skill-Mechanik verstanden hast, schaltest du eine Plattform dazu. Wer direkt mit WhatsApp+Slack+Telegram anfängt, hat vier Probleme gleichzeitig (Bot-Tokens, Webhook-Registrierungen, Plattform-Limits) und keinen Schimmer, ob das Verhalten ein Hermes-Bug oder ein Plattform-Bug ist.

Kapitel 4 · Self-Hosting

Warum auf einem eigenen VPS?

Du kannst Hermes auf deinem Laptop laufen lassen. Du solltest aber nicht. Sobald Hermes mehr werden soll als ein lokaler Spielzeug-Agent, brauchst du einen Server, der 24/7 erreichbar ist – und einer, dem du mehr vertraust als einer Cloud-Service-Variable, die nächstes Quartal abgekündigt wird.

1. Erreichbarkeit

Telegram, Slack und WhatsApp brauchen permanent geöffnete Verbindungen oder Webhook-Endpoints. Dein Laptop schließt den Deckel jede Nacht. Ein VPS nicht. Das ist der Grund, warum Self-Hosting für Agenten praktisch nicht-verhandelbar ist.

2. Memory-Persistenz

Die wertvollste Komponente eines reifen Agenten ist seine über Monate angewachsene Memory. Auf einem Cloud-Service gehört sie nicht dir; auf deinem VPS schon. Ein Snapshot der Memory-Datenbank ist ein einziges tar.gz – damit kannst du Hermes umziehen oder klonen.

3. Echte Privatsphäre

Konversationen zwischen dir und Hermes enthalten oft API-Keys, Kontaktlisten, Vertragsentwürfe, Strategien. Auf einem deutschen oder europäischen VPS bei einem Anbieter mit ADV (Auftragsverarbeitungsvertrag) bleibt das in einer rechtlich sauberen Sphäre.

4. Modell-Souveränität

Mit eigenem VPS entscheidest du, welches Modell Hermes verwendet: aktuelle GPT-, Claude- und Gemini-Modelle, Mistral, Llama, Qwen oder eigene OpenAI-kompatible Endpunkte. Bei Bedarf parallel. Du kannst sogar einen kleinen lokalen Model-Runner (Ollama) für unkritische Aufgaben mitlaufen lassen, um API-Kosten zu drücken.

5. Subagenten-Performance

Subagenten brauchen Container und Browser-Instanzen. Auf einem ARM-MacBook mit knappem RAM merkt man das schmerzlich; auf einem 4-vCPU-VPS mit dediziertem RAM nicht. Browser-Automation + Vision-Modelle + Hermes selbst = leicht 4 GB RAM Spitze.

6. Kosten

Ein dezenter KVM-VPS kostet meist deutlich unter 100 € im Jahr. Eine vergleichbare Cloud-Function-Lösung mit Always-On, persistenter Datenbank und Browser-Service kostet leicht 60 € im Monat. Self-Hosting ist hier sogar wirtschaftlich überlegen.

Kapitel 5 · Schritt-für-Schritt

Hermes auf einem Hostinger-VPS einrichten

Diese Anleitung führt dich vom frisch bestellten KVM-VPS bis zum laufenden Hermes-Agent, der dir auf Telegram antwortet. Geschätzte Zeit: 25 bis 40 Minuten für jemanden mit Linux-Grundkenntnissen. Alle Befehle laufen auf Ubuntu 22.04 / 24.04 LTS.

VPS bestellen und einloggen

Bestelle bei Hostinger einen KVM-2-VPS (oder größer) mit Ubuntu 24.04 LTS, EU-Standort. Sobald die VPS provisioniert ist, kommt eine Mail mit Root-Login-Daten und IP. Logge dich ein:

ssh root@DEINE.VPS.IP

Erste Aktion: System aktualisieren und einen Non-Root-User anlegen.

apt update && apt -y upgrade
adduser hermes && usermod -aG sudo hermes
rsync --archive --chown=hermes:hermes ~/.ssh /home/hermes

Firewall & SSH härten

Bevor irgendein Agent läuft, muss die Maschine sicher sein. UFW erlaubt nur SSH und – falls du einen Webhook-Endpoint exponieren willst – HTTPS:

ufw allow OpenSSH
ufw allow 443/tcp
ufw --force enable
sed -i 's/^#\?PermitRootLogin .*/PermitRootLogin no/' /etc/ssh/sshd_config
systemctl restart ssh

Optional, aber empfohlen: fail2ban installieren und einen Cloudflare-Tunnel einrichten, sodass dein Hermes-Webhook gar nicht direkt im öffentlichen Internet steht.

Docker installieren (für Sandboxing)

Hermes nutzt Docker als Default-Sandbox-Backend für Code-Ausführung. Ohne Docker beschränkst du dich auf das risikoreiche „local"-Backend.

curl -fsSL https://get.docker.com | sh
usermod -aG docker hermes

Wechsle danach auf den hermes-User: su - hermes.

Hermes-Installer ausführen

Der offizielle One-Liner. Lies das Skript vorher, gerade weil du Root-Recht delegierst. Nous Research hostet es unter eigener Domain.

curl -fsSL https://hermes-agent.nousresearch.com/install.sh | bash

Das Skript legt eine Python-venv unter ~/.hermes an, installiert Abhängigkeiten, richtet den Datenordner für Memory ein und legt einen hermes-Befehl in deinem PATH ab.

Hermes konfigurieren

Der interaktive Setup-Wizard fragt nach Modell-Provider, API-Key, Default-Sandbox und Plattform-Tokens.

hermes setup

Empfehlung für den Einstieg: Modell = Claude Sonnet, GPT-4.1-class oder ein anderes aktuelles Tool-Calling-Modell, Sandbox = Docker, Plattform = nur CLI. Die Messenger schaltest du später dazu.

Erster Test im CLI

Stelle sicher, dass alles funktioniert, bevor du Bots ankoppelst.

hermes

Ein Prompt erscheint. Frage etwas Triviales, etwa: „Liste die 5 größten Dateien in meinem Home-Verzeichnis." Hermes sollte das ohne Internet-Aufruf lösen, indem er einen Shell-Befehl in der Sandbox ausführt und die Ausgabe interpretiert.

Telegram-Bot anhängen

Schreibe @BotFather auf Telegram an, mache einen neuen Bot, kopiere den Token. Dann:

hermes adapter add telegram --token=DEIN_TOKEN
hermes start --daemon

Schreibe deinem neuen Bot eine Nachricht. Innerhalb von Sekunden antwortet derselbe Hermes, den du eben in der CLI hattest – mit derselben Memory.

Als systemd-Service absichern

Damit Hermes nach Reboot automatisch wieder hochkommt:

sudo tee /etc/systemd/system/hermes.service >/dev/null <<'EOF'
[Unit]
Description=Hermes Agent
After=network-online.target docker.service
Wants=network-online.target

[Service]
User=hermes
ExecStart=/home/hermes/.hermes/bin/hermes start
Restart=on-failure
RestartSec=5

[Install]
WantedBy=multi-user.target
EOF
sudo systemctl enable --now hermes
journalctl -u hermes -f

Fertig. Reboot den VPS einmal, schreibe deinem Bot, und beobachte, wie Hermes auch nach Cold-Boot binnen ~15 Sekunden wieder antwortet.

Kapitel 6 · Hardware-Empfehlung

Welcher Hostinger-Tarif passt zu Hermes?

Die richtige Frage ist nicht „Wie viel kostet ein VPS?", sondern „Was läuft alles parallel auf der Maschine?". Hermes selbst ist genügsam. Aber Browser-Sandboxes, lokale Modelle und Subagenten-Pools lassen den Bedarf schnell wachsen.

Tarif vCPU RAM NVMe Eignung für Hermes Empfehlung
KVM 1 1 4 GB 50 GB Hermes + 1 Plattform, kein Browser, kein lokales Modell nur zum Testen
KVM 2 2 8 GB 100 GB Hermes + 3 Plattformen + Browser-Sandbox + Subagenten Sweet Spot
KVM 4 4 16 GB 200 GB + lokale Modelle (z. B. Llama 3.1 8B via Ollama) Power-User
KVM 8 8 32 GB 400 GB + größere Modelle, mehrere Hermes-Instanzen, Vision lokal Profi-Setup

Für 90 % der Solo-Founder und Indie-Anwender ist KVM 2 der richtige Einstieg. Du kannst Hermes parallel zu einer kleinen Postgres-Datenbank, einem Caddy-Reverse-Proxy und einem n8n-Workflow-Runner laufen lassen. Sollte es eng werden, ist Upgrade auf KVM 4 in der Hostinger-UI ein Klick und ein Reboot.

Kapitel 7 · Sicherheit

Sandbox-Backends im Detail

Wenn ein KI-Agent Code ausführen kann, brauchst du eine sichere Hülle drumherum. Hermes liefert fünf davon. Hier eine ehrliche Einschätzung, wann du welches nimmst.

local riskant

Hermes führt Befehle direkt unter seinem User aus. Schnell, aber er sieht alles, was sein User sieht – inklusive deiner SSH-Keys. Nur für vertrauenswürdige Tasks oder Maschinen, die du als „Spielwiese" betrachtest.

Docker Standard

Jeder Code-Run landet in einem ephemeren Container mit eigener Filesystem-Sicht. Memory bleibt außen, persistiert. Realistischer Default: schnell genug, sicher genug, einfach zu debuggen mit docker logs.

SSH

Hermes loggt sich auf eine andere Maschine ein und führt dort aus. Großartig, wenn du den Agent auf einem schwachen VPS laufen lässt, aber für rechen-intensive Tasks eine GPU-Maschine, einen Hetzner-Dedicated oder einen Workstation-PC zu Hause verwenden willst.

Singularity

Kommt aus dem HPC-Umfeld. Wer Hermes in einem Universitäts-Rechenzentrum oder bei einem Forschungs-Cluster betreibt, kennt es. Für die meisten DACH-Solo-Anwender irrelevant, aber gut zu wissen, dass es da ist.

Modal

Serverless-GPU-Plattform. Hermes spawnt für GPU-Tasks (z. B. Stable Diffusion, große Embeddings) on-demand eine Modal-Funktion. Du zahlst pro Sekunde GPU-Zeit. Für teure, sporadische Workloads günstiger als ein dedizierter GPU-Server.

Container-Hardening

Egal welches Backend: Hermes setzt restriktive Profile (seccomp, cap-drop, no-new-privileges, read-only-root). Du kannst die Profile pro Skill noch enger ziehen – etwa: dieser Skill darf ausschließlich auf /data/projects schreiben.

DACH-Empfehlung: Bleib auf Docker als Default. Wenn du sehr paranoid bist, kombiniere mit gVisor (--runtime=runsc) als Drop-in-Replacement für die Standard-Runtime. Das ist der Best-Practice-Stand für Multi-Tenant-Code-Sandboxes 2026.

Kapitel 8 · Anwendungsfälle

Was du mit Hermes konkret machst

Theorie hilft beim Verkaufen, Praxis beim Verwenden. Diese vier Use-Case-Profile haben sich in DACH-Indie- und Agentur-Setups als robust herauskristallisiert.

Solo-Founder Cockpit

Ein Hermes auf Telegram, der morgens einen Briefing-Report schickt (Stripe-MRR, Plausible-Visits, neue GitHub-Issues), der unterwegs E-Mails triagieren kann („Antworte auf Maria mit dem Standard-Onboarding-Text") und der abends Code-Reviews in deine Repos posten kann.

  • Stripe-MRR-Pull via Stripe-API
  • Plausible/GA4-Snapshot
  • GitHub-PR-Trigger und Linear-Tasks

Marketing-Automation

Hermes liest Reddit, HackerNews, X für deine Nische, klassifiziert relevante Threads, schreibt Antwortvorschläge und postet auf Freigabe. Erstellt SEO-Briefings für Texter aus den Top-10-SERP-Snippets. Versendet Outreach-Mails über IMAP/SMTP, wartet auf Antworten, klassifiziert Antwortqualität.

  • Daily SERP-Monitoring für 200 Keywords
  • Comment-Vorschläge mit Tonalitäts-Vorgabe
  • Outreach-Sequenzen mit IMAP-Reply-Detection

DevOps-Sidekick

Hermes auf Slack, der bei #alerts-Channel mitliest, bei P1-Incidents direkt eine Trace-Analyse aus Loki/Grafana zieht, eine Hypothese formuliert und einen ersten Fix-Branch eröffnet, bevor du am Laptop bist. Backup-Verifikation, Cert-Renewal-Monitoring, Container-Image-Updates.

  • journalctl- und Loki-Queries auf Trigger
  • Auto-Hypothese aus Stack-Trace
  • Renovate-ähnliche Updates mit PR-Erstellung

Customer-Support-Layer

Hermes liest dein Support-Postfach mit, klassifiziert Tickets, schreibt Drafts auf Basis deiner Wissensbasis, eskaliert Edge-Cases an dich auf Telegram. Ergebnis: Du arbeitest 30 Minuten am Tag im Postfach statt 3 Stunden, ohne dass Kunden ein Erlebnis bekommen, das nach „KI-Bot" schmeckt.

  • IMAP-Triage mit Category-Tags
  • Knowledge-Base-Abruf via Vektor-Search
  • Telegram-Eskalation bei Confidence < X
Kapitel 9 · Lernen & Erinnern

Wie Hermes Wissen behält und Skills entwickelt

Memory und Skills sind die zwei Mechanismen, die einen frischen Hermes binnen 4 Wochen von einem „austauschbaren Bot" zu „deinem unersetzlichen Mitarbeiter" machen. Hier die innere Mechanik.

Hierarchische Memory

Hermes legt Konversationen in mehreren Schichten ab: Kurzzeit-Memory (letzte ~50 Messages, immer im Prompt), Episoden-Memory (Zusammenfassungen ganzer Konversationen, mit Embeddings) und Fakten-Memory (extrahierte Tatsachen wie „User heißt Daniel, Firma Famefact, bevorzugte Programmiersprache Python").

Bei jeder neuen Anfrage führt Hermes einen Vektor-Retrieval gegen alle drei Schichten durch und zieht relevante Erinnerungen in den Kontext. Du steuerst die Datenbank (typischerweise SQLite + lokales Embedding-Modell, optional pgvector + Postgres für Skalen).

Auto-Skills

Wenn Hermes eine Aufgabe gelöst hat, kann er reflektieren („Was habe ich getan? War es nützlich? Würde es nochmal nötig sein?") und das Resultat als Skill abspeichern. Ein Skill ist eine Funktion mit Namen, Description und Code – inklusive Test-Inputs.

Beim nächsten Mal entscheidet Hermes deterministisch: „Ich habe ein Skill fetch_stripe_mrr(), rufe es einfach auf, statt das Stripe-API-Recherche-Theater zu wiederholen." Das spart Tokens, Geld und Zeit – und reduziert Halluzinations-Risiko, weil deterministischer Code ausgeführt wird.

DSGVO-Hinweis: Memory enthält personenbezogene Daten. Achte darauf, im Lösch-Workflow eines Kunden auch die zugehörigen Memory-Einträge auszubuchen. Hermes bringt dafür einen hermes memory forget --query=...-Befehl mit.

Kapitel 10 · Marktvergleich

Hermes vs. die anderen Agent-Tools 2026

Ehrliche Einordnung gegen die wichtigsten kommerziellen und Open-Source-Alternativen. Kein Tool ist universell überlegen – die Frage ist immer: Was ist für deinen Use-Case der kleinste, sicherste, günstigste Hebel?

Kriterium Hermes Agent ChatGPT (Operator) Claude Desktop n8n + LLM-Node Cursor / Copilot
Selbst hostbarjaneinteilweisejanein
Persistente Memoryja, hierarchischkuratiertkuratiertneinnein
Multi-Plattform7+WebDesktopper WorkflowIDE
Auto-SkillsjaneinMCP-Servermanuellnein
Sandboxing5 BackendsVMkeinContainerkein
Modell-WahljedesOpenAIAnthropicjedeskuratiert
LizenzMITSaaSSaaSFair-CodeSaaS
Best-fit-Use-Casepersönlicher Dauer-AgentWeb-RechercheCode+Filesklare WorkflowsTippen

Pragmatische Sicht: Hermes und n8n sind keine Gegner, sondern Komplementäre. n8n ist gut, wenn der Workflow vorher klar ist. Hermes ist gut, wenn der Workflow erst während der Konversation entsteht. In den meisten DACH-Setups, die wir gesehen haben, läuft n8n für die strukturierten Pipelines, Hermes für das Improvisierte – auf demselben VPS.

Kapitel 11 · DSGVO & Sicherheit

Was DACH-Anwender wirklich beachten müssen

Wir sind keine Anwälte, aber wir betreiben seit Jahren Lead-Pipelines mit personenbezogenen Daten auf eigenen Servern. Diese Punkte halten wir für die wichtigsten, wenn du Hermes für mehr als private Spielereien einsetzt.

Was speichert Hermes wo?

  • Konversationen → SQLite-Datei in ~/.hermes/data/
  • Embeddings → SQLite oder pgvector, ebenfalls lokal
  • Skill-Code → Python-Files in ~/.hermes/skills/
  • Plattform-Tokens → verschlüsselt in ~/.hermes/secrets/ mit OS-Keyring
  • API-Calls an Modelle (OpenAI/Anthropic) → an deren Server, jeweils Datenschutz-Richtlinie prüfen

Das heißt konkret: Du bist Verantwortlicher im DSGVO-Sinn, dein VPS-Anbieter ist Auftragsverarbeiter (ADV nötig), und das LLM-API ist eine Drittlandübermittlung (für US-Provider Standardvertragsklauseln und ggf. Auftragsverarbeitungs-Zusatz).

Was du tun solltest

  • EU-Standort wählen (Hostinger Frankfurt/Amsterdam), ADV abschließen
  • Disk-Encryption auf dem VPS (LUKS oder Provider-LUKS)
  • API-Keys in OS-Keyring oder HashiCorp Vault, nicht in .env
  • Bei US-LLM-APIs: in Datenschutzerklärung nennen, Standardvertragsklauseln dokumentieren
  • Bei Verarbeitung von Kundendaten: separate Hermes-Instanz pro Mandant erwägen
  • Backup-Verschlüsselung mit restic + S3-kompatiblem Speicher in EU
  • Lösch-SOP: bei Auskunfts-/Löschungsanfrage hermes memory forget dokumentieren

Eine ehrliche Einschränkung: Wenn du Hermes mit GPT/Claude betreibst, verlassen Konversations-Inhalte deinen VPS, sobald sie an die Modell-API geschickt werden. Wer das vermeiden will, muss zwingend lokale Modelle (Ollama, vLLM) verwenden – das ist der einzige Weg zur „echten On-Premise"-KI.

Kapitel 12 · Total Cost of Ownership

Was kostet Hermes im Monat realistisch?

Drei typische Profile, ehrlich kalkuliert. Annahmen: 30 Tage, mittlere Beanspruchung, EU-Anbieter. Modellpreise Stand 2026.

Profil VPS LLM-API Sonstiges Summe / Monat
Hobbyist
~50 Anfragen/Tag, GPT-mini, kein Browser
6,99 € (KVM 2, je nach Laufzeit/Region tagesaktuell prüfen) ~3 € 0 € ~10 €
Solo-Founder
~300 Anfragen/Tag, Claude Sonnet, Browser, 1 Mandant
9,99 € (KVM 4) ~25–40 € 5 € (Domain, Backups) ~40–55 €
Agentur-Setup
5 Hermes-Instanzen, mehrere Plattformen, Subagenten
19,99 € (KVM 8) ~120–200 € 15 € (Domains, restic-S3, monitoring) ~155–235 €

Zum Vergleich: Eine vergleichbare „Agent-as-a-Service"-Lösung (z. B. proprietäre Plattformen, die ähnliche Features anbieten) liegt im Solo-Founder-Profil eher bei 100–180 € / Monat – ohne Modell-Souveränität, ohne MIT-Lizenz, ohne dass deine Memory dir gehört. Die Self-Hosting-Variante mit Hermes auf einem Hostinger-VPS spart konservativ 50–70 % der laufenden Kosten und gibt dir Datenhoheit dazu.

Kapitel 13 · FAQ

Häufige Fragen zu Hermes AI Consulting

Antworten auf Fragen, die in unserer Discord-Community, in DACH-Foren und per Mail an unsere Redaktion immer wiederkehren.

Was ist der Unterschied zwischen Hermes Agent und Hermes-Modellen?

Nous Research veröffentlicht zwei verwandte Produktlinien: die Hermes-Modellfamilie (Hermes 2, 2.5, 3 – feingetunte Open-Weight-Sprachmodelle auf Llama-Basis) und das Hermes Agent Framework (das Stück Software, um das es auf dieser Seite geht). Sie tragen den gleichen Namen, sind aber unabhängig voneinander einsetzbar: Du kannst den Hermes Agent mit aktuellen GPT-, Claude- oder Gemini-Modellen betreiben, ohne je ein Hermes-Modell anzufassen. Umgekehrt kannst du Hermes-Modelle in Ollama, vLLM oder Together laden, ohne den Agent zu verwenden.

Brauche ich Programmierkenntnisse, um Hermes zu betreiben?

Linux-Grundkenntnisse: ja. Python-Kenntnisse: nicht zwingend, aber hilfreich. Wer noch nie per SSH auf einem Server war, sollte vorher ein paar Stunden in Tutorials investieren. Wenn du bereits Server bedienst, ist die Einrichtung in < 1 Stunde erledigt.

Kann Hermes komplett ohne Cloud-Modelle laufen?

Ja. Mit Ollama oder vLLM auf demselben VPS (oder einer separaten GPU-Maschine via SSH-Sandbox) kannst du Llama-, Qwen- oder Mistral-Modelle lokal hosten. Die Antwortqualität ist niedriger als bei aktuellen GPT- oder Claude-Modellen, aber für viele Routineaufgaben ausreichend – und kosten- wie privacy-mäßig unschlagbar.

Welche Sprachen versteht Hermes?

Das hängt am verwendeten Modell, nicht am Agent-Framework. Mit aktuellen GPT- oder Claude-Modellen ist Deutsch praktisch native. Mit kleineren Open-Source-Modellen kann es zu Tonalitäts-Abweichungen kommen – Hermes selbst ist sprach-agnostisch.

Kann ich Hermes mit mehreren Personen teilen (Familie, Team)?

Ja, jeder Plattform-Adapter unterstützt Multi-User. Hermes erkennt User-IDs und führt getrennte Memory-Stränge pro Person. Beispiel: Du und dein Mitgründer schreibt demselben Telegram-Bot, bekommt aber jeder seine eigene Memory-Sicht. Sensitiv: Pro-User-RLS (Row-Level-Security) musst du selber strikt sicherstellen, falls Daten geteilt werden sollen.

Was passiert, wenn der VPS abstürzt?

Mit dem systemd-Service aus Schritt 8 startet Hermes nach Reboot automatisch wieder. Konversations-Memory ist auf der Disk persistiert; nichts geht verloren. Die einzigen verlorenen Daten wären die letzten ~10 Sekunden Konversation, die im RAM-Cache lagen. Für Disaster-Recovery empfehlen wir tägliche restic-Backups der ~/.hermes-Daten in einen S3-kompatiblen Speicher bei einem zweiten Anbieter.

Muss ich für jede Plattform einen separaten Bot anlegen?

Ja, jede Plattform hat ihr eigenes Bot/App-Konzept (BotFather bei Telegram, Developer-Portal bei Discord, App-Manifest bei Slack). Hermes verwaltet die Tokens zentral und bedient alle Adapter aus derselben Memory.

Was passiert mit Memory, wenn ich Hermes von einem VPS auf einen anderen umziehe?

Trivial: ~/.hermes verzeichnis-tarballen (tar czf hermes-backup.tar.gz ~/.hermes), auf neuem VPS auspacken, hermes setup mit „import existing" wählen. Die Memory ist anbieter-portabel.

Wie sicher ist die install.sh von Nous Research?

Das Skript ist auf der offiziellen Domain hermes-agent.nousresearch.com gehostet, das HTTPS-Zertifikat ist von einer Standard-CA. Trotzdem gilt: Lies das Skript, bevor du es ausführst (curl ... | less). Das ist nicht nur bei Hermes, sondern bei jedem One-Liner-Installer der DevOps-Best-Practice.

Kann Hermes mit MCP-Servern arbeiten?

Ja. Hermes ist seit v0.10 MCP-Client und kann jeden Model-Context-Protocol-konformen Server mounten – egal ob für Datenbanken, GitHub, Linear, Slack oder eigene Tools. Wenn du im Anthropic-Ökosystem bereits MCP-Server gebaut hast, sind sie hier sofort wiederverwendbar.

Verträgt sich Hermes mit n8n auf demselben VPS?

Sehr gut sogar. n8n läuft typischerweise als Docker-Container auf Port 5678, Hermes hat keinen fest-belegten Port. Beide teilen sich CPU/RAM ohne Konflikt. Tipp: Lass n8n als Trigger-Layer arbeiten („Webhook → ruft Hermes auf"), Hermes als kreativ-improvisierter Bearbeiter, n8n schreibt das Resultat zurück in deine Tools.

Was kostet ein Hostinger-KVM-2-VPS bei längeren Laufzeiten?

Hostinger setzt stark auf lange Laufzeiten als Rabatt-Mechanismus. Die 24- oder 48-Monats-Optionen liegen oft 50 % unter dem 1-Monats-Preis. Realistischer Einstieg über unseren Referral-Link: rund 7 € pro Monat bei 24-Monats-Bindung, mit Ersparnis-Code teils noch günstiger. Aktuelle Preise siehe direkt bei Hostinger.

Kann ich Hermes auf einem Raspberry Pi laufen lassen?

Technisch ja, ab Raspberry Pi 5 mit 8 GB RAM ist es benutzbar – mit Cloud-Modellen, ohne Browser-Sandbox. Der Engpass ist immer der RAM, nicht die CPU. Empfehlung trotzdem: Ein KVM-VPS hat bessere Erreichbarkeit (statische IP, gutes Netz, Always-On), die paar Euro im Monat lohnen sich.

Welches Modell ist 2026 das beste „Driver"-Modell für Hermes?

Mit Stand 2026 hängt die beste Wahl vom Workflow ab: Claude-Modelle sind oft stark bei langen Analyseketten, GPT-Modelle bei strukturiertem Tool-Use und Gemini-Modelle bei multimodalen Aufgaben. Praxisansatz: Routing – „kreativ" → Claude, „strukturiert/günstig" → GPT, „Bilder" → Gemini. Hermes unterstützt Modell-Routing pro Skill.

Gibt es eine Web-UI für Hermes?

Ja, ein optionales Hermes-Dashboard, das du via hermes ui --port=8443 starten kannst. Es zeigt Memory, Skills, laufende Subagenten und Logs in einem schicken Browser-Frontend – empfiehlt sich, gegen Cloudflare-Tunnel oder VPN zu sichern, nicht direkt im Internet.

Kann ich Hermes ohne API-Keys zu kommerziellen Modellen testen?

Ja, mit einem lokalen Ollama-Modell. Lade z. B. llama3.1:8b oder qwen2.5:7b, zeige Hermes auf http://localhost:11434 und du hast einen komplett offline lauffähigen Agent. Antwort-Qualität ist niedriger als bei GPT/Claude, zum Lernen aber völlig ausreichend.

Wie unterscheidet sich Hermes von OpenInterpreter?

OpenInterpreter ist ein Code-Interpreter-Loop für eine einzelne Konversation, primär CLI. Hermes ist ein langlaufender Agent mit Memory, Skills, Multi-Plattform-Adapter und Subagenten-Pool. OpenInterpreter ist eher „Python-REPL mit LLM", Hermes ist „Server-Mitarbeiter mit Identität". Wer schnell ad-hoc Code-Aufgaben lösen will, ist mit OpenInterpreter glücklich; wer einen dauerhaften digitalen Mitarbeiter will, mit Hermes.

Verfälscht Memory die Antworten? Halluzinationen?

Memory ist eine zweischneidige Klinge: Sie macht Antworten konsistenter, kann aber alte Fehler fortschleppen. Hermes hat dafür einen memory rate-Befehl: nach jeder Antwort kannst du die Erinnerung als „nützlich" oder „falsch" bewerten. Schlecht bewertete Memories werden in zukünftigen Retrievals deutlich schwächer gewichtet.

Ist Hermes für kommerzielle Projekte erlaubt?

Ja. MIT-Lizenz erlaubt kommerzielle Nutzung, Modifikation und Re-Distribution. Du musst den Lizenztext beibehalten, aber keinerlei Gebühren an Nous Research zahlen. Du musst weder Quellcode-Änderungen veröffentlichen noch deine Modifikationen wieder einspeisen.

Wie schnell antwortet Hermes auf einer KVM-2?

Latenz hängt am Modell: Mit Claude/GPT-API typischerweise 2–6 Sekunden zwischen User-Message und Antwort. Mit lokalem 8B-Modell (Ollama, KVM 4) eher 10–25 Sekunden. CPU-Last beim Routine-Betrieb unter 5 %, RAM-Konsum 700 MB–1,5 GB plus Browser-Sandboxes wenn aktiv.

Kann ich Hermes mit meinem bestehenden Telegram-Bot nutzen?

Ja, du musst nur den Token bei hermes adapter add telegram --token=... angeben. Wichtig: Ein Bot kann gleichzeitig nur an einer Verbindung lauschen – wenn dein Bot bisher in n8n oder einem anderen Worker hing, deaktiviere den dort, sobald Hermes übernimmt.

Was sind „auto-generierte Skills" in der Praxis?

Beispiel: Du fragst Hermes „Hol mir die Top-5 organischen URLs für ‚Adressdruck' aus meiner Search Console." Hermes löst das einmal interaktiv (OAuth-Flow, API-Call, Resultat), erkennt am Ende „Diese Aufgabe könnte wiederkehren" und legt ein Skill fetch_top_organic_urls(keyword) ab. Beim nächsten Mal antwortet er in 1 Sekunde, weil er nur das Skill aufruft.

Geht Hermes mit Stripe, Shopify, HubSpot und Co.?

Ja, sobald die Anbieter eine API mit gut dokumentiertem OpenAPI-Spec haben, kann Hermes lernen, sie zu bedienen. Empfehlung: Für komplexe APIs einen MCP-Server vor die API stellen, das stabilisiert die Tool-Use-Performance dramatisch.

Kann ich Hermes für mehrere Mandanten parallel nutzen?

Zwei Ansätze: (a) Eine Instanz mit User-Isolation pro Plattform-User (eingebaut), (b) Mehrere komplett isolierte Hermes-Instanzen, jede in eigenem Linux-User mit eigenem Datenordner. Für KMU-Mandantentrennung mit harten DSGVO-Anforderungen: zwingend (b).

Wie aktualisiere ich Hermes auf eine neue Version?

Eingebauter Befehl: hermes update. Es zieht den neuesten Tag von GitHub, baut die Python-venv neu und migriert die Datenbank-Schema-Versionen. Vor Major-Releases (z. B. 0.x → 1.0) immer ein Backup von ~/.hermes machen, weil Schema-Migrations manchmal nicht reversibel sind.

Welche Domains/Subdomains brauche ich?

Für reinen CLI- und Telegram-Betrieb: keine. Sobald du Webhook-Endpoints (Slack-Events, WhatsApp, Discord-Slash-Commands mit HTTP-Callbacks) nutzt, brauchst du eine Domain mit gültigem TLS-Cert. Empfehlung: Cloudflare-Tunnel zum VPS – dann brauchst du nicht mal eine offene Eingangsverbindung zum VPS.

Was sage ich meinem Steuerberater zu den VPS-Kosten?

Hostinger stellt monatliche Rechnungen mit ausweisbarer EU-USt aus (bei B2B mit USt-ID Reverse-Charge). Voll als Betriebsausgabe absetzbar. Wer Hermes für mehrere Kunden parallel nutzt: Kosten via interne Verrechnungskostenstelle umlegen.

Was, wenn Nous Research das Projekt einstellt?

Hermes ist MIT-lizenziert. Der Code ist auf GitHub gespiegelt. Selbst wenn Nous den Stecker zieht, kannst du eine eigene Fork-Version weiter pflegen – oder mit der Community ein Maintainer-Konsortium bilden. Das ist exakt der Vorteil von Open-Source gegenüber proprietären Agent-Plattformen, deren Sterben dein Setup mitreißen würde.

Wo bekomme ich Support?

Erste Anlaufstelle: Nous-Research-Discord (öffentlich, kostenlos), GitHub-Issues (github.com/nousresearch/hermes-agent) für Bug-Reports. Für deutsche Anwender bietet unser Team auf Anfrage auch zahlende Setup-Unterstützung – Kontakt im Impressum.

Kapitel 14 · Glossar

Begriffe rund um Hermes

Kurze Definitionen für die wichtigsten Begriffe, denen du in der Hermes-Welt begegnen wirst.

AdapterEin Modul, das Hermes an eine Plattform anbindet (Telegram-Adapter, Slack-Adapter etc.). Tausch- und kombinierbar.
Agent-LoopDer Kern-Zyklus: Plan → Tool-Use → Beobachtung → nächste Aktion. Läuft, bis das Ziel erreicht ist oder der User unterbricht.
Auto-SkillEin selbst-generiertes Mini-Programm, das Hermes nach erfolgreichem Lösen einer Aufgabe als Wiederverwendung anlegt.
Episoden-MemoryZusammenfassung einer abgeschlossenen Konversation, mit Embedding für späteren Vektor-Retrieval.
Fakten-MemoryStrukturierte Tatsachen über User und Welt, die aus Konversationen extrahiert werden.
GatewayKomponente, die externe Webhooks (Slack-Events etc.) entgegennimmt und an den Agent-Prozess weiterleitet.
Hermes-ModelleDie Open-Weight-Sprachmodelle von Nous Research (Hermes 2 / 2.5 / 3). Nicht zu verwechseln mit dem Agent-Framework.
Kurzzeit-MemoryDie letzten ~50 Messages, die ungekürzt in jeden Prompt einfließen.
MCPModel Context Protocol – Anthropics Standard für Tool-Server, mit dem Hermes Tools mounten kann.
ModalServerless-GPU-Plattform, ein optionales Sandbox-Backend für GPU-intensive Tasks.
Nous ResearchDas US-Open-Source-AI-Lab hinter Hermes. Bekannt für Hermes-Modelle und DPO-Forschung.
SandboxEine isolierte Umgebung für Code-Ausführung. Hermes unterstützt fünf: local, Docker, SSH, Singularity, Modal.
SkillEine benannte, getypte Funktion, die Hermes aufrufen kann. Enthält Code, Description und Test-Inputs.
SubagentEine isolierte Hermes-Instanz, von einem Hauptagenten gestartet, mit eigener Konversation und Sandbox.
Tool-UseDer Mechanismus, mit dem ein Sprachmodell Funktionen aufrufen kann (z. B. Shell, HTTP, Browser, Datenbank).
Vektor-RetrievalSuche in Memory anhand semantischer Ähnlichkeit (Embeddings), nicht anhand exakter Stichworte.