KI-Souveränität
für die Industrie.

Wir unterstützen Unternehmen dabei, Künstliche Intelligenz wertschöpfend und regelkonform einzusetzen — als Systemlieferant, Integrator und Beratungspartner. Unser Fokus liegt auf lokalen, On-Premise-Lösungen, die Sie selbst besitzen und kontrollieren.

Statt Abomodellen oder Cloud-Abhängigkeiten liefern wir Systeme, die Sie als Einmalinvestition kaufen und abschreiben können. Wir verstehen uns als langfristiger Partner — nicht als Abonnement.

Beratung und Projektunterstützung.

Ob Sie am Anfang Ihrer KI-Strategie stehen oder bereits erste Lösungen im Einsatz haben — wir bringen eine unabhängige Perspektive ein und unterstützen Sie bei konkreten Entscheidungen.

Audits

Wir prüfen, wie Künstliche Intelligenz in Ihrem Unternehmen oder bei Ihren Partnern eingesetzt wird, und bewerten die Prozesse im Hinblick auf DSGVO, EU AI Act und ISO/IEC 42001:2023. Geprüft werden sowohl die organisatorischen Rahmenbedingungen als auch die tatsächliche Wertschöpfung. Das Ergebnis ist ein schriftliches Gutachten, das als Kompetenznachweis oder als Grundlage für Optimierungsmaßnahmen dient.

Business Case und Prozessanalyse

Investitionen in KI müssen sich rechnen. Wir analysieren Ihre Prozesse, identifizieren konkrete Anwendungsfälle und erstellen belastbare Wirtschaftlichkeitsbetrachtungen. Durch unsere industrielle Prägung bewerten wir Potenziale nicht nur technisch, sondern auch mit Blick auf Umsetzbarkeit im laufenden Betrieb.

Interims- und Projektmanagement

Für Transformationsprojekte stellen wir qualifizierte Projektressourcen bereit. Bei kurzfristigen personellen Engpässen übernehmen wir auch interimistisch Schlüsselpositionen, bis eine dauerhafte Besetzung gefunden ist.

Schulungen und Wissenstransfer.

Ein sicherer Umgang mit KI beginnt beim Mitarbeiter. Unsere B2B-Schulungen vermitteln das nötige Verständnis, um Künstliche Intelligenz effektiv und regelkonform im Arbeitsalltag einzusetzen. Die Schulungen bauen aufeinander auf und können in Präsenz oder als Webinar durchgeführt werden.

Level I 4 Stunden

Artificial Intelligence for Beginners

  • Large Language Models
  • Token
  • Prompt Engineering
  • Erkennen von Halluzinationen
  • Datenschutz
  • Compliance
Level II 4 Stunden

Artificial Intelligence for Associates

  • Retrieval-Augmented Generation
  • Embedding- und Reranking-Modelle
  • Chunks und Vektoren
  • Context Engineering
  • Vermeidung von Halluzinationen
  • Cybersecurity
Level III 8 Stunden

Artificial Intelligence for Professionals

  • Tools
  • Model Context Protocol
  • API-Schnittstellen
  • Agentic Engineering
  • Mini-Workshop Applied AI
  • Ausblick auf kommende Entwicklungen

Systemintegration.

Wir integrieren KI-Systeme in Ihre bestehende IT-Infrastruktur und begleiten die organisatorischen Veränderungen, die damit einhergehen.

Dazu gehören die Installation lokaler Software und Hardware, die Anbindung an bestehende Systeme über Schnittstellen und — bei Bedarf — die Lieferung schlüsselfertiger Komplettsysteme aus eigener Hand. Unser Schwerpunkt liegt auf lokalen, On-Premise-Lösungen.

  • Installation lokaler Software und Hardware
  • Anbindung an bestehende Systeme
  • Schlüsselfertige Komplettsysteme
  • Change-Management-Begleitung

Softwareentwicklung.

Wir entwickeln lokale KI-Software nach Ihren Anforderungen und trainieren bei Bedarf spezifische Modelle für Ihren Anwendungsfall. Unsere Lösungen verarbeiten je nach Aufgabenstellung Text, Audio, Bilder, Videos und gängige Dateiformate.

Multimodale und mehrsprachige Verarbeitung ist Standard. Für komplexe Anforderungen kombinieren wir verschiedene KI-Komponenten zu lokalen End-to-End-Lösungen und entwickeln die nötigen Schnittstellen zu bestehenden Systemen.

Im Lieferumfang enthalten ist ein Software-Support von zwei Jahren. Optional verlängerbar auf bis zu sieben Jahre.

Eingesetzte Technologien
  • Large Language Models 01
  • Embedding- und Reranker-Modelle 02
  • Speech-to-Text-Modelle 03
  • Computer Vision 04
  • Retrieval-Augmented Generation 05
  • Model Context Protocol 06

Hardware.

Lokale Inferenz bietet die höchste Kontrolle über Ihre Daten, da diese das Unternehmen nicht verlassen. Dafür liefern wir KI-Workstations und rackfähige KI-Server, die On-Premise in Ihrem Unternehmen arbeiten — auch ohne Internetverbindung.

KI-Workloads stellen besondere Anforderungen an Speicherbandbreite und Rechenleistung, insbesondere im Mehrbenutzerbetrieb. Unsere Server sind für den 24/7-Einsatz im Rechenzentrumsbetrieb ausgelegt. KI-Workstations stellen wir individuell auf Ihre Anforderungen hin zusammen.

Die Gewährleistung beträgt zwei Jahre und lässt sich optional auf bis zu sieben Jahre verlängern. Auf Wunsch beraten wir Sie zu Upgrade-Pfaden, um dem schnellen Entwicklungstempo im KI-Umfeld Rechnung zu tragen.

Eingesetzte Komponenten
  • Error Correction Code (End-to-End ECC) 01
  • Data Center SSDs im RAID 1 02
  • AMD Zen 5 Threadripper 03
  • NVIDIA Blackwell Pro GPUs 04
  • IPMI-fähige Mainboards 05
  • Hochleistungs-Luftkühlung 06

Solid Qubits.

Ein lokales Komplettsystem für die unternehmensweite Wissensverwaltung. Sprachmodell, Vektordatenbank und Dokumentenmanagement in einer Plattform — vollständig On-Premise, mehrbenutzerfähig, mit Freigabeworkflows und Audit-Trails.

Einfache Inbetriebnahme

Solid Qubits muss nicht trainiert werden. Das System indexiert Dokumente, PDFs und Videos automatisch und stellt die Inhalte direkt zur Verfügung.

Datensicherheit durch lokale Verarbeitung

Ihre Daten liegen ausschließlich auf Ihrem KI-Server und werden auch dort verarbeitet. Sie verlassen zu keinem Zeitpunkt Ihr Unternehmen.

Nachvollziehbare Antworten

Jede Antwort wird mit den zugrundeliegenden Quellen aus Ihren Dateien belegt. Sie behalten die volle Kontrolle über den Wissensstand des Systems.

Arbeiten mit dem System

Mitarbeiter greifen auf das gesamte freigegebene Unternehmenswissen zu, erstellen neue Dokumente mit KI-Unterstützung und bearbeiten bestehende.

Freigabeprozesse und Governance

Entwürfe durchlaufen definierte Workflows und werden berechtigten Prüfern vorgelegt. Nur geprüftes Wissen fließt in die produktive Wissensbasis.

Effizienz im Wissenstransfer

Verkürzt Einarbeitung und Abteilungswechsel. Arbeitsanweisungen und Handbücher entstehen mit Unterstützung des Systems deutlich schneller.

Einblicke in das System.

Vier Perspektiven auf dieselbe Wissensbasis — Beispielbilder

Dateisystem mit Wissensgraph in Solid Qubits

Dateisystem und Wissensgraph

Ihre Dokumente bleiben in einer vertrauten Ordnerstruktur organisiert. Parallel dazu zeigt ein Wissensgraph — ähnlich einem neuronalen Netz — wie die Inhalte semantisch zusammenhängen.

Originaldokument als PDF in Solid Qubits öffnen

Originalquellen einsehen

Jede Antwort ist mit den zugrundeliegenden Dokumenten verknüpft. Über eine Quellreferenz im Chat, das Dateisystem oder den Wissensgraph öffnen Sie das Original — auf die sich die Antwort bezieht.

Video als Wissensquelle in Solid Qubits

Videos als Wissensquelle

Neben Dokumenten verarbeitet Solid Qubits auch Videos. Audio- und Bildspur werden gemeinsam ausgewertet und fließen in die Antworten ein. Freigabeprozesse und Audit-Trail gelten dabei genauso wie für jedes andere Dokument.

Vektor-Ansicht eines Dokuments in Solid Qubits

Wissen sichtbar machen

Für jede Datei — ob Dokument, Bild oder Video — ist einsehbar, welche Informationen die KI tatsächlich aus dem Inhalt kennt. Volle Transparenz darüber, was das System über Ihr Wissen tatsächlich weiß.

Alleinstellungs-
merkmale.

  • Vollständig lokale KI-Inferenz mit umfangreichem Weltwissen
  • Integration des Unternehmenswissens über eine Vektordatenbank
  • Multimodale und mehrsprachige Modelle, die neue Inhalte erzeugen können
  • Ersetzt herkömmliche Dokumenten- und Prozessmanagementsysteme inklusive Audit-Trail
  • Videoverarbeitung: Prozesse filmen, hochladen, einbetten — für Ihr Qualitätsmanagement

Solid Qubits ist für Unternehmen gedacht, die die Vorteile moderner KI nutzen wollen, ohne die Kontrolle über ihre Daten und Prozesse abzugeben. Sie digitalisieren Ihr Wissen nicht nur — Sie machen es für ein KI-System nutzbar, in einem System, das Ihnen gehört.

Vier Fragen, die wir
für Sie beantworten.

Maximilian Roland Haberstroh
Maximilian Roland Haberstroh
Geschäftsführer
Wirtschaftsingenieur mit über zehn Jahren Erfahrung in der produzierenden Industrie sowie Erfahrung in internationalen Projekten im Bereich angewandter Künstlicher Intelligenz.

Die Haberstroh Systems GmbH wurde von Maximilian Roland Haberstroh mit dem Ziel gegründet, Künstliche Intelligenz für die Industrie nutzbar zu machen — vom Familienbetrieb bis zum Großkonzern. Im Zentrum unserer Arbeit stehen vier Fragen, die wir für unsere Kunden beantworten:

Unsere Leitfragen

  1. 01
    Welche Anforderungen muss KI erfüllen, um industriell eingesetzt werden zu können?
  2. 02
    Wie müssen KI-Systeme gestaltet sein, damit sie messbaren Mehrwert liefern?
  3. 03
    In welchen Anwendungsfällen lohnt sich der Einsatz für ein Unternehmen tatsächlich?
  4. 04
    Wie lässt sich begründetes Vertrauen in KI-Systeme aufbauen?

Klarheit statt Trendgejage.

Der KI-Markt entwickelt sich schnell, und nicht jeder Trend hält, was er verspricht. Unsere Aufgabe sehen wir darin, Klarheit zu schaffen: zu unterscheiden, welche Technologien für Ihr Unternehmen wirtschaftliches Potenzial bieten und welche nicht. Wir empfehlen keine Lösung, die wir selbst nicht einsetzen würden.

Wir achten dabei konsequent auf Ihre regulatorischen Verpflichtungen und setzen auf robuste, überschaubare Einstiegsszenarien statt auf riskante Großprojekte. Transparenz in der Zusammenarbeit und in der Abrechnung ist für uns selbstverständlich.

Online-Termin buchen
Kostenfrei & unverbindlich
Transparente Abrechnung
Regulatorik inklusive

Glossar — KI im Klartext.

50 Begriffe aus der Welt der lokalen KI, kurz erklärt.

KI-Grundlagen

Künstliche Intelligenz (KI / AI)
Sammelbegriff für Software, die Aufgaben übernimmt, die traditionell menschliche Intelligenz erfordern: Sprachverstehen, Bildanalyse, Entscheidungsfindung, Mustererkennung. In der Industrie heute meist gleichbedeutend mit maschinellem Lernen und großen Sprachmodellen.
Large Language Model (LLM)
Ein auf riesigen Textmengen trainiertes neuronales Netz, das natürliche Sprache verstehen und generieren kann. Beispiele sind GPT, Claude, Llama, Mistral oder Qwen. In Solid Qubits läuft ein LLM lokal auf Ihrem Server.
Inferenz
Der Vorgang, bei dem ein bereits trainiertes Modell auf eine konkrete Anfrage antwortet. Inferenz braucht Rechenleistung, ist aber deutlich weniger aufwändig als das Training selbst. KI-Server für lokale KI sind primär für Inferenz dimensioniert.
Training und Fine-Tuning
Training erzeugt aus Rohdaten ein neues Modell und ist extrem rechenintensiv. Fine-Tuning passt ein bestehendes Modell an eine spezifische Domäne oder Sprache an. Beides ist nur in seltenen Fällen nötig — meist reicht RAG aus.
Token
Die kleinste Verarbeitungseinheit eines Sprachmodells. Ein Token entspricht grob einem Wortteil — „Haberstroh" sind etwa drei Token. Jede Anfrage und jede Antwort wird in Token zerlegt; die Kontextlänge wird in Token gemessen.
Kontext / Kontextfenster
Die Menge an Token, die ein Modell bei einer einzelnen Antwort gleichzeitig „im Kopf" haben kann. Moderne Modelle haben Kontextfenster zwischen 8.000 und über einer Million Token. Größere Fenster erlauben das Verarbeiten ganzer Dokumente oder Codebasen.
Halluzination
Ein selbstbewusst formulierter, aber faktisch falscher oder erfundener Output eines Sprachmodells. Halluzinationen sind kein Bug, sondern eine Eigenschaft generativer KI. RAG mit Quellverweisen ist die wirksamste Gegenmaßnahme.
Prompt
Die Eingabe, die ein Benutzer an ein Sprachmodell schickt. Gute Prompts sind klar, präzise und enthalten den nötigen Kontext.
System-Prompt
Eine versteckte Anweisung, die das Modell bei jeder Anfrage erhält und sein Verhalten dauerhaft prägt — etwa „Antworte immer auf Deutsch, zitiere Quellen, weiche niemals von den freigegebenen Dokumenten ab". In Solid Qubits können Sie den System-Prompt als Kunde selbst einsehen und ändern.
Multimodalität
Die Fähigkeit eines Modells, mehr als nur Text zu verarbeiten — etwa Bilder, Audio oder Video. Solid Qubits nutzt multimodale Modelle, um neben Dokumenten auch Bilder und Videos als Wissensquelle einzubinden.

Architektur und Bereitstellung

On-Premise
Die Software läuft auf Hardware, die im eigenen Unternehmen steht und vom Unternehmen selbst betrieben wird. Gegenteil von Cloud. Für KI-Systeme mit sensiblen Daten der einzige Weg, Datenhoheit und DSGVO-Konformität strukturell zu garantieren.
Edge AI
KI, die direkt am Entstehungsort der Daten läuft — etwa an einer Maschine, in einem Fahrzeug oder in einer Kamera. Vorteile: minimale Latenz, kein Datenabfluss, Funktionieren auch ohne Internetverbindung. Typischer Einsatz: Qualitätsprüfung, Predictive Maintenance, Sichtprüfung.
Lokale KI
Synonym für On-Premise und Edge AI. Beschreibt KI-Systeme, deren Berechnung lokal stattfindet, ohne Daten an Cloud-Dienste zu senden. Unser zentraler Architekturansatz.
Cloud-KI
KI-Dienste, die über das Internet von Drittanbietern bezogen werden — etwa ChatGPT, Microsoft Copilot oder Google Gemini. Vorteil: niedrige Einstiegskosten. Nachteil: Datenabfluss, laufende Kosten, Abhängigkeit, Compliance-Risiken.
Hybrid-KI
Kombination aus On-Premise und Cloud, bei der unkritische Anfragen in der Cloud und sensible Anfragen lokal verarbeitet werden. Klingt pragmatisch, schafft in der Praxis aber meist die Komplexität beider Welten.
KI-Souveränität
Das Prinzip, die Kontrolle über Daten, Modelle, Infrastruktur und Wissensbasis vollständig im eigenen Unternehmen zu halten. KI-Souveränität ist die Voraussetzung dafür, KI als strategisches Werkzeug einzusetzen statt als Mietservice eines Drittanbieters.
KI-Server
Ein für KI-Workloads dimensionierter, rackfähiger Server mit einer oder mehreren GPUs, ausreichend RAM und Datacenter-SSDs. KI-Server sind für 24/7-Betrieb ausgelegt und nutzen Komponenten mit End-to-End ECC.
KI-Workstation
Ein leistungsfähiger Einzelplatzrechner mit Profi-GPU für Entwicklung, Prototyping oder einzelne lokale Anwender. Brücke zwischen Desktop und Server.
GPU / Beschleuniger
Spezialisierte Recheneinheit (Graphics Processing Unit), die KI-Berechnungen zehn- bis hundertmal schneller ausführt als eine CPU. GPUs sind die zentrale Hardwarekomponente jedes KI-Servers.
Air-Gapped Deployment
Betrieb eines Systems vollständig ohne Verbindung zum Internet oder zu anderen Netzen. Höchste Sicherheitsstufe, oft gefordert in Forschung, Verteidigung, Pharma oder bei besonders sensiblen Konstruktionsdaten. Solid Qubits ist air-gapped betreibbar.

Wissensverarbeitung und RAG

Retrieval-Augmented Generation (RAG)
Verfahren, bei dem ein Sprachmodell vor jeder Antwort relevante Dokumente aus einer Vektordatenbank holt und sie in den Kontext lädt. So bekommt das Modell aktuelles, unternehmensspezifisches Wissen, ohne neu trainiert werden zu müssen — und kann jede Antwort mit Quellen belegen. Das technische Fundament von Solid Qubits.
Vektor / Embedding
Eine numerische Darstellung von Text (oder Bild, Audio) als Liste von hunderten oder tausenden Zahlen. Inhaltlich ähnliche Texte ergeben ähnliche Vektoren. Vektoren machen semantische Suche überhaupt erst möglich.
Vektordatenbank
Eine Datenbank, die Vektoren speichert und blitzschnell die ähnlichsten Vektoren zu einer Suchanfrage zurückgibt. Herzstück jedes RAG-Systems. In Solid Qubits integriert.
Chunking / Chunks
Lange Dokumente werden in kleinere Abschnitte (Chunks) zerlegt, weil ein Vektor nur eine begrenzte Textmenge sinnvoll abbilden kann. Die Qualität der Chunking-Strategie entscheidet maßgeblich über die Antwortqualität eines RAG-Systems.
Indexierung
Der einmalige Vorgang, bei dem ein neues Dokument zerlegt, in Vektoren umgewandelt und in die Vektordatenbank aufgenommen wird. Solid Qubits indexiert Dokumente, PDFs und Videos automatisch.
Wissensdatenbank
Die Sammlung aller Dokumente, die einem KI-System als Wissensquelle zur Verfügung stehen. In Solid Qubits klassisch als Dateisystem organisiert und parallel als Wissensgraph visualisiert.
Wissensgraph
Eine Darstellung der semantischen Beziehungen zwischen Dokumenten — ähnlich einem neuronalen Netz, das zeigt, welche Inhalte zum selben Themenfeld gehören. Solid Qubits bietet einen interaktiven Wissensgraph als alternative Sicht auf die Wissensbasis.
Semantische Suche
Suche, die den Sinn einer Anfrage versteht, nicht nur die exakten Wörter. Eine Suche nach „Stahl wird brüchig bei Kälte" findet ein Dokument über „Tieftemperaturversprödung", ohne dass die Begriffe übereinstimmen müssen.
Reranking
Ein zweiter Bewertungsschritt nach der Vektorsuche, bei dem die gefundenen Dokumente mit einem präziseren (aber langsameren) Modell neu sortiert werden. Verbessert die Antwortqualität deutlich.
Hybrid Search
Kombination aus semantischer Suche (Vektoren) und klassischer Stichwortsuche (Keyword/BM25). Holt das Beste aus beiden Welten — gut für Fachbegriffe, Eigennamen oder Artikelnummern, die semantisch schwer zu fassen sind.

Tools und Protokolle

Model Context Protocol (MCP)
Ein offener Standard, mit dem Sprachmodelle strukturiert auf externe Datenquellen, APIs und Werkzeuge zugreifen können. Anthropic hat MCP 2024 vorgestellt; es entwickelt sich rasch zum De-facto-Standard für KI-Tool-Anbindung. Solid Qubits unterstützt MCP für die Integration in bestehende Unternehmenssysteme.
Tool Use / Function Calling
Die Fähigkeit eines Sprachmodells, im Verlauf einer Antwort eigenständig externe Funktionen aufzurufen — etwa eine Datenbank abzufragen, einen Wert zu berechnen oder eine E-Mail zu verschicken. Macht aus einem reinen Textgenerator einen handlungsfähigen Assistenten.
KI-Agent
Ein KI-System, das nicht nur antwortet, sondern selbständig mehrstufige Aufgaben ausführt: planen, Werkzeuge nutzen, Zwischenergebnisse bewerten, Kurs korrigieren. Agenten sind die nächste Stufe nach reinen Chatbots.
Workflow-Orchestrierung
Das technische Verbinden mehrerer KI-Schritte und externer Systeme zu einem definierten Geschäftsprozess. Beispiel: Eingangsrechnung erkennen → Daten extrahieren → mit Bestellung abgleichen → in ERP buchen → Status zurückmelden.
API-Anbindung
Die Verbindung von Solid Qubits mit bestehenden Unternehmenssystemen über deren Programmierschnittstellen — etwa zu ERP, CRM, PLM, DMS oder dem hauseigenen Fileserver. Macht die KI zum Wissens-Layer über der gesamten IT-Landschaft.
Open-Source-Modell
Ein Sprachmodell, dessen Gewichte frei verfügbar sind und das lokal betrieben werden darf — etwa Llama, Mistral, Qwen oder Gemma. Nur Open-Source-Modelle sind die Grundlage für echte On-Premise-KI.
Quantisierung
Verfahren, bei dem die Modellgewichte mit geringerer Präzision gespeichert werden (z. B. 4-Bit statt 16-Bit), um Speicherbedarf und Rechenaufwand zu senken — bei nur minimalem Qualitätsverlust. Macht große Modelle auf realistischer Hardware betreibbar.

Governance und Compliance

EU AI Act
Verordnung (EU) 2024/1689 vom 13. Juni 2024. Erste umfassende KI-Regulierung weltweit. Klassifiziert KI-Systeme nach Risiko (verboten, hochrisiko, beschränkt, minimal) und legt für jede Kategorie Pflichten fest. Vollständig anwendbar ab 2026.
DSGVO im KI-Kontext
Die Datenschutzgrundverordnung gilt für jeden KI-Einsatz, der personenbezogene Daten verarbeitet. Zentrale Themen: Rechtsgrundlage, Zweckbindung, Speicherorte, Drittlandtransfer, Betroffenenrechte und Auftragsverarbeitung. Lokale KI vereinfacht die meisten dieser Punkte erheblich.
ISO/IEC 42001:2023
Internationaler Standard für KI-Managementsysteme. Beschreibt, wie Unternehmen den Einsatz von KI strukturiert, dokumentiert und überprüfbar gestalten. Wird zunehmend zur Anforderung in Ausschreibungen und Lieferkettenprüfungen.
KI-Audit
Strukturierte Prüfung, wie KI im Unternehmen oder bei Partnern eingesetzt wird. Bewertet organisatorische Rahmenbedingungen, technische Umsetzung und tatsächliche Wertschöpfung. Mündet in einem schriftlichen Gutachten.
Gutachten / Auditbericht
Schriftliches Ergebnis eines KI-Audits. Dient als Kompetenznachweis gegenüber Kunden, Versicherern, Behörden und Lieferanten — oder als belastbare Grundlage für Optimierungsmaßnahmen im eigenen Haus.
Audit-Trail
Die lückenlose Protokollierung aller Änderungen in einem System: wer hat wann welches Dokument angelegt, bearbeitet, freigegeben oder archiviert. In Solid Qubits ein Kernfeature und Voraussetzung für regulierte Branchen.
Freigabeworkflow
Ein definierter Prozess, in dem Entwürfe von berechtigten Prüfern abgenommen werden müssen, bevor sie in die produktive Wissensbasis übergehen. Stellt sicher, dass nur geprüftes Wissen zur Beantwortung von KI-Anfragen herangezogen wird.

Solid Qubits — spezifisch

Quellreferenz
Jede Antwort, die Solid Qubits gibt, ist mit den zugrundeliegenden Dokumenten verknüpft. Per Klick auf eine Quellreferenz öffnen Sie das Original an genau der Stelle, auf die sich die Antwort bezieht.
Vektor-Ansicht
Für jede einzelne Datei in der Wissensbasis lässt sich einsehen, welche Informationen die KI tatsächlich aus dem Inhalt extrahiert und gespeichert hat. Maximale Transparenz darüber, was das System weiß — und was nicht.
Dokumentenmanagement (DMS)
Strukturierte Verwaltung von Dokumenten mit Versionierung, Metadaten, Zugriffsrechten und Aufbewahrungsfristen. Solid Qubits ersetzt klassische DMS-Lösungen und kombiniert sie mit KI-Suche.
Videoverarbeitung als Wissensquelle
Solid Qubits indexiert nicht nur Text, sondern auch Videos: Audio- und Bildspur werden gemeinsam ausgewertet. Ideal für Schulungsvideos, gefilmte Arbeitsanweisungen oder Aufzeichnungen aus dem Qualitätsmanagement.
Mehrbenutzersystem mit Rollen
Solid Qubits ist von Grund auf für viele gleichzeitige Nutzer ausgelegt. Rollen, Rechte und Sichtbarkeiten lassen sich auf Abteilungs-, Team- oder Einzelnutzerebene konfigurieren.
Komplettsystem / Schlüsselfertig
Hardware, Software und Inbetriebnahme aus einer Hand — Sie bekommen ein einsatzbereites System geliefert, statt Komponenten selbst zusammenzusuchen. Wir übernehmen Planung, Aufbau, Konfiguration und Schulung.

Häufige Fragen.

Antworten zu lokaler KI, Solid Qubits und der Frage, was On-Premise im industriellen Alltag bedeutet.

Was bedeutet On-Premise KI und warum ist sie für die Industrie relevant?

On-Premise KI bedeutet, dass das gesamte KI-System — Sprachmodell, Vektordatenbank, Wissensbasis und Inferenz — auf Hardware läuft, die im Unternehmen steht und vom Unternehmen kontrolliert wird. Es findet kein Datenaustausch mit Cloud-Anbietern wie OpenAI, Google oder Microsoft statt. Für Industrieunternehmen ist das relevant, weil sie täglich mit Konstruktionsdaten, Prozessbeschreibungen, Zulieferer-Verträgen, Patenten und Qualitätsdokumenten arbeiten — also genau den Informationen, die ein Wettbewerbsvorteil sind und das Unternehmen auf keinen Fall verlassen dürfen. On-Premise ist außerdem die einzige Architektur, die ohne komplexe Verträge, Standardvertragsklauseln oder Drittlandtransfers DSGVO-konform funktioniert.

Was unterscheidet Solid Qubits von Cloud-Diensten wie ChatGPT, Microsoft Copilot oder Google Gemini?

Drei Punkte: Datenhoheit, Kostenmodell und Wissensbindung. Bei Cloud-Diensten verlassen Ihre Daten das Unternehmen und werden auf fremder Infrastruktur verarbeitet — selbst „Enterprise"-Tarife garantieren nur eingeschränkt, wo und wie lange. Solid Qubits läuft komplett bei Ihnen, Ihre Daten verlassen den Server zu keinem Zeitpunkt. Beim Kostenmodell zahlen Sie bei Cloud-Diensten ein Abo pro Nutzer und Monat — bei wachsender Nutzung steigen die Kosten linear. Solid Qubits ist eine Einmalinvestition, die Sie wie jede andere Hardware abschreiben. Der dritte Punkt ist das Unternehmenswissen: ChatGPT und Co. kennen das Internet, aber nicht Ihre Konstruktionszeichnungen, Ihre Arbeitsanweisungen oder Ihre Prüfprotokolle. Solid Qubits indexiert genau diese Inhalte und liefert Antworten mit Quellverweis aus Ihren eigenen Dokumenten.

Was kostet ein KI-Audit bei Haberstroh Systems?

Der Preis hängt vom Umfang ab — Anzahl geprüfter Prozesse, Anzahl beteiligter Standorte, Tiefe der technischen Bewertung. Ein klassisches Audit umfasst die Bestandsaufnahme der eingesetzten KI-Systeme, eine Bewertung nach DSGVO, EU AI Act und ISO/IEC 42001:2023 und mündet in einem schriftlichen Gutachten, das als Kompetenznachweis gegenüber Kunden, Behörden und Versicherern dient. Wir arbeiten mit transparenten Tagessätzen statt Pauschalen — so wissen Sie vorab, was an welcher Stelle in das Audit einfließt. Konkrete Zahlen klären wir in einem kostenlosen Erstgespräch, in dem wir gemeinsam den Auditumfang abschätzen.

Welche Hardware brauche ich für eine eigene KI im Unternehmen?

Genau dazu beraten wir Sie. Wichtig ist: Server für KI-Workloads müssen 24/7 zuverlässig laufen — also Datacenter-SSDs statt Consumer-Hardware und End-to-End ECC für die Speicher- und Datenpfade. Die benötigte Rechenleistung variiert stark mit der Größe der Anwendung und der Anzahl gleichzeitiger Nutzer. Wir liefern rackfähige Server für den 24/7-Betrieb sowie Desktop-Workstations für einzelne Anwender oder Edge-Standorte — und dimensionieren die Hardware auf Ihre tatsächliche Last, mit Reserven für die nächsten Jahre.

Wie lange dauert die Einführung von Solid Qubits?

Die reine technische Inbetriebnahme inklusive Dokumenten-Indexierung ist in wenigen Tagen erledigt. Solid Qubits muss nicht trainiert werden — das System indexiert PDFs, Office-Dokumente und Videos automatisch und stellt die Inhalte sofort zur Verfügung. Was länger dauert, ist die organisatorische Einbettung: Welche Dokumente werden freigegeben? Wer prüft Entwürfe? Welche Abteilung übernimmt welche Wissensdomäne? Diese Fragen klären wir in einem Einführungsprojekt, das je nach Unternehmensgröße zwei Wochen bis drei Monate dauert. Für die meisten Industrieunternehmen rechnen wir mit vier bis sechs Wochen vom Hardwarelift bis zum produktiven Betrieb.

Sind unsere Daten beim Einsatz von Solid Qubits wirklich sicher?

Ja — und zwar aus einem strukturellen Grund, nicht nur aus einem Versprechen. Solid Qubits hat keine ausgehende Internetverbindung zu KI-Diensten. Das Sprachmodell, die Vektordatenbank und das Dokumentenmanagement laufen auf Ihrer Hardware, in Ihrem Netzwerk, hinter Ihrer Firewall. Es gibt keine API, die Daten an Anbieter „nach Hause telefoniert". Ihre Dokumente werden nicht zum Training fremder Modelle verwendet, weil das Modell überhaupt nichts an einen externen Anbieter sendet. Dazu kommt: Freigabeworkflows stellen sicher, dass nur geprüfte Inhalte in die produktive Wissensbasis fließen, und ein vollständiger Audit-Trail dokumentiert, wer wann welche Dokumente angelegt, bearbeitet, freigegeben oder archiviert hat. Wer auf Nummer sicher gehen will, betreibt das System air-gapped — also ganz ohne Internetverbindung.

Was ist der Unterschied zwischen RAG und Fine-Tuning?

Beides sind Wege, einer KI Unternehmenswissen beizubringen — aber sie funktionieren grundverschieden. Fine-Tuning verändert das Sprachmodell selbst: Sie nehmen ein vorhandenes Modell und trainieren es mit Ihren Daten weiter, sodass das Wissen in den Modellgewichten landet. Das ist aufwändig, teuer, schwer zu aktualisieren und bei Halluzinationen nicht nachvollziehbar. RAG (Retrieval-Augmented Generation) lässt das Modell unverändert und stellt ihm bei jeder Anfrage die relevanten Dokumente aus einer Vektordatenbank zur Seite — wie einem Gutachter, der vor der Antwort kurz im Aktenschrank nachschlägt. Vorteile: Sie können jederzeit Dokumente hinzufügen oder entfernen, jede Antwort ist mit Quellen belegt, und das System hat keinen veralteten Wissensstand. Solid Qubits arbeitet mit RAG und einem zusätzlichen Wissensgraph, der die semantischen Beziehungen zwischen Dokumenten sichtbar macht. Fine-Tuning setzen wir nur dort ein, wo es nachweislich besser ist — etwa wenn das Modell eine sehr spezifische Sprache oder Antwortform lernen soll.

Wie verhält sich Solid Qubits zum EU AI Act und zur DSGVO?

Die meisten Compliance-Risiken beim KI-Einsatz entstehen durch zwei Dinge: Datenabfluss zu Drittländern und intransparente Entscheidungen. Solid Qubits adressiert beides direkt. Datenabfluss findet nicht statt, weil das System ausschließlich lokal arbeitet — damit entfallen Standardvertragsklauseln, Drittlandtransfers und das Hin und Her um den US-Angemessenheitsbeschluss. Transparenz entsteht durch zwei Funktionen: Jede Antwort enthält Quellverweise auf die zugrundeliegenden Dokumente, und für jede Datei können Sie einsehen, welche Informationen die KI tatsächlich gespeichert hat (Vektor-Ansicht). Damit sind Sie auf der Anwenderseite des EU AI Acts gut aufgestellt. Für die Einstufung Ihres konkreten Anwendungsfalls als „Hochrisiko-KI" oder „beschränktes Risiko" beraten wir Sie im Audit — das ist immer eine Einzelfallbewertung.