Die Zukunft der digitalen Infrastruktur


44 likes

Mit „DI 2020. IT-Infrastruktur für das digitale Zeitalter“ von TechData liegt eine Studie vor, die sich mit allen Trends befasst, die im Bereich Digitalisierung und IT-Infrastrukturen in Zukunft für Unternehmen wichtig werden. Viele sind es schon jetzt, ihre Bedeutung wird aber weiter wachsen. Um zukunftsfähig zu bleiben, müssen sich nicht nur etablierte Firmen rechtzeitig auf diese Trends einstellen.

Die Evolution der IT-Infrastruktur

Die digitale Transformation beschleunigt weiter und stellt Unternehmen damit vor immer größere Herausforderungen. Denn die IT-Anwendungen der Zukunft bringen neue Anforderungen mit sich, die mit den herkömmlichen Infrastrukturen nicht mehr bewältigen lassen.

Wer nicht nur reagieren, sondern proaktiv handeln möchte, muss daher bei grundlegenden Elementen ansetzen – das gilt vor allem für die Rechenzentren. Diese müssen immer leistungsfähiger werden, was vor allem der Forderung nach zunehmender Flexibilität geschuldet ist.

An ihnen lässt sich deutlich aufzeigen, wie sich die Anforderungen an die digitale Infrastruktur insgesamt geändert haben. Die Gründe hierfür liegen wiederum in den Veränderungen, die das digitale Arbeiten mit sich bringt. Zum Beispiel dessen weitere Verbreitung, die nur noch weniger als ein Viertel der Unternehmen ausklammert.

Mehr Geschwindigkeit, mehr Komplexität

Die grundlegenden Aspekte, um die sich eine funktionierende, zukunftsfähige digitale Infrastruktur dreht, lassen sich auf die einfache Formel herunterbrechen: mehr Geschwindigkeit und mehr Komplexität. Mehr Daten sollen so schnell wie möglich gesammelt, gespeichert, analysiert, visualisiert und weiterverarbeitet werden.

Traditionelle Workloads greifen in diesem Big-Data-Umfeld deshalb nicht mehr. Sie sind auf Standardprozesse ausgelegt, die ein hohes Maß an Stabilität (nicht zuletzt im Sinne der Ausfallsicherheit) bieten und kosteneffizient sind. Durch die fortschreitende Digitalisierung gewinnen neben diesen beiden aber weitere Faktoren an Bedeutung.

Flexiblere und agilere Anwendungen und Prozesse

Die Datenmengen erfordern durch ihr Ausmaß eine andere Herangehensweise. Zusammenhänge zu erkennen und wirtschaftlich sinnvolle Schlüsse zu ziehen, wird eine immer komplexere Aufgabe:

Rechenzentren müssen darauf eingestellt sein, denn sie ermöglichen wiederum innovative Strategien und Prozesse, um die gewonnenen Daten richtig nutzen zu können. Das schließt unter anderem die Arbeit mit verschiedenen Cloud-Architekturen ein.

Daneben müssen, in einem fortlaufenden Prozess, technologische Neuerungen berücksichtigt und gegebenenfalls in die bestehende Infrastruktur integriert werden. Nur so kann beispielsweise der notwendige Automationsgrad erreicht werden, um riesige Datenmengen verarbeiten zu können.

Schneller, komplexer, umfangreicher: Der Umgang mit verschiedenen Workloads

Moderne IT-Strukturen müssen letztlich einen schwierigen Balance-Akt schaffen:

Einerseits verlangt die digitale Transformation mehr Agilität in der Infrastruktur, um auf technologische Neuerungen, digitale Trends und Big-Data schnell genug reagieren zu können – das ist auch unter Wettbewerbsgesichtspunkten eine Notwendigkeit.

Andererseits gelten die „alten“ Prinzipien weiterhin, ihr Zusammenwirken mit neuen Komponenten wird allerdings komplexer. Agilität und Stabilität müssen in Einklang gebracht werden und das vor einem finanziellen Hintergrund, in dem Kosteneffizienz nach wie vor wichtig, Investitionen in die Ausgestaltung der Infrastruktur aber erforderlich sind.

Thema Sicherheit: Relevanter als jemals zuvor

Bei aller Anpassungs- und Leistungsfähigkeit bleibt das Thema Sicherheit ein überaus relevanter Punkt. Server-Systeme müssen unabhängig von der Unternehmensgröße technisch in der Lage sein, die Sicherheit von immer größeren Mengen sensibler Daten zu gewährleisten.

Das ist, auch dank Cloud-Technologie, nicht mehr so sehr eine Frage der Hardware, dafür umso mehr eine der Software. Diese auf dem neuesten technischen Stand zu halten ist deshalb eine der dringlichsten Aufgaben für moderne IT-Strukturen. Veraltete Server-Software kann zu gravierenden Sicherheitslücken führen.

Dass Server-Betriebssysteme altersbedingt nicht weiter supportet werden, sollte daher für die Verantwortlichen Anlass genug sein, schnell aktuelle Alternativen zu finden. Thomas-Krenn bietet als OEM Partner von Microsoft einen schnellen Umstieg für alle Unternehmen, die vom End of Support für Windows Server 2008/R2 und SBS 2011 betroffen sind.

Mit dem Microsoft Windows Server 2019 lassen sich nicht nur etwaige Sicherheitslücken schließen, die Server-Software lässt sich auch für individuelle Wünsche von KMU anpassen. Damit sind nicht nur etwaige Sicherheitsprobleme gelöst, sondern zugleich die Weichen gestellt für vielfältige Serverfunktionen.

Für datengetriebene Geschäftsmodelle ist eine leistungsfähige und skalierbare Infrastruktur unerlässlich. Voraussetzung für Lösungen, die den unterschiedlichen Anforderungen – Skalierbarkeit, Agilität und Innovation, Ausfallsicherheit, Automation, Kosteneffizienz, Sicherheit – an moderne IT-Strukturen gerecht werden kann, ist die Auseinandersetzung mit strategischen Trends der Digitalisierung.

Strategien für die Digitalisierung

Mit den IT-Infrastrukturen die Grundlagen schaffen, um die digitalen Strategien der Zukunft umsetzen zu können – das ist die Herausforderung, die Unternehmen in zunehmendem Maße bewältigen müssen. Diese strategischen Trends beeinflussen alle Unternehmensbereiche, von der Automatisierung von Arbeitsprozessen über die Geschäftsmodelle bis hin zur User Experience.

Agilität und Innovation

Digitale Infrastruktur muss nicht nur selbst agil und innovativ sein, um mit den Anforderungen des Digitalen Wandels Schritt halten zu können. Sie muss außerdem ausreichende Flexibilität in Sachen Organisation, Geschäftsmodelle und Unternehmensprozesse ermöglichen.

Anpassungsfähigkeit ist ein zentraler Erfolgsfaktor, da auch der Innovationsdruck auf die Unternehmen weiter steigt. Den IT-Plattformen und -Prozessen kommt dabei eine Schlüsselrolle zu. Dazu müssen die entsprechenden Systeme unterschiedlichste Anforderungen bewältigen und technologische Neuerungen integrieren können.

Der Großteil der Unternehmen (rund 85 Prozent) investiert deshalb laut TechData in diesem Bereich. Fast 40 Prozent der befragten Betriebe sehen sogar ein konstantes Wachstum über die nächsten Jahre vor – so die Studie von TechData. Damit schaffen sie die Grundlagen, um neue Technologien früher zu erkennen und für die eigenen Bedürfnisse adaptieren zu können.

Digital User Experience

Die Digitale Transformation hat die Schnittstellen zwischen Mensch und Maschine keineswegs obsolet gemacht, sie sind vielmehr wichtiger geworden. Vor allem in der Interaktion mit Kunden sind sie ein zentraler Aspekt. Diese Bedeutung hängt nicht zuletzt mit den vielen Kommunikationsmöglichkeiten zusammen, die zwischen Nutzern und Unternehmen bestehen.

Damit einher gehen unterschiedliche Erwartungen an die jeweiligen Kanäle, die dementsprechend unterschiedliche technische Lösungen umfassen können – und müssen. Eine solche Lösung sind beispielsweise Chatbots, die mit Künstlicher Intelligenz verschiedene Bereiche des Kundenservice übernehmen können, vom Support bis zur Kaufberatung.

Den Unternehmen scheint die Bedeutung dieser Schnittstellen für die digitalen Erfahrungen ihrer Kunden durchaus bewusst zu sein. Zumindest zeichnet sich bei den geplanten Investitionen in entsprechende Technologien ein ähnliches Bild wie im Bereich Agilität und Innovation – nur knapp über 8 Prozent gehen von geringeren Ausgaben aus. Dagegen sehen rund 41 Prozent ein konstantes Wachstum der Ressourcen für die Digital User Experience kommen.

Data Driven Business

Daten werden zunehmend wichtiger für zahlreiche Geschäftsmodelle. Die Handhabung immer größerer Datenströme und die Umwandlung in einen relevanten Nutzen sind entscheidende Werkzeuge im Wettbewerb, den die digitale Transformation nur noch mehr beschleunigt.

Dabei geht es längst nicht mehr darum, möglichst viele Daten zu sammeln. Big Data war im Grunde genommen nur der Anfang, die anfallenden Datenmengen sind nur die Grundlage für Entscheidungen und neue Entwicklungen in den Unternehmen.

Denn die Daten sind prinzipiell in jedem Konzern vorhanden: Kundendaten, Unternehmensdaten, Prozesse, Marktanalysen, Verkaufszahlen und andere. Sie alle werden ohnehin gesammelt, deswegen ist die wichtigste Frage, wie mit ihnen umzugehen ist, um daraus ein „reasonable product“ zu erschaffen.

Funktionieren kann das nur, wenn aus den Daten die richtigen Insights gefolgert und diese wiederum in konkrete Entscheidungen einfließen können. Die Daten sollen dabei helfen, interne Prozesse zu optimieren und zu automatisieren, was letztlich auch das Daten-Handling selbst betrifft. Im Idealfall besteht das Ergebnis in effizienteren Dienstleistungen und Produkten und somit in zufriedeneren Kunden.

Die Grundlagen hierfür zu schaffen, ist die eigentliche Herausforderung, welcher die Unternehmen mit mehr Investitionen begegnen wollen. Damit soll beispielsweise das Problem der Datenarchivierung und -sicherung angegangen werden. Darüber hinaus gilt es geeignete Methoden und Strategien zu finden, um Daten digital verfügbar und automatisiert analysierbar zu machen.

Im Data Driven Business laufen darum all jene Aspekte zusammen, die im Zusammenhang mit einer zukunftsfähigen IT-Struktur relevant sind: Technologische Voraussetzungen, flexible und agile Systeme, Möglichkeiten für Innovationen in allen Unternehmensbereichen, basierend auf den gewonnenen Daten.

Cognitive Company

Ein Schlüssel, um das Daten-Handling zu verbessern, ist Cognitive Computing. Dabei handelt es sich um Systeme, die Kontextelemente erkennen und verstehen können. Das ermöglicht es ihnen, strukturierte und unstrukturierte Daten zu verwenden und darin Bezüge zu finden.

Auf der Basis von Informationen und Prozessen können solche kognitiven Systeme selbständig und automatisiert an Problemlösungen arbeiten. Gleichzeitig entwickelt sich das System durch Machine Learning kontinuierlich weiter und verbessert seine eigenen Fähigkeiten. Dabei ist es deutlich breiter aufgestellt als KI-Systeme, die üblicherweise spezialisiert auf die Lösung für ein bestimmtes Problem sind.

In einer „Cognitive Company“ sollen kognitive Systeme durch ihre Lern- und Anpassungsfähigkeit Aufgaben übernehmen, für die bislang vornehmlich Menschen zuständig waren. Digitale Kommunikationsschnittstellen wie die bereits erwähnten Chatbots helfen, die gewonnenen Erkenntnisse wieder an menschliche Gesprächspartner zu vermitteln.

Vorläufig ist die Zahl der Unternehmen, die Cognitive Computing bereits anwenden, noch in einem überschaubaren Bereich. Anders sieht es bei der Implementierung von Künstlicher Intelligenz in die digitale Unternehmensstrategie aus – hier ist der Anteil mit 65 Prozent deutlich höher.

Internet of Things und Smart Products

Die Möglichkeiten digitaler Infrastrukturen betreffen aber selbstverständlich nicht nur jene Prozesse, die sich um das Sammeln, Verwalten, Analysieren und Nutzbarmachen von Daten drehen. Über die Wertschöpfungskette hinaus lassen sich außerdem Logistik und Produktion verbessern.

Die Infrastruktur bildet, zusammen mit modernen Sensoren, die Grundlage für ein umfassendes Internet of Things, in dem vernetzte Maschinen miteinander interagieren können. Die Umsetzung von Industrie 4.0-Konzepten ist unter anderem wegen der Möglichkeiten für innerbetriebliche Optimierungen weit verbreitet, der Fortschritt dabei ist laut TechData jedoch recht unterschiedlich.

Da vor allem in produzierenden Betrieben die Potenziale – Stichwort Automatisierung – sehr groß sind, besteht ein großes Interesse daran, Lösungen für die eigenen Bedürfnisse zu entwickeln.

Automatisierung

In digitalen Systemen spielt die Automatisierung auf verschiedenen Ebenen eine wichtige Rolle. Beziehungsweise eröffnet die Digitalisierung neue Möglichkeiten für automatisiert ablaufende Unternehmensprozesse. Als prominentestes Beispiel fallen dazu smarte Fabriken ein, in der die Produktion weitgehend oder sogar vollständig digital und automatisiert abläuft. Überwiegend betrifft das repetitive Arbeitsabläufe ohne große Veränderungen.

Dank flexibler digitaler Infrastrukturen und Cloud Computing können diese Prozesse aber ebenfalls deutlich flexibler gestaltet werden. Das ist etwa für personalisierte und individualisierte Produkte ein großer Vorteil, denn diese können ohne größeren Mehraufwand realisiert werden.

Die Produktion wird dadurch kosteneffizient, wie sie überhaupt insgesamt effizienter wird: Ressourcen können besser verplant werden, von den zu verarbeitenden Materialien bis hin zum notwendigen Energieeinsatz.

Grundsätzlich ist das genauso in kleineren mittelständischen Unternehmen möglich, auch wenn die Herangehensweisen bei der Digitalisierung sich von denen der Global Player unterscheiden. Denn gerade in diesen Betrieben fallen die Investitionen in eine langfristige Verbesserung von IT-Infrastruktur und Automatisierung häufig am schwersten.

Trends für die IT-Infrastruktur der Zukunft

Big Data verspricht zahllose unternehmerische Möglichkeiten. Voraussetzung ist allerdings, die wachsenden Datenmengen sinnvoll nutzen und sicher aufbewahren zu können. Dazu braucht es sowohl technische Lösungen als auch neue Konzepte, damit die IT-Infrastruktur bei der Bewältigung der Daten helfen kann.

Auf diese Weise können Unternehmen ganz neue Vorteile für ihre Wertschöpfungskette ziehen, beispielsweise durch neue Geschäftsmodelle. Grundvoraussetzung für alle sich abzeichnenden Trends bleibt aber ein leistungsstarkes Rechenzentrum.

Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (Paas)

Daneben ist es vor allem das Cloud Computing, das Unternehmen in Sachen Digitalisierung zahlreiche Möglichkeiten eröffnet. Denn es geht hier schon lange nicht mehr nur um einen praktischen Weg, Daten zu archivieren, ohne eigene Speicherkapazitäten zu belasten.

Vor allem Start-ups können über die Cloud eine Vielzahl an Diensten beziehen, für die sie dann keine eigenen IT-Ressourcen aufbringen müssen. Telefonie, Mail, Meetings und andere Aspekte des Arbeitsalltags lassen sich beispielsweise per Cloud-Service nutzen, denkbar sind aber noch viel weitreichendere Cloud-Anwendungen. Infrastructure‑as‑a‑Service (IaaS) etwa stellt Ressourcen rund um die IT‑Infrastruktur bereit. Das umfasst Rechenleistung genauso wie Netzwerkkapazitäten.

Auf diesem Wege kann das unternehmenseigene Rechenzentrum erheblich entlastet werden, da es die digitale Infrastruktur nicht mehr alleine tragen muss – selbst Infrastrukturen ohne eigenen physischen Server sind realisierbar. Damit entfallen nicht zuletzt die Kosten für Anschaffung und Wartung der ansonsten notwendigen Hardware.

Platform-as-a-service (PaaS) schafft die Arbeitsumgebung im engeren Sinne. Dazu gehören beispielsweise Betriebssysteme, Datenbanken und Anwendungen.

Der große Vorteil besteht unter anderem darin, dass die bereitgestellten Applikationen immer in der aktuellsten Version vorliegen. Die Entwicklung übernimmt dabei der Cloud-Provider, das Unternehmen selbst spart dadurch Zeit und Geld. Da sich die Anwendungen außerdem in ihrem Umfang ganz an die individuellen Bedürfnisse der Nutzer anpassen lassen, können auch damit freigewordene Ressourcen an anderer Stelle eingesetzt werden.

Beide Ansätze bedeuten in ihren jeweiligen Bereichen Einsparungspotenziale für die Unternehmen, da wichtige und arbeitsintensive Aufgabenbereiche ausgelagert werden können. Die virtuelle Infrastruktur bietet außerdem ein hohes Maß an Flexibilität für die Ausgestaltung und die Ressourceneinteilung.

Sowohl IaaS als auch PaaS können IT-Infrastrukturen in Unternehmen verschiedenste Möglichkeiten bieten, um die gewünschten Leistungsanforderungen – stabil, sicher, flexibel, agil, schnell – zu erreichen. Das gilt für unterschiedliche Anwendungsgebiete, von der Datenanalyse über E-Commerce, Digital Marketing und CRM bis hin zu IoT-Lösungen und Content Management für Online-Portale.

Eine vollständige Umstellung auf Cloud-Services ist dabei gar nicht zwingend notwendig. Stattdessen können Unternehmen sich über die für sie interessantesten Anwendungsmöglichkeiten an die Thematik herantasten.

In Zukunft wird der Umgang mit Cloud-Lösungen aber mit großer Wahrscheinlichkeit auf breiterer Ebene stattfinden. Obwohl Cloud Computing nicht ganz ohne Nachteile ist und gerade bei den Themen Datenschutz und Performanceabhängigkeit von der Internetverbindung kritisch betrachtet werden muss.

Hybrid Cloud und hyperkonvergente Infrastrukturen

Cloud-Konzepte sind zwar einer der bestimmenden Trends bei der Entwicklung moderner digitaler Infrastrukturen, aber längst nicht die einzigen. Dass verschiedene Cloud-Modelle in Hybrid Clouds aufgehen, unterstreicht aber nochmals den Stellenwert dieser Technologie.

Die Idee hinter hybriden Cloud-Lösungen besteht darin, möglichst viele Vorteile zu erhalten, ohne gleichzeitig die Nachteile in Kauf nehmen zu müssen:

  • Public Clouds bieten die oben beschriebene Flexibilität, wie sie in IaaS- und PaaS-Ansätzen zum Tragen kommt.
  • Private Clouds hingegen versprechen das Maß an Datensicherheit, die in einer Public Cloud nicht unbedingt gewährleistet werden können.
  • Kombiniert werden beide Modelle mit traditioneller Infrastruktur. Diese bindet zwar mehr Ressourcen als eine reine Cloud-Lösung, auf der anderen Seite bleiben Unternehmen so unabhängiger von den Providern.

Insgesamt wird die Infrastruktur dadurch komplexer, vor allem beim Verwaltungsaufwand. Das wirkt sich unter Umständen auf die Effizienz der Arbeitsprozesse und Sicherheitsbelange aus, die eigentlich auf diesem Weg umgangen werden sollten.

Deshalb werden beispielsweise hyperkonvergente Infrastrukturen (Hyper Converged Infrastructures) zunehmend zu einer Alternative. Diese versprechen eine weitreichende Vereinfachung der Infrastruktur, bei der Rechenleistung, Speicher und Netzwerk als virtuelle Ressourcen bereitgestellt und von einer einzigen Management-Lösung verwaltet werden.

Die IT-Infrastruktur wird damit vollständig virtualisiert und unabhängig von der Hardware. Waren derartige Lösungen bis vor einigen Jahren noch aufwändig und teuer – eigene Server-Architekturen und weitere Elemente erforderten hohe Investitionen und den Einsatz von Spezialisten – werden HCI‑Lösungen inzwischen als Plug & Play-Modell angeboten.

Neue Speichertechnologien

Eine Herausforderung für sämtliche digitalen Infrastrukturen bleibt das Speichern von großen, unstrukturierten Datenmengen. Neben den lange Zeit üblichen Methoden Block Storage und File Storage hat sich in den vergangenen Jahren die Objektspeicherung als Möglichkeit für diese Aufgabe etabliert.

Insofern ist Object Storage keine gänzlich neue Technologie, sie hat aber enorm an Bedeutung gewonnen. Denn die Beschreibung von Daten als Objekte – unter anderem mit Hilfe der Meta-Daten – vereinfacht die Speicherung, gerade bei großen Datenmengen. Dienste wie Dropbox oder Google Docs haben das vorgemacht.

Unkomplizierter lässt sich prinzipiell auch der Zugriff auf die einzelnen Objekte in einer Cloud-Umgebung gestalten. Da dieser über das Internet geschieht, können mehrere Nutzer gleichzeitig auf die Objekte zugreifen. Dazu ist Object Storage bestens geeignet für das Erstellen von Backups und die Archivierung von Daten. Gegenüber anderen Speichertechnologien und NAS‑Infrastrukturen ist diese Methode daher im Vorteil.

Auch physisch entwickeln sich die Speichermedien weiter, die wichtigste Technologie in dieser Hinsicht sind Flash-Speicher. Diese versprechen deutlich schnellere Verarbeitungsgeschwindigkeiten im Vergleich zu magnetischen Festplatten.

Das macht Flash Storage zu einer attraktiven Alternative in vielen Anwendungsgebieten. Etwa dort, wo es um die Verarbeitung von vielen Daten geht, die möglichst in Echtzeit ablaufen soll – von der Datenanalyse bis zum Maschinenlernen bieten sich Unternehmen zahlreiche Einsatzmöglichkeiten für All-Flash-Arrays.

Digitale Infrastrukturen als Herausforderungen

Für Unternehmen, unabhängig von ihrer Größe, bestehen also weiterhin viele Handlungsfelder in Bezug auf den Aufbau zukunftsfähiger digitaler Infrastrukturen. Im Kern müssen überall wachsende Datenmengen gemanagt und die Voraussetzungen dafür geschaffen werden. Die verschiedenen digitalen und technologischen Trends eröffnen individuelle Möglichkeiten, um sich gemäß den speziellen Anforderungen im eigenen Unternehmen passgenau aufzustellen.

Dabei ist es nicht mehr zwingend notwendig, die IT grundsätzlich alleine aufzubauen. Die meisten Dienste lassen sich auslagern. Das geht zwar zu Lasten der Unabhängigkeit, reduziert aber beispielsweise gleichzeitig Investitionen in Hard- und Software.

Unerlässlich ist jedoch die Auseinandersetzung mit einer möglichen digitalen Strategie, die einerseits den Bedarf erfasst und andererseits langfristige Ziele definiert. Aufbauen darauf lässt sich eine digitale Infrastruktur errichten, die bestmöglich zum Unternehmen passt und diesem ausreichend Flexibilität lässt, um neue Trends und Entwicklungen schnell integrieren zu können.

Diese Artikel könnten Sie auch interessieren:

Battle-Tested & German Engineered: Das neue Power-JV der Drohnenwelt

Mit QFI startet die erste vollautomatisierte Produktionslinie für ukrainische Drohnen in Europa. Ein Gamechanger für die „Build with Ukraine“-Initiative und ein Weckruf für das deutsche Tech-Ökosystem. Agilität schlägt Trägheit: Unsere Analyse über die Architekten der neuen europäischen Resilienz und die Rolle von Start-ups.

Während die klassische Rüstungsindustrie oft mit jahrzehntelangen Entwicklungszyklen ringt, zeigt ein deutsch-ukrainisches Joint Venture, wie das „New Defense“-Zeitalter in Lichtgeschwindigkeit skaliert. Nur zwei Monate nach der offiziellen Ankündigung ist das Joint Venture Quantum Frontline Industries (QFI) operative Realität. Ein symbolträchtiger Moment markierte am 13. Februar den Startschuss: Auf seinem Weg zur Münchner Sicherheitskonferenz nahm der ukrainische Präsident Wolodymyr Selenskyj im Werk bei München die erste in Deutschland gefertigte Linza 3.0 entgegen – ein Meilenstein, der unter der Schirmherrschaft von Verteidigungsminister Boris Pistorius als neues „Leuchtturmprojekt“ der europäischen Souveränität gefeiert wird.

Das „German Model“: Wenn Software-Agilität auf automatisierte Masse trifft

QFI ist mehr als eine Fabrik; es ist der Prototyp des sogenannten German Model. Hier verschmilzt die operative Erfahrung von Frontline Robotics aus dem aktivsten Drohnenkrieg der Geschichte mit der industriellen Exzellenz der Münchner Quantum Systems GmbH. Das Ziel ist ambitioniert: Allein 2026 sollen 10.000 Einheiten der Modelle Linza und Zoom vom Band laufen. Diese Systeme sind hochgradig gegen elektronische Kampfführung (EW) gehärtet und finden dank KI-gestützter visueller Navigation auch ohne GPS-Signal ihr Ziel.

Dieser Erfolg strahlt auf das gesamte deutsche Ökosystem aus. Wir erleben derzeit, wie eine neue Generation von Gründern die Grenzen zwischen digitaler und physischer Souveränität neu zieht.

Ein vernetztes Ökosystem: Die Architekten der Resilienz

Hinter dem Erfolg von QFI steht ein Geflecht aus spezialisierten DeepTech-Akteuren, die Deutschland zum führenden Defense-Hub Europas gemacht haben. Während Quantum Systems mit seinem Status als „Triple Unicorn“ (Bewertung > 3 Mrd. €) die industrielle Skalierung im Luftraum beherrscht, liefert das Münchner Decacorn Helsing (bewertet mit 12 Mrd. €) das digitale Rückgrat. Helsing fungiert als der softwareseitige Integrator, dessen KI-Plattformen heute die Koordination zwischen autonomen Schwärmen und bemannten Einheiten übernehmen.

Am Boden setzt ARX Robotics Maßstäbe. Das Start-up hat seine Series-A im Sommer 2025 auf 42 Millionen Euro aufgestockt und Partnerschaften mit Schwergewichten wie Daimler Truck und Renk geschlossen. Ihr Betriebssystem Arx Mithra OS ermöglicht es, bestehende Fahrzeugflotten zu digitalisieren und in autonome „Mensch-Maschine-Teams“ zu verwandeln. Diese physische Präsenz am Boden wird durch die Orbit-Kapazitäten von Reflex Aerospace vervollständigt. Die Berliner liefern jene ISR-Daten (Intelligence, Surveillance, Reconnaissance), die für die Präzision moderner Drohnensysteme unverzichtbar sind.

Um die Abhängigkeit von asiatischen Lieferketten zu brechen, schließt das bayerische Start-up Donaustahl die Lücke in der Basis-Hardware. Mit einer neuen Fertigung in Hutthurm produziert Donaustahl nicht nur die bewährte „Maus“-Drohne, sondern skaliert die Produktion von Drohnenmotoren und Gefechtsköpfen wie dem „Shahed-Killer“. Ziel ist eine vollkommen souveräne Wertschöpfungskette „Made in Bavaria“, die auch bei globalen Handelskrisen handlungsfähig bleibt.

Der Finanz-Turbo: ESG als Enabler

Dass dieses Ökosystem so rasant wächst, liegt an einem fundamentalen Shift in der Finanzwelt. Seit die EU Verteidigungsinvestitionen offiziell als nachhaltigen Beitrag zur Sicherheit eingestuft hat, ist das Stigma verflogen. Investoren wie DTCP mit ihrem 500-Millionen-Euro-Fonds „Project Liberty“ oder die KfW über den „Ukraine Recovery Fund“ treiben die Skalierung voran. DefenseTech ist damit endgültig in den Portfolios institutioneller Anleger angekommen.

Strategie-Checkliste: Der Masterplan für Dual-Use-Gründer*innen

Für Gründer*innen, die in diesen Markt drängen, hat sich das Spielfeld professionalisiert. Wer 2026 erfolgreich sein will, muss diese fünf Punkte erfüllen:

  1. Dual-Use-DNA: Plane Technologie, die zivil (z.B. Katastrophenschutz) und militärisch nutzbar ist, um den Zugang zu ESG-konformen Kapitalspritzen zu maximieren.
  2. Compliance-Automatisierung: Nutze die neuen BAFA-Genehmigungen (AGG 45/46) für beschleunigte Exporte innerhalb der NATO und an strategische Partner.
  3. BSI-Kriterien erfüllen: Militärische Kund*innen akzeptieren nur Hardware, die höchsten Sicherheitsstandards (C5-Kriterien) entspricht.
  4. Operational Feedback-Loops: Suche Kooperationen für „Battle-Testing“. Echte Einsatzdaten sind 2026 die wichtigste Währung für technologische Überlegenheit.
  5. Mission-Driven Recruiting: Nutze den „Schutz der Demokratie“ als USP, um Top-KI-Talente von zivilen BigTech-Konzernen abzuwerben.

Fazit: Agilität schlägt Trägheit

Die Gründung von QFI ist der Beweis, dass Europa seine industrielle Trägheit ablegen kann. Durch die Verbindung von Start-up-Mentalität, staatlicher Rückendeckung und automatisierter Fertigung entsteht eine neue Form der technologischen Souveränität. Für das deutsche Ökosystem bedeutet das: Wir bauen nicht mehr nur Apps – wir bauen die Sicherheit der Zukunft.

Vom Check-in zur Patient*innenakte: Wie Travel-Pionier Salim Sahi mit HoloLogix.AI die Health-IT aufmischt

Vom Reisebuchungssystem zur Sicherheits-Uhr für Senior*innen: Serial Entrepreneur Salim Sahi greift mit HoloLogix.AI greift gleich zwei Milliardenmärkte an: Gesundheitswesen und Hotellerie. Doch wie viel Substanz steckt hinter der Vision?

Gründungslegenden klingen oft zu glatt für die Realität – wie Sahis Skateboard-Unfall, der in einer Notaufnahme zur Idee für sein neuestes Venture führte. Wer den Mann kennt, der in den 90ern mit „Traffics“ die Reisebranche digitalisierte, weiß jedoch: Er macht keine halben Sachen. Jetzt, im Februar 2026, steht er mit einer europäischen Aktiengesellschaft (SE) und einem enorm breiten Versprechen wieder auf dem Platz.

Wie Touristik-Know-how in die Klinik kommt

Der Sprung von der Touristik zur Service-Automatisierung im Gesundheitswesen wirkt wie ein harter Bruch. Doch unter der Haube geht es in beiden Welten um hochvolumige Transaktionen, Termin-Slots und Datenabgleich in Echtzeit. Wer Millionen Pauschalreisen fehlerfrei abwickelt, so die Wette von HoloLogix.AI, beherrscht auch das Termin-Management von Kliniken, Hotels und Restaurants.

Für CEO und Gründer Salim Sahi ist das Projekt dennoch ein „kompletter unternehmerischer Neuanfang“. Gegenüber StartingUp räumt er ein, von 25 Jahren Travel-Tech-Erfahrung zu profitieren, doch seine wahre Passion gelte der künstlichen Intelligenz. Das Herzstück bilde dabei die MIA Service KI: „Wir haben eine holistische KI-Plattform geschaffen, also ein Tool, das ganzheitlich agiert und eingesetzt werden kann.“ MIA verstehe Gespräche, erledige parallel Aufgaben und verbinde Systeme – „rund um die Uhr und branchenübergreifend“. Auch wenn der Fokus aktuell auf Gesundheitswesen und Hospitality liege, sei das System laut Sahi letztlich „nahezu überall einsetzbar, wo Kunden- oder Patientenkontakt herrscht.“

Der Angriff auf die Platzhirsche

Der Markt für Conversational AI ist 2026 kein blauer Ozean mehr. Etablierte Player wie Aaron.ai haben sich tief in die Health-Landschaft eingegraben, flankiert von Plattform-Giganten wie Doctolib. HoloLogix.AI reagiert mit aggressiven Preisen ab 99 Euro im Monat und einer massiven technologischen Breite.

Aber warum sollten Klinikverantwortliche das Risiko eines Wechsels eingehen? Salim Sahi sieht den „Killer-USP“ in der Architektur der Interaktion: „Unser Ansatz ist ein anderer: Statt starrer Skripte bieten wir echte Gesprächsintelligenz durch Conversational AI an.“ Das System sei eine KI, die im laufenden Gespräch aktiv Aufgaben erledige, was eine beispiellose Integrationstiefe erfordere. „Hier gehen wir ganz tief rein und verarbeiten Daten in Echtzeit“, so der CEO. Da Aufgaben direkt ausgeführt werden, optimiere sich das Zeitmanagement drastisch – konzipiert als Omnichannel-Ansatz über Telefon, Website, E-Mail, Wearables oder bald sogar über Robotik.

Die schmale Gratwanderung am Handgelenk

HoloLogix.AI belässt es nicht bei Software, sondern bringt mit der MIA Watch eigene Hardware ins Spiel. Die Smartwatch für Senior*innen soll Stürze erkennen und sofort einen aktiven Sprachdialog führen. Eine Gratwanderung: Reines Assistenz-System oder medizinisches Gerät mit komplexer Zertifizierungspflicht (MDR)?

Prof. Dr. Thomas Fuchs, Co-Founder und Aufsichtsrat für den Bereich Health Care, ordnet das rechtlich eindeutig ein: „MIA Protect ist ein Teil der holistischen KI-Plattform, die mit verschiedenen Health Watches wie z.B. auch der Apple Watch kompatibel ist. Sie ist ein Assistenz- und Companion-System.“ Die Hardware erkenne Stürze, ersetze aber „keine ärztliche Untersuchung oder medizinische Entscheidung“. Um Geschwindigkeit und Nutzer*innenfreundlichkeit zu wahren, bewege man sich „bewusst außerhalb der Medizinprodukt-Zertifizierung (MDR), ohne den Sicherheitsrahmen zu verlassen“.

Ein mehrstufiges Sicherheitsnetz aus Sensorik, KI-Algorithmen und menschlichem Service-Team federt Fehlinterpretationen ab. Haftungsfragen sind laut Fuchs über klare Nutzungsbedingungen geregelt. Für den Mediziner steht ohnehin der „Companion Aspekt“ im Vordergrund: Nach einem Sturz, wenn Patient*innen hilflos am Boden liegen, alarmiere MIA in einer Kaskade Notfallkontakte und beruhige das Unfallopfer, bis Hilfe eintrifft. „MIA Protect soll an diesem Punkt Sicherheit und damit Lebensqualität geben, vielleicht sogar die Möglichkeit schaffen für Senioren, länger selbstbestimmt in ihrem Zuhause zu leben“, resümiert Fuchs.

Pflegeheim und Luxushotel: (K)ein operativer Widerspruch?

Das vielleicht Spannendste an HoloLogix.AI ist das Personal: Salim Sahi hat sich politische und ethische Schwergewichte in den Aufsichtsrat geholt. Darunter Dr. Marcel Klinge, ehemaliger FDP-Bundestagsabgeordneter und Tourismus-Experte. Er muss Investor*innen den Spagat erklären, warum ein Start-up gleichzeitig Pflegeheime und Luxushotels digitalisieren will – was oft als Warnsignal für operative Verzettelung gilt.

Dr. Marcel Klinge sieht darin jedoch keinen Widerspruch, sondern die Stärke der technischen Basis: „Der gemeinsame Nenner liegt im Kern: Unsere holistische KI-Infrastruktur kann über das Telefon Gespräche führen, kann aber auch über die Website, Health Watches und Devices und direkt im Gespräch Aufgaben ausführen.“ Das Backend orchestriere lediglich Termin-Slots, Daten und Anfragen in Hochgeschwindigkeit. Dabei spiele es schlichtweg keine Rolle, „ob der Kunde Patient in einem Pflegeheim oder Gast in einem Luxushotel ist.“

Wenn die KI-Vision auf den deutschen Fax-Alltag trifft

Ein Blick auf die Website verrät große Visionen, doch diese müssen sich im harten Alltag deutscher IT-Infrastrukturen und oft veralteter Praxis-Server beweisen. Zudem ist die Frage des Datenschutzes elementar: Nutzt das Unternehmen US-amerikanische Sprachmodelle via API, oder hostet man eigene „Sovereign AI“ in Europa?

Für Prof. Dr. Thomas Fuchs sind Datenschutz und Systemintegration absolute Kernpunkte. Um digitale Souveränität zu wahren, setzt das Unternehmen auf einen hybriden Weg: „Wir orchestrieren auf die gängigen sowie auf eigene Modelle auf deutschen Servern, die in Europa bereits genutzt werden.“ Laut Fuchs verlässt man sich dabei nicht nur auf das Versprechen von Sicherheit, sondern arbeitet seit der ersten Stunde eng mit dem renommierten Fraunhofer-Institut zusammen und lässt die eigene Infrastruktur „regelmäßig durch deren Experten prüfen“. Das bloße Versprechen von Sicherheit reicht HoloLogix.AI dabei nicht.

Mehr als nur ein GPT-Wrapper?

HoloLogix.AI ist eine der vielleicht ambitioniertesten Gründungen des Jahres. Technologisch muss es beweisen, dass es mehr ist als ein „GPT-Wrapper“ mit Smartwatch. Aber die Kombination aus Sahis Exekutiv-Erfahrung, Klinges Netzwerk und Fuchs‘ ethischem Korrektiv macht es zu einem spannenden Herausforderer. Wenn die Uhr im Alltag für Sicherheit sorgt – und die KI den deutschen Datenschutz überlebt – könnte aus Berlin der nächste europäische Champion kommen.

VESTIO: Wenn ein Solar-Entrepreneur auf einen Stil-Rebellen trifft

Die Geschichte der jungen FashionTech-App VESTIO ist zugleich die zweier Gründer, die sich in einem gemeinsamen Ziel treffen: Die Demokratisierung von gutem Stil durch algorithmische Logik.

Hinter der FashionTech-App VESTIO steht die im Jahr 2024 von Bastian Arend und Justus Hansen gegründete Opus Stilberater GmbH, die den Anspruch erhebt, professionelle Stilberatung erstmals digital, logisch und kostenlos zugänglich zu machen.

Der „Solar-Entrepreneur“ trifft den Stil-Rebell

Die persönlichen Hintergründe der Gründer bieten spannende Kontraste, die weit über ein übliches Business-Profil hinausgehen. Bastian Arend, Co-Founder und CEO, kam über die Energiewende zur Mode. Als Seriengründer baute er den Online-Solar-Anbieter Klarsolar auf und verkaufte ihn im Dezember 2023 erfolgreich an den Energiekonzern E.ON. Die Übernahme erfolgte in einer für die Solarbranche schwierigen Marktphase, was Bastian Arend als Krisen-erprobten Strategen auszeichnet.

VESTIO entwickelte er 2024 jedoch aus einem ganz persönlichen „Pain Point“ heraus: Während er internationale Millionen-Finanzierungsrunden leitete, bestand sein eigener Stil mangels Zeit lediglich aus Hoodie, Jeans und Sneakern. „Ich wollte nur jemanden, der für mich einkauft“, erinnert er sich an diese Phase. Seine Abneigung gegen zeitraubendes Shopping führte ihn schließlich zu Justus Hansen.

Justus Hansen, Co-Founder und Chief Styling Officer, bringt eine Biografie ein, in der Mode schon immer eine zentrale Rolle spielte. Sein Gespür für klassische Mode ist tief verwurzelt: Justus Hansen trug bereits im Kindergarten eine Fliege und provozierte später Lehrer, indem er im Sakko zum Unterricht erschien. Bevor er mit über 1,6 Millionen Follower*innen zu einem der bekanntesten Männerstilberater Deutschlands aufstieg, studierte er Jura und absolvierte Praktika im Bankensektor, unter anderem bei der Dresdner Bank.

Diese Erfahrungen schärften seinen Blick für die Anforderungen moderner „Business-Garderoben“. Als Arend ihn fragte, ob er für ihn einkaufen könne, antwortete Justus Hansen bestimmt: „Einfach irgendwas kaufen? Nein. Ich muss verstehen, wer du bist.“ Bastian Arend begriff Hansens modulare Styling-Methode sofort als logisches System und schlug vor: „Wir sollten deine Methode digitalisieren und kostenlos für jeden Mann zugänglich machen.“ Für Justus Hansen wurde damit ein „Lebenstraum“ wahr.

Das Konzept: „Weniger Teile, mehr Outfits“

Das Herzstück der App bildet ein algorithmisches Styling-System, das strikt dem Leitsatz „Weniger Teile. Mehr Outfits“ folgt. In nur drei Minuten erstellt ein Stilfinder-Fragebogen eine persönliche Grundgarderobe. Der digitale Kleiderschrank funktioniert dabei bewusst ohne das mühsame Hochladen von Fotos; das System kennt die wichtigsten Basics, erkennt Lücken und empfiehlt gezielt Ergänzungen. Justus Hansen betont dabei die Wichtigkeit der Basis: „Die wenigsten Männer besitzen eine echte Basisgarderobe. Und das ist die Grundlage, aus der ihre besten Outfits entstehen.“

Ziel ist es, automatisch kombinierbare Outfits für alle Anlässe zu generieren. Dabei verfolgen die Gründer eine klare ästhetische Linie: „Outfits müssen nicht kompliziert sein, um zu wirken. Sie brauchen lediglich eine klar erkennbare Linie“, so Hansen. Bastian Arend ergänzt: „Die besten Outfits für Männer sind nicht kompliziert, sondern harmonisch und durchdacht.“

Das Affiliate-Dilemma: Geschäftsmodell im kritischen Check

Wirtschaftlich operiert VESTIO über ein Affiliate-Modell. Die App ist für Nutzer kostenlos, während das Unternehmen Provisionen von Partner-Anbietern bei einem erfolgreichen Kauf erhält. Hier liegt für den kritischen Betrachter ein interessanter systemischer Interessenkonflikt: Das erklärte Ziel „Weniger Konsum – bessere Entscheidungen“ steht ökonomisch potenziell im Widerspruch zu einem Modell, das von Transaktionen lebt. Zudem stellt sich die Frage der langfristigen Nutzerbindung: Sobald ein Mann seine „perfekte Garderobe“ aufgebaut hat, sinkt der Bedarf für weitere Anschaffungen. Dass das Unternehmen dennoch auf Wachstum setzt, zeigt die Erhöhung des Stammkapitals auf knapp 30.000 Euro im September 2025. Langfristig plant VESTIO die Integration eines Marktplatzes, der Partnerprodukte und eigene Kollektionen vereint, um basierend auf Daten den größten Mehrwert zu liefern.

Marktpositionierung und technologischer Vorsprung

Im Vergleich zum Wettbewerb besetzt VESTIO eine spezifische Nische. Während Curated-Shopping-Anbieter (z.B. Outfittery) auf den Versand physischer Boxen setzen, bleibt VESTIO ein rein digitaler Guide, der dem Nutzer die volle Freiheit bei der Wahl des Händlers überlässt. Andere Styling-Apps verlangen oft zeitintensive Foto-Inventuren, während VESTIO auf logische Kombinationen setzt.

Das Risiko bleibt jedoch die Abhängigkeit von der Personal Brand Justus Hansens. Letztlich ist VESTIO der Versuch, Mode so effizient wie eine Prozessoptimierung zu gestalten – oder wie Bastian Arend es formuliert: „Viele Männer haben mehr Kleidung als Stil. Vestio ändert das.“ Mit dem Aufbau der App wolle man Männern „genau diese Arbeit abnehmen“, damit sie sich ultimativ „besser fühlen“ können.

DIONYS: Schluss mit Event-Chaos

Events und Offsites erleben ein massives Comeback. Doch hinter den Kulissen vieler Locations herrscht oft noch analoges Chaos. Das Münchner Start-up DIONYS will genau das ändern: Schluss mit dem E-Mail-Pingpong, hin zu echten Buchungen.

Die steigende Nachfrage nach Firmen-Events und privaten Feiern stellt die Hospitality-Branche vor administrative Herausforderungen. Während Hotelzimmer und Tischreservierungen weitgehend digitalisiert sind, erfolgt die Bearbeitung von Gruppenanfragen und Event-Konfigurationen in vielen Betrieben noch manuell. Das 2025 gegründete Software-Start-up DIONYS tritt an, um diesen Prozess durch Standardisierung zu beschleunigen.

Konfigurator statt E-Mail-Pingpong

Das Kernprodukt des Unternehmens ist eine Softwarelösung, die den Angebotsprozess für Veranstaltungen digitalisiert. Anstatt individuelle Angebote manuell zu tippen, sollen Kunden ihre Events – von Menüs bis zu Getränkepaketen – über eine Online-Oberfläche selbst konfigurieren können.

CEO Folke Mehrtens beschreibt den aktuellen Zustand der Branche als paradox: „Es ist absurd: Gerade dort, wo Events den meisten Umsatz bringen, fehlt oft jede Struktur. Solange Events wie Sonderfälle behandelt werden, bleiben sie ein operativer Schmerz.“

Die Software von DIONYS zielt darauf ab, diesen „Schmerz“ zu lindern, indem sie Events von der manuellen Ausnahme zum standardisierten Produkt wandelt – buchbar und transparent wie im E-Commerce.

Technik trifft auf operative Erfahrung

Technisch steht das Unternehmen vor der Hürde, die individuellen Parameter von Gastronomiebetrieben – etwa spezifische Stornoregeln oder variable Menüfolgen – in einen Algorithmus zu überführen. CTO Gregor Matte betont, dass die Herausforderung weniger in der reinen Buchung, sondern in der Abbildung der operativen Vielfalt liege.

Um die Praxistauglichkeit sicherzustellen, setzt das Gründungsteam auf Mitstreiter mit Branchenhintergrund. Neben Mehrtens (Strategie) und Matte (Technik) sind unter anderem Ekkehard Bay (ehemals Manager im Mandarin Oriental) sowie Daniel Simon (ehemals OpenTable) an Bord.

Wettbewerb und der Faktor „Mensch“

DIONYS positioniert sich in einem dichten Marktumfeld zwischen etablierten Back-Office-Lösungen wie Bankettprofi und modernen Reservierungssystemen wie aleno. Die Münchner suchen ihre Nische bei individuellen Event-Locations und Restaurants, die sich von reinen Tagungshotels abgrenzen.

Die in der Branche verbreitete Sorge, dass durch die Digitalisierung die persönliche Note leide, versucht Head of Hospitality Ekkehard Bay zu entkräften: „Wenn Standardfragen digital geklärt sind, bleibt im echten Gespräch mehr Zeit für das, was wirklich zählt: besondere Wünsche und echte Aufmerksamkeit.“

Erste Marktdaten und Ausblick

Seit dem Start im Herbst 2025 wurden nach Angaben des Unternehmens Anfragen mit einem Volumen von rund 400.000 Euro über das System abgewickelt. Zu den ersten Nutzern zählen bekannte Münchner Betriebe wie Kustermann und die Bar Valentin. Das Erlösmodell basiert auf einer Kombination aus monatlicher Softwaregebühr und umsatzabhängigen Komponenten.

Für die nächste Wachstumsphase strebt DIONYS die Akquise von 100 „Pionier-Betrieben“ in der DACH-Region an. Ob sich der Ansatz als neuer Industriestandard durchsetzen kann, wird davon abhängen, ob die Software die komplexen Anforderungen einer breiten Masse an unterschiedlichen Betrieben tatsächlich ohne manuelles Nachsteuern abbilden kann. Daniel Simon gibt sich zuversichtlich: „In drei Jahren wird Event-Management nicht mehr improvisiert, sondern datenbasiert gesteuert.“

Comeback in der Energiebranche: Ex-Yello-Chef Peter Vest fordert mit neuem Modell den Strommarkt heraus

Mit STARQstrom ist zum Jahresanfang ein neuer Player in den Energiemarkt eingetreten. Das Hamburger Start-up setzt auf ein prominentes Gründer-Duo und ein Modell, das den klassischen Börsenhandel umgehen will. Der Fokus liegt dabei nicht nur auf dem Preis, sondern auf den wachsenden ESG-Nachweispflichten des Mittelstands.

In der deutschen Energielandschaft meldet sich ein bekanntes Gesicht zurück: Dr. Peter Vest, der ehemalige Geschäftsführer von Yello Strom, hat gemeinsam mit Fabio Griemens zum 1. Januar 2026 den neuen Energieversorger STARQstrom gelauncht. Während Vest die Branchenerfahrung aus der Konzernwelt mitbringt, kommt Co-Gründer Griemens aus der Tech- und Skalierungsecke, mit Stationen im Management von LinkedIn und FREENOW.

Das Duo tritt an, um die Wertschöpfungskette der Stromversorgung zu straffen. Das Kernversprechen des neuen Anbieters liegt in der sogenannten „Direktvermarktung“. Anstatt den erzeugten Strom über die Strombörse zu handeln – wo er oft anonymisiert und wieder zurückgekauft wird –, setzt das Startup auf eine direkte Verzahnung von Erzeugung und Belieferung.

Umgehung der „Doppelschleife“

Das Geschäftsmodell zielt darauf ab, Handelsstufen zu eliminieren. Laut Peter Vest vermeidet das Unternehmen die übliche „Doppelschleife“ über die Börse, bei der Energie zunächst vermarktet und später für die Belieferung wieder beschafft wird. Stattdessen nutzt STARQstrom Energie aus eigenen PV- und Windparks sowie den direkten Einkauf, um sie ohne Umwege an die Endkunden zu bringen.

Diese Strategie soll vor allem Preistransparenz schaffen und die Volatilität abfedern. Im ersten Betriebsmonat nach dem Start im Januar 2026 konnte das Unternehmen nach eigenen Angaben bereits rund drei Millionen Kilowattstunden (kWh) Grünstrom absetzen.

ESG-Pflichten als Wachstumstreiber

Obwohl das Angebot auch Privatkunden offensteht, visiert das Startup strategisch vor allem den energieintensiven Mittelstand an. Hier identifizieren die Gründer ein drängendes Problem jenseits der reinen Kosten: die bürokratischen Anforderungen der Energiewende.

Unternehmen stehen zunehmend unter Druck, im Rahmen von ESG-Berichtspflichten (Environment, Social, Governance) und Audits die Herkunft ihrer Energie lückenlos nachzuweisen. „Wer heute Strom einkauft, schaut nicht nur auf den Preis, sondern genauso auf Herkunft und Nachweislogik“, erklärt Mitgründer Fabio Griemens die Marktlücke. Da der Strom aus definierten Anlagen in Deutschland stammt und nicht als Graustrom über die Börse fließt, können Herkunftsnachweise für jede Kilowattstunde direkt bereitgestellt werden, was die Compliance-Prozesse für Firmenkunden vereinfachen soll.

Ambitionierte Skalierungsziele

Die Ziele für die Anlaufphase sind sportlich gesteckt. Für das laufende Geschäftsjahr 2026 plant das Hamburger Unternehmen mit einem Volumen von rund 500 GWh im eigenen Bilanzkreis. Gedeckt wird dieser Bedarf durch einen Mix aus PV- und Onshore-Windanlagen, wobei bei Spitzenlasten ergänzend auf Börsenbeschaffung zurückgegriffen werden kann.

Mittelfristig zielt das Gründer-Duo auf den Massenmarkt: Bis Ende 2027 soll rechnerisch eine Menge an Erneuerbarer Energie bereitgestellt werden, die der Versorgung von einer Million Haushalte entspricht. Ob das Modell der direkten Vermarktung angesichts des volatilen Erzeugungsprofils erneuerbarer Energien auch bei dieser Skalierung die versprochene Planungssicherheit halten kann, wird die Marktentwicklung in den kommenden zwei Jahren zeigen.

Dr. Peter Vest und Fabio Griemens werden ihr Konzept dem Fachpublikum erstmals auf der E-World im Februar vorstellen.

KI erfolgreich industrialisieren

Warum 95 Prozent der KI-Pilotprojekte scheitern – und wie du deine Chancen erhöhst, zu den erfolgreichen fünf Prozent zu gehören.

Künstliche Intelligenz ist in der Industrie angekommen, doch zwischen Anspruch und Wirklichkeit klafft oft eine Lücke. Eine aktuelle Untersuchung des MIT - Massachusetts Institute of Technology („The GenAI Divide“) zeigt: Nur fünf Prozent der KI-Pilotprojekte schaffen tatsächlich den Sprung in die produktive Anwendung. Diese „Pilot-to-Production“-Falle ist eines der größten Risiken für Industrieunternehmen heute.

Der feine Unterschied

GenAI ist keine Produktions-KI Oft werden Äpfel mit Birnen verglichen. Generative KI (GenAI) ist fantastisch für kreative Aufgaben und Chatbots, scheitert aber oft an der Verlässlichkeit, die in der Produktion nötig ist. Industrietaugliche „Produktions-KI“ hingegen muss anders funktionieren: Sie lernt aus Maschinendaten, erkennt Zusammenhänge in Echtzeit und muss absolut robust laufen.

Besonders in der Kunststoffverarbeitung, etwa bei schwankenden Recyclingmaterialien oder Verschleiß, spielt Produktions-KI ihre Stärken aus: Sie gibt den Mitarbeitenden an der Maschine konkrete Handlungsempfehlungen, statt nur Daten zu sammeln.

Faktor Mensch und Organisation

Das MIT fand heraus: Technik ist selten das Problem. Es sind die organisatorischen Hürden. Unternehmen, die sich externe Expertise und spezialisierte Software-Partner ins Haus holen, verdoppeln ihre Chance, KI-Projekte erfolgreich in den Regelbetrieb zu überführen. Es geht darum, Fachwissen mit Technologie zu verheiraten.

Wie gelingt der Transfer in den Shopfloor?

  • Fokus statt Gießkanne: Identifiziere konkrete Probleme (z.B. Anfahrausschuss) und priorisiere diese nach wirtschaftlichem Mehrwert.
  • Integration planen: KI darf keine Insel sein. Die Anbindung an IT- und OT-Systeme muss von Anfang an stehen.
  • Externe Power nutzen: Setze auf Partner, die deine Industrie verstehen, um die Kinderkrankheiten von Pilotprojekten zu vermeiden.
  • Skalierung: Starte fokussiert, miss den Erfolg anhand harter Kennzahlen (OEE, Ausschussrate) und rolle sodann funktionierende Lösungen breit aus.

Fazit

Wer KI nicht als IT-Projekt, sondern als Werkzeug für den Shopfloor begreift und strategisch implementiert, sichert sich echte Wettbewerbsvorteile.

Die Autorin Dr. Louisa Desel ist Mitgründerin und CEO der OSPHIM GmbH. Das 2024 gegründete Unternehmen entwickelt spezialisierte KI-Lösungen für die Kunststoffindustrie.

Wie viel verdienen Twitch Streamer wirklich? Zahlen und Verdienstmöglichkeiten im Blick

Wer als passionierter Spieler noch nicht an eine Gaming Karriere gedacht hat, sollte dies jetzt nachholen: Schließlich ergeben sich aus dieser von Esport-Turnieren bis hin zum Streaming einige Verdienstmöglichkeiten. Creatoren verdienen mit der Echtzeit-Übertragung ihres Spielerlebnisses Geld. Was sich einfach anhört, kann für so manchen Spieler auch zum komplexen Unterfangen werden. Wie hoch der Streamer Verdienst in diesen Fällen ausfällt und welche Einnahmemöglichkeiten es für Twitch Streamer noch gibt, erfahren Sie hier.

Die Top 10 Twitch Streamer im Jahr 2025

„Es gewinnt nicht der beste Spieler, sondern der beste Entertainer.“

Nadine-Sophie Huxdorf


Auf Plattformen wie Twitch gilt: Die Community beeinflusst stark, wie viel Geld Streamer verdienen können. Wer eine starke Zuschauergemeinde aufbauen kann, freut sich in der Regel über ein höheres Einkommen – dabei spielt vor allem die Interaktion der Viewer eine zentrale Rolle.

Aktuell weisen diese top 10 Twitch Channels die höchsten Zuschauerzahlen vor:

Streamer

Durchschnittliche Zuschauerzahl

Follower

IBAI

126.449

19,8 Millionen

CASEOH_

52.024

7,9 Millionen

AMINEMATUE

46.844

3,3 Millionen

ZACKRAWRR

36.903

2,2 Millionen

ELIASN97

29.320

2,2 Millionen

CEADREL

71.045

1,5 Millionen

PESTILY

31.839

1,5 Millionen

LVNDMARK

42.837

1,4 Millionen

kato_junichi0817

34.996

1,1 Millionen

TheBurntPeanut

30.438

993.817


Geld verdienen mit Streaming: Diese Faktoren wirken sich auf Twitch Einnahmen aus

Die Twitch-Einnahmen der verschiedenen Streamer setzen sich aus unterschiedlichen Verdienstquellen zusammen. So können die Kontoinhaber Werbung in ihren Live-Übertragungen schalten, die ihnen je nach Zuschauerzahl und Länge der Werbepause einen kleinen bis mittleren Betrag einbringen. Hierbei handelt es sich jedoch um ein eher statisches Nebeneinkommen, das die meisten Streamer auch als nebensächlich empfinden. Den größeren Teil des Twitch Einkommens machen Abonnements und Spenden der Zuschauer aus, aber auch Sponsoring und Markenpartnerschaften.

Übrigens: Twitch Auszahlungen erfolgen automatisch via PayPal oder Banküberweisung, sofern ein gewisser Mindestbetrag erreicht wurde. In diesem Zusammenhang bieten mobile casinos, ähnlich wie Streaming-Plattformen, eine bequeme Möglichkeit für Spieler, jederzeit und überall zu spielen, ohne auf traditionelle Zahlungsmethoden angewiesen zu sein. Diese Art von Plattformen hat sich zu einer beliebten Option entwickelt, da sie den Nutzern schnelle Auszahlungen und einfache Handhabung bieten.

Twitch Daten Leak 2021: Das verdienen Top-Streamer

Ende 2021 wurde die bekannte Plattform Twitch gehackt. Bei einem Datenleck kam heraus, dass die 2014 von Amazon gekaufte Plattform kaum Sicherheitsvorkehrungen geschaffen hatte – weshalb große Teile des Programmiercodes sowie Login-Daten und Zahlen zum Streamer Verdienst veröffentlicht werden konnten. Zu sehen waren vor allem die Gesamteinnahmen der Top Spieler aus den Twitch Statistiken des Zeitraumes August 2018 bis Oktober 2021 in US-Dollar:

  1. CriticalRole: 9,6 Millionen
  2. xQc: 8,5 Millionen
  3. summit1g: 5,8 Millionen
  4. Tfue: 5,3 Millionen
  5. Nickmercs: 5,1 Millionen

Zum Vergleich: Der deutsche Twitch Streamer Marcel Eris (alias MontanaBlack88) hat über Twitch 2,4 Millionen US-Dollar eingenommen. Der Streamer MontanaBlack88 gehört zu den bestbezahlten deutschen Spielern auf Twitch.

Damit werden die großen Unterschiede zwischen den Verdiensten der Streamer aus Deutschland und den USA deutlich. Rund vier Millionen Deutsche verfolgen Twitch-Übertragungen – und das sogar täglich. In den USA liegt die tägliche Zuschauerzahl bei stolzen 35 Millionen Nutzern, sodass amerikanische Streamer auch einen deutlich größeren Markt bedienen und die Einkommensunterschiede nicht verwunderlich sind. MontanaBlack88 ist allerdings auch auf anderen Plattformen wie YouTube zu finden, sodass sein Gesamtverdienst womöglich deutlich höher liegt.

Gut zu wissen: Twitch Partner (von Twitch ausgewählte Streamer mit qualitativem Content) können sich über höhere Einnahmen freuen – etwa einen höheren Anteil aus dem Abonnenten-Verdienst.

Im Detail: So setzt sich der Verdienst zusammen

Wie eingangs erwähnt, verdienen Twitch Streamer vor allem durch Abonnenten einen großen Teil ihres Einkommens. Das Abonnement kostet Subscribern in der ersten Stufe 4,99 Euro – wovon Streamer in der Regel 50% (2,50 Euro) behalten dürfen. Dafür erhalten Abonnenten bestimmte Vorteile wie etwa die Möglichkeit, per Chat mit dem Streamer interagieren zu können. Wer also 1.000 Abonnenten hat, kann deshalb schon mit Einnahmen von 2.500 Euro monatlich rechnen.

Einen Großteil ihrer Einnahmen generieren Gaming-Streamer aber auch mit Hilfe von Subscriber-Spenden. Diese werden in Twitch Bits genannt und von der Plattform ausgezahlt. Die Spenden rufen bei einigen Streamern emotionale Reaktionen hervor, was wiederum mehr Menschen zum Spenden anregt.

Eine weitere Möglichkeit stellt Affiliate-Marketing dar: Streamer bewerben in dem Fall für ihre Zuschauer interessante Produkte in ihren Videos. Kaufen Zuschauer die Produkte, profitieren Streamer von einer Provision – die nicht selten 30% des Kaufbetrages ausmacht.

Sponsoren und Markendeals als größte Einnahmequelle für Streamer

An Streamer mit besonders hohen Zuschauer- und Followerzahlen treten oft auch bekannte Marken heran. Sie bezahlen die Gamer dafür, ihre Produkte im Live-Stream anzupreisen – beispielsweise Gaming-Peripherie oder Energy-Drinks. Soll dies über einen längeren Zeitraum geschehen, werden solche Marken oft auch zum Sponsor des Spielers, um ihre eigene Reichweite zu erhöhen.

Kosten und Abzüge: Dem steht der Streamer Gehalt in Deutschland gegenüber

Die genannten Streamer Gehälter stellen Brutto-Summen dar – also den Verdienst vor Abzug der deutschen Einkommens-, Umsatz- und Gewerbesteuer, sowie Sozialversicherungen. Wer all diese Beträge zusammenzählt, muss oft bis zu 45% seines Brutto-Einkommens an den Fiskus abführen. Doch damit nicht genug: Die meisten Twitch-Streamer müssen auch Chat-Moderatoren bezahlen, die für eine angenehme Atmosphäre unter den Kommentierenden sorgen und Community-Richtlinien durchsetzen.

Darüber hinaus wollen sich Zuschauer nur Streams ansehen, die eine hohe Qualität aufweisen. Um leistungsstark spielen und den Verlauf optimal übertragen zu können, brauchen Streamer bestimmtes Gaming-Equipment, das selbst zwischen 2.000 und 10.000 Euro kosten kann. Auch eine stabile Internetverbindung und die damit verbundenen Kosten sind zu bedenken.

Alternative Plattformen zur Diversifizierung

Um noch mehr Einkommen zu generieren, können passionierte Spieler ihre Streams allerdings zusätzlich auf anderen Plattformen veröffentlichen und monetarisieren – beispielsweise durch Werbung und Affiliate-Marketing. Zur Diversifizierung kommen Plattformen wie YouTube und Kick in Frage, die teilweise sogar bessere Konditionen bieten. Denn: Bei Kick werden Streamer zu 95% an den Einnahmen durch Abonnements beteiligt, was im Gegensatz zu Twitch deutlich attraktiver erscheint.

Der industrielle Wasserkocher: Wie das Start-up SYPOX die Chemie grün färbt

Die chemische Industrie hat ein massives Emissionsproblem, denn ihre Prozesse verschlingen Unmengen an Erdgas. Das 2021 geründete Start-up SYPOX, ein Spin-off der TUM will das ändern – mit einer Technologie, die so simpel wie genial klingt: Ein riesiger, elektrischer Tauchsieder soll die fossile Verbrennung ersetzen. Nun meldet das junge Unternehmen den ersten Durchbruch auf dem Weltmarkt.

Wenn Dr. Martin Baumgärtl erklären will, wie er die chemische Industrie revolutionieren möchte, wählt er ein Bild, das jeder versteht: „Im Grunde ist es wie ein Wasserkocher in der heimischen Küche – nur im industriellen Maßstab.“ Baumgärtl ist CTO von SYPOX, und was er beschreibt, könnte einer der wichtigsten Hebel für die Dekarbonisierung einer der schmutzigsten Branchen der Welt sein.

Die chemische Industrie ist süchtig nach Energie. Um Basischemikalien wie Methanol oder Ammoniak herzustellen, wird sogenanntes Synthesegas benötigt – eine Mischung aus Wasserstoff und Kohlenmonoxid. Die Herstellung geschieht in gewaltigen Hochtemperaturprozessen. Bisher wird die dafür nötige Hitze fast ausschließlich durch das Verbrennen von Erdgas oder Öl erzeugt. Die Folge: Gigantische CO-Emissionen.

Strom statt Flamme

Genau hier setzt SYPOX an. Das 2021 in Freising gegründete Unternehmen ersetzt die offenen Gasflammen durch elektrischen Strom. In ihren Reaktoren, die von außen wie gewöhnliche Druckbehälter aussehen, stecken hochkomplexe elektrische Heizelemente, die direkt hinter den Katalysatoren platziert sind.

Der Effekt ist enorm: „In konventionellen Verfahren entfallen rund 40 Prozent der Emissionen allein auf die Wärmeerzeugung aus fossilen Energieträgern“, rechnet Baumgärtl vor. Durch die Elektrifizierung des Reaktors fallen diese Emissionen weg – vorausgesetzt, der Strom kommt aus erneuerbaren Quellen. Zudem lässt sich der Prozess laut den Gründern präziser und sicherer steuern.

Der Anti-Trend im Silicon Valley

Doch nicht nur technologisch, auch ökonomisch schwimmt SYPOX gegen den Strom. In der Tech-Szene ist es üblich, dass Start-ups jahrelang Verluste schreiben und sich von einer Venture-Capital-Runde zur nächsten hangeln, getrieben von Investoren, die schnelles Wachstum fordern.

Die bayerischen Gründer wählten einen konservativeren, fast schon mittelständischen Ansatz. „Es entsprach nicht unserem Stil, Geld einzuwerben – wir haben vielmehr von Anfang an versucht, auf Basis unserer Technologie ein tragfähiges Geschäft aufzubauen“, erklärt CEO Dr. Gianluca Pauletto. Man wolle bodenständig bleiben und sich aus Umsätzen finanzieren, statt sich in Abhängigkeiten zu begeben.

Vom Container im Altmühltal zum Großkunden

Die Wurzeln des Unternehmens liegen an der Technischen Universität München (TUM). Die Idee brachte Pauletto aus seiner Zeit in Montréal mit, an der TUM fand er in Prof. Johannes Lercher und dem damaligen Doktoranden Martin Baumgärtl die wissenschaftlichen Mitstreiter.

Der Weg zum marktreifen Produkt war – typisch für „Deep Tech“ – langwierig. „Vier Jahre Forschung und zahlreiche Versuchsreihen waren notwendig“, erinnert sich Lercher. Während andere Software im Co-Working-Space programmierten, baute das SYPOX-Team eine Pilotanlage in einem einfachen Stahlcontainer auf dem Gelände einer Biogasanlage im ländlichen Dollnstein (Altmühltal).

Diese Beharrlichkeit zahlt sich nun aus. Das Start-up hat, unterstützt durch den Spezialchemie-Konzern Clariant, seinen ersten Großkunden an Land gezogen. Ab 2026 soll eine erste industrielle Anlage in Betrieb gehen, die täglich 150 Tonnen Synthesegas produziert. „Das ist nicht nur ein Meilenstein für uns, sondern auch ein starkes Signal an die gesamte chemische Industrie“, so Baumgärtl.

Für das Team, das inzwischen in Langenbach bei Freising sitzt und weiterhin Labore auf dem Forschungscampus Garching betreibt, ist das der Beweis: Die Elektrifizierung der Chemie ist keine Zukunftsmusik mehr, sie beginnt jetzt.

Social Engineering auf dem Vormarsch

Wie Deepfakes die Sicherheit von Führungskräften stärker in den Fokus rücken.

Fotorealistische KI liefert innerhalb von kürzester Zeit realistische Visuals. Was in vielerlei Hinsicht den Arbeitsalltag erleichtert, bedeutet für Social Engineering jedoch eine neue Eskalationsstufe, wie nicht zuletzt die hitzige Debatte um massenhaft sexualisierte Deepfakes von realen Personen durch Grok eindrücklich vor Augen führte.

Auch Personen in leitenden Funktionen in Unternehmen sind vor solchen Manipulationen nicht gefeit. Zunehmend zielen Angriffe auf Menschen mit Zugriffsrechten und Entscheidungsbefugnissen, deren Freigaben unmittelbare Wirkung auf die Sicherheit einer ganzen Organisation haben. „Fotorealistische KI und hybride Social-Engineering-Kampagnen erhöhen den Druck auf Schlüsselpersonen. Daher brauchen Unternehmen belastbare Verifikationsprozesse, Krisenroutinen und integrierte Schutzkonzepte“, erklärt Markus Weidenauer, geschäftsführender Gesellschafter der SecCon Group GmbH.

Deepfakes zielen auf privates Umfeld

Nach Angaben des Bundesamts für Sicherheit in der Informationstechnik (BSI) lassen sich Deepfakes als Verfahren beschreiben, die gezielt Spear-Phishing und andere Social-Engineering-Angriffe nutzen, um Vertrauen aufzubauen und Autorität zu simulieren. Generative KI fungiert dabei als zentraler technischer Enabler, da sie die realistische Erzeugung manipulativer Audio-, Video- und Textinhalte erstmals in industriellem Maßstab ermöglicht. „Die eigentliche Bedrohung ergibt sich dabei nicht aus einzelnen KI-generierten Inhalten, sondern aus deren koordinierter Nutzung“, weiß der Sicherheitsexperte.

Infolge der steigenden Qualität und der zunehmenden Verfügbarkeit generativer KI wird es darüber hinaus zunehmend schwieriger, Fakt von Fiktion zu unterscheiden „Zwar können isolierte Inhalte für sich betrachtet zweifelhaft sein, doch das konsistente Zusammenspiel mehrerer manipulierter Medieninhalte erhöht die wahrgenommene Glaubwürdigkeit erheblich“, ergänzt der Profi und weist darauf hin, dass sich diese Entwicklung in der Praxis zuspitzt. „Social Engineering, Deepfakes und digitale Erpressung werden immer häufiger mit Observationen des privaten Umfelds sowie Angriffen auf die Heim-IT kombiniert. Durch diese Eskalation der Angriffsmittel bauen Täter gezielt psychologischen Druck auf, der die Widerstandsfähigkeit der Betroffenen weiter reduziert.“

Risiken kennen, Wege einüben

Kompromittierte Schlüsselpersonen mit Steuerungs- und Entscheidungsfähigkeiten bergen hohes Schadenspotenzial für Betriebe. Das reicht von unmittelbaren finanziellen Verlusten bis zu dauerhaften Reputationsschäden. Dieses Risiko wird insbesondere dort verstärkt, wo organisatorische und prozessuale Absicherungen fehlen. „Resilienz bedeutet aber, auch in potenziellen Krisensituationen sichere Entscheidungen treffen zu können“, betont Markus Weidenauer. Trotzdem mangelt es vielen Unternehmen sowohl an speziellen Trainings zum Thema Social Engineering als auch an Meldewegen, klaren Freigabeprozessen, die auch unter Druck funktionieren, sowie alternativen Kommunikationskanälen. „Nur wenn Mitarbeiter diese Strukturen kennen und regelmäßig einüben, entsteht eine Kultur, in der eine frühzeitige Eskalation in der Meldekette als notwendiger Beitrag zur Sicherheit des gesamten Betriebs wahrgenommen wird“, fügt Markus Weidenauer hinzu.

Dringender Handlungsbedarf in Unternehmen

Um hier Abhilfe zu schaffen, verabschiedete im September 2025 das Bundeskabinett das sogenannte KRITIS-Dachgesetz zur Stärkung der Resilienz kritischer Einrichtungen. Es verpflichtet die Unternehmensleitung, Schutz- und Präventionsmaßnahmen umzusetzen, deren Wirksamkeit nachzuweisen ist. Der dem Regelwerk zugrunde liegende All-Gefahren-Ansatz fordert, dabei physische, digitale und organisatorische Dimensionen gemeinsam zu betrachten. „Auch wenn Führungskräftesicherheit hier kein eigener Rechtsbegriff ist, sollte sie Teil der Anforderungen an ein modernes Sicherheitsmanagement sein“, so der Geschäftsführer der SecCon Group.

Das bedeutet: Führungskräfte etwa vor Erpressungsversuchen durch Social Engineering zu schützen, ist weder persönlicher Luxus noch Symbolpolitik, sondern ein Element der nachweisbaren Unternehmensresilienz. Schließlich ist die Sicherung von Steuerungs- und Entscheidungsfähigkeit ein Governance-Baustein. Nicht die Person steht im Mittelpunkt, sondern die Handlungsfähigkeit des Instituts.

LegalTech-Trends 2026

KI, strategische Fähigkeiten und mehr Technikverständnis stehen 2026 auf der Agenda der Rechtsbranche – gut zu wissen nicht nur für LegalTech-Start-ups und -Gründer*innen.

Die LegalTech-Trends des Jahres 2026 machen deutlich, dass die Rechtsbranche vor einem grundlegenden Wandel steht: Routinetätigkeiten werden zunehmend in den Hintergrund gedrängt, da sie automatisiert oder von KI übernommen werden. Gleichzeitig gewinnen neue Kompetenzen an Bedeutung und Up-Skilling wird zur Schlüsselqualifikation, während traditionelle Karrierepfade ins Wanken geraten. Dementsprechend werden 2026 das Technologieverständnis, Prozessdesign sowie strategische Fähigkeiten in der Rechtsbranche immer wichtiger.

1. Integrierte Cloud LegalTech-Plattformen etablieren sich

Die LegalTech-Landschaft befindet sich in einem tiefgreifenden Wandel und konsolidiert sich zunehmend zu integrierten Cloud-Ökosystemen. Diese vereinen zentrale Funktionen wie Mandats- und Fallmanagement, Dokumentenautomatisierung, Ausgaben- und Risikoanalysen sowie Kollaborations- und Workflow-Funktionen auf einer gemeinsamen Plattform. Sie lösen die bislang weitverbreiteten, voneinander getrennten Einzelsysteme ab. Diese integrierten Plattformen versetzen juristische Teams in die Lage, auf eine einheitliche, konsistente Datenbasis (Single Source of Truth) zuzugreifen und fundierte Analysen durchzuführen. Das Ergebnis sind deutlich schnellere Arbeitsabläufe, eine verbesserte Transparenz über Team- und Abteilungsgrenzen hinweg sowie eine höhere operative Resilienz der Rechtsorganisation.

2. Eingebettete agentenbasierte KI (embedded agentic AI)

Embedded Agentic AI entwickelt sich rasant zu einem der prägendsten Trends im LegalTech-Markt. Im Gegensatz zu klassischen KI-Assistenzsystemen agieren agentische KI-Module direkt innerhalb juristischer Fachanwendungen und übernehmen eigenständig klar definierte Aufgaben – etwa die Fristenüberwachung, Vertragsprüfung oder Aktenvorbereitung. Nahtlos in bestehende Workflows eingebettet, reduzieren sie manuellen Aufwand, minimieren Risiken und steigern die Produktivität spürbar. Für Kanzleien bedeutet Embedded Agentic AI einen strategischen Schritt hin zu skalierbaren, zukunftssicheren Prozessen, bei denen juristische Expertise gezielt durch autonome, kontextbewusste KI ergänzt wird.

3. KI-Sicherheit & Governance

KI ist längst mehr als nur ein Werkzeug – sie entwickelt sich zu einer operativen Notwendigkeit. Im Jahr 2026 werden LegalTech-Pioniere deshalb über reine Pilotprojekte hinausgehen und Rahmenwerke für die KI-Governance, Risikokontrollen, Compliance und ethische Rahmenbedingungen einführen. In diesem Kontext gilt es beispielsweise Transparenzanforderungen zu definieren, Prompt-Audits und Human-in-the-Loop-Kontrollen einzuführen sowie für die Nachverfolgbarkeit von Datenquellen zu sorgen. Kanzleien und Rechtsabteilungen, die eine strukturierte KI-Governance integrieren, reduzieren Haftungsrisiken, stärken das Vertrauen und können KI skalieren. Wenn sie dabei auch noch den ethischen und regulatorischen Compliance-Anforderungen gerecht werden, sind sie für die Herausforderungen der Zukunft gut aufgestellt.

4. Predictive Legal Analytics

KI steht 2026 nicht mehr nur für unterstützende oder automatisierende Funktionen, sondern entwickelt sich zunehmend zum strategischen Faktor. Generative KI und fortschrittliche Analyseverfahren werden gezielt zum Einsatz kommen, um den Ausgang von Gerichtsverfahren zu prognostizieren, umfangreiche Beweis- und E-Discovery-Daten auszuwerten und bislang verborgene Muster in der Rechtsprechung zu identifizieren. Im Jahr 2026 wird KI-generierter Content in immer mehr Verfahren eine zentrale Rolle bei der Sichtung, Bewertung und Einordnung von Beweismitteln spielen. Dadurch verändern sich die Vorgehensweisen bei der Vorbereitung von Fällen, dem Entwickeln von Argumentationsketten sowie der strategischen Entscheidungsfindung. All das führt dazu, dass Technologie vom reinen Hilfsmittel zum strategischen Entscheidungsfaktor aufsteigt.

5. Juristische Talente entwickeln sich zu technisch versierten Fachkräften

Anwältinnen und Anwälte müssen sich zunehmend zu technologieaffinen Gestaltern entwickeln, die digitale Tools, Automatisierung und KI souverän in ihre tägliche Arbeit integrieren. Statt reiner Rechtsanwendung rücken Prozessverständnis, Systemkompetenz und Dateninterpretation in den Fokus. Kanzleien profitieren von effizienteren Abläufen, höherer Skalierbarkeit und besserer Mandantenorientierung. Tech-fluente Legal Professionals werden damit zum entscheidenden Wettbewerbsfaktor in einem zunehmend digitalisierten Rechtsmarkt.

6. KI-gestütztes Smart Contracting & Compliance Automation

KI geht im Vertragswesen weit über einfache Prüfungsfunktionen hinaus und wird zum zentralen Instrument für umfassendes Contract Lifecycle Management, Compliance-Monitoring sowie eine automatisierte Vertragserstellung. Zudem lassen sich durch Predictive Analytics Risiken, Inkonsistenzen und Compliance-Probleme immer früher identifizieren – ein Trend, der insbesondere für Unternehmensrechtsabteilungen und international tätige Kanzleien von Bedeutung ist. Im Jahr 2026 werden sich vor allem diese drei Anwendungsszenarien etablieren:

  • KI-gestützte Vertragsanalysen, die potenzielle Risiken identifizieren und konkrete Korrekturvorschläge liefern.
  • Automatisierte Compliance-Berichte zur lückenlosen Nachverfolgung regulatorischer Vorgaben.
  • KI-Unterstützung bei der Erstellung von Dokumenten.

 7. Cybersicherheit wird zum Wettbewerbsvorteil

Mit der zunehmenden Nutzung von LegalTech steigen auch die Risiken im Bereich Cybersecurity. Umso wichtiger ist es, dass Jurist*innen die Daten ihrer Mandant*innen, vertrauliche Fallakten sowie ihre KI-Systeme vor Ransomware-Angriffe, Datenpannen und der unbefugten Offenlegung sensibler Informationen schützen. Robuste Cybersecurity-Tools und datenschutzorientierte LegalTech-Architekturen sind daher unverzichtbar und werden häufig direkt in die Plattformen integriert. Kanzleien und Rechtsabteilungen, die hier proaktiv investieren, schützen nicht nur ihre Reputation und das Vertrauen ihrer Mandant*innen, sondern erfüllen zugleich die zunehmend strengeren globalen Datenschutzvorschriften.

8. Ergebnisorientierte und ROI-nachweisbare KI-Einführung

2026 steht LegalTech nicht mehr im Testmodus – sie muss konkrete Mehrwerte nachweisen. Sowohl Anbietende als auch Anwendende sind zunehmend gefordert, Investitionen in Technologie klar mit messbaren Ergebnissen zu verknüpfen, etwa durch Zeit- und Kostenersparnis, Reduzierung von Fehlern oder eine höhere Mandant*innenzufriedenheit. Für die Praxis bedeutet das: Pilotprojekte sollten stets mit klar definierten KPIs starten, um den Erfolg messbar zu machen. Analysen spielen eine entscheidende Rolle, um den geschäftlichen Nutzen gegenüber Führungskräften und Mandant*innen transparent darzustellen. Gleichzeitig verlagern sich Budgetentscheidungen weg von „Innovation um der Innovation willen“ hin zu einer klaren ROI-orientierten Ausrichtung.

9. Innovation in der Rechtsberatung & alternative Business-Modelle

Die Veränderung in der Rechtsbranche betrifft die gesamte Struktur juristischer Dienstleistungen. Klassische Stundenhonorare verlieren an Bedeutung, während alternative Preismodelle wie Festpreise, Abonnements oder wertbasierte Vergütungen an Bedeutung gewinnen. Diese Entwicklung wird durch Technologien unterstützt, die Ergebnisse zuverlässig vorhersagen und standardisierte Leistungen effizient bereitstellen. Für Rechtsabteilungen und Mandant*innen wird Kalkulierbarkeit zunehmend zum Standard. Kanzleien, die ihre Liefermodelle entsprechend innovativ gestalten, sichern sich einen Wettbewerbsvorteil gegenüber Wettbewerber*innen, die weiterhin auf traditionelle Stundenhonorare setzen.

10. Lawbots & Vertikale Automatisierung

„Lawbots“ stehen kurz davor, zum festen Bestandteil der Rechtsbranche zu werden. Diese spezialisierten Bots sind darauf ausgelegt, spezifische juristische Aufgaben zu automatisieren – von der Mandantenaufnahme über Dokumentenautomatisierung und Compliance-Prüfungen bis hin zu rechtlicher Recherche. Typische Einsatzszenarien sind etwa maßgeschneiderte Bots für Einwanderungsanträge, Markenanmeldungen oder Routineverfahren in der Prozessführung. Sie übernehmen klar definierte, standardisierte Aufgaben auf höchst effiziente Weise. So gewinnen Anwält*innen wertvolle Zeit, um sich auf komplexe, urteilsbasierte Arbeiten zu konzentrieren und strategische Entscheidungen zu treffen.

Der Autor Oliver Bendig ist CEO von stp.one, einem der führenden Anbietern von Legal-Tech-Komplettlösungen.

Gaming & digitale Medien – eine Perspektive für Start-ups?

Diese Voraussetzungen sollten Gründerinnen und Gründer von Start-ups in der Gamingbranche oder der Gestaltung digitaler Medien mitbringen, um erfolgreich zu sein.

Digitale Start-ups verbinden attraktive Zukunftsperspektiven mit einem geringen Startkapital. Für die digitale Generation aktueller Schul- und Universitätsabgänger stellt sich die Frage, ob ein Einstieg in die Gamingbranche oder die Gestaltung digitaler Medien für die Gründung eines Start-ups ausreichen kann. Solche Perspektiven sind gegeben, die neben ausreichend Kreativität eine fundierte Ausbildung in Computertechnik und Business gleichermaßen voraussetzen.

Indie-Games – eine Perspektive für Entwickler?

Noch vor einigen Jahren war die Gamingbranche als Perspektive für Gründer eher unattraktiv. Die großen, internationalen Studios dominierten die Szene, wobei für Triple-A-Titel längst Tausende von Entwicklern an unterschiedlichen Standorten benötigt wurden. Unter dem Zeit- und Kostengrund vieler Studios sowie der Entlassungswelle der letzten Jahre ist es für immer mehr Developer uninteressant, auf die Anstellung in einem der großen Softwarehäuser zu hoffen.

Die unabhängige Entwicklung von digitalen Medien oder Spielen bleibt jedoch beliebt und kann zur Basis eines Start-ups werden. Immer mehr Gamer wenden sich von den überteuerten, großen Marken der Szene ab und vertrauen auf kleinere Entwickler mit mehr Freiheiten bei der Umsetzung. Selbst die großen Gaming-Plattformen halten regelmäßig eine Auswahl beliebter und neuer Indie-Games für Millionen Nutzer bereit.

Unabhängig von Größe und Art eines Studios bleibt die Gamingbranche international und setzt verschiedene Skills vom Development bis zum erfolgreichen Marketing voraus. Dies alles lässt sich längst in speziell abgestimmten Studiengängen erlernen.

Spielentwicklung der neuesten Generation als Studiengang

Studiengänge wie Games & Immersive Media an der Hochschule Furtwangen erlauben es, einen Bachelor im Gaming-Umfeld zu erlangen und alle relevanten Fähigkeiten für den zukünftigen Berufsweg zu gewinnen. Neben Computer Science und Anwendungen im spielerischen Bereich nehmen Business, Design und Medien als zweiter Bereich einen wesentlichen Stellenwert im Studium ein.

Diese Kombination des bilingualen Studiengangs ergibt Sinn. Schließlich ist nicht jeder kreative Programmierer und Spieleentwickler ein Geschäftsmann, genauso wenig wie Marketer gerne stundenlang mit Quellcode arbeiten. Moderne Studiengänge wie dieser führen beide Welten zusammen und sorgen für eine fundierte Ausbildung, um tiefe Einblicke in beide relevanten Arbeitsfelder zu gewinnen.

Starke Unterstützung für zukünftige Start-ups

Die Hochschule Furtwangen geht mit ihrer Unterstützung weit über den reinen Studiengang hinaus. Bewusst wird angehenden Start-ups unter die Arme gegriffen, die ihre ersten Schritte ins Gaming-Business mit kreativen Spielen und Studienprojekten gehen möchten.

Neben einer umfassenden Beratung auf dem Weg zum eigenen Business werden ein Support für Fördermittel sowie Räumlichkeiten für das gemeinschaftliche Arbeiten an Spielen oder digitalen Medien geboten. Viele Formalitäten und Unsicherheiten, die sich bei Start-ups unabhängig von Branche und Geschäftsfeld ergeben, werden so seitens der Hochschule kompetent und professionell unterstützt.

Für den Einstieg sind Kenntnisse im Gaming-Bereich ideal, die über die reine „Freude am Zocken“ hinausgehen. Kreativität in der Planung und Umsetzung eigener Projekte sollte nachgewiesen werden – anders als die zwingende Notwendigkeit, eine Programmiersprache zu beherrschen.

Sichtbarkeit im digitalen Umfeld entscheidend

Wie bei allen Produkten entscheidet weniger die tatsächliche Qualität, sondern die Sichtbarkeit und eine wirkungsvolle Werbung über Erfolg von Misserfolg von Games. Gerade das Marketing für digitale Produkte ist wegen der hohen Konkurrenz und einer Fülle an Informationen in der digitalen Welt eine immense Herausforderung. Hier eine fachkundige Unterstützung von Anfang an zu erhalten, bewahrt Entwickler und kreative Köpfe davor, grundlegende Fehler zu begehen und frühzeitig den Traum vom Gaming-Job zu begraben.

Schneller aus dem Labor

Wie Gründer*innen aus dem universitären Umfeld der Transfer von Wissen aus der akademischen Welt in die Privatwirtschaft noch besser gelingt, erörtern wir im Interview mit Dr. Philipp Baaske, Mitgründer von NanoTemper Technologies, Business Angel und seit Oktober 2025 Vizepräsident für Entrepreneurship an der Ludwig-Maximilians-Universität München (LMU).

NanoTemper, einer der Weltmarktführer für biophysikalische Messinstrumente, wurde 2008 als Spin-off der LMU gegründet. Was hatte dich damals dazu bewogen, vom Forscher zum Gründer zu werden?

Für mich war es sehr persönlich. Meine Mutter wurde mit Brustkrebs diagnostiziert, und das Medikament, das ihr das Leben gerettet hat, wurde dank Biotechnologie entwickelt. Mir wurde klar, dass Wissenschaft nur dann wirklich mächtig ist, wenn sie den Patienten erreicht. Dieser Gedanke hat mich nie mehr losgelassen.

Im Labor habe ich die Neugier, die Präzision, das Entdecken geliebt. Aber ich sah auch die Lücke: brillante Ideen blieben oft in Publikationen stecken, weit weg vom Alltag der Menschen. Ich wollte nicht bei der Entdeckung stehen bleiben. Ich wollte helfen, Entdeckungen in Produkte zu verwandeln, die jeder nutzen kann.

Diese Überzeugung wurde durch meine Herkunft noch verstärkt. Ich bin in einem kleinen bayerischen Dorf aufgewachsen, in einer Familie von Handwerkern. Meine Eltern haben mir beigebracht, dass Arbeit praktisch sein muss, dass sie den Menschen dienen sollte. Die Wissenschaft faszinierte mich, aber ich spürte eine Unruhe: Wie viel mächtiger kann unser Wissen werden, wenn wir es vom Labor auf den Alltag der Menschen übertragen?

Also habe ich zusammen mit meinem Mitgründer Stefan Duhr den Sprung gewagt. Zwei junge Wissenschaftler in einem Labor im Keller, die die ersten Prototypen von Hand bauten. Wir hatten kein Risikokapital, keine Roadmap, nur Entschlossenheit und den Glauben, dass das, was wir erschaffen, etwas verändern könnte. Uns trieb die gleiche Hartnäckigkeit an, die ich in der Werkstatt meiner Eltern gesehen hatte: Wenn etwas nicht funktionierte, reparierte man es, bis es funktionierte.

Wenn ich jetzt zurückblicke, war es nicht der Businessplan oder die Marktanalyse, die den Ausschlag gaben. Es war der Glaube, dass Forschung nicht im Labor enden, sondern die Brücke zur Gesellschaft schlagen sollte. Und für mich wurde Unternehmertum der Weg, diese Brücke zu bauen.

Was waren die größten Hürden auf diesem Weg?

Die größten Hürden waren nicht technischer, sondern menschlicher Natur. Als Wissenschaftler waren wir darauf trainiert, uns tief in die Experimente zu vertiefen, aber wir wussten nicht, wie man mit Kunden spricht, Verträge aushandelt oder Teams leitet. Das musste ich alles von Grund auf neu lernen.

In den Anfangsjahren haben wir Prototypen verkauft, bevor das Produkt überhaupt fertig war. Das hat uns gezwungen, schnell zu handeln, aber es hat uns auch Demut gelehrt: Kunden erwarten Zuverlässigkeit und nicht nur clevere Ideen. Später, als das Wachstum unsere Finanzen überstieg, mussten wir schwierige Entscheidungen treffen. Einmal musste ich Kollegen entlassen, um das Unternehmen zu retten. Das war einer der schwierigsten Momente meines Lebens, aber es hat mir gezeigt, dass Führung nicht darin besteht, Schmerzen zu vermeiden, sondern Verantwortung zu übernehmen.

Natürlich gab es unzählige kleinere Hürden: Menschen davon zu überzeugen, einem jungen Unternehmen zu vertrauen, die Gehaltsabrechnung zu erledigen, Instrumente von Hand zu reparieren. Aber diese Hindernisse wurden zu unserer Lehrzeit.

Wie können wir den Wissens- und Technologietransfer verbessern und gleichzeitig einen echten gesellschaftlichen Mehrwert schaffen?

Über Fördermittel wird viel gesprochen, was gut ist, denn wir müssen sie verbessern. Aber ich glaube, wir sollten über die Fördermittel hinausdenken. Der Fokus muss auf dem Impact liegen, nicht nur auf der Förderung. In den Life Sciences bedeutet das vor allem eines: Innovationen schneller zu den Patienten und den behandelnden Ärzten zu bringen.

Wir haben exzellente Forschung und Wissenschaftler von Weltrang. Die Frage ist, wie schnell ihre Entdeckungen den Weg vom Labor in die medizinische Praxis finden. Entscheidend sind stärkere Partnerschaften zwischen Universitäten, Krankenhäusern und praktizierenden Ärzten. Wenn Forscher, Kliniker und Ärzte früh zusammenarbeiten, wird der Weg von der Entdeckung zum Patienten kürzer und effektiver.

Ein weiterer wichtiger Aspekt ist, Wissenschaftler dazu zu ermutigen, den Schritt in die Selbständigkeit zu wagen. Viele zögern, weil sie glauben, dass ihnen die unternehmerischen Fähigkeiten fehlen. Was sie jedoch wirklich brauchen, ist eine unterstützende Umgebung: Mentoren, Vorbilder und die Möglichkeit, ihre Ideen auszuprobieren.

Schließlich geht es beim Wissenstransfer nicht darum, Patente von einem Büro in ein anderes zu verlagern. Es geht darum, wissenschaftliche Erkenntnisse in etwas umzusetzen, das das Leben der Menschen berührt und Ärzten hilft, ihre Patienten besser zu behandeln.

Die Skalierung von Forschungsergebnissen in der Privatwirtschaft funktioniert in Deutschland und Europa anders als in den USA. Was können wir aus den USA lernen und was sollten wir anders machen?

Ich bewundere den Mut des US-Ökosystems, in dem Gründer oft von großen Zielen träumen, schnell agieren und frühzeitig Investoren finden. Diese Energie schafft Dynamik und hat viele bahnbrechende Unternehmen hervorgebracht.

Europa hat seine eigenen Stärken. Wir sind bekannt für Qualität, Präzision und Vertrauen. Kunden schätzen, dass wir Dinge bauen, die lange halten. Unsere Herausforderung besteht darin, diese Stärken mit mehr Geschwindigkeit und Mut zu kombinieren. Wir haben die Chance, ein anderes Modell als das US-amerikanische zu entwickeln: verantwortungsvolles Wachstum, profitable Unternehmen und nachhaltige Wirkung, die über Jahrzehnte anhält, und nicht nur Finanzierungszyklen.

Kurz gesagt: Wir können uns von den USA die Zuversicht abschauen, aber wir sollten uns unserer europäischen DNA treu bleiben: geduldig, diszipliniert und langfristig orientiert.

Seit Oktober 2025 bist du Vizepräsident für Entrepreneurship an LMU. Wie willst du dort die Bereiche Entrepreneurship und Technologietransfer voranbringen?

Die LMU ist eine der weltweit führenden Universitäten mit 54.000 Studierenden und 18 Fakultäten. Sie vereint Exzellenz in allen Bereichen und Forschungsgebieten wie Medizin, Physik, KI, Recht, Wirtschaftswissenschaften und Geisteswissenschaften. Meine Aufgabe ist es, dafür zu sorgen, dass diese Vielfalt in die Gesellschaft getragen wird. In Form von Unternehmen, Wissen und Menschen, die ihre Fähigkeiten einsetzen. Und das muss schnell geschehen.

Eine natürliche Stärke der LMU liegt in DeepTech, in den Life Sciences, insbesondere in der Biotechnologie, und in aufkommenden Bereichen wie künstliche Intelligenz und Quanten-Technologien. In diesen Bereichen gibt es bereits bahnbrechende Forschung, und der Einfluss auf Patienten, Industrie und Gesellschaft kann enorm sein. Mein Fokus liegt darauf, diese Bereiche zu stärken und die Wege von der Forschung zur Anwendung zu beschleunigen und zu vereinfachen.

Das bedeutet, dass wir Studierenden und Forschern Zugang zu Büros und Laboren, Inkubationsprogrammen, Finanzierungsmöglichkeiten und starke Partnerschaften mit relevanten Akteuren in München und darüber hinaus bieten, dass wir ein Umfeld schaffen, in dem sie frühzeitig und in der Nähe der Kunden mutige Ideen testen können. In dem sie aus Fehlern und Erfolgen lernen können, von erfahrenen Gründern Ratschläge erhalten und Unternehmertum als attraktive Option sehen.

Vor allem aber möchte ich, dass die Zahl der Start-ups, die von der LMU ausgründen, deutlich ansteigt. Sind Lehre, Forschung und Unternehmertum auf Weltniveau und stärken sich gegenseitig, wird die LMU noch mehr zu einem Ort, an dem Ideen wirklich Wirkung entfalten. Nicht nur in München, sondern weit darüber hinaus.

Vor Kurzem ist dein Buch „The Honorable Entrepreneur“ erschienen. Welche Tipps daraus willst du Gründer*innen mit auf den Weg geben?

Diese sieben Prinzipien haben mich in den letzten 20 Jahren von einer kleinen Labor-WG in einem Keller zu einem globalen Unternehmen geführt:

  • Vertrauen aufbauen oder gar nichts aufbauen: Vertrauen ist die Grundlage für die Zusammenarbeit mit Mitgründern, Mitarbeitern, Investoren und Kunden. Ohne Vertrauen kann kein Unternehmen bestehen.
  • Menschen an erste Stelle setzen – immer: Erfolg wird von Teams und nicht von Einzelkämpfern geschaffen. Wenn du dich um deine Mitarbeiter kümmerst, werden sie die Mission mit dir durchziehen.
  • Innovieren für den Impact: Baue keine Technologie nur für dich selbst. Frage dich: Verbessert das das Leben – für Patienten, Kunden, die Gesellschaft?
  • Schnell und klug skalieren: Wachstum ist wichtig, aber Wachstum ohne Disziplin kann ein Unternehmen zerstören. Fokussiertes, profitables Skalieren schafft Resilienz.
  • Ein profitables, nachhaltiges Unternehmen aufbauen: Profitabilität ist kein Nachgedanke, sondern das, was dir Freiheit und Unabhängigkeit gibt.
  • Die Vision umsetzen: Viele Gründer verlieren sich in glänzenden Ablenkungen. Bleib fokussiert. Setze um, was am wichtigsten ist.
  • Gib etwas zurück: Teile deine Erfahrung, unterstütze andere und trage zum Ökosystem bei. Wahre Erfolge sind diejenigen, die überleben, wenn man selbst nicht mehr da ist.

Meine Botschaft ist einfach: Man kann im Geschäftsleben erfolgreich sein, ohne dabei seine Seele zu verkaufen. Rentabilität und Prinzipien sind keine Gegensätze, sondern gehören zusammen.

Philipp, Danke für deine Insights

Hinweis: Dieses Interview wurde ursprünglich auf Englisch geführt und ins Deutsche übersetzt.

KI-Modelle erfolgreich im Unternehmen einführen

Worauf es bei der Implementierung von KI wirklich ankommt.

Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“

Organisatorischer Wandel und Einbindung der Mitarbeitenden

Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“

Auswahl der passenden KI-Lösung

Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“

Datenqualität als Grundlage für verlässliche Ergebnisse

KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“

Schrittweise Einführung statt großer Umbruch

Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“