Was gehört in eine KI-Policy?

Autor: Dr. Daniel Michel
44 likes

Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routine­aufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.

Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.

Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.

Generative KI schert sich, wenn wir als Nutzer*innen nicht da­rauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.

Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.

Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.

Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.

1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz

Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:

  • Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
  • Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
  • Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
  • Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
  • Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.


2. Richtlinien für die Entwicklung und Implementierung von KI

Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.

  • Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien fest­legen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
  • Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
  • Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
  • Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
  • Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-­KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
  • Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehler­behebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.


3. Übergreifende Ziele und Vorgaben einer KI-Policy

Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.

  • Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
  • Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Ins­trument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
  • Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.

Fazit

Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.

Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com

Battle-Tested & German Engineered: Das neue Power-JV der Drohnenwelt

Mit QFI startet die erste vollautomatisierte Produktionslinie für ukrainische Drohnen in Europa. Ein Gamechanger für die „Build with Ukraine“-Initiative und ein Weckruf für das deutsche Tech-Ökosystem. Agilität schlägt Trägheit: Unsere Analyse über die Architekten der neuen europäischen Resilienz und die Rolle von Start-ups.

Während die klassische Rüstungsindustrie oft mit jahrzehntelangen Entwicklungszyklen ringt, zeigt ein deutsch-ukrainisches Joint Venture, wie das „New Defense“-Zeitalter in Lichtgeschwindigkeit skaliert. Nur zwei Monate nach der offiziellen Ankündigung ist das Joint Venture Quantum Frontline Industries (QFI) operative Realität. Ein symbolträchtiger Moment markierte am 13. Februar den Startschuss: Auf seinem Weg zur Münchner Sicherheitskonferenz nahm der ukrainische Präsident Wolodymyr Selenskyj im Werk bei München die erste in Deutschland gefertigte Linza 3.0 entgegen – ein Meilenstein, der unter der Schirmherrschaft von Verteidigungsminister Boris Pistorius als neues „Leuchtturmprojekt“ der europäischen Souveränität gefeiert wird.

Das „German Model“: Wenn Software-Agilität auf automatisierte Masse trifft

QFI ist mehr als eine Fabrik; es ist der Prototyp des sogenannten German Model. Hier verschmilzt die operative Erfahrung von Frontline Robotics aus dem aktivsten Drohnenkrieg der Geschichte mit der industriellen Exzellenz der Münchner Quantum Systems GmbH. Das Ziel ist ambitioniert: Allein 2026 sollen 10.000 Einheiten der Modelle Linza und Zoom vom Band laufen. Diese Systeme sind hochgradig gegen elektronische Kampfführung (EW) gehärtet und finden dank KI-gestützter visueller Navigation auch ohne GPS-Signal ihr Ziel.

Dieser Erfolg strahlt auf das gesamte deutsche Ökosystem aus. Wir erleben derzeit, wie eine neue Generation von Gründern die Grenzen zwischen digitaler und physischer Souveränität neu zieht.

Ein vernetztes Ökosystem: Die Architekten der Resilienz

Hinter dem Erfolg von QFI steht ein Geflecht aus spezialisierten DeepTech-Akteuren, die Deutschland zum führenden Defense-Hub Europas gemacht haben. Während Quantum Systems mit seinem Status als „Triple Unicorn“ (Bewertung > 3 Mrd. €) die industrielle Skalierung im Luftraum beherrscht, liefert das Münchner Decacorn Helsing (bewertet mit 12 Mrd. €) das digitale Rückgrat. Helsing fungiert als der softwareseitige Integrator, dessen KI-Plattformen heute die Koordination zwischen autonomen Schwärmen und bemannten Einheiten übernehmen.

Am Boden setzt ARX Robotics Maßstäbe. Das Start-up hat seine Series-A im Sommer 2025 auf 42 Millionen Euro aufgestockt und Partnerschaften mit Schwergewichten wie Daimler Truck und Renk geschlossen. Ihr Betriebssystem Arx Mithra OS ermöglicht es, bestehende Fahrzeugflotten zu digitalisieren und in autonome „Mensch-Maschine-Teams“ zu verwandeln. Diese physische Präsenz am Boden wird durch die Orbit-Kapazitäten von Reflex Aerospace vervollständigt. Die Berliner liefern jene ISR-Daten (Intelligence, Surveillance, Reconnaissance), die für die Präzision moderner Drohnensysteme unverzichtbar sind.

Um die Abhängigkeit von asiatischen Lieferketten zu brechen, schließt das bayerische Start-up Donaustahl die Lücke in der Basis-Hardware. Mit einer neuen Fertigung in Hutthurm produziert Donaustahl nicht nur die bewährte „Maus“-Drohne, sondern skaliert die Produktion von Drohnenmotoren und Gefechtsköpfen wie dem „Shahed-Killer“. Ziel ist eine vollkommen souveräne Wertschöpfungskette „Made in Bavaria“, die auch bei globalen Handelskrisen handlungsfähig bleibt.

Der Finanz-Turbo: ESG als Enabler

Dass dieses Ökosystem so rasant wächst, liegt an einem fundamentalen Shift in der Finanzwelt. Seit die EU Verteidigungsinvestitionen offiziell als nachhaltigen Beitrag zur Sicherheit eingestuft hat, ist das Stigma verflogen. Investoren wie DTCP mit ihrem 500-Millionen-Euro-Fonds „Project Liberty“ oder die KfW über den „Ukraine Recovery Fund“ treiben die Skalierung voran. DefenseTech ist damit endgültig in den Portfolios institutioneller Anleger angekommen.

Strategie-Checkliste: Der Masterplan für Dual-Use-Gründer*innen

Für Gründer*innen, die in diesen Markt drängen, hat sich das Spielfeld professionalisiert. Wer 2026 erfolgreich sein will, muss diese fünf Punkte erfüllen:

  1. Dual-Use-DNA: Plane Technologie, die zivil (z.B. Katastrophenschutz) und militärisch nutzbar ist, um den Zugang zu ESG-konformen Kapitalspritzen zu maximieren.
  2. Compliance-Automatisierung: Nutze die neuen BAFA-Genehmigungen (AGG 45/46) für beschleunigte Exporte innerhalb der NATO und an strategische Partner.
  3. BSI-Kriterien erfüllen: Militärische Kund*innen akzeptieren nur Hardware, die höchsten Sicherheitsstandards (C5-Kriterien) entspricht.
  4. Operational Feedback-Loops: Suche Kooperationen für „Battle-Testing“. Echte Einsatzdaten sind 2026 die wichtigste Währung für technologische Überlegenheit.
  5. Mission-Driven Recruiting: Nutze den „Schutz der Demokratie“ als USP, um Top-KI-Talente von zivilen BigTech-Konzernen abzuwerben.

Fazit: Agilität schlägt Trägheit

Die Gründung von QFI ist der Beweis, dass Europa seine industrielle Trägheit ablegen kann. Durch die Verbindung von Start-up-Mentalität, staatlicher Rückendeckung und automatisierter Fertigung entsteht eine neue Form der technologischen Souveränität. Für das deutsche Ökosystem bedeutet das: Wir bauen nicht mehr nur Apps – wir bauen die Sicherheit der Zukunft.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

Automatisierung vor Hiring, sonst wird Komplexität skaliert

Wer Wachstum vor allem mit Hiring beantwortet, verzichtet damit oft unbewusst auf einen der wichtigsten Hebel moderner Organisationen: Klarheit durch Prozesse und Automatisierung. Tipps und To-Dos.

Wachstum wird in Start-ups oft sehr eindimensional gedacht: mehr Nachfrage gleich mehr Menschen. Sobald Anfragen steigen, Deals reinkommen oder neue Märkte locken, folgt fast automatisch der nächste Hiring-Plan. Dabei wird häufig die Ursache mit Wirkung verwechselt. Nicht fehlende Kapazität bremst junge Unternehmen, sondern fehlende Struktur. Prozesse entstehen improvisiert, Verantwortung wird situativ verteilt, operative Arbeit frisst Fokus. Und irgendwann fühlt sich Wachstum nicht mehr nach Fortschritt, sondern nach Dauerstress an.

Gerade in der Start-up-Branche wird Wachstum zudem stark über sichtbare Kennzahlen bewertet. In Gesprächen mit Investor*innen lautet eine der ersten Fragen häufig nicht Gewinn oder EBITA, sondern: Wie viele Mitarbeitende seid ihr und wie viel Umsatz macht ihr? Die Anzahl der Mitarbeitenden wird damit fast zu einem Statussymbol. Hiring wird nicht nur zur operativen, sondern auch zur psychologischen Größe und ein Zeichen von Fortschritt. Diese Logik verstärkt den Reflex, früh zu skalieren, auch wenn die strukturellen Voraussetzungen dafür noch fehlen. Wer Wachstum vor allem mit Hiring beantwortet, verzichtet damit oft unbewusst auf einen der wichtigsten Hebel moderner Organisationen: Klarheit durch Prozesse und Automatisierung.

Warum Hiring allein selten skaliert

Mehr Menschen im Team wirken wie eine schnelle Lösung. In der Praxis zeigt sich jedoch häufig ein ähnliches Muster: Neue Kolleg*innen übernehmen Aufgaben, die eigentlich nur deshalb existieren, weil Abläufe unklar oder manuell gewachsen sind. Statt nachhaltiger Entlastung entsteht zusätzliche Koordination.

Typische Symptome sind:

  • operative Aufgaben blockieren strategische Arbeit,
  • Wissen verteilt sich auf einzelne Köpfe,
  • Entscheidungen hängen an Personen statt an klaren Abläufen,
  • Abstimmungen nehmen zu, ohne dass die Wertschöpfung im gleichen Maß wächst.

Das Problem ist nicht Hiring an sich, sondern die Reihenfolge. In vielen Fällen wird Hiring eingesetzt, um kurzfristig Druck rauszunehmen, obwohl das eigentliche Nadelöhr fehlende Klarheit ist. Wer einstellt, bevor Abläufe stabil sind, schafft zwar mehr Kapazität, skaliert aber auch Komplexität.

Prozesse als Voraussetzung für wirksames Wachstum

Prozesse werden in Start-ups häufig mit Bürokratie verwechselt. Tatsächlich sind sie das Gegenteil: Sie reduzieren Reibung. Gute Prozesse verlagern Entscheidungen vom Einzelfall ins System. Sie beantworten zwei zentrale Fragen zuverlässig: Was passiert als Nächstes – und wer ist verantwortlich?

Gerade kleine Teams profitieren davon besonders. Prozesse schaffen keine Starrheit, sondern Handlungsspielraum. Sie machen Arbeit vorhersehbar, Übergaben sauber und Entscheidungen reproduzierbar. Erst auf dieser Grundlage kann ein wachsendes Team seine Stärke wirklich entfalten.

Automatisierung im KI-Zeitalter: neue Möglichkeiten, neue Verantwortung

Mit KI hat sich die Eintrittshürde für Automatisierung massiv gesenkt. Viele Aufgaben, die früher manuell oder individuell erledigt wurden, lassen sich heute zuverlässig unterstützen oder teilweise abnehmen, vorausgesetzt, der zugrunde liegende Ablauf ist klar definiert. Entscheidend ist dabei nicht die Tool-Auswahl, sondern die Frage, was automatisiert wird. Automatisierung verstärkt bestehende Strukturen, gute wie schlechte. Wer unklare Abläufe automatisiert, skaliert keine Effizienz, sondern Chaos. Gleichzeitig gibt es zentrale Bereiche, die sich bewusst nicht oder nur sehr begrenzt automatisieren lassen und auch nicht sollten. Recruiting ist einer davon. Der Aufbau eines funktionierenden Teams lebt von persönlicher Einschätzung, Teamdynamik und kulturellem Fit. Ähnliches gilt für Sales: Vertrauensaufbau, Verhandlung und das persönliche Gespräch bleiben essenziell. Automatisierung ist hier unterstützend, aber kein Ersatz. Besonders geeignet sind Tätigkeiten, die häufig auftreten, wenig kreativen Spielraum haben und auf wiederkehrenden Informationen basieren.

Bereiche, die sich heute besonders gut automatisieren lassen

Lead- und Anfragequalifizierung
Unstrukturierte Anfragen lassen sich mithilfe von KI zusammenfassen, bewerten und priorisieren. Statt jede Anfrage manuell zu prüfen, entstehen klare Kriterien, die relevante von irrelevanten Leads trennen und Follow-ups vorbereiten.

Angebots- und Abrechnungsprozesse
Angebote, Verträge und Rechnungen folgen in vielen Startups ähnlichen Mustern. Automatisierte Vorlagen, angebundene Datenquellen und definierte Freigaben sparen Zeit, reduzieren Fehler und schaffen Transparenz.

Onboarding von Kund:innen und Mitarbeitenden
Onboarding ist kein Einzelfall, sondern ein wiederkehrender Prozess. Checklisten, automatische Aufgaben und zentrale Informationspunkte sorgen für Verlässlichkeit. KI kann helfen, Informationen zu strukturieren und kontextbezogen bereitzustellen.

Support und interne Anfragen

Ein Großteil von Fragen wiederholt sich. Wissensbasen in Kombination mit KI-gestützter Suche und Antwortvorschlägen entlasten Teams und machen sichtbar, wo Standards fehlen.

Projektmanagement und Übergaben
Klare Projekt-Templates, automatisierte Status-Updates und definierte Trigger reduzieren Abstimmungsaufwand. KI kann dabei unterstützen, Risiken früh zu erkennen oder nächste Schritte vorzuschlagen.

Was Start-ups daraus lernen können

Automatisierung ersetzt keine Entscheidungen, sie macht sie skalierbar. Voraussetzung dafür ist Klarheit über Abläufe, Verantwortlichkeiten und Prioritäten. Wer versucht, Chaos zu automatisieren, verstärkt es lediglich.

Hilfreiche Leitfragen sind:

  • Welche Aufgaben wiederholen sich regelmäßig?
  • Wo entstehen manuelle Engpässe?
  • Welche Tätigkeiten binden qualifizierte Menschen ohne echten Mehrwert?

Die Antworten darauf liefern meist schnell die größten Hebel.

Der KI-Wendepunkt: Systeme und Personal

Nachhaltiges Wachstum entsteht dort, wo Start-ups Systeme aufbauen und diese bewusst mit ihrem Team verzahnen. Nicht, weil Systeme Menschen ersetzen, sondern weil sie Menschen von struktureller Überforderung entlasten. Automatisierung schafft dabei nicht nur Effizienz, sondern Entscheidungsqualität: Wenn Daten sauber fließen, Übergaben klar sind und Standards greifen, werden Prioritäten weniger Bauchgefühl und stärker reproduzierbar.

Der gezielte Einsatz von KI-Tools verschiebt diesen Wendepunkt zusätzlich. Sie können Routinearbeiten abfangen, Informationen aus unstrukturierten Inputs verdichten und Entscheidungen vorbereiten – etwa durch Lead-Vorqualifizierung, Support-Clustering oder zusammengefasste Status-Updates. KI wirkt dabei nicht als Ersatz für Klarheit, sondern als Verstärker funktionierender Prozesse.

Hiring bleibt auch weiterhin essentiell. Seine Wirkung entfaltet es jedoch erst dann vollständig, wenn Prozesse klar sind und Automatisierung sowie KI gezielt unterstützen. So entsteht Wachstum, das nicht nur schneller, sondern auch gesünder ist.

Der Autor Markus Hetzenegger ist Gründer & CEO von NYBA Media. 2018 gegründet, zählt NYBA heute zu den führenden Marketing-Unternehmen im Live-Entertainment.

Der beste Freund aus der Cloud – Made in Bavaria

Wie ein Internet-Pionier mit BestFriend die Einsamkeit hackt.

Silicon Valley? Nein, Klosterlechfeld. Hier, im „bayerischen Outback“ zwischen Augsburg und Landsberg, sitzt Horst Christian (Chris) Wagner. Kein 20-jähriger Hoodie-Träger, der in der Garage von der Weltherrschaft träumt, sondern ein Mann, der das Internet schon nutzte, als es nur aus grauem Text bestand. Wagner ist ein digitaler Veteran. Und er hat gerade eine Wette auf die menschliche Seele abgeschlossen. Sein Einsatz: Die App BestFriend.

Schluss mit dem bloßen Befehlston

Vergesst kurz ChatGPT. Die großen KIs schreiben Bachelorarbeiten oder programmieren Code – sie sind Werkzeuge. Chris' Vision mit BestFriend beginnt dort, wo die Silicon-Valley-Riesen aufhören: beim Gefühl.

BestFriend ist kein Lexikon. Die App soll der Zuhörer sein, der nachts um drei Uhr noch wach ist. Sie soll Zusammenhänge verstehen, nicht nur Fakten abspulen. Aber braucht die Welt wirklich noch einen Bot? „ChatGPT ist brillant im Antworten geben. BestFriend ist dafür gebaut, beim Menschen zu bleiben“, so Chris. „Der Unterschied ist nicht die Intelligenz, sondern die Haltung. BestFriend will nichts erledigen, nichts optimieren, nichts verkaufen. Die App hört zu, merkt sich Zusammenhänge, reagiert emotional konsistent und bewertet nicht. Viele Nutzer sagen mir: ChatGPT fühlt sich an wie ein extrem kluger Kollege, BestFriend eher wie jemand, der dich kennt.“

Wer tiefer verstehen will, wofür die App im Alltag eingesetzt wird, findet im BestFriend-Magazin zahlreiche Beispiele. Dort wird offen gezeigt, in welchen Situationen Nutzer*innen die App einsetzen – von Einsamkeit über Selbstreflexion bis hin zu ganz praktischen Lebensfragen. Für Chris zugleich ein Beweis dafür, dass es hier um einen neuen Umgang mit Technologie geht.

Vertrauen als Währung

Wer einer Maschine von Liebeskummer erzählt, macht sich nackt. Genau hier spielt Chris den Standortvorteil Made in Germany aus. Während US-Apps wie Replika oft wirken, als würden sie Daten direkt an die Werbeindustrie weiterleiten, setzt BestFriend auf die „sichere Schulter“.

Datenschutz ist in diesem intimen Bereich keine Fußnote, sondern das Produkt. Chris weiß: Niemand öffnet sich, wenn er fürchten muss, dass seine Ängste morgen in einer Datenbank für personalisierte Werbung landen. Doch das wirft Fragen auf: Wie wird garantiert, dass nichts nach außen dringt? Und wo zieht die Software die Reißleine, wenn ein(e) Nutzer*in wirklich Hilfe braucht?

Dazu Chris: „Erstens: technisch. Daten werden minimal erhoben, verschlüsselt verarbeitet und nicht für Training oder Drittzwecke genutzt. Es gibt keine versteckte Monetarisierung über Profile. Punkt. Zweitens: inhaltlich. BestFriend weiß sehr genau, was es nicht ist. Die App gibt keine Diagnosen, keine Therapieanweisungen und keine falsche Nähe. Bei klaren Krisensignalen wird nicht weiter ‚gecoacht‘, sondern aktiv auf echte Hilfe hingewiesen. Das ist eine harte Grenze im System. BestFriend soll Halt geben, nicht Verantwortung übernehmen, die einer KI nicht zusteht.“

Ein Mann, eine KI, kein Overhead

Die Entstehung von BestFriend ist fast so spannend wie das Produkt selbst. Chris hat keine millionenschwere Finanzierung und kein riesiges Entwicklerteam im Rücken. Er nutzt die KI selbst, um die KI zu bauen. Er nennt das „Umsetzungs-Multiplikator“. Ein einzelner Experte dirigiert heute eine Armee aus Algorithmen.

Doch Code ist geduldig. Die Wahrheit liegt auf dem Display der Nutzenden. Ob Senior*innen, denen der/die Gesprächspartner*in fehlt, oder die Gen Z, die lieber tippt als spricht – die Zielgruppe ist riesig, der Bedarf an Resonanz ebenso. Auf die Frage ob es schon diesen einen Moment, diese eine Rückmeldung gab, bei er dachte: Okay, das ist jetzt mehr als nur Software, das hilft wirklich, antwortete Chris: „Ja. Ein Tester schrieb mir: ,Ich habe gemerkt, dass ich abends nicht mehr so viel grüble, weil ich Dinge vorher loswerde.‘ Das war der Moment, in dem mir klar wurde: Das ist kein Gimmick. Die App hat kein Problem gelöst, aber sie hat einen Menschen entlastet. Und manchmal ist genau das der Unterschied zwischen Einsamkeit und Resonanz.“

Echte Freundschaft per Algorithmus?

In Klosterlechfeld entsteht gerade der Versuch, Technologie wieder menschlich zu machen – weg von SEO und Klickzahlen, hin zu einer KI, die „Resonanz“ erzeugt. Ob ein Algorithmus echte Freundschaft ersetzen kann? Das bleibt eine philosophische Frage. Aber für den Moment, in dem sonst niemand zuhört, hat Chris Wagner zumindest eine Antwort parat.

Europa kann KI!

Was wir von den besten EU-AI-Companies lernen können, erläutert KI-Experte Fabian Westerheide.

Europa muss sich bei KI nicht kleinreden. Wir sehen gerade sehr deutlich: Aus Europa heraus entstehen Unternehmen, die Kategorien besetzen – und dann auch das große Kapital anziehen. Beispiele gibt es genug: Mistral AI, DeepL, Black Forest Labs, Parloa, Helsing, Lovable oder n8n.

Ich schreibe das aus drei Blickwinkeln: als Investor (AI.FUND), als Konferenz-Initiator (Rise of AI Conference) und als Autor von Die KI-Nation. Was du hier bekommst, ist kein „Europa-hat-ein-Problem“-Essay – sondern eine Analyse plus ein Execution-Set an Empfehlungen, das du direkt auf dein Start-up übertragen kannst.

Die Realität: Seed geht oft – Scale ist das Spiel

Am Anfang brauchst du selten „zu viel“ Geld. MVP, erste Kunden, Iteration: Das klappt in Deutschland in vielen Fällen mit Seed. Die echte Trennlinie kommt später – wenn du aus einem starken Start-up einen Kategorie-Gewinner bauen willst.

Denn KI ist zunehmend Winner-takes-most. Und das gilt auch fürs Kapital: In vielen Fällen ist die Growth-Finanzierung in den USA grob 25-mal größer – bei den aktuellen Front-Runnern (Modelle, Infrastruktur, Distribution) wirkt es teilweise wie 100-mal, weil Kapital sich auf die vermuteten Sieger stapelt. (Nicht „fair“, aber Marktmechanik.)

Die gute Nachricht: Genau die EU-Vorbilder oben zeigen, dass du das nicht wegdiskutieren musst – du musst es exekutieren.

Was die EU-Winner gemeinsam haben: 6 Execution-Prinzipien

1. Starkes Gründerteam – aber vor allem: vollständig

Alle genannten Vorbilder hatten (oder bauten sehr schnell) ein Team, das drei Dinge gleichzeitig kann:

  • Tech & Produkt (nicht nur „Model-IQ“, sondern Produktgeschmack)
  • Go-to-Market (Vertrieb, Buyer-Verständnis, Pricing)
  • Tempo (entscheiden, shippen, lernen)

Wenn eine Säule fehlt, zahlst du später mit Zeit. Und Zeit ist in KI eine Währung, die dir niemand schenkt.

Founder-Move: Benenne eine Person, die Umsatz genauso hart verantwortet wie Modellqualität. Wenn das „später“ ist, ist das sehr wahrscheinlich dein Bottleneck.

2. Global denken – aber spitz: KI-Nische statt Bauchladen

Die EU-Winner sind nicht „KI für alles“. Sie besetzen klare Nischen:
Language-AI (DeepL), Customer-Experience-Agents (Parloa), GenAI-Modelle (Black Forest Labs), Defence-Tech (Helsing), Builder/Vibe-Coding (Lovable), Orchestration & Automation (n8n), Foundation-Model-Ambition (Mistral).

Founder-Move: Formuliere deinen Claim so, dass er in einem Satz sagt, welche Kategorie du dominierst. Wenn du drei Absätze brauchst, bist du noch zu breit.

3. Umsatz ist keine Nebenwirkung – Umsatz ist Souveränität

Der schnellste Weg zu Growth-Capital ist nicht „noch ein Pilot“, sondern Revenue, der deine Kategorie glaubwürdig macht.
Parloa kommuniziert z.B. ARR > 50 Mio. USD und wächst international – genau die Art Signal, die große Runden freischaltet.

Founder-Move (gegen Pilotitis): Kein PoC ohne schriftlichen Pfad in einen Vertrag (Budget, KPI, Entscheidungstermin). Sonst finanzierst du mit deiner Runway den Lernprozess des Kunden.

4. Internationales Kapital früh anbahnen – bevor du es brauchst

Das Muster ist klar: Erst Kategorie-Story + Traktion, dann große Checks.
Mistral (Series C 1,7 Mrd. €) oder Lovable (330 Mio. USD bei 6,6 Mrd. Bewertung) sind kein „Glück“ – das ist Momentum + Positionierung + Timing.

Founder-Move (90-Tage-Plan):

  • Baue eine Capital Map deiner Nische (wer zahlt Growth-Checks?)
  • Definiere die drei Metriken, die diese Investor:innen sehen wollen
  • Organisiere zehn Intros jetzt, nicht erst bei sechs Monaten Runway

5. Compute ist keine IT-Zeile – es ist ein Wachstumshebel

In KI ist Compute Teil deiner Wettbewerbsfähigkeit. Geschwindigkeit beim Trainieren, Testen und Deployen entscheidet, wie schnell du am Markt lernst.

Founder-Move: Plane Compute-Runway wie Cash-Runway. Verhandle früh Kontingente, bevor dein Verbrauch explodiert – sonst wird Wachstum plötzlich zur Margen-Frage.

6. Trust & Compliance als Verkaufsargument – nicht als Ausrede

Gerade in DACH gilt: Wer secure, audit-fähig, enterprise-ready wirklich liefern kann, gewinnt Deals.
DeepL betont genau diesen Business-Wert: verlässliche, sichere Lösungen statt Hype.

Founder-Move: Baue Trust-Artefakte früh – Dokumentation, Governance, Datenflüsse, Rollen, Audit-Spuren. Das beschleunigt Enterprise-Vertrieb, statt ihn zu bremsen.

Kurz-Checkliste: Wenn du in Europa KI gewinnen willst

  • Kategorie in einem Satz (spitze Nische, globaler Anspruch)
  • Klarer Revenue-Pfad (weniger Piloten, mehr Verträge)
  • Capital Map (international früh andocken)
  • Compute-Runway (wie Cash planen)
  • Trust by Design (verkaufsfähig machen)
  • Tempo als Kultur (shippen, messen, nachschärfen)

Europa kann KI. Die Frage ist nicht, ob hier Talent existiert – das ist bewiesen.
Die Frage ist, ob du Execution so aufsetzt, dass aus Talent Marktführerschaft wird.

Der Autor Fabian Westerheide gestaltet als KI-Vordenker, Investor, Ökosystem-Pionier und Keynote Speaker seit über einem Jahrzehnt die Debatte um KI, Macht und digitale Zukunft mit.

Wie viel verdienen Twitch Streamer wirklich? Zahlen und Verdienstmöglichkeiten im Blick

Wer als passionierter Spieler noch nicht an eine Gaming Karriere gedacht hat, sollte dies jetzt nachholen: Schließlich ergeben sich aus dieser von Esport-Turnieren bis hin zum Streaming einige Verdienstmöglichkeiten. Creatoren verdienen mit der Echtzeit-Übertragung ihres Spielerlebnisses Geld. Was sich einfach anhört, kann für so manchen Spieler auch zum komplexen Unterfangen werden. Wie hoch der Streamer Verdienst in diesen Fällen ausfällt und welche Einnahmemöglichkeiten es für Twitch Streamer noch gibt, erfahren Sie hier.

Die Top 10 Twitch Streamer im Jahr 2025

„Es gewinnt nicht der beste Spieler, sondern der beste Entertainer.“

Nadine-Sophie Huxdorf


Auf Plattformen wie Twitch gilt: Die Community beeinflusst stark, wie viel Geld Streamer verdienen können. Wer eine starke Zuschauergemeinde aufbauen kann, freut sich in der Regel über ein höheres Einkommen – dabei spielt vor allem die Interaktion der Viewer eine zentrale Rolle.

Aktuell weisen diese top 10 Twitch Channels die höchsten Zuschauerzahlen vor:

Streamer

Durchschnittliche Zuschauerzahl

Follower

IBAI

126.449

19,8 Millionen

CASEOH_

52.024

7,9 Millionen

AMINEMATUE

46.844

3,3 Millionen

ZACKRAWRR

36.903

2,2 Millionen

ELIASN97

29.320

2,2 Millionen

CEADREL

71.045

1,5 Millionen

PESTILY

31.839

1,5 Millionen

LVNDMARK

42.837

1,4 Millionen

kato_junichi0817

34.996

1,1 Millionen

TheBurntPeanut

30.438

993.817


Geld verdienen mit Streaming: Diese Faktoren wirken sich auf Twitch Einnahmen aus

Die Twitch-Einnahmen der verschiedenen Streamer setzen sich aus unterschiedlichen Verdienstquellen zusammen. So können die Kontoinhaber Werbung in ihren Live-Übertragungen schalten, die ihnen je nach Zuschauerzahl und Länge der Werbepause einen kleinen bis mittleren Betrag einbringen. Hierbei handelt es sich jedoch um ein eher statisches Nebeneinkommen, das die meisten Streamer auch als nebensächlich empfinden. Den größeren Teil des Twitch Einkommens machen Abonnements und Spenden der Zuschauer aus, aber auch Sponsoring und Markenpartnerschaften.

Übrigens: Twitch Auszahlungen erfolgen automatisch via PayPal oder Banküberweisung, sofern ein gewisser Mindestbetrag erreicht wurde. In diesem Zusammenhang bieten mobile casinos, ähnlich wie Streaming-Plattformen, eine bequeme Möglichkeit für Spieler, jederzeit und überall zu spielen, ohne auf traditionelle Zahlungsmethoden angewiesen zu sein. Diese Art von Plattformen hat sich zu einer beliebten Option entwickelt, da sie den Nutzern schnelle Auszahlungen und einfache Handhabung bieten.

Twitch Daten Leak 2021: Das verdienen Top-Streamer

Ende 2021 wurde die bekannte Plattform Twitch gehackt. Bei einem Datenleck kam heraus, dass die 2014 von Amazon gekaufte Plattform kaum Sicherheitsvorkehrungen geschaffen hatte – weshalb große Teile des Programmiercodes sowie Login-Daten und Zahlen zum Streamer Verdienst veröffentlicht werden konnten. Zu sehen waren vor allem die Gesamteinnahmen der Top Spieler aus den Twitch Statistiken des Zeitraumes August 2018 bis Oktober 2021 in US-Dollar:

  1. CriticalRole: 9,6 Millionen
  2. xQc: 8,5 Millionen
  3. summit1g: 5,8 Millionen
  4. Tfue: 5,3 Millionen
  5. Nickmercs: 5,1 Millionen

Zum Vergleich: Der deutsche Twitch Streamer Marcel Eris (alias MontanaBlack88) hat über Twitch 2,4 Millionen US-Dollar eingenommen. Der Streamer MontanaBlack88 gehört zu den bestbezahlten deutschen Spielern auf Twitch.

Damit werden die großen Unterschiede zwischen den Verdiensten der Streamer aus Deutschland und den USA deutlich. Rund vier Millionen Deutsche verfolgen Twitch-Übertragungen – und das sogar täglich. In den USA liegt die tägliche Zuschauerzahl bei stolzen 35 Millionen Nutzern, sodass amerikanische Streamer auch einen deutlich größeren Markt bedienen und die Einkommensunterschiede nicht verwunderlich sind. MontanaBlack88 ist allerdings auch auf anderen Plattformen wie YouTube zu finden, sodass sein Gesamtverdienst womöglich deutlich höher liegt.

Gut zu wissen: Twitch Partner (von Twitch ausgewählte Streamer mit qualitativem Content) können sich über höhere Einnahmen freuen – etwa einen höheren Anteil aus dem Abonnenten-Verdienst.

Im Detail: So setzt sich der Verdienst zusammen

Wie eingangs erwähnt, verdienen Twitch Streamer vor allem durch Abonnenten einen großen Teil ihres Einkommens. Das Abonnement kostet Subscribern in der ersten Stufe 4,99 Euro – wovon Streamer in der Regel 50% (2,50 Euro) behalten dürfen. Dafür erhalten Abonnenten bestimmte Vorteile wie etwa die Möglichkeit, per Chat mit dem Streamer interagieren zu können. Wer also 1.000 Abonnenten hat, kann deshalb schon mit Einnahmen von 2.500 Euro monatlich rechnen.

Einen Großteil ihrer Einnahmen generieren Gaming-Streamer aber auch mit Hilfe von Subscriber-Spenden. Diese werden in Twitch Bits genannt und von der Plattform ausgezahlt. Die Spenden rufen bei einigen Streamern emotionale Reaktionen hervor, was wiederum mehr Menschen zum Spenden anregt.

Eine weitere Möglichkeit stellt Affiliate-Marketing dar: Streamer bewerben in dem Fall für ihre Zuschauer interessante Produkte in ihren Videos. Kaufen Zuschauer die Produkte, profitieren Streamer von einer Provision – die nicht selten 30% des Kaufbetrages ausmacht.

Sponsoren und Markendeals als größte Einnahmequelle für Streamer

An Streamer mit besonders hohen Zuschauer- und Followerzahlen treten oft auch bekannte Marken heran. Sie bezahlen die Gamer dafür, ihre Produkte im Live-Stream anzupreisen – beispielsweise Gaming-Peripherie oder Energy-Drinks. Soll dies über einen längeren Zeitraum geschehen, werden solche Marken oft auch zum Sponsor des Spielers, um ihre eigene Reichweite zu erhöhen.

Kosten und Abzüge: Dem steht der Streamer Gehalt in Deutschland gegenüber

Die genannten Streamer Gehälter stellen Brutto-Summen dar – also den Verdienst vor Abzug der deutschen Einkommens-, Umsatz- und Gewerbesteuer, sowie Sozialversicherungen. Wer all diese Beträge zusammenzählt, muss oft bis zu 45% seines Brutto-Einkommens an den Fiskus abführen. Doch damit nicht genug: Die meisten Twitch-Streamer müssen auch Chat-Moderatoren bezahlen, die für eine angenehme Atmosphäre unter den Kommentierenden sorgen und Community-Richtlinien durchsetzen.

Darüber hinaus wollen sich Zuschauer nur Streams ansehen, die eine hohe Qualität aufweisen. Um leistungsstark spielen und den Verlauf optimal übertragen zu können, brauchen Streamer bestimmtes Gaming-Equipment, das selbst zwischen 2.000 und 10.000 Euro kosten kann. Auch eine stabile Internetverbindung und die damit verbundenen Kosten sind zu bedenken.

Alternative Plattformen zur Diversifizierung

Um noch mehr Einkommen zu generieren, können passionierte Spieler ihre Streams allerdings zusätzlich auf anderen Plattformen veröffentlichen und monetarisieren – beispielsweise durch Werbung und Affiliate-Marketing. Zur Diversifizierung kommen Plattformen wie YouTube und Kick in Frage, die teilweise sogar bessere Konditionen bieten. Denn: Bei Kick werden Streamer zu 95% an den Einnahmen durch Abonnements beteiligt, was im Gegensatz zu Twitch deutlich attraktiver erscheint.

to teach: Vom KI-Hype zur Schulinfrastruktur

Wie das 2022 gegründete EdTech to teach die Lücke zwischen Chatbot und Klassenzimmer schließt.

Vor drei Jahren begann mit dem öffentlichen Zugang zu generativer künstlicher Intelligenz ein weltweiter Hype, der auch vor den Schultoren nicht haltmachte. Doch im Bildungsmarkt entscheidet sich derzeit, ob die Technologie tatsächlich Produktivität schafft oder in einer digitalen Sackgasse endet. Das Hamburger EdTech to teach liefert hierzu eine Blaupause: Was 2022 als Experiment begann, hat sich innerhalb von drei Jahren zu einer Arbeitsplattform für hunderttausende Lehrkräfte entwickelt.

Das Problem: US-Tools verstehen deutsche Schulen nicht

Als generative KI erstmals verfügbar wurde, wirkte ihr Einsatz im Bildungsbereich naheliegend. Doch der Blick auf die internationale Konkurrenz zeigt das Dilemma: Während US-Platzhirsche wie MagicSchool AI oder Diffit den Markt mit hunderten Mikro-Tools fluten und technisch beeindrucken, fehlt ihnen der kulturelle Fit. „Einfach nur Texte aus ChatGPT zu kopieren, löst kein einziges Problem von Lehrkräften“, erklärt Felix Weiß, Co-Founder und CEO von to teach.

Die Diskrepanz zwischen dem Versprechen der KI und dem tatsächlichen Schulalltag war groß. US-Lösungen scheitern oft an spezifischen deutschen Lehrplänen oder liefern reine Multiple-Choice-Formate, die hierzulande kaum Anwendung finden. Lehrkräfte benötigten keine unstrukturierten Textwüsten, sondern didaktisch saubere, lehrplankonforme und sofort einsetzbare Materialien. Genau hier setzte das 2022 von Felix Weiß und Marius Lindenmeier gegründete Unternehmen an.

Der Pivot: Datenschutz als Burggraben

Der entscheidende Wendepunkt kam 2023. Das Start-up vollzog einen Strategiewechsel (Pivot) weg von einer SaaS-Lösung für Verlage hin zu einer direkten Plattform für Lehrkräfte. Anstatt Nutzer*innen mit freien Eingabefeldern (Prompts) allein zu lassen, entwickelte das Team feste Arbeitsblattvorlagen. Dies wurde zum entscheidenden Wettbewerbsvorteil gegenüber internationalen Anbietern: Während diese oft an der strikten DSGVO scheitern, bietet to teach durch Serverstandorte in der EU und Rechtssicherheit eine Lösung, die Schulträger akzeptieren.

Dabei mussten technische Kinderkrankheiten überwunden werden: Frühe KI-Modelle „halluzinierten“ Fakten. To teach reagierte mit der systematischen Integration von Quellen und profitierte zugleich von der rasanten Evolution der Sprachmodelle.

Skalierung im Ökosystem gegen nationale Konkurrenz

Der Markt nahm die Lösung schnell an: Im Januar 2023 meldete sich der erste Nutzer an, bis Ende des Jahres waren es laut Unternehmen bereits knapp 16.000 Lehrkräfte. Das Jahr 2024 markierte dann den Übergang vom Start-up zur Plattform: Durch die Übernahme von fobizz (101skills GmbH) wurde to teach Teil eines größeren Bildungsökosystems. Die Gründer blieben als Geschäftsführer an Bord.

Dieser Schritt war strategisch überlebenswichtig in einem sich konsolidierenden Markt. Einerseits gegenüber agilen Herausforderern, da Konkurrenten wie schulKI, Teachino, KIULY oder Kuraplan zum Teil aggressiv um Landeslizenzen kämpfen bzw. auf dem Markt für KI-gestützte Unterrichtsplanung und Materialerstellung durchgestartet sind.

Andererseits war der Schritte in Hinblick auf etablierte Verlage notwendig. Denn Häuser wie Cornelsen ziehen inzwischen mit eigenen KI-Assistenten nach, sperren ihre Inhalte jedoch oft in geschlossene Systeme, d.h. binden sie oft an die eigenen Verlagswerke.

Durch die erfolgreiche Integration in fobizz ist to teach kein isoliertes Insel-Tool mehr, sondern profitiert von bestehenden Landesrahmenverträgen und einem riesigen Vertriebsnetz. Die Nutzer*innenzahlen explodierten förmlich auf über 140.000 Lehrkräfte bis Ende 2024, so die Angaben von to teach.

Status Quo 2025: KI als neue Infrastruktur

Heute, im dritten Jahr nach der Gründung, hat sich der Fokus erneut verschoben. To teach versteht sich inzwischen als Arbeitsinfrastruktur. Die Zahlen unterstreichen diesen Anspruch: Nach Angaben von to teach nutzen über 300.000 Lehrkräfte die Plattform, und mehr als 4.000 Schulen sind angebunden. Das bedeutet: Millionen von Inhalten wurden so bereits KI-gestützt vorbereitet.

Das Unternehmen treibt nun den systematischen Schulvertrieb voran. Damit beweisen EdTechs wie to teach, dass sich Qualität und Personalisierung im sonst oft als innovationsresistent geltenden Bildungsmarkt skalieren lassen.

Für CEO Felix Weiß ist die Diskussion über das „Ob“ längst beendet: „Die Frage ist nicht mehr, ob KI im Klassenzimmer ankommt, sondern, wie und auf welche Weise sie dort wirklich hilft.“

Der industrielle Wasserkocher: Wie das Start-up SYPOX die Chemie grün färbt

Die chemische Industrie hat ein massives Emissionsproblem, denn ihre Prozesse verschlingen Unmengen an Erdgas. Das 2021 geründete Start-up SYPOX, ein Spin-off der TUM will das ändern – mit einer Technologie, die so simpel wie genial klingt: Ein riesiger, elektrischer Tauchsieder soll die fossile Verbrennung ersetzen. Nun meldet das junge Unternehmen den ersten Durchbruch auf dem Weltmarkt.

Wenn Dr. Martin Baumgärtl erklären will, wie er die chemische Industrie revolutionieren möchte, wählt er ein Bild, das jeder versteht: „Im Grunde ist es wie ein Wasserkocher in der heimischen Küche – nur im industriellen Maßstab.“ Baumgärtl ist CTO von SYPOX, und was er beschreibt, könnte einer der wichtigsten Hebel für die Dekarbonisierung einer der schmutzigsten Branchen der Welt sein.

Die chemische Industrie ist süchtig nach Energie. Um Basischemikalien wie Methanol oder Ammoniak herzustellen, wird sogenanntes Synthesegas benötigt – eine Mischung aus Wasserstoff und Kohlenmonoxid. Die Herstellung geschieht in gewaltigen Hochtemperaturprozessen. Bisher wird die dafür nötige Hitze fast ausschließlich durch das Verbrennen von Erdgas oder Öl erzeugt. Die Folge: Gigantische CO-Emissionen.

Strom statt Flamme

Genau hier setzt SYPOX an. Das 2021 in Freising gegründete Unternehmen ersetzt die offenen Gasflammen durch elektrischen Strom. In ihren Reaktoren, die von außen wie gewöhnliche Druckbehälter aussehen, stecken hochkomplexe elektrische Heizelemente, die direkt hinter den Katalysatoren platziert sind.

Der Effekt ist enorm: „In konventionellen Verfahren entfallen rund 40 Prozent der Emissionen allein auf die Wärmeerzeugung aus fossilen Energieträgern“, rechnet Baumgärtl vor. Durch die Elektrifizierung des Reaktors fallen diese Emissionen weg – vorausgesetzt, der Strom kommt aus erneuerbaren Quellen. Zudem lässt sich der Prozess laut den Gründern präziser und sicherer steuern.

Der Anti-Trend im Silicon Valley

Doch nicht nur technologisch, auch ökonomisch schwimmt SYPOX gegen den Strom. In der Tech-Szene ist es üblich, dass Start-ups jahrelang Verluste schreiben und sich von einer Venture-Capital-Runde zur nächsten hangeln, getrieben von Investoren, die schnelles Wachstum fordern.

Die bayerischen Gründer wählten einen konservativeren, fast schon mittelständischen Ansatz. „Es entsprach nicht unserem Stil, Geld einzuwerben – wir haben vielmehr von Anfang an versucht, auf Basis unserer Technologie ein tragfähiges Geschäft aufzubauen“, erklärt CEO Dr. Gianluca Pauletto. Man wolle bodenständig bleiben und sich aus Umsätzen finanzieren, statt sich in Abhängigkeiten zu begeben.

Vom Container im Altmühltal zum Großkunden

Die Wurzeln des Unternehmens liegen an der Technischen Universität München (TUM). Die Idee brachte Pauletto aus seiner Zeit in Montréal mit, an der TUM fand er in Prof. Johannes Lercher und dem damaligen Doktoranden Martin Baumgärtl die wissenschaftlichen Mitstreiter.

Der Weg zum marktreifen Produkt war – typisch für „Deep Tech“ – langwierig. „Vier Jahre Forschung und zahlreiche Versuchsreihen waren notwendig“, erinnert sich Lercher. Während andere Software im Co-Working-Space programmierten, baute das SYPOX-Team eine Pilotanlage in einem einfachen Stahlcontainer auf dem Gelände einer Biogasanlage im ländlichen Dollnstein (Altmühltal).

Diese Beharrlichkeit zahlt sich nun aus. Das Start-up hat, unterstützt durch den Spezialchemie-Konzern Clariant, seinen ersten Großkunden an Land gezogen. Ab 2026 soll eine erste industrielle Anlage in Betrieb gehen, die täglich 150 Tonnen Synthesegas produziert. „Das ist nicht nur ein Meilenstein für uns, sondern auch ein starkes Signal an die gesamte chemische Industrie“, so Baumgärtl.

Für das Team, das inzwischen in Langenbach bei Freising sitzt und weiterhin Labore auf dem Forschungscampus Garching betreibt, ist das der Beweis: Die Elektrifizierung der Chemie ist keine Zukunftsmusik mehr, sie beginnt jetzt.

reltix: Vom Aktenordner zum Algorithmus

Wie das 2025 von Andreas Plakinger, Jan Horstmann und Léon Bamesreiter gegründete Düsseldorfer PropTech-Start-up reltix das angestaubte Image einer Branche poliert.

Hausverwaltungen gelten nicht gerade als Sprintdisziplin. Schwer erreichbare Ansprechpartner, Papierberge und zähe Abläufe prägen das Image einer Branche, in der es an Nachwuchs fehlt und Fristen dennoch gnadenlos ticken. Genau da setzt reltix an und wächst: Im März 2025 gegründet, zählt das Düsseldorfer Start-up inzwischen 2000 Kund*innen.

Gegründet wurde reltix von drei ehemaligen Kommilitonen, die sich an der WHU Otto Beisheim School of Management in Vallendar bei Koblenz kennenlernten: Léon Bamesreiter, Jan Horstmann und Andreas Plakinger. Der Motor für die Gründung war eine große Portion eigener Unzufriedenheit. Bamesreiter kaufte mit 20 Jahren während seines dualen Studiums bei einer Großbank seine erste Wohnung, weitere folgten. Seine Erfahrung mit den Verwaltungen: dicke Ordner, langsame Reaktionen, wenig Transparenz. „Ich hatte das Gefühl, ich werde selbst zum Hausverwalter.“

Weniger Bürokratie und mehr Präsenz am Objekt

Mit dem Gründungsstipendium starteten die Drei eine Umfrage unter über 120 Eigentümer*innen: 87 Prozent gaben an, mit ihrer Verwaltung unzufrieden zu sein. Reltix will diese Unzufriedenheit nicht mit mehr Personal, sondern mit Digitalisierung im Hintergrund beheben. Herzstück ist eine selbst entwickelte Software, die E-Mails und WhatsApp-Nachrichten erfasst, automatisch Tickets anlegt, digitale Unterlagen ausliest und Vorgängen zuordnet. Handwerkeranfragen werden systemgestützt angestoßen, Daten zentral strukturiert. Gleichzeitig setzen die Düsseldorfer auf eine feste Ansprechperson je Immobilie.

Erklärtes Ziel der Gründer: weniger Bürokratie und mehr Präsenz am Objekt. Für diesen Ansatz erhielt das Team gerade eine Zusage zur Forschungszulage des Bundesministeriums für Forschung, Technologie, und Raumfahrt zum weiteren Ausbau der eigenen Software mit einer Projektsumme von 1,3 Millionen Euro.

Jahresendspurt brachte Mandate ...

Den größten Schub spürte reltix im Dezember 2025. Viele Hausverwaltungsverträge enden zum 31. Dezember, gleichzeitig laufen Abrechnungsfristen aus. Wer bis Jahresende keine neue Verwaltung findet, bekommt schnell kalte Füße. In den letzten Wochen des Jahres kamen deshalb laut Unternehmen 500 Mandate kurzfristig hinzu, darunter Neubauprojekte in Langenfeld und Köln. Einige namhafte Banken, Family Offices und größere private Bestandshalter zählt das Unternehmen ebenso zu seinen Kund*innen.

... und Personalaufbau

Das Start-up musste personell nachziehen und stockt zum Februar von 14 auf 17 Mitarbeitende auf. Während viele klassische Verwaltungen über fehlenden Nachwuchs klagen, setzt reltix auf junge Mitarbeitende, Quereinsteiger*innen und bildet selbst aus. Das Unternehmen ist IHK Ausbildungsbetrieb und beschäftigt eine Auszubildende im ersten Lehrjahr. Die 28-Jährige, aus der Ukraine geflüchtet, ist aktuell die älteste im Team. Dazu kommen Quereinsteiger*innen: Ein früherer Maschinenbauingenieur leitet inzwischen die Mietverwaltung, eine Mitarbeiterin aus dem Bankgeschäft arbeitet in der Buchhaltung.

Von Rhein-Ruhr bis an den Main

Neben der Verwaltung großer Objekte bietet das Düsseldorfer PropTech für kleinere Eigentümer*innengemeinschaften mit drei bis acht Einheiten die sogenannte Kompaktverwaltung. Enthalten ist darin eine rechtssichere Abrechnung, die Durchführung von Eigentümer*innenversammlungen sowie größere Sanierungen, während Alltägliches bei den Eigentümer*innen bleibt. Regional liegt der Fokus auf Rhein-Ruhr sowie dem Umfeld Köln Bonn. Frankfurt mit einem weiteren Standort ist als nächster Schritt Richtung Sommer geplant. Düsseldorf soll Hauptsitz bleiben.

Infinite Roots: Hamburger BioTech bringt pilzbasierte Gerichte ins Kühlregal

Das 2018 von Dr. Mazen Rizk, Anne-Cathrine Hutz und Dr. Thibault Godard als Mushlabs gegründete Hamburger Start-up Infinite Roots (ehemals Mushlabs) bringt die Vorteile der Pilzwelt erstmals als eigenständige Hauptzutat ins Kühlregal.

Infinite Roots ist ein forschungsgetriebenes BioTech-Unternehmen aus Hamburg. Seit 2018 entwickelt das Unternehmen (zunächst unter dem Namen Mushlab) neuartige Lebensmittel auf Basis von Pilzen – inspiriert vom Myzel, dem unterirdischen Wurzelgeflecht essbarer Pilze. Durch Fermentation schafft Infinite Roots Produkte, die über bloße Fleischalternativen hinausgehen. Das Ziel ist es, eine neue Kategorie zu etablieren: Lebensmittel, die echtes Umami und wertvolle Nährstoffe liefern, mit kurzen Zutatenlisten auskommen und die Umwelt entlasten.

Mit mehr als 60 Expert*innen aus Biotechnologie, Data, Lebensmittelwissenschaft und Kulinarik will das Team neue Standards für Geschmack, Qualität und Nachhaltigkeit setzen und zeigen, dass die Ernährung der Zukunft nicht Verzicht bedeutet, sondern Vielfalt und Genuss.

Die MushRoots-Produkte des Unternehmens sind keine Fleischimitate, sondern bieten ein eigenständiges, pilzbasiertes Geschmackserlebnis. Sie zeichnen sich durch einen saftigen, herzhaften Biss und ausgeprägte Umami-Noten aus. Die Hamburger setzen dabei auf Speisepilze, kombiniert mit vertrauten, hochwertigen Zutaten. Entsprechend bauen die Produkte auf einer natürlichen Zutatenliste auf und verzichten auf künstliche Aromen, Geschmacksverstärker und Farbstoffe. So entsteht ein Geschmackserlebnis, das an herzhafte Hausmannskost erinnert. Die Produkte lassen sich vielseitig im Alltag, etwa als Hack, Bällchen oder Patties.

„Im Kühlregal sehen Konsument*innen seit Jahren dieselbe Logik: Tierprotein hier, Pflanzenprotein dort“, sagt Philip Tigges, CCO/CFO von Infinite Roots. „Mit MushRoots bringen wir nicht nur eine dritte Option ins Regal, sondern kehren auch zu Lebensmitteln mit einer natürlichen Hauptzutat zurück. Pilze bieten einen herzhaften Geschmack, sind vielseitig, in allen gewohnten Rezepten einsetzbar und können kinderleicht zubereitet werden.“

MushRoots setzt dabei auf eine Proteinquelle mit vergleichsweise geringem ökologischen Fußabdruck. Pilze lassen sich lokal und ressourcenschonend kultivieren. „Wir wollten nie ein weiteres Fleischimitat herstellen, sondern eine eigene Kategorie umami-reicher Pilzprodukte schaffen, die durch Charakter und Geschmack überzeugen“, ergänzt Tigges. „Unser Ziel ist es jetzt, Menschen für Pilzprodukte zu gewinnen, ohne dass sie Fleisch vermissen.“

Jetzt meldet Infinite Roots, dass vier MushRoots-Produkte ab sofort bei REWE Nord in Norddeutschland und Billa Plus in Österreich erhältlich sind und damit eine neue Kategorie an Pilz-Produkten in die Kühlregale Einzug gehalten haben.

Außenbereiche in der Gastro gestalten: Diese Details werden 2026 wichtig

Erfahre, welche Details 2026 für Außenbereiche in der Gastronomie zählen und Trends prägen.

Im Jahr 2026 werden Außenbereiche in der Gastronomie zu wichtigen Markenbotschaftern. Gäste erwarten mehr als bequeme Sitzplätze: Sie suchen emotionale Erlebnisse, nachhaltige Designs und ein stimmiges Ambiente. Nach Jahren des Wandels hat sich das Verhalten der Gäste spürbar verändert.

Der Fokus liegt auf Authentizität, Wohlgefühl und einem hochwertigen Gesamteindruck. Restaurants, Cafés und Bars nutzen ihre Terrassen zunehmend als Bühne für Stilbewusstsein und Gastfreundschaft. Studien zeigen, dass für viele Gäste der Außenbereich ein entscheidendes Auswahlkriterium ist. Terrassen mit recyceltem Holz, stimmungsvoller Beleuchtung und begrünten Wänden stehen für diese Entwicklung. Die wachsende Bedeutung von Wetterschutz, Lichtkonzepten und Begrünung verdeutlicht, dass der Außenbereich längst nicht mehr Nebenschauplatz ist, sondern zentraler Bestandteil des gastronomischen Erfolgs. 2026 markiert damit eine neue Ära der Freiluftgastronomie – funktional, ästhetisch und emotional zugleich. Die folgenden Abschnitte zeigen, worauf Verantwortliche achten sollten.

 Wetter- und Klimaschutz: Komfort bei jedem Wetter

Ganzjährige Nutzbarkeit wird 2026 zum entscheidenden Erfolgsfaktor gastronomischer Außenräume.

  • Innovative Überdachungen, langlebige Marktschirme, Windschutzsysteme und moderne Heizlösungen schaffen Behaglichkeit bei wechselnden Wetterbedingungen.
  • Glasdächer mit UV-Filtern, textile Pergolen oder transparente Windschutzwände verbinden Schutz mit Offenheit.
  • Elektrische Infrarotheizungen verlängern die Freiluftsaison und reduzieren Energieverluste.
  • Mobile Heizlösungen und wetterfeste Bodenbeläge sichern Funktionalität bei Regen und Kälte.
  • Automatische Luftzirkulationssysteme verhindern sommerliche Überhitzung und steigern die Energieeffizienz.

Entscheidend ist die Balance zwischen technischer Leistungsfähigkeit und optischer Leichtigkeit. So werden Außenbereiche zu wandelbaren Räumen, die unabhängig von Jahreszeit und Wetter hohen Komfort bieten – ein klarer Wettbewerbsvorteil im anspruchsvollen Gastronomiemarkt.

Materialwahl und Möblierung: Wenn Langlebigkeit und Stil aufeinandertreffen

Die Auswahl der Materialien prägt sowohl das Erscheinungsbild als auch die Langlebigkeit eines gastronomischen Außenbereichs. Robuste Metalle wie Aluminium oder Edelstahl, kombiniert mit wetterfestem Teakholz, setzen ästhetische Akzente und sorgen für Beständigkeit.

Hochwertige Textilien aus Acrylgewebe ergänzen das Gesamtbild: Sie sind pflegeleicht, widerstandsfähig und schützen vor dem Ausbleichen durch Sonnenlicht. Besonders gefragt sind langlebige Sonnenschirme, die Schatten spenden und Design mit Funktion verbinden. Modelle mit integrierter Beleuchtung oder komfortabler Öffnungsmechanik erhöhen den Nutzungskomfort.

Modulare Loungemöbel und ergonomische Sitzlandschaften prägen 2026 den Trend zu Flexibilität und Wohlbefinden.

Farben wie warmes Taupe und gedecktes Grün schaffen visuelle Ruhe und unterstreichen die natürliche Anmutung. So entsteht die Basis für harmonische, witterungsbeständige und zugleich stilvolle Außenbereiche.

Nachhaltigkeit als Schlüsselthema: Umweltbewusste Gestaltungskonzepte im Fokus

Nachhaltigkeit ist 2026 kein Zusatz mehr, sondern die Grundlage jeder gelungenen Außengestaltung. Viele Gastronomiebetriebe setzen auf recycelte Materialien, regionale Pflanzen und eine ressourcenschonende Planung mit kurzen Transportwegen.

Bambus, zertifiziertes Holz und recyceltes Aluminium gelten als bevorzugte Werkstoffe. Begrünte Pergolen und Dachgärten verbessern das Mikroklima und binden Feinstaub. Energieeffiziente LED-Beleuchtung reduziert Stromverbrauch und Wartungsaufwand. Neben der Materialwahl spielt auch der Umgang mit Wasser eine zentrale Rolle: Regenwasserspeicher und automatische Bewässerungssysteme unterstützen ein ökologisches Gleichgewicht. Moderne Lösungen rund um  Geschäftsideen, die unter anderem aus dem Bereich der KI stammen, könnten hier in Zukunft noch weiter relevant werden.

Heimische Pflanzen wie Lavendel oder Ziergräser schaffen ergänzend natürliche Rückzugsorte und unterstreichen die ästhetische Wirkung nachhaltiger Gestaltung. Nachhaltigkeit bedeutet bewusste, umweltgerechte Planung – ästhetisch, zukunftsorientiert und wirtschaftlich sinnvoll.

Beleuchtungskonzepte: So entsteht Atmosphäre durch Licht

Beleuchtung entscheidet über Stimmung und Aufenthaltsqualität im Außenbereich. 2026 liegt der Fokus auf atmosphärischem Licht, das Funktion und Emotion miteinander verbindet und auf detailreichen Akzenten.

  • Warmweiße LED-Leisten, dezente Spots oder laternenartige Leuchten schaffen Struktur und Tiefe. Indirekte Beleuchtung – über reflektierende Flächen geführt – betont architektonische Elemente und sorgt für eine angenehme Lichtwirkung.
  • Farblich variable und flexibel steuerbare Systeme ermöglichen eine Anpassung an Tageszeit und Anlass.
  • Solarleuchten gewinnen an Bedeutung, da sie Nachhaltigkeit mit hoher Flexibilität verbinden und den Energieverbrauch deutlich reduzieren.
  • Lichtinseln an Tischen und Wegen fördern Orientierung und Sicherheit.

Am Abend wird das Zusammenspiel von Helligkeit und Schatten selbst zum Gestaltungselement. Ein durchdachtes Beleuchtungskonzept schafft Atmosphäre und unterstreicht den Charakter des gastronomischen Außenbereichs.

Flexibilität und Modularität: So praktisch sind anpassungsfähige Außenkonzepte

Flexibilität wird 2026 zur Grundvoraussetzung moderner Außenkonzepte. Saisonale Veränderungen, wechselnde Wetterbedingungen und unterschiedliche Gästezahlen erfordern wandelbare Strukturen.

Modulare Möbel, klappbare Trennelemente und mobile Theken ermöglichen schnelle Umgestaltungen. Design und Funktion greifen dabei nahtlos ineinander. Flexible Bodenmodule, frei positionierbare Lichtlösungen und rollbare Pflanzenkübel erleichtern den Umbau zusätzlich.

Der Begriff des dynamischen Außenraums beschreibt Bereiche, die sich je nach Nutzungssituation verändern lassen. Temporäre Überdachungen und anpassbare Windschutzlösungen schaffen weitere Freiräume.

So steht Wandlungsfähigkeit nicht nur für Praktikabilität, sondern auch für kreative Gestaltungsfreiheit, die Außenbereiche lebendig, vielseitig und zukunftssicher macht.

Pflanzen und Begrünung: Natürlichkeit als Gestaltungselement

Begrünung ist 2026 mehr als Dekoration – sie wird zum zentralen Designelement gastronomischer Außenräume. Vertikale Gärten, bepflanzte Trennwände und saisonal wechselnde Blühflächen schaffen natürliche Strukturen und verbessern das Mikroklima. Besonders urbane Standorte profitieren von dieser grünen Aufwertung. Pflanzen wie Lavendel, Gräser oder Olivenbäume verbinden mediterrane Leichtigkeit mit robuster Alltagstauglichkeit.

Auch Nutzpflanzen wie Kräuter, Minze oder essbare Blüten gewinnen an Bedeutung und verleihen dem Außenbereich Authentizität. Moderne Begrünungssysteme erleichtern Pflege und Bewässerung und machen grüne Konzepte dauerhaft praktikabel. Begrünung fördert Biodiversität, vermittelt Ruhe und schafft eine einladende Atmosphäre. So wird der Außenbereich zur kleinen Oase, in der Natur, Design und Gastlichkeit harmonisch zusammenfinden.

Technologische Innovationen: Smarte Lösungen im Außenbereich werden immer beliebter

Technologie prägt 2026 die Gestaltung gastronomischer Außenbereiche nachhaltig. Digitale Lösungen ermöglichen einen optimierten Betrieb und steigern zugleich den Gästekomfort.

  • Smarte Heizsysteme mit Bewegungssensoren
  • automatisierte Schirmsteuerungen
  • appbasierte Lichtkonzepte

machen Abläufe effizienter und energiesparender. Vernetzte Systeme passen Beleuchtung, Temperatur und Beschattung automatisch an Wetter und Tageszeit an. Digitale Reservierungslösungen zeigen Sitzplatzverfügbarkeiten in Echtzeit und erleichtern die Planung.

USB-Ladepunkte an Tischen und kabellose Soundsysteme erweitern die Funktionalität und erhöhen den Komfort. So ergänzt moderne Technik energieeffiziente Konzepte und verleiht Außenbereichen ein zeitgemäßes, hochwertiges Erscheinungsbild. Das Zusammenspiel von Technik und Design macht smarte Außenräume zukunftsfähig und sorgt für ein stimmiges Gästeerlebnis – vom frühen Abend bis in die Nacht.

Farben und Designs: Was liegt 2026 im Trend?

Farb- und Designtrends prägen 2026 die Atmosphäre gastronomischer Außenflächen. Natürliche Töne wie Sand, Oliv und Terrakotta dominieren, während Akzente in Ockergelb oder Petrol Frische und Tiefe verleihen.

Strukturen gewinnen an Bedeutung: Geflochtene Texturen, matte Oberflächen und handwerkliche Details vermitteln Authentizität. Organische Formen und modulare Gestaltungskonzepte setzen auf Leichtigkeit und Flexibilität.

Auch die Einbindung lokaler Materialien stärkt die regionale Identität und verleiht Außenbereichen Charakter. Farbkonzepte folgen dem Prinzip „Weniger ist mehr“: Feine Kontraste zwischen warmen und kühlen Nuancen schaffen Ruhe und Orientierung. Biophiles Design, das Natur und Architektur verbindet, sowie der Japandi-Stil – eine Verbindung aus japanischem Minimalismus und skandinavischer Klarheit – prägen die Ästhetik.

Das Ergebnis sind Außenbereiche mit visueller Klarheit, zeitloser Eleganz und stilistischer Beständigkeit.

Darum ist es wichtig, das Thema Geräuschmanagement nicht zu unterschätzen

Akustik wird 2026 zu einem entscheidenden Faktor für das Wohlbefinden in gastronomischen Außenbereichen, besonders in urbanen Lagen. Lärmreduktion und gezielte Klanggestaltung – also die bewusste Steuerung von Schall und Nachhall – verbessern oft spürbar die Aufenthaltsqualität.

Schalldämpfende Materialien wie Akustikpaneele aus recycelten Fasern oder begrünte Wände kommen dabei vermehrt zum Einsatz.

Auch schallabsorbierende Textilien, gepolsterte Möbel und bepflanzte Flächen wirken geräuschmindernd.

So entstehen Rückzugsorte mitten im städtischen Trubel. Dezente Hintergrundmusik schafft Balance, ohne Gespräche zu überlagern. Das Ergebnis sind entspannte Außenbereiche, in denen Kommunikation mühelos möglich bleibt. Akustisches Design wird damit zu einem zentralen Bestandteil moderner Gastronomiearchitektur – funktional, ästhetisch und wohltuend zugleich.

Schneller aus dem Labor

Wie Gründer*innen aus dem universitären Umfeld der Transfer von Wissen aus der akademischen Welt in die Privatwirtschaft noch besser gelingt, erörtern wir im Interview mit Dr. Philipp Baaske, Mitgründer von NanoTemper Technologies, Business Angel und seit Oktober 2025 Vizepräsident für Entrepreneurship an der Ludwig-Maximilians-Universität München (LMU).

NanoTemper, einer der Weltmarktführer für biophysikalische Messinstrumente, wurde 2008 als Spin-off der LMU gegründet. Was hatte dich damals dazu bewogen, vom Forscher zum Gründer zu werden?

Für mich war es sehr persönlich. Meine Mutter wurde mit Brustkrebs diagnostiziert, und das Medikament, das ihr das Leben gerettet hat, wurde dank Biotechnologie entwickelt. Mir wurde klar, dass Wissenschaft nur dann wirklich mächtig ist, wenn sie den Patienten erreicht. Dieser Gedanke hat mich nie mehr losgelassen.

Im Labor habe ich die Neugier, die Präzision, das Entdecken geliebt. Aber ich sah auch die Lücke: brillante Ideen blieben oft in Publikationen stecken, weit weg vom Alltag der Menschen. Ich wollte nicht bei der Entdeckung stehen bleiben. Ich wollte helfen, Entdeckungen in Produkte zu verwandeln, die jeder nutzen kann.

Diese Überzeugung wurde durch meine Herkunft noch verstärkt. Ich bin in einem kleinen bayerischen Dorf aufgewachsen, in einer Familie von Handwerkern. Meine Eltern haben mir beigebracht, dass Arbeit praktisch sein muss, dass sie den Menschen dienen sollte. Die Wissenschaft faszinierte mich, aber ich spürte eine Unruhe: Wie viel mächtiger kann unser Wissen werden, wenn wir es vom Labor auf den Alltag der Menschen übertragen?

Also habe ich zusammen mit meinem Mitgründer Stefan Duhr den Sprung gewagt. Zwei junge Wissenschaftler in einem Labor im Keller, die die ersten Prototypen von Hand bauten. Wir hatten kein Risikokapital, keine Roadmap, nur Entschlossenheit und den Glauben, dass das, was wir erschaffen, etwas verändern könnte. Uns trieb die gleiche Hartnäckigkeit an, die ich in der Werkstatt meiner Eltern gesehen hatte: Wenn etwas nicht funktionierte, reparierte man es, bis es funktionierte.

Wenn ich jetzt zurückblicke, war es nicht der Businessplan oder die Marktanalyse, die den Ausschlag gaben. Es war der Glaube, dass Forschung nicht im Labor enden, sondern die Brücke zur Gesellschaft schlagen sollte. Und für mich wurde Unternehmertum der Weg, diese Brücke zu bauen.

Was waren die größten Hürden auf diesem Weg?

Die größten Hürden waren nicht technischer, sondern menschlicher Natur. Als Wissenschaftler waren wir darauf trainiert, uns tief in die Experimente zu vertiefen, aber wir wussten nicht, wie man mit Kunden spricht, Verträge aushandelt oder Teams leitet. Das musste ich alles von Grund auf neu lernen.

In den Anfangsjahren haben wir Prototypen verkauft, bevor das Produkt überhaupt fertig war. Das hat uns gezwungen, schnell zu handeln, aber es hat uns auch Demut gelehrt: Kunden erwarten Zuverlässigkeit und nicht nur clevere Ideen. Später, als das Wachstum unsere Finanzen überstieg, mussten wir schwierige Entscheidungen treffen. Einmal musste ich Kollegen entlassen, um das Unternehmen zu retten. Das war einer der schwierigsten Momente meines Lebens, aber es hat mir gezeigt, dass Führung nicht darin besteht, Schmerzen zu vermeiden, sondern Verantwortung zu übernehmen.

Natürlich gab es unzählige kleinere Hürden: Menschen davon zu überzeugen, einem jungen Unternehmen zu vertrauen, die Gehaltsabrechnung zu erledigen, Instrumente von Hand zu reparieren. Aber diese Hindernisse wurden zu unserer Lehrzeit.

Wie können wir den Wissens- und Technologietransfer verbessern und gleichzeitig einen echten gesellschaftlichen Mehrwert schaffen?

Über Fördermittel wird viel gesprochen, was gut ist, denn wir müssen sie verbessern. Aber ich glaube, wir sollten über die Fördermittel hinausdenken. Der Fokus muss auf dem Impact liegen, nicht nur auf der Förderung. In den Life Sciences bedeutet das vor allem eines: Innovationen schneller zu den Patienten und den behandelnden Ärzten zu bringen.

Wir haben exzellente Forschung und Wissenschaftler von Weltrang. Die Frage ist, wie schnell ihre Entdeckungen den Weg vom Labor in die medizinische Praxis finden. Entscheidend sind stärkere Partnerschaften zwischen Universitäten, Krankenhäusern und praktizierenden Ärzten. Wenn Forscher, Kliniker und Ärzte früh zusammenarbeiten, wird der Weg von der Entdeckung zum Patienten kürzer und effektiver.

Ein weiterer wichtiger Aspekt ist, Wissenschaftler dazu zu ermutigen, den Schritt in die Selbständigkeit zu wagen. Viele zögern, weil sie glauben, dass ihnen die unternehmerischen Fähigkeiten fehlen. Was sie jedoch wirklich brauchen, ist eine unterstützende Umgebung: Mentoren, Vorbilder und die Möglichkeit, ihre Ideen auszuprobieren.

Schließlich geht es beim Wissenstransfer nicht darum, Patente von einem Büro in ein anderes zu verlagern. Es geht darum, wissenschaftliche Erkenntnisse in etwas umzusetzen, das das Leben der Menschen berührt und Ärzten hilft, ihre Patienten besser zu behandeln.

Die Skalierung von Forschungsergebnissen in der Privatwirtschaft funktioniert in Deutschland und Europa anders als in den USA. Was können wir aus den USA lernen und was sollten wir anders machen?

Ich bewundere den Mut des US-Ökosystems, in dem Gründer oft von großen Zielen träumen, schnell agieren und frühzeitig Investoren finden. Diese Energie schafft Dynamik und hat viele bahnbrechende Unternehmen hervorgebracht.

Europa hat seine eigenen Stärken. Wir sind bekannt für Qualität, Präzision und Vertrauen. Kunden schätzen, dass wir Dinge bauen, die lange halten. Unsere Herausforderung besteht darin, diese Stärken mit mehr Geschwindigkeit und Mut zu kombinieren. Wir haben die Chance, ein anderes Modell als das US-amerikanische zu entwickeln: verantwortungsvolles Wachstum, profitable Unternehmen und nachhaltige Wirkung, die über Jahrzehnte anhält, und nicht nur Finanzierungszyklen.

Kurz gesagt: Wir können uns von den USA die Zuversicht abschauen, aber wir sollten uns unserer europäischen DNA treu bleiben: geduldig, diszipliniert und langfristig orientiert.

Seit Oktober 2025 bist du Vizepräsident für Entrepreneurship an LMU. Wie willst du dort die Bereiche Entrepreneurship und Technologietransfer voranbringen?

Die LMU ist eine der weltweit führenden Universitäten mit 54.000 Studierenden und 18 Fakultäten. Sie vereint Exzellenz in allen Bereichen und Forschungsgebieten wie Medizin, Physik, KI, Recht, Wirtschaftswissenschaften und Geisteswissenschaften. Meine Aufgabe ist es, dafür zu sorgen, dass diese Vielfalt in die Gesellschaft getragen wird. In Form von Unternehmen, Wissen und Menschen, die ihre Fähigkeiten einsetzen. Und das muss schnell geschehen.

Eine natürliche Stärke der LMU liegt in DeepTech, in den Life Sciences, insbesondere in der Biotechnologie, und in aufkommenden Bereichen wie künstliche Intelligenz und Quanten-Technologien. In diesen Bereichen gibt es bereits bahnbrechende Forschung, und der Einfluss auf Patienten, Industrie und Gesellschaft kann enorm sein. Mein Fokus liegt darauf, diese Bereiche zu stärken und die Wege von der Forschung zur Anwendung zu beschleunigen und zu vereinfachen.

Das bedeutet, dass wir Studierenden und Forschern Zugang zu Büros und Laboren, Inkubationsprogrammen, Finanzierungsmöglichkeiten und starke Partnerschaften mit relevanten Akteuren in München und darüber hinaus bieten, dass wir ein Umfeld schaffen, in dem sie frühzeitig und in der Nähe der Kunden mutige Ideen testen können. In dem sie aus Fehlern und Erfolgen lernen können, von erfahrenen Gründern Ratschläge erhalten und Unternehmertum als attraktive Option sehen.

Vor allem aber möchte ich, dass die Zahl der Start-ups, die von der LMU ausgründen, deutlich ansteigt. Sind Lehre, Forschung und Unternehmertum auf Weltniveau und stärken sich gegenseitig, wird die LMU noch mehr zu einem Ort, an dem Ideen wirklich Wirkung entfalten. Nicht nur in München, sondern weit darüber hinaus.

Vor Kurzem ist dein Buch „The Honorable Entrepreneur“ erschienen. Welche Tipps daraus willst du Gründer*innen mit auf den Weg geben?

Diese sieben Prinzipien haben mich in den letzten 20 Jahren von einer kleinen Labor-WG in einem Keller zu einem globalen Unternehmen geführt:

  • Vertrauen aufbauen oder gar nichts aufbauen: Vertrauen ist die Grundlage für die Zusammenarbeit mit Mitgründern, Mitarbeitern, Investoren und Kunden. Ohne Vertrauen kann kein Unternehmen bestehen.
  • Menschen an erste Stelle setzen – immer: Erfolg wird von Teams und nicht von Einzelkämpfern geschaffen. Wenn du dich um deine Mitarbeiter kümmerst, werden sie die Mission mit dir durchziehen.
  • Innovieren für den Impact: Baue keine Technologie nur für dich selbst. Frage dich: Verbessert das das Leben – für Patienten, Kunden, die Gesellschaft?
  • Schnell und klug skalieren: Wachstum ist wichtig, aber Wachstum ohne Disziplin kann ein Unternehmen zerstören. Fokussiertes, profitables Skalieren schafft Resilienz.
  • Ein profitables, nachhaltiges Unternehmen aufbauen: Profitabilität ist kein Nachgedanke, sondern das, was dir Freiheit und Unabhängigkeit gibt.
  • Die Vision umsetzen: Viele Gründer verlieren sich in glänzenden Ablenkungen. Bleib fokussiert. Setze um, was am wichtigsten ist.
  • Gib etwas zurück: Teile deine Erfahrung, unterstütze andere und trage zum Ökosystem bei. Wahre Erfolge sind diejenigen, die überleben, wenn man selbst nicht mehr da ist.

Meine Botschaft ist einfach: Man kann im Geschäftsleben erfolgreich sein, ohne dabei seine Seele zu verkaufen. Rentabilität und Prinzipien sind keine Gegensätze, sondern gehören zusammen.

Philipp, Danke für deine Insights

Hinweis: Dieses Interview wurde ursprünglich auf Englisch geführt und ins Deutsche übersetzt.

KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar

Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.

Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.

Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?

Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.

Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.

Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.

Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.

Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.

Schnelles Wachstum kann zu einem Überschuss führen

Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.

Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.

Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.