Aktuelle Events
OvulaRing: dem Eisprung auf der Spur
Die Leipziger VivoSensMedical GmbH hat mit seinem OvulaRing eine Methode entwickelt, die Frauen ganz natürlich dabei unterstützt, schwanger zu werden. Wie das „Zyklusmonitoring 2.0“ entwickelt wurde und wie es funktioniert.
Den richtigen Partner gefunden? Lebenstechnisch fest im Sattel? Na dann kann es ja losgehen mit dem Kinderkriegen. Häufig klappt es aber nicht so schnell, wie manches Paar sich das wünscht. Ein ganz einfacher Grund könnte sein: Über den weiblichen Zyklus wissen die meisten Frauen weniger als sie denken.
Genau hier setzt das Leipziger Start-up VivoSensMedical mit seinem Produkt OvulaRing an. Viel zu schnell landen Frauen ohne gründliche Zyklusdiagnostik in der Kinderwunschklinik und unterziehen sich teilweise unnötigen Hormonbehandlungen mit starken Nebenwirkungen. Reproduktionsmediziner Professor Henry Alexander ist Erfinder von OvulaRing und hat seit den 90er-Jahren die Vision, eine Methode zu entwickeln, die Frauen ganz natürlich dabei unterstützt, schwanger zu werden. Mittlerweile ist aus der Vision ein Unternehmen mit acht Angestellten geworden.
Zyklusmonitoring 2.0
OvulaRing ist bislang das einzige Medizinprodukt, das dauerhaft im Körperinneren getragen werden kann und alle fünf Minuten die Körperkerntemperatur misst. Alle hormonellen Prozesse im Zyklus spiegeln sich in der Körperkerntemperatur, deshalb ist sie ein wichtiger Indikator für die Zyklusgesundheit. Der Biosensor erfasst und speichert täglich 288 Messpunkte. „So ist es erstmals möglich, den Zyklus exakt abzubilden“, erklärt Alexander. Mit diesem Scan gelingt laut dem Mediziner ein hundertprozentiger Überblick über den Zyklus, und zwar von zu Hause aus, ohne häufige Arztbesuche.
Zudem können laut Alexander durch die genaue Berechnung und Abbildung des individuellen Zyklus hormonelle Störungen frühzeitig erkannt und erfolgreich behandelt werden. „Das war bisher so nicht möglich und wir denken, dass wir die Medizin und die Forschung ein ganzes Stück weiterbringen“, so der Arzt. Bereits 1999 meldete der heute emeritierte Leiter der Abteilung für Reproduktionsmedizin an der Uni Leipzig das erste Patent für OvulaRing an.
Wie funktioniert OvulaRing?
OvulaRing besteht aus einem Kunststoffring mit integriertem Biosensor. Mit Beginn des neuen Zyklus wird der Ring von der Anwenderin eigenständig vaginal eingeführt und mit dem Einsetzen der Periode wieder herausgenommen. Anschließend wird der Sensor mithilfe eines speziellen Lesegerätes via USB-Schnittstelle an die webbasierte Software übertragen, wo die Daten mit Hilfe von medizinisch validierten Algorithmen ausgewertet werden.
Die Vielzahl der Temperaturdaten ermöglicht eine genaue Erfassung der Zykluskurve, die von der Software als sogenanntes Cyclofertilogramm (CFG) ausgegeben wird. Dieses markiert den genauen Ovulationszeitpunkt und den Fruchtbarkeitszeitraum.
Nach der Aufzeichnung von drei Zyklen kann dann der Eisprung für die folgenden Zyklen zuverlässig prognostiziert werden, vorausgesetzt natürlich, die Anwenderin nutzt OvulaRing weiter. Paare mit Kinderwunsch wissen auf diese Weise genau, wann es sich besonders lohnt, Sex zu haben. Doch das System funktioniert auch andersherum: Viele Frauen können oder wollen nicht hormonell verhüten, da etwa die Pille das Risiko für Schlaganfälle erhöht. Diese müssen dann nur in der fruchtbaren Zeit zum Beispiel mit Kondom verhüten.
Und was macht die Konkurrenz?
OvulaRing ist ein Produkt an der Schnittstelle zwischen Patientin und Arzt: Es kann von der Frau eigenständig zum Selftracking eingesetzt werden. Gleichzeitig ermöglicht es aber auch dem Arzt eine genaue Diagnose und individuelle Therapiepläne für eine Kinderwunsch-Behandlung zu erstellen, was weit erfolgversprechender ist als ohne die genaue Kenntnis des Zyklus. Ein entscheidender Vorteil: Im Gegensatz zu anderen Verfahren sind Anwendungsfehler von vornherein ausgeschlossen. Äußere Faktoren können die Messung nicht beeinflussen, Vergessen ist nicht möglich. „Alle anderen Methoden sind einfach nicht so zuverlässig“, erklärt der Mediziner. „Armbänder oder ein am Finger getragener Ring zum Beispiel messen nur die Hauttemperatur. Aber das ist viel zu ungenau, denn die Temperaturschwankungen innerhalb des Zyklus spielen sich im Bereich von 0,25-0,5 Grad ab. Zyklus-Apps, die nur auf selbst eingetragenen Werten basieren, sind nett, aber liefern keine belastbaren Daten“.
Die Frauen, die OvulaRing nutzen, können also ungestört ihrer täglichen Routine nachgehen, anstatt sich mit mühsamen Messmethoden herumschlagen zu müssen: Temperaturmessen vor dem Aufstehen, Bestimmen des Hormonspiegels mit Urinstreifen etc. Laut Alexander ist der OvulaRing ein vielseitiges Diagnosemittel, da auch Fieber, Sportaktivitäten, Stress und sogar das Schlafverhalten aus den Temperaturkurven abgelesen werden können, ohne die Zyklusanalyse zu verfälschen.
Vom Prototyp zum Start-up VivoSensMedical
Die VivoSensMedical GmbH wurde 2011 gegründet. Das Team rund um Professor Alexander konnte schnell Kapitalgeber von OvulaRing überzeugen: „Wir hatten eine halbe Million in der Tasche, um den Prototyp zur Serienreife zu bringen“, erinnert sich Sebastian Alexander, Schwiegersohn des Professors und heute Geschäftsführer des Unternehmens.
Nachdem die ersten beiden Finanzierungsrunden 2011 und 2012 mit dem Technologiegründerfonds Sachsen gestemmt waren, kamen 2014 drei weitere Gesellschafter hinzu. Eine davon ist Diplom-Medienwirtin Bettina Brammer, die sich bei der VivoSensMedical um Vertrieb und Marketing kümmert. Als ehemalige Patientin einer hormonellen Kinderwunschbehandlung ist sie überzeugt von OvulaRing: „Ich kann mich beruflich nur mit Dingen befassen, die ich auch privat spannend und richtig finde“. Brammer kennt die Bedürfnisse von Frauen mit Kinderwunsch zwischen 30 und 45, der Kernzielgruppe der VivoSensMedical, ganz genau und steht mit ganzem Herzen hinter dem Produkt, das sie vertreibt.
Auf dem Weg zum Kunden
Bei einer Crowdfunding-Kampagne auf Seedmatch.de wurden außerdem 300.000 Euro für die Vermarktung eingeworben. Mit dem akquirierten Kapital konnte das Produkt fertig entwickelt und medizinisch zugelassen werden. Außerdem wurde das Geld für Markttests in Deutschland, Österreich und der Schweiz eingesetzt, um ein skalierbares Geschäftsmodell zu entwickeln.
OvulaRing wird über einen eigenen Webshop direkt an die Endkundin vertrieben. Gynäkologen, Heilpraktiker und Hebammen dienen dabei als Vertriebsmittler. Das Produkt wird bereits von mehr als 1700 Kundinnen genutzt, von über 200 Gynäkologen empfohlen und hat bisher etwa 75 Familien zu einem Baby verholfen. Als Startpaket ist OvulaRing zur Nutzung für drei Monate zu einem Preis von 254 Euro erhältlich. Abhängig von der jeweiligen weiteren Anwendungsdauer liegt der monatliche Preis zwischen 59 und 29 Euro.
Mit den Ergebnissen der Markttests konnte die Exeltis Germany GmbH als Distributionspartner gewonnen werden. Seit Mai 2017 vertreibt Exeltis das Medizinprodukt. „Das Feedback von Kunden und Gynäkologen und die Ergebnisse der bisherigen Markttests haben uns vom großen Potential von OvulaRing überzeugt. Wir freuen uns, unser Portfolio um eines der innovativsten Produkte im Bereich der Frauengesundheit zu erweitern“, so Silvia Steyrer-Gruber, Geschäftsführerin der Exeltis Germany GmbH. Das Unternehmen ist eine Tochtergesellschaft der spanischen Chemo Group und verfügt über einen der größten Außendienste für gynäkologische Produkte in Deutschland. Das Unternehmen hat die Rechte zur Vermarktung von OvulaRing in Deutschland bis 2027 erworben.
Und wie geht es weiter?
Natürlich wird bei der VivoSensMedical bereits an weiteren Zielen zur Etablierung von OvulaRing am Markt gearbeitet. Der Fokus richtet sich zunächst auf den Ausbau des Vertriebs im europäischen und amerikanischen Markt. In den nächsten Jahren will das Unternehmen eine Funkvariante des Mess-Systems entwickeln und die Krankenkassenzulassung des Medizinprodukts vorantreiben.
Darüber hinaus ist die Verwendung des Systems auch in anderen medizinischen Bereichen denkbar, wie zum Beispiel in der Ernährungs- und Sportmedizin sowie in der Früherkennung von Frühgeburten oder Autoimmunerkrankungen. „Unser Ziel ist es, OvulaRing als führende Methode für die natürliche Familienplanung zu etablieren“, sagt Professor Alexander, „der Temperaturmessring soll im gynäkologischen Bereich ebenso selbstverständlich werden wie Ultraschall oder die Pille.“
Sie möchten selbst ein Unternehmen gründen oder sich nebenberuflich selbständig machen? Nutzen Sie jetzt Gründerberater.de. Dort erhalten Sie kostenlos u.a.:
- Rechtsformen-Analyser zur Überprüfung Ihrer Entscheidung
- Step-by-Step Anleitung für Ihre Gründung
- Fördermittel-Sofort-Check passend zu Ihrem Vorhaben
Diese Artikel könnten Sie auch interessieren:
Highspeed-Pivot: Wie POLARIS die Bundeswehr für sich gewann
Ein Bremer NewSpace-Start-up baut für die Bundeswehr das Raumflugzeug der Zukunft. Mit seinem revolutionären Antrieb sticht POLARIS dabei sogar die US-Konkurrenz aus und fungiert zugleich als Eisbrecher für die deutsche DeepTech-Szene.
Wenn Alexander Kopp über die Ostsee blickt, sieht er nicht nur Wasser, sondern die Zukunft der europäischen Souveränität. Während in Berlin oft über die Trägheit der Beschaffungswesen geklagt wird, lässt der Gründer von POLARIS Raumflugzeuge Fakten sprechen – oder besser gesagt: Triebwerke heulen.
Das DLR-Spin-off schafft gerade, woran Konzerne seit Jahrzehnten scheitern: Ein Raumflugzeug zu bauen, das wie ein normaler Airliner startet, aber die Leistung einer Rakete besitzt. Und noch etwas ist ungewöhnlich in der deutschen Start-up-Landschaft: Der erste große Kunde, der die Bremer „Tüftler“ finanziert, ist kein Risikokapitalgeber aus dem Silicon Valley, sondern das Beschaffungsamt der Bundeswehr.
Der Traum vom Aerospike
Was das Team um den ehemaligen DLR-Ingenieur Kopp antreibt, ist der Abschied von der teuren Einweg-Mentalität der Raumfahrt. Seine Strategie ist eine radikale Flucht nach vorn: „Wenn wir im Wettbewerb bestehen wollen, uns vielleicht sogar an die Spitze setzen wollen, müssen wir die Raketen überspringen“, erklärte Kopp gegenüber dem Magazin 1E9. „Wir müssen direkt neue, bessere Konzepte umsetzen. Keine Raketen, sondern Raumflugzeuge.“
Der technologische Schlüssel, um diese Vision Realität werden zu lassen, ist das sogenannte Linear Aerospike-Triebwerk. Es gilt als der „Heilige Gral“ der Raketentechnik, an dem sich schon die NASA in den 90er Jahren die Zähne ausbiss. Das Problem herkömmlicher Raketendüsen ist ihre Glockenform – sie sind physikalisch bedingt entweder nur am Boden oder im All effizient, nie beides gleichzeitig.
Das Aerospike-Triebwerk hingegen ist ein technologisches Chamäleon: Durch seine offene, stachelförmige Bauweise passt sich der Abgasstrahl automatisch dem Luftdruck an. Es arbeitet auf dem Rollfeld genauso effizient wie im Vakuum. Dass das nicht nur graue Theorie ist, bewies Polaris im Oktober 2024: Mit dem Demonstrator „MIRA II“ gelang dem Start-up über der Ostsee die weltweit erste Zündung eines solchen Triebwerks im Flug.
Bootstrapping in Feldgrau
Diese Mischung aus „Rapid Prototyping“ – also dem schnellen Bauen, Testen und Verbessern – und technologischer Exzellenz kam genau zur richtigen Zeit für die Strategen der Bundeswehr. Berührungsängste mit dem Uniformträger hat der Gründer dabei nicht, im Gegenteil. „Wenn man sich die Historie der Raumfahrt anschaut, kamen die Durchbrüche meist direkt oder indirekt durch das Militär“, ordnete Kopp die Zusammenarbeit im Business Insider pragmatisch ein.
Denn beim Militär treibt man das Thema „Responsive Space“ voran. Das Szenario ist so simpel wie bedrohlich: Im Konfliktfall werden eigene Aufklärungssatelliten zerstört oder geblendet. Mit dem System von POLARIS, dessen finales Modell „Aurora“ ab 2026 produziert werden soll, könnte Deutschland binnen 24 Stunden Ersatz-Satelliten in den Orbit schießen. Und zwar von jedem normalen Flughafen aus, ohne auf verwundbare Startrampen angewiesen zu sein. Für POLARIS wurde das Militär so vom reinen Geldgeber zum strategischen Anker-Kunden, der dem Start-up den nötigen „Runway“ verschafft – finanziell wie physisch.
Ein Eisbrecher für die deutsche DeepTech-Szene
POLARIS operiert dabei längst nicht mehr im luftleeren Raum. Der Erfolg der Bremer sendet ein Signal in den Markt, das weit über das eigene Unternehmen hinausstrahlt: Der Staat ist bereit, in junge High-Tech-Firmen zu investieren, wenn die Technologie „Dual-Use“ ist, also zivil und militärisch genutzt werden kann.
Davon profitieren Start-ups wie das Münchner Unternehmen OroraTech, deren Waldbrand-Satelliten im Ernstfall schnell ersetzt werden müssten – eine perfekte Fracht für Polaris. Auch im Bereich der Datenverarbeitung entstehen Synergien: Wenn ein Hyperschall-Flieger Terabytes an Aufklärungsdaten sammelt, braucht es KI-Lösungen von Firmen wie dem Defense-Einhorn Helsing, um diese Informationen in Echtzeit auszuwerten. POLARIS wirkt hier wie ein Eisbrecher, der validiert, dass „Made in Germany“ auch im neuen „Space Race“ eine Währung ist.
Denn die Konkurrenz schläft nicht. In den USA pumpen das Pentagon und die Air Force Millionen in Wettbewerber wie Hermeus oder Stratolaunch, und China arbeitet mit Hochdruck am Projekt „Tengyun“. Doch während im Silicon Valley oft noch an Simulationen gefeilt wird, haben die Bremer mit ihrem fliegenden Aerospike-Triebwerk einen Vorsprung, der sich mit Geld allein schwer aufholen lässt. Aus der visionären Idee in einem Bremer Büro ist ein Projekt von nationaler Tragweite geworden. Wenn Alexander Kopps Plan aufgeht, schauen die Amerikaner beim nächsten Wettlauf ins All nicht nach oben, sondern in den Rückspiegel.
Globaler Wettbewerb: Polaris vs. US-Konkurrenz
Merkmal | Polaris Raumflugzeuge (Deutschland) | Hermeus (USA) | Stratolaunch (USA) |
Haupt-Fahrzeug | Aurora (in Entwicklung) | Quarterhorse (Demo) / Darkhorse | Talon-A |
Start-Methode | Horizontal (Startbahn) | Horizontal (Startbahn) | Air-Launch (Abwurf vom Trägerflugzeug „Roc“) |
Antrieb | Linear Aerospike (Rakete) + Turbinen | TBCC (Turbine + Ramjet) | Flüssig-Raketentriebwerk (Konventionell) |
Haupt-Mission | Multimission: Satellitenstart (Orbit) + Hyperschall-Test/Aufklärung | Transport: Passagier/Fracht (Point-to-Point) + Militär | Testbed: Zielsimulation & Testplattform für US-Militär |
Wiederverwendbar? | Ja (System landet wie Flugzeug) | Ja | Ja (landet gleitend auf Landebahn) |
Aktueller Status | Fliegend: Skalierte Demonstratoren (MIRA) erfolgreich getestet. | Boden-Tests: Triebwerkstests erfolgreich, Rolltests ("Taxiing"). | Operativ: Talon-A hat bereits motorisierte Hyperschallflüge absolviert. |
Finanzierung | Bundeswehr (BAAINBw) & Private Investoren | US Air Force, Pentagon (DIU) & Venture Capital | Private Equity (Cerberus Capital Management) |
Die Wächter des Firmengedächtnisses
Wie das 2025 von Christian Kirsch und Stefan Kirsch gegründete Start-up amaiko den Strukturwandel im Mittelstand adressiert.
Der demografische Wandel und eine erhöhte Personalfluktuation stellen mittelständische Unternehmen zunehmend vor die Herausforderung, internes Know-how zu bewahren. Viele Unternehmen stehen vor der Schwierigkeit, dass Firmenwissen fragmentiert vorliegt. Informationen sind häufig in unterschiedlichen Systemen oder ausschließlich in den Köpfen der Mitarbeitenden gespeichert. Verlassen langjährige Fachkräfte den Betrieb in den Ruhestand oder wechseln jüngere Arbeitnehmerinnen und Arbeitnehmer kurzfristig die Stelle, gehen diese Informationen oft verloren. Zudem bindet die Suche nach relevanten Dokumenten in verwaisten Ordnerstrukturen Arbeitszeit, die in operativen Prozessen fehlt.
Das 2025 gegründete Start-up amaiko aus Niederbayern setzt hierbei auf einen technischen Ansatz, der auf die Einführung neuer Plattformen verzichtet und stattdessen eine KI-Lösung direkt in die bestehende Infrastruktur von Microsoft Teams integriert. Vor diesem Hintergrund entwickelten die Brüder Christian und Stefan Kirsch mit amaiko eine Softwarelösung, die spezifisch auf die Ressourcenstruktur mittelständischer Betriebe ausgelegt ist.
Integration statt neuer Insellösungen – und die Abgrenzung zu Copilot
Ein wesentliches Merkmal des Ansatzes ist die Entscheidung gegen eine separate Software-Plattform. Christian Kirsch, Geschäftsführer von PASSION4IT und amaiko, positioniert die Lösung als „Teams-native“. Das bedeutet, dass der KI-Assistent technisch in Microsoft Teams eingebettet wird – jene Umgebung, die in vielen Büros bereits als primäres Kommunikationswerkzeug dient. Ziel ist es, die Hürden bei der Implementierung zu senken, da Nutzer ihre gewohnte Arbeitsumgebung nicht verlassen müssen.
Angesichts der Tatsache, dass Microsoft mit dem „Microsoft 365 Copilot“ derzeit eine eigene, tief integrierte KI-Lösung ausrollt, stellt sich die Frage nach der Positionierung. Christian Kirsch sieht hier jedoch keine direkte Konkurrenzsituation, sondern eine klare Differenzierung: Copilot sei eine sehr breite, Microsoft-zentrische KI-Funktion. Amaiko hingegen verstehe sich als spezialisierter, mittelstandsorientierter Wissensassistent, der Beziehungen, Rollen, Prozesse und Unternehmenslogik tiefgreifend abbildet.
Ein entscheidender Vorteil liegt laut Kirsch zudem in der Offenheit des Systems: „Während Copilot naturgemäß an Microsoft‑Systeme gebunden ist, lässt sich amaiko herstellerunabhängig in eine viel breitere Softwarelandschaft integrieren – vom ERP über CRM bis zu Branchenlösungen. Unser Ziel ist nicht, Copilot zu kopieren, sondern reale Mittelstandsprozesse nutzbar zu machen“, so der Co-Founder.
Funktionsweise, Sicherheit und Haftung
Funktional unterscheidet sich das System von herkömmlichen Suchmasken durch eine agentenähnliche Logik. Die Software bündelt Wissen aus internen Quellen wie Richtlinien oder Projektdokumentationen und stellt diese kontextbezogen zur Verfügung. Ein Fokus liegt dabei auf der Datensouveränität. Hierbei betont Christian Kirsch, dass Kundendaten nicht in öffentlichen Modellen verarbeitet werden: „Die Modelle laufen in der europäischen Azure AI Foundry, unsere eigenen Dienste auf deutschen Servern. Die Daten des Kunden bleiben on rest vollständig im jeweiligen Microsoft‑365‑Tenant. Es findet kein Training der Foundation Models mit Kundendaten statt – weder bei Microsoft noch bei uns. Grundlage dafür sind die Azure OpenAI Non‑Training Guarantees, die Microsoft in den Product Terms sowie in SOC‑2/SOC‑3‑ und ISO‑27001‑Reports dokumentiert.“
Auch rechtlich zieht das Start-up eine klare Grenze, sollte die KI einmal fehlerhafte Informationen, sogenannte Halluzinationen, liefern. „Amaiko generiert Vorschläge, keine rechts‑ oder sicherheitsverbindlichen Anweisungen. Das stellen wir in unseren AGB klar: Die Entscheidungshoheit bleibt beim Unternehmen. Wir haften für den sicheren Betrieb der Plattform, nicht für kundenseitig freigegebene Inhalte oder daraus abgeleitete Maßnahmen. Es geht um eine saubere Abgrenzung – technische Verantwortung bei uns, inhaltliche Verantwortung beim Unternehmen“, so Christian Kirsch.
Geschäftsmodell und Markteintritt
Seit der Vorstellung der Version amaiko.ai im Juli 2025 wird das System nach Angaben des Unternehmens mittlerweile von über 200 Anwendern genutzt. Durch die Integration in die bestehende Microsoft-365-Landschaft entfällt für mittelständische Kunden eine aufwendige Systemmigration, was die technische Eintrittsbarriere gering hält.
Passend zu diesem Ansatz ist amaiko als reines SaaS-Produkt konzipiert, das Unternehmen ohne Einstiegshürde direkt online buchen können. Laut Kirsch sind keine Vorprojekte, individuellen Integrationspfade oder teuren Beratungspflichten notwendig: „Die Nutzung ist selbsterklärend und leichtgewichtig. Wer zusätzlich Unterstützung möchte – etwa zur Wissensstrukturierung oder Governance – kann sie bekommen. Aber die technische Einführung selbst ist bewusst so gestaltet, dass Mittelständler ohne Implementierungsaufwand starten können.“
Unterm Strich liefert amaiko damit eine pragmatische Antwort auf den drohenden Wissensverlust durch den demografischen Wandel: Statt auf komplexe IT-Großprojekte zu setzen, holt das bayerische Start-up die Mitarbeitenden dort ab, wo sie ohnehin kommunizieren. Ob sich die „Teams-native“-Strategie langfristig gegen die Feature-Macht von Microsoft behauptet, bleibt abzuwarten – doch mit dem Fokus auf Datensouveränität und mittelständische Prozesslogik hat amaiko gewichtige Argumente auf seiner Seite, um sich als spezialisierter Wächter des Firmengedächtnisses zu etablieren.
Diese 10 Start-ups bauen an der Zukunft der AgriFood-Branche
Die deutsche Start-up-Landschaft verzeichnete 2025 ein Rekordhoch bei Neugründungen. Doch gerade im AgriFood-Sektor ist der Weg vom Prototyp zum Marktführer steinig. Kapitalintensive Hardware und strenge Regulatorik bremsen viele aus. Der Growth Alliance Accelerator zeigt, wie Gründer*innen diese Hürden überspringen – und präsentiert zehn Akteure, die auf der Erfolgsspur sind.
Es ist ein Paradoxon: Die Nachfrage nach nachhaltigen Lebensmitteln und effizienter Landwirtschaft ist so hoch wie nie, doch für Gründer*innen und junge Unternehmen in der AgriFood-Branche bleibt der Markteintritt ein Hürdenlauf. Während Software-Start-ups oft mit geringem Kapital skalieren, kämpfen Food- und AgTech-Pioniere mit der „Hardware-Falle“. Sie benötigen teure Produktionsanlagen, Labore und müssen langwierige Zulassungsverfahren (z.B. Novel-Food-Verordnung) durchlaufen.
Dennoch ist die Branche im Aufwind: Laut dem Deutschen Startup Monitor und aktuellen Zahlen des Startup-Verbands stiegen die Gründungszahlen 2025 um beachtliche 29 Prozent. Das Kapital ist da, doch es fließt selektiv. Investor*innen suchen heute keine reinen Ideen mehr, sondern validierte Geschäftsmodelle mit technologischem Tiefgang (DeepTech). Genau hier setzte das Finale des Growth Alliance Accelerator 2025 am 28. Januar 2026 in Frankfurt/Main an.
Brückenschlag zwischen Acker und Finanzwelt
Initiiert vom TechQuartier und der Landwirtschaftlichen Rentenbank, hat sich der Accelerator als Schmiede für die „Scale-up“-Phase etabliert. Vier Monate lang wurden zehn Start-ups, die bereits eine Nutzer*innenbasis vorweisen konnten, fit für die nächste Finanzierungsrunde gemacht.
Das Programm adressierte genau die Pain Points der Branche: Verhandlungstaktik, Rechtsfragen und vor allem den Zugang zu Kapital. Ein Highlight war das Investor Dinner im November 2025, bei dem die Gründer*innen direkten Zugang zu Risikokapitalgeber*innen erhielten – in der aktuellen Marktphase ein entscheidender Wettbewerbsvorteil.
Die „Class of 2025“: Wer die Transformation treibt
Die zehn Absolvent*innen decken die gesamte Wertschöpfungskette ab – vom Boden über das Labor bis zum Supermarktregal. Hier ein Blick auf die Köpfe hinter den Innovationen:
1. High-Tech auf dem Acker: Robotik und Daten
Die Digitalisierung der Landwirtschaft (Smart Farming) ist der stärkste Hebel für mehr Effizienz.
Paltech GmbH
Die Brüder Felix und Florian Schiegg gründeten 2022 Paltech zusammen mit Jorge Decombe im Allgäu. Ihr autonomer Roboter für chemiefreie Unkrautbekämpfung im Grünland ist eine Antwort auf strengere Pestizid-Gesetze und Personalmangel.
Bacchus Software GmbH
Das 2023 gegründete Start-up bacchus Weinbau-Software um das Trio Maximilian Dick, Julian Herrlich und Philipp Bletzer digitalisiert den Weinbau. Ihre Software ersetzt das händische Fahrtenbuch und koordiniert die komplette Weinbergsarbeit.
Agrario Energy
Die Energiewende macht Landwirt*innen zu Energiewirt*innen. Seit 2023 bieten die Gründer Alexander von Breitenbach und Chris Weber mit Agrario Energy eine unabhängige Vergleichsplattform, die Flächeneigentümer mit Betreiber*innen von Erneuerbare-Energien-Anlagen zusammenbringt.
2. Deep Tech & Sicherheit: Das Labor als Wächter
Lebensmittelsicherheit wird durch globale Lieferketten immer komplexer. Hier setzen wissenschaftsbasierte Ausgründungen an.
NanoStruct GmbH
NanoStruct wurde 2021 als Spin-off der Universität Würzburg gegründet. Das Team nutzt Nanotechnologie, um gefährliche Bakterien in Lebensmitteln in Minuten statt Tagen aufzuspüren.
SAFIA Technologies
Gegründet 2020 von Timm Schwaar (aus der Bundesanstalt für Materialforschung), entwickelt das Berliner Start-up SAFIA Technologies Schnelltests für Mykotoxine (Schimmelpilzgifte). Ihre Technologie ermöglicht Laborqualität im Schnelltest-Format.
Landman.Bio
Das noch junge Unternehmen (Gründung 2023) Landman.Bio nutzt Bakteriophagen (Viren, die Bakterien fressen) als natürliche Waffe gegen Pflanzenkrankheiten – eine dringend benötigte Alternative zu Antibiotika und klassischen Pestiziden in der Nutzpflanzenzucht.
3. Sustainability & Climate: Kohlenstoff als Währung
CO2-Tracking ist kein Marketing-Gimmick mehr, sondern ökonomische Notwendigkeit.
CinSOIL
Das 2024 in Berlin gegründete CinSOIL-Team um Dr. Giorgi Shuradze, Dr. Antonella Succurro und Dr. Tavseef Shah kommt aus der Wissenschaft. Ihr KI-Tool nutzt Satellitendaten, um Bodenkohlenstoff zu erfassen. Das ermöglicht Agrarunternehmen, Dekarbonisierung nicht nur zu behaupten, sondern zu beweisen.
Niatsu
Gegründet 2023 von Marius Semm und Jakob Tresch in Zürich, adressiert Niatsu die Lebensmittelindustrie. Ihre Software berechnet den Product Carbon Footprint (PCF) automatisiert und kostengünstig, was gerade für den Mittelstand entscheidend ist.
4. Future Food
Was wir morgen essen (und trinken).
VANOZZA
Eines der etabliertesten Start-ups der Runde. Gegründet 2019 von Nico Hansen in Hamburg, hat sich Vanozza mit fermentierten Käsealternativen auf Cashew-Basis einen Namen gemacht und arbeitet nun an der „zweiten Generation“ ihrer Produkte.
food42morrow/JUMA
Die Frankfurter Gründer Raoul und Max Kammann sowie Carlos Lopez Granado gründeten die GmbH bereits 2020 und brachten 2022 ihre Marke JUMA (Tee-Eistees auf Guayusa-Basis) auf den Markt. Sie bedienen den Trend zu „Functional Food“.
Fazit
Die AgriFood-Start-ups des Abschlussjahrgangs des Growth Alliance Accelerators 2025 haben die Phase der reinen Ideen-Findung bereits eindrucksvoll gemeistert. Jetzt geht es um Skalierung, industrielle Anwendung und messbaren Impact. Programme wie die Growth Alliance sind dabei der Katalysator, der wissenschaftliche Exzellenz mit dem nötigen Geschäftssinn verbindet.
Social Engineering auf dem Vormarsch
Wie Deepfakes die Sicherheit von Führungskräften stärker in den Fokus rücken.
Fotorealistische KI liefert innerhalb von kürzester Zeit realistische Visuals. Was in vielerlei Hinsicht den Arbeitsalltag erleichtert, bedeutet für Social Engineering jedoch eine neue Eskalationsstufe, wie nicht zuletzt die hitzige Debatte um massenhaft sexualisierte Deepfakes von realen Personen durch Grok eindrücklich vor Augen führte.
Auch Personen in leitenden Funktionen in Unternehmen sind vor solchen Manipulationen nicht gefeit. Zunehmend zielen Angriffe auf Menschen mit Zugriffsrechten und Entscheidungsbefugnissen, deren Freigaben unmittelbare Wirkung auf die Sicherheit einer ganzen Organisation haben. „Fotorealistische KI und hybride Social-Engineering-Kampagnen erhöhen den Druck auf Schlüsselpersonen. Daher brauchen Unternehmen belastbare Verifikationsprozesse, Krisenroutinen und integrierte Schutzkonzepte“, erklärt Markus Weidenauer, geschäftsführender Gesellschafter der SecCon Group GmbH.
Deepfakes zielen auf privates Umfeld
Nach Angaben des Bundesamts für Sicherheit in der Informationstechnik (BSI) lassen sich Deepfakes als Verfahren beschreiben, die gezielt Spear-Phishing und andere Social-Engineering-Angriffe nutzen, um Vertrauen aufzubauen und Autorität zu simulieren. Generative KI fungiert dabei als zentraler technischer Enabler, da sie die realistische Erzeugung manipulativer Audio-, Video- und Textinhalte erstmals in industriellem Maßstab ermöglicht. „Die eigentliche Bedrohung ergibt sich dabei nicht aus einzelnen KI-generierten Inhalten, sondern aus deren koordinierter Nutzung“, weiß der Sicherheitsexperte.
Infolge der steigenden Qualität und der zunehmenden Verfügbarkeit generativer KI wird es darüber hinaus zunehmend schwieriger, Fakt von Fiktion zu unterscheiden „Zwar können isolierte Inhalte für sich betrachtet zweifelhaft sein, doch das konsistente Zusammenspiel mehrerer manipulierter Medieninhalte erhöht die wahrgenommene Glaubwürdigkeit erheblich“, ergänzt der Profi und weist darauf hin, dass sich diese Entwicklung in der Praxis zuspitzt. „Social Engineering, Deepfakes und digitale Erpressung werden immer häufiger mit Observationen des privaten Umfelds sowie Angriffen auf die Heim-IT kombiniert. Durch diese Eskalation der Angriffsmittel bauen Täter gezielt psychologischen Druck auf, der die Widerstandsfähigkeit der Betroffenen weiter reduziert.“
Risiken kennen, Wege einüben
Kompromittierte Schlüsselpersonen mit Steuerungs- und Entscheidungsfähigkeiten bergen hohes Schadenspotenzial für Betriebe. Das reicht von unmittelbaren finanziellen Verlusten bis zu dauerhaften Reputationsschäden. Dieses Risiko wird insbesondere dort verstärkt, wo organisatorische und prozessuale Absicherungen fehlen. „Resilienz bedeutet aber, auch in potenziellen Krisensituationen sichere Entscheidungen treffen zu können“, betont Markus Weidenauer. Trotzdem mangelt es vielen Unternehmen sowohl an speziellen Trainings zum Thema Social Engineering als auch an Meldewegen, klaren Freigabeprozessen, die auch unter Druck funktionieren, sowie alternativen Kommunikationskanälen. „Nur wenn Mitarbeiter diese Strukturen kennen und regelmäßig einüben, entsteht eine Kultur, in der eine frühzeitige Eskalation in der Meldekette als notwendiger Beitrag zur Sicherheit des gesamten Betriebs wahrgenommen wird“, fügt Markus Weidenauer hinzu.
Dringender Handlungsbedarf in Unternehmen
Um hier Abhilfe zu schaffen, verabschiedete im September 2025 das Bundeskabinett das sogenannte KRITIS-Dachgesetz zur Stärkung der Resilienz kritischer Einrichtungen. Es verpflichtet die Unternehmensleitung, Schutz- und Präventionsmaßnahmen umzusetzen, deren Wirksamkeit nachzuweisen ist. Der dem Regelwerk zugrunde liegende All-Gefahren-Ansatz fordert, dabei physische, digitale und organisatorische Dimensionen gemeinsam zu betrachten. „Auch wenn Führungskräftesicherheit hier kein eigener Rechtsbegriff ist, sollte sie Teil der Anforderungen an ein modernes Sicherheitsmanagement sein“, so der Geschäftsführer der SecCon Group.
Das bedeutet: Führungskräfte etwa vor Erpressungsversuchen durch Social Engineering zu schützen, ist weder persönlicher Luxus noch Symbolpolitik, sondern ein Element der nachweisbaren Unternehmensresilienz. Schließlich ist die Sicherung von Steuerungs- und Entscheidungsfähigkeit ein Governance-Baustein. Nicht die Person steht im Mittelpunkt, sondern die Handlungsfähigkeit des Instituts.
SPEIKI: das Spucktuch zum Anziehen
SPEIKI wurde von Dr. Karin Mehling entwickelt – als ihr eigenes Kind ein sogenanntes Spuckbaby war und gängige Hilfsmittel im Alltag nicht funktionierten. Aus dieser Erfahrung entstand ein durchdachtes Spucktuch, das genau auf die Bedürfnisse von Eltern und das Verhalten der betroffenen Babys abgestimmt ist.
Was tun, wenn das eigene Baby ständig spuckt – und keine Lösung wirklich hilft? Genau diese Frage hat sich Gründerin Dr. Karin Mehling 2020 gestellt, als sie selbst mitten in der herausfordernden Spuckphase ihres zweiten Kindes steckte. Rund 70 Prozent der Säuglinge spucken in den ersten vier bis sechs Lebensmonaten – ein häufiges Phänomen, das durch den noch unreifen Magenpförtner, einem Muskel am Mageneingang, verursacht wird.
Der Alltag ist in dieser Zeit vor allem geprägt durch Flecken wischen und Wäsche waschen, unangenehme Gerüche und feuchte Textilien. Aus ihrer persönlichen Erfahrung entstand das SPEIKI Original (Kurzform für Speikind): Ein „Spucktuch zum Anziehen“, das Eltern von Speikindern spürbar entlastet, da es die ausgespuckte Milch fast vollständig auffängt.
Per Bootstrapping aus dem Wohnzimmer in den Markt
Entwickelt wurde das SPEIKI Original am Wohnzimmertisch für den eigenen Sohn. 2021 meldete die promovierte Germanistin, Verlagskauffrau sowie PR- und Marketing-Managerin ihr Gewerbe als Einzelunternehmerin, wenig später konnte das Spucktuch bereits in Serie gehen.
In der per Bootstrapping finanzierten Startphase war es laut der Gründerin die größte Challenge, zu akzeptieren, nicht alles sofort schaffen zu können. Während sie als Angestellte ihren Fokus auf die klar definierten Projekte und Tätigkeiten legen konnte, kamen nun als Solo-Selbständige die Notwendigkeiten rund um Buchhaltung, Herstellung, Verwaltung und vieles mehr hinzu.
„Mit zwei Kindern zu Hause und bald einen weiteren Buben im Bauch gründete ich mein Einzelunternehmen. Entwicklung, Vermarktung, Vertrieb – alles stemmte ich allein und ,nebenbei‘. Nachts, zwischen Windeln und Weinen, auf dem Boden neben der Badewanne, in der die Buben sitzen – es gab fast keinen Ort und keine Zeit, die ich nicht versuchte zu nutzen, um meine Vision voranzutreiben: Mit meinem Textil-Label kluge Lösungen für den Baby-Alltag zu schaffen, die wirklich unterstützen. Dabei leiteten und leiten mich mein Ehrgeiz, mein Allrounder-Gemüt und meine Zielstrebigkeit, ebenso wie meine Werte, die dem Prinzip der ökonomischen Nachhaltigkeit folgen.“
Gefertigt wird das Spucktuch in einer bayerischen Nähmanufaktur. Regionalität ist Karin Mehling wichtig, als Unternehmerin sieht sie sich in der Verantwortung, nachhaltig zu wirtschaften.
Fünf Jahre erfolgreich im stark umkämpften Babyausstattungsmarkt
Der Weg von der ersten Idee bis zum etablierten Produkt zeigt den typischen Werdegang vieler Einzelunternehmen: handgemachte Prototypen, lokale Produktionswege und ein wachsendes Sortiment, das sich an den alltäglichen Bedürfnissen von Familien orientiert. Der Hauptfokus liegt bis heute auf dem SPEIKI selbst. Ergänzende Produkte runden das Portfolio ab, bleiben aber klar am Bedarf von Familien mit Spuck- und Stillthemen ausgerichtet.
Das Ergebnis: Ein Sortiment, das trotz spitzer Positionierung breit genug ist, um relevant zu bleiben. Das Wachstum der Marke basiert vor allem auf organischer Sichtbarkeit, Community-Nähe und authentischer Kommunikation.
„Ich habe mich bewusst auf das Kernprodukt konzentriert – und ergänze nur dort, wo Familien echte Bedürfnisse haben“, erklärt die Gründerin. Die Nachfrage zeigt, dass dieser Ansatz funktioniert: Das Unternehmen feiert in diesem Jahr sein fünfjähriges Jubiläum und blickt auf eine Entwicklung zurück, die weit über die Region hinaus Wirkung zeigt. Als Direct-to-Customer-Unternehmen mit jährlich wachsenden Umsätzen ein Meilenstein im stark umkämpften Babyausstattungsmarkt. „Dass aus einer spontanen Idee so viel werden kann, hätte ich selbst nicht zu träumen gewagt“, sagt Karin Mehling. „Aber offensichtlich haben viele Eltern genau das gebraucht.“
Infinite Roots: Hamburger BioTech bringt pilzbasierte Gerichte ins Kühlregal
Das 2018 von Dr. Mazen Rizk, Anne-Cathrine Hutz und Dr. Thibault Godard als Mushlabs gegründete Hamburger Start-up Infinite Roots (ehemals Mushlabs) bringt die Vorteile der Pilzwelt erstmals als eigenständige Hauptzutat ins Kühlregal.
Infinite Roots ist ein forschungsgetriebenes BioTech-Unternehmen aus Hamburg. Seit 2018 entwickelt das Unternehmen (zunächst unter dem Namen Mushlab) neuartige Lebensmittel auf Basis von Pilzen – inspiriert vom Myzel, dem unterirdischen Wurzelgeflecht essbarer Pilze. Durch Fermentation schafft Infinite Roots Produkte, die über bloße Fleischalternativen hinausgehen. Das Ziel ist es, eine neue Kategorie zu etablieren: Lebensmittel, die echtes Umami und wertvolle Nährstoffe liefern, mit kurzen Zutatenlisten auskommen und die Umwelt entlasten.
Mit mehr als 60 Expert*innen aus Biotechnologie, Data, Lebensmittelwissenschaft und Kulinarik will das Team neue Standards für Geschmack, Qualität und Nachhaltigkeit setzen und zeigen, dass die Ernährung der Zukunft nicht Verzicht bedeutet, sondern Vielfalt und Genuss.
Die MushRoots-Produkte des Unternehmens sind keine Fleischimitate, sondern bieten ein eigenständiges, pilzbasiertes Geschmackserlebnis. Sie zeichnen sich durch einen saftigen, herzhaften Biss und ausgeprägte Umami-Noten aus. Die Hamburger setzen dabei auf Speisepilze, kombiniert mit vertrauten, hochwertigen Zutaten. Entsprechend bauen die Produkte auf einer natürlichen Zutatenliste auf und verzichten auf künstliche Aromen, Geschmacksverstärker und Farbstoffe. So entsteht ein Geschmackserlebnis, das an herzhafte Hausmannskost erinnert. Die Produkte lassen sich vielseitig im Alltag, etwa als Hack, Bällchen oder Patties.
„Im Kühlregal sehen Konsument*innen seit Jahren dieselbe Logik: Tierprotein hier, Pflanzenprotein dort“, sagt Philip Tigges, CCO/CFO von Infinite Roots. „Mit MushRoots bringen wir nicht nur eine dritte Option ins Regal, sondern kehren auch zu Lebensmitteln mit einer natürlichen Hauptzutat zurück. Pilze bieten einen herzhaften Geschmack, sind vielseitig, in allen gewohnten Rezepten einsetzbar und können kinderleicht zubereitet werden.“
MushRoots setzt dabei auf eine Proteinquelle mit vergleichsweise geringem ökologischen Fußabdruck. Pilze lassen sich lokal und ressourcenschonend kultivieren. „Wir wollten nie ein weiteres Fleischimitat herstellen, sondern eine eigene Kategorie umami-reicher Pilzprodukte schaffen, die durch Charakter und Geschmack überzeugen“, ergänzt Tigges. „Unser Ziel ist es jetzt, Menschen für Pilzprodukte zu gewinnen, ohne dass sie Fleisch vermissen.“
Jetzt meldet Infinite Roots, dass vier MushRoots-Produkte ab sofort bei REWE Nord in Norddeutschland und Billa Plus in Österreich erhältlich sind und damit eine neue Kategorie an Pilz-Produkten in die Kühlregale Einzug gehalten haben.
Report Gendermedizin
Auch mithilfe von FemTech- und HealthTech-Start-ups steigt in unserer Gesellschaft langsam das Bewusstsein dafür, dass der weibliche Körper medizinisch anders funktioniert als der männliche, und Frauengesundheit mehr ist als "nur" Zyklus, Schwangerschaft und Wechseljahre.
Alles, was speziell für die Frau ist und beim Mann nicht existiert“, erklärt Raoul Scherwitzl, Doktor der Philosophie, Festkörper- und Materialphysik sowie Co-Founder des FemTech-Start-ups Natural Cycles, was mit Frauenmedizin gemeint ist. Diese Aussage wird häufig innerhalb gesundheitspolitischer Debatten getätigt, wenn es darum geht, wie Frauenkrankheiten im Gegensatz zum männerzentrierten Usus in der Medizin behandelt werden: oftmals zweitrangig oder als Anhängsel an männerfokussiertem Wissen.
Der französische Soziologe Pierre Bourdieu beschrieb in seinem Werk „Die männliche Herrschaft“ bereits 1998, wie „kulturelle und wissenschaftliche Systeme männliche Normen als allgemeingültig setzen und alles, was weiblich ist, als Abweichung oder Sonderfall markieren“. Sieht man sich die Geschichte der westlichen Medizin an, drängt sich der Eindruck auf, dass Bourdieus Beschreibung für den Gesundheitsbereich ins Schwarze trifft.
Blickt man darüber hinaus in die (Fach-)Literatur der letzten Jahrzehnte, so erkennt man: Bis in die späten 80er-Jahre wurden weibliche Bedürfnisse, psychosoziale Belastungen und Körperbilder in der medizinischen Forschung und Praxis weitgehend ignoriert. Erst eine aufkeimende Frauengesundheitsbewegung durchbrach diese Mauer und etablierte den Begriff Frauengesundheit bzw. Gendermedizin. Seitdem schärft sich der Blick auf die Frau, und die Gesellschaft hat begonnen, in Publikationen und Debatten genauer hinzusehen – mit einer bewusstseinsschaffenden Agenda, warum dieses Thema wichtig ist.
Frauengesundheit ist mehr als Reproduktion
„Die Definition von Frauengesundheit wird oft sehr eng gefasst“, erklärt Scherwitzl das Problem; „nämlich als alles, was mit reproduktiver Gesundheit zu tun hat: Menstruationszyklus, Pubertät, Schwangerschaft, Geburt, Wochenbett, Unfruchtbarkeit und Wechseljahre. Die klassische Definition spannt sich dabei meist über das reproduktive Zeitfenster einer Frau zwischen etwa 15 und 50 Jahren.“ Dabei werde oft übersehen, dass Frauengesundheit weit mehr umfasse: „Es geht auch darum, den gesamten Gesundheitsbereich aus der Perspektive von Frauen zu betrachten – und das wird bislang kaum getan“, so Scherwitzl. Ein großes Problem liegt laut dem Gründer darin, dass die meisten Medikamente auf Basis klinischer Studien mit Männern entwickelt wurden; mit der Annahme, dass sie bei Frauen gleich gut wirken – obwohl Frauen biologisch anders reagieren. Als Beispiel nennt Scherwitzl die Insulinresistenz, die sich bei Frauen im Lauf des Zyklus verändert. „Dies wird aber kaum berücksichtigt“, ergänzt er.
Im Gesundheitswesen fehle es häufig an passenden Tools und Produkten, um Frauen gezielt zu unterstützen. Ein Beispiel hier sei die Hormontherapie in den Wechseljahren, bei der oftmals lediglich hoch dosierte Varianten jahrzehntealter Medikamente zum Einsatz kämen. „Das Resultat ist, dass sich Frauen häufig selbst um ihre Beschwerden kümmern müssen. Viele suchen zunehmend online nach Hilfe. Große Pharmakonzerne haben diesen Mangel erkannt und investieren inzwischen in Forschung zu Themen wie Endometriose oder Wechseljahre“, sagt Scherwitzl. Sein Start-up Natural Cycles setzt auf ein datenbasiertes Modell mit Körperwerten und Algorithmen, kombiniert mit Aufklärung und individualisierter Medizin; mit dem Ziel, einen Beitrag dazu zu leisten, dass Frauen künftig Zugang zu besser abgestimmten Medikamenten und mehr effektiven Lösungen erhalten.
Es muss endlich in die Köpfe kommen
„Es muss endlich in die Köpfe kommen, dass der weibliche Körper anders funktioniert als der männliche“, mahnt Simone Mérey in diesem Sinn. Sie ist Founderin des 2022 gegründeten Pflege-Start-ups HeldYn. Mérey hat jahrelang im Krankenhaus gearbeitet und hatte dabei viel mit Schmerzpatient*innen zu tun. Sie erkannte dabei einen Gender-Bias: Frauen mit Schmerzen wurden oft als wehleidig abgestempelt – veraltete Vorstellungen in den Köpfen der Beteiligten –, mit der Folge, dass Patientinnen schnell einmal als depressiv oder psychisch labil eingestuft wurden. „Dies ist keine akkurate Einschätzung – es ist wissenschaftlich belegt, dass Frauen eine höhere Schmerzgrenze als Männer haben“, betont Mérey. „Hier merkt man, wie soziale Konstrukte wirken: Die Frau wird oft als die gesellschaftlich Schwächere wahrgenommen, obwohl ihr Körper viel aushält, Stichwort Geburt. So kommt es zu falschen Dosierungen und der Vernachlässigung von Symptomen.“
Chance für HealthTech-Start-ups?
Eine Vernachlässigung, die Akteur*innen und Start-ups im Health-Bereich Chancen eröffnet. Ähnlich denkt Scherwitzl, der Start-ups mit „großen Ambitionen“ im Entstehen sieht: „Das Funding ist da“, sagt er. „Vor allem in den letzten fünf Jahren hat sich einiges verbessert. Wenn Investoren merken, dass man hier viel Growth erreichen kann, wird noch mehr Geld fließen.“
Was jedoch aktuell noch fehle, sei der große Erfolg, der beweise, dass es sich lohne, in dieses Feld zu investieren. „Im Pharmabereich gibt es etwa die Pille oder Antidepressiva – im digitalen Bereich bin ich jedoch optimistisch, dass der nächste große Durchbruch bevorsteht“, so Scherwitzl. Der Founder zeigt sich überzeugt, dass es zu jedem pharmazeutischen Ansatz künftig auch eine digitale Alternative geben sollte, mit der Frauen medizinisch besser begleitet werden können. „Pharmakonzerne wie Bayer, Organon und Merck haben trotz Deinvestitionen weiterhin Pipelines im Bereich Frauengesundheit. Gleichzeitig gibt es Start-ups wie uns oder Flo in England, das eine neue Version des Kondoms für Frauen entwickelt. Die dänische Cirqle Biomedical arbeitet ebenfalls an einer Alternative zum Kondom, die den Uterus verschließt. Außerdem existieren Start-ups wie Endogene.Bio, das sich auf Endometriose fokussiert.“
Auch Mérey hat trotz aller Probleme bei der Frauenmedizin einen neuen Tenor in dieser Sache erkannt, der sich vom bisherigen „medizinischen Ratschlag“ an Frauen à la „Man muss da durch“ unterscheide: Das Thema der zweiten Lebenshälfte der Frauen werde mehr diskutiert, Tabuthemen wie Wechseljahre würden aufgebrochen. Mérey: „Der negative Anstrich wird langsam entfernt. Es hat in den letzten Jahren ein Umdenken gegeben.“
KI-Modelle erfolgreich im Unternehmen einführen
Worauf es bei der Implementierung von KI wirklich ankommt.
Künstliche Intelligenz (KI) gewinnt in Unternehmen zunehmend an Bedeutung. Sie kann Prozesse beschleunigen, große Datenmengen sinnvoll nutzbar machen und Entscheidungen unterstützen. Doch in der Praxis zeigt sich: Moderne Technologie allein führt noch nicht zum Erfolg. Entscheidend ist ein strukturiertes Vorgehen, bei dem Ziele klar definiert, Daten sorgfältig vorbereitet und organisatorische Rahmenbedingungen von Beginn an berücksichtigt werden. „Viele KI-Initiativen scheitern daran, dass am Anfang die Orientierung fehlt“, sagt Benedikt Weber, Geschäftsführer der applord GmbH. „Struktur schafft Entscheidungsfähigkeit – noch bevor über konkrete KI-Modelle gesprochen wird.“
Organisatorischer Wandel und Einbindung der Mitarbeitenden
Der Einsatz von KI verändert Arbeitsabläufe, Verantwortlichkeiten und Entscheidungswege. Mitarbeitende arbeiten verstärkt mit automatisierten Systemen zusammen, Aufgaben verschieben sich, Rollen entwickeln sich weiter. Wird dieser Wandel nicht aktiv begleitet, entstehen Unsicherheiten oder Ablehnung gegenüber neuen Technologien. Erfolgreiche Unternehmen setzen deshalb auf transparente Kommunikation und frühzeitige Einbindung der Mitarbeitenden. Sie erklären, warum KI eingesetzt wird, welche Aufgaben sie übernimmt und wo menschliche Expertise weiterhin unverzichtbar bleibt. Fehlt dieses gemeinsame Verständnis, werden neue Systeme häufig nur eingeschränkt genutzt. „KI-Projekte scheitern selten an der Technologie“, betont Weber. „Viel häufiger fehlt ein klares Bild davon, welchen konkreten Nutzen KI für Mitarbeitende und Organisation wirklich bringt.“
Auswahl der passenden KI-Lösung
Das Angebot an KI-Lösungen wächst rasant. Für Unternehmen besteht die Herausforderung darin, nicht der technischen Vielfalt zu folgen, sondern eine Lösung zu wählen, die zum eigenen Geschäftsprozess passt. Der Ausgangspunkt sollte immer ein klar definierter Anwendungsfall sein: Welche Aufgabe soll KI konkret unterstützen oder verbessern? Neben den Funktionen spielen auch Fragen der Nachvollziehbarkeit, Integration in bestehende Systeme und regulatorische Anforderungen eine Rolle. Werden diese Aspekte zu spät berücksichtigt, entstehen Lösungen, die technisch leistungsfähig sind, im Alltag aber keinen Mehrwert liefern. „Viele Unternehmen wählen KI nach dem Funktionsumfang aus und stellen später fest, dass sie nicht zum eigenen Prozess passt“, erklärt Weber. „Erfolgreich ist KI dann, wenn sie Abläufe sinnvoll ergänzt und verständliche Ergebnisse liefert.“
Datenqualität als Grundlage für verlässliche Ergebnisse
KI-Modelle sind vollständig von der Qualität ihrer Daten abhängig. In vielen Unternehmen existieren relevante Informationen zwar, sie sind jedoch über verschiedene Systeme verteilt, unterschiedlich gepflegt oder historisch gewachsen. Diese Ausgangslage erschwert nicht nur den Einsatz von KI, sondern kann zu fehlerhaften oder schwer nachvollziehbaren Ergebnissen führen. Datenmanagement ist daher keine einmalige Vorarbeit, sondern eine kontinuierliche Aufgabe. Dazu gehören klare Zuständigkeiten, regelmäßige Prüfungen und eine strukturierte Aufbereitung der Daten. „Der Aufwand für Datenqualität wird häufig unterschätzt“, sagt Weber. „Ohne geprüfte und konsistente Daten lassen sich keine stabilen und verlässlichen KI-Ergebnisse erzielen – unabhängig davon, wie gut das Modell ist.“
Schrittweise Einführung statt großer Umbruch
Statt KI sofort unternehmensweit einzusetzen, empfiehlt sich ein schrittweises Vorgehen. Unternehmen können so mit klar abgegrenzten Anwendungsfällen beginnen, Lösungen im Alltag testen und die Ergebnisse anhand messbarer Kriterien, wie Benutzerfreundlichkeit oder verständlicher Anleitungen, bewerten. So lassen sich Risiken reduzieren und Erkenntnisse gezielt nutzen. Pilotprojekte liefern nicht nur technische Erkenntnisse, sondern zeigen auch, wie gut KI im Arbeitsalltag akzeptiert wird. Auf dieser Basis lässt sich entscheiden, welche Lösungen ausgebaut werden sollten. „Unternehmen, die mit überschaubaren Anwendungsfällen starten, treffen langfristig fundiertere Entscheidungen“, so Weber. „Praxiserfahrungen sind dabei deutlich wertvoller als theoretische Annahmen.“
KI-Hype: mittel- bis langfristiger Weg zur Monetarisierung noch unklar
Aktueller Marktkommentar zum KI-Hype und den möglichen Folgen von Justin Thomson, Head Investment Institute and CIO bei T. Rowe Price.
Die Investitionsausgaben für künstliche Intelligenz (KI) haben ein erstaunliches Niveau erreicht, aber der Weg zur Monetarisierung bleibt unklar. Der Markt-Hype schaukelt sich selbst hoch, und die Tech-Giganten greifen nun zu Krediten, um ihre Expansion zu finanzieren. Blasen sind nicht immer schädlich und können zu erheblichen Produktivitätssteigerungen führen, aber Überkapazitäten sind ein reales Risiko, das beobachtet werden sollte.
Während eines hochkarätigen Finanzgipfels, an dem ich kürzlich in Hongkong teilgenommen habe, sagte der CEO einer führenden Vermögensverwaltungsgesellschaft, der es eigentlich besser wissen müsste: „Im Kontext der Ausstattung von Hyperscalern sind 2,5 Billionen US-Dollar [für Investitionen] über fünf Jahre keine große Summe.“ Ich war über diese Bemerkung erstaunt. In welchem Paralleluniversum sind 2,5 Billionen US-Dollar eine unbedeutende Summe? Antwort: in einem, in dem Nvidia innerhalb von drei Monaten eine Marktkapitalisierung von 1 Billion US-Dollar erreichen kann. Aber wie erzielt man eine Rendite auf Investitionen in Höhe von 2,5 Billionen US-Dollar, wenn der mittel- bis langfristige Weg zur Monetarisierung der KI noch unklar ist?
Dies deutet auf zwei verschiedene AI-Investitionsbooms hin: einen relativ kurzfristigen, der durch eine erkennbare tatsächliche Nachfrage gestützt wird, und einen längerfristigen spekulativen Boom, der mit einem quasi-religiösen Glauben an exponentielles Wachstum verbunden ist.
Betrachten wir zunächst einige beeindruckende Zahlen. Die Ausgaben für KI erreichten gerade 1 % des US-Bruttoinlandsprodukts (BIP) in einer Wirtschaft mit 1,8 % Wachstum – das ist mehr als die Hälfte der gesamten neuen Nachfrage. Allein Nividia erreichte Ende Oktober einen Wert von 5 Billionen US-Dollar, was 15 % der gesamten US-Wirtschaft entspricht. Zum Vergleich: Als Cisco im Jahr 2000 als weltweit größtes Unternehmen seinen Höhepunkt erreichte, betrug sein Anteil am BIP nur 5,5 %. Während viel Aufsehen um den 3 Milliarden US-Dollar teuren Hauptsitz von JP Morgan in Manhattan gemacht wurde, werden in Texas still und leise 40 Milliarden US-Dollar teure Rechenzentrumsprojekte gestartet. Niemand scheint sich dafür zu interessieren.
Sind wir also in einer Blase? Es gibt sicherlich eine Blase von Menschen, die über Blasen sprechen – werfen Sie einfach einen Blick auf Google Trends.
Unterdessen gibt es diejenigen, die glauben, dass wir uns gerade deshalb nicht in einer Blase befinden können, weil wir über eine solche sprechen. Meiner Meinung nach gibt es drei Schlüsselwörter in den jüngsten Marktentwicklungen, die Beachtung verdienen: Reflexivität, Zirkularität und Verschuldung. Reflexivität besagt, dass Preise tatsächlich die Fundamentaldaten beeinflussen und dass diese neu beeinflussten Fundamentaldaten dann die Erwartungen verändern und somit die Preise beeinflussen. Dieser Prozess setzt sich in einem sich selbst verstärkenden Muster fort. Die lebhafte Reaktion des Marktes auf die jüngsten KI-Megadeals ist ein Beispiel für einen solchen Feedback-Kreislauf. Hinzu kommt der zirkuläre Charakter dieser Deals. Im Wesentlichen investieren die Anbieter von Recheninfrastruktur in native KI-Akteure, die sich in einer Investitionsphase befinden. In der Dotcom-Ära war dies als „Vendor Financing” bekannt und wurde zu einer Art Schimpfwort.
Schließlich gibt es noch die Verschuldung. Bislang haben die finanzstarken Tech-Giganten diesen KI-Boom mit ihren eigenen tiefen Taschen und Eigenkapitalfinanzierungen finanziert. Aber jetzt treten wir in die Kreditphase ein – Unternehmen wenden sich den Schuldenmärkten zu, oft außerhalb der Bilanz, und die Kreditaufnahme wird sich wahrscheinlich beschleunigen. Wir wissen, dass wir mit generativer KI und später mit künstlicher Superintelligenz vor einem neuen technologischen Paradigma stehen – und möglicherweise vor einem massiven Produktivitätssprung. Das sind alles großartige Dinge, und es ist leicht zu verstehen, dass man der Versuchung erliegt, weiter auf der lukrativen KI-Welle zu reiten, die mit der Einführung von ChatGPT im November 2022 begann. Angesichts der aktuellen Indexkonzentration würde es in der Tat Mut erfordern, auszusteigen.
Schnelles Wachstum kann zu einem Überschuss führen
Eine wichtige Lehre aus der Geschichte ist, dass es zu Blasen kommt, wenn wir schöne Dinge erfinden. Aber nicht alle Blasen sind gleich. Es gibt „schlechte“ Blasen (Tulpen, Gold, Grundstücke), und wenn schlechte Blasen durch Schulden finanziert werden, kann dies ein systemisches Risiko für die Wirtschaft darstellen. Es gibt auch „gute“ Blasen, die zu Überkapazitäten bei Produktionsmitteln führen – man denke an die Eisenbahnen im goldenen Zeitalter der Expansion der USA zwischen 1870 und 1900, die Elektrizität in den frühen 1900er Jahren und den Dotcom-Boom Ende der 1990er Jahre. Letztendlich wurde in jedem Fall Wohlstand geschaffen, aber die frühen Investoren verloren viel Geld.
Es ist noch zu früh, um vorherzusagen, zu welcher Art von Blase sich der AI-Investitionsboom entwickeln wird. Die langfristigen Auswirkungen werden davon abhängen, ob die heutigen massiven Investitionen letztendlich die Grundlage für dauerhafte Produktivitätssteigerungen schaffen oder ob sie zu Überkapazitäten führen, die keine nachhaltigen Renditen erzielen. Wenn die Kapazitäten so schnell wachsen, ist es immer wahrscheinlich, dass sich das Ungleichgewicht zwischen Angebot und Nachfrage von einem Mangel zu einem Überschuss umkehrt. In der Dotcom-Ära verloren Investoren viel Geld mit Glasfaserkabeln und Switches, die in den Boden verlegt wurden, und etwas Ähnliches könnte mit KI passieren, wenn durch Überbauung riesige Kapitalmengen in Anlagen gebunden werden, die möglicherweise nicht annähernd mit voller Effizienz betrieben werden können – oder noch schlimmer, wenn die Schnelllebigkeit des Chip-Zyklus die Rechenleistung obsolet macht.
Erschwerend kommt hinzu, dass die Anreize für Infrastrukturanbieter („Picks and Shovels”-Akteure) und Entwickler von KI-Anwendungen nicht aufeinander abgestimmt sind. Während Infrastrukturunternehmen von einer kontinuierlichen Expansion und Investitionen profitieren, konzentrieren sich Anwendungsentwickler auf die Verbesserung der Effizienz und die Senkung der Kosten. Um den Kommentar des Dodos nach dem Caucus-Rennen in Lewis Carrolls Alice im Wunderland umzukehren: „Nicht jeder kann gewinnen, und nicht jeder kann einen Preis bekommen.” Die optimistischen Prognosen für die KI-Infrastruktur zeigen, wie viel Hype in den heutigen Bewertungen der Hyperscaler steckt. Es ist ironisch, dass Rechenzentrumsprojekte nach den griechischen Titanen Prometheus und Hyperion benannt werden. In der griechischen Mythologie folgt auf Hybris immer Nemesis. Um noch ein bisschen Latein mit einzubringen: caveat emptor.
KI-Agenten als Transformationstreiber 2026
Eine aktuelle DeepL-Studie zeigt: 69 % der globalen Führungskräfte erwarten für 2026 tiefgreifende Veränderungen durch KI-Agenten; KI-Sprachtechnologie wird zur unverzichtbaren Infrastruktur.
Eine neue Studie von DeepL, einem globalen Unternehmen für KI‑Produkte und ‑Forschung, zeigt: 2026 wird für viele Organisationen den Übergang vom Experimentieren mit KI hin zu agentischer Automatisierung markieren. So erwartet die Mehrheit der weltweit befragten Führungskräfte (69 %), dass agentenbasierte KI ihre Geschäftsabläufe im kommenden Jahr deutlich verändern wird.
Die Studie wurde im September 2025 von Censuswide im Auftrag von DeepL durchgeführt. Befragt wurden 5.000 Führungskräfte in Deutschland, Frankreich, den USA, Großbritannien und Japan. Die Ergebnisse deuten darauf hin, dass Unternehmen verstärkt planen, autonome KI-Agenten im großen Umfang einzusetzen – etwa zur Unterstützung von Wissensarbeit, zur Effizienzsteigerung oder zur Anpassung organisatorischer Strukturen. Damit zeichnet sich die bedeutendste operative Veränderung in der Wirtschaft seit der Einführung der Cloud an.
„KI-Agenten sind längst nicht mehr experimentell, sie sind unumgänglich.“ sagt Jarek Kutylowski, CEO und Gründer von DeepL. „Die nächste Phase besteht darin, sie tiefgreifend in unsere Arbeitsweisen zu integrieren. In 2026 werden KI-Agenten das mühsame Umschalten zwischen verschiedenen Kontexten und repetitive Aufgaben übernehmen, sodass sich Menschen auf das konzentrieren können, was Unternehmen tatsächlich voranbringt.“
KI-Agenten werden zum nächsten Disruptor für Unternehmen
Nach ersten Pilot- und Anwendungsfällen rücken KI-Agenten zunehmend in den produktiven Einsatz:
- Fast die Hälfte der globalen Führungskräfte (44 %) erwartet für 2026 einen tiefgreifenden Wandel durch agentische KI; ein Viertel (25 %) sieht diesen Wandel bereits heute. Nur 7 % glauben, dass KI-Agenten ihre Betriebsabläufe nicht verändern werden, was die hohe Geschwindigkeit der Implementierungen unterstreicht.
- Als die drei wichtigsten Voraussetzungen für den sinnvollen und vertrauenswürdigen Einsatz von KI-Agenten nennen die Befragten nachweisbare Effizienz- und ROI-Effekte (22 %), Anpassungsfähigkeit der Belegschaft (18 %) und zunehmende organisatorische Bereitschaft (18 %).
- Als wesentliche Herausforderungen bei der Einführung von KI-Agenten nennen die Befragten Kosten (16 %), Bereitschaft der Belegschaft (13 %) und Reife der Technologie (12 %).
KI als zentraler Wachstumstreiber für globale Unternehmen
Über Agenten hinaus gilt KI insgesamt als wichtigster Motor für das Wirtschaftswachstum in 2026:
- Über zwei Drittel (67 %) der Befragten geben an, dass sich der ROI ihrer KI-Initiativen in diesem Jahr erhöht hat; mehr als die Hälfte (52 %) erwartet, dass KI im kommenden Jahr mehr zum Unternehmenswachstum beitragen wird als jede andere Technologie.
- Wenn es um messbare Verbesserungen durch KI geht, liegt Deutschland (78 %) zusammen mit Großbritannien (80 %) an der Spitze, gefolgt von den USA (71 %) und Frankreich (70 %). Japan verzeichnet mit 35 % deutlich niedrigere Werte, was auf langsamere Implementierungen und Bereitschaften hindeutet.
- Über die Hälfte der globalen Führungskräfte (51 %) rechnet damit, dass KI im kommenden Jahr mehr neue Rollen schafft als ersetzt. 52 % geben an, dass KI-Kenntnisse für die meisten Neueinstellungen vorausgesetzt werden.
KI-Sprachtechnologie entwickelt sich vom Werkzeug zur zentralen Infrastruktur
Die Studie zeigt zudem, wie KI-Sprachtechnologie zur entscheidenden Komponente der Unternehmensinfrastruktur wird:
- Fast zwei Drittel der globalen Unternehmen (64 %) planen 2026 steigende Investitionen in KI-Sprachtechnologie – angeführt von Großbritannien (76 %) und Deutschland (74 %), gefolgt von den USA (67 %) und Frankreich (65 %) werden mehrsprachige Kommunikation und Inhalte zu zentralen Faktoren für globales Wachstum. Im Gegensatz dazu bleibt Japan (38 %) vergleichsweise konservativ, was auf eine langsamere Dynamik hindeutet, gleichzeitig aber das wachsende Interesse von mehr als einem Drittel der Führungskräfte widerspiegelt.
In diesem Zusammenhang wird Echtzeit-Sprachübersetzung 2026 unverzichtbar:
- Über die Hälfte der globalen Führungskräfte (54 %) sieht Echtzeit-Sprachübersetzung im kommenden Jahr als unverzichtbar an – derzeit sind es ein Drittel (32 %).
- Großbritannien (48 %) und Frankreich (33 %) sind Vorreiter bei der Nutzung von Tools für die Echtzeit-Sprachübersetzung; Japan liegt derzeit nur bei 11 %.
- Die Nachfrage wird angetrieben von technologischen Fortschritten in der Echtzeit-Sprachübersetzung (46 %), Kundenerwartungen (40 %) und marktübergreifender Expansion (38 %).
Die Erkenntnisse der Studie liefern wichtige Einblicke in die Zukunft der KI und zeigen, wie diese Veränderungen Branchen umgestalten, Kundenerwartungen neu definieren und sich auf das Wettbewerbsumfeld auswirken.
GreenTech – der Boom geht zu Ende
Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.
Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.
Der Boom geht zu Ende
„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze. „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“
Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich. Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“
Herausforderungen im deutschen GreenTech-Sektor
Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte. Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“
Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit
„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“
Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“
Politik und Wirtschaft in gemeinsamer Verantwortung
Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“
Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.
HR-Trends 2026
Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.
Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.
Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.
1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise
Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.
2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?
Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360‑Grad‑Feedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.
3. Mensch und KI – zwei Seiten der HR-Medaille
2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.
4. Führung neu denken – Managementpositionen verlieren an Attraktivität
Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.
5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt
Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.
Fazit
Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.
Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

