Step-by-Step zum eigenen Podcast

Autor: Eric Hinzpeter
44 likes

Von der Planung bis zum Publishing deines Unternehmens-Podcasts: Wir zeigen die wichtigsten Erfolgsfaktoren und größten Fallstricke.

Podcasts haben sich in den letzten Jahren zu einem wichtigen Kommunikationsmedium entwickelt und gewinnen auch als Marketinginstrument im Unternehmenskontext immer mehr an Bedeutung. Sie bieten die Möglichkeit, Wissen und Expertise zu teilen, die Markenbekanntheit zu steigern und nicht zuletzt auch eine tiefere Verbindung zur Zielgruppe sowie zu potenziellen Mitarbeitenden aufzubauen.

Anders als viele Unternehmen glauben, eignen sie sich gerade nicht nur für Endkund*innenthemen, sondern sind gerade auch im B2B-Umfeld und in Branchen mit komplexen, nicht so leicht zu erklärenden Produkten und Dienstleistungen ein gutes Mittel der Kund*innenkommunikation. Nicht zuletzt eröffnet ein Unternehmens-Podcast (im Folgenden kurz Podcast) auch Potenzial beim Employer Branding und kann dazu beitragen, dem Fachkräftemangel entgegenzuwirken.

Doch was genau muss vor dem Start der Produktion eines Podcasts bedacht werden? Wie startet man ein solches Format? Und noch viel wichtiger: Wie hält man die Produktion langfristig durch und sorgt mit einer stringenten Vermarktung für organisches Wachstum bei den Hörer*innenzahlen?

Dieser Beitrag gibt einen umfassenden Überblick über die Schritte von der Planung bis zum Publishing und erläutert die Erfolgsfaktoren und Fallstricke.

Konzept und Zielsetzung: Passende Zielgruppenansprache ist entscheidend

Der erste Schritt bei der Erstellung eines Podcasts ist die Konzept­entwicklung und Zielsetzung. Unternehmen müssen in Kooperation mit Marketingleitung und Geschäftsführung festlegen, was sie damit konkret erreichen möchten – sei es die Stärkung der Markenbekanntheit, die Generierung von Leads oder Kund*innenbindung. Und sie sollten, am besten mithilfe entsprechender Personas, definieren, für wen sie das passende Format entwickeln. Eine präzise Zielgruppenanalyse ist hierfür ebenso unerlässlich wie das Verständnis dafür, dass Themen unterschiedlich in Formatwahl, Länge, Tonalität und Zielgruppenansprache angegangen werden können.

Bei der Formatwahl kann eine Mischung aus beispielsweise Interview, Solofolgen und Paneldiskussionen gewählt werden; wichtig ist die jeweils passende Herangehensweise an ein Thema, die das Unternehmen und seine Produkte vorteilhaft und kompetent erscheinen lässt. Nicht zuletzt ist ein einprägsamer und beschreibender Name für den Podcast wichtig, der Einzigartigkeit und Relevanz transportiert und die Marke optimal repräsentiert. Dieser sollte im besten Fall SEO-seitig gut zu bespielen sein.

Gründliche Planung und Vorbereitung sind entscheidend für den Erfolg eines Podcasts, ein Kick-off-Workshop und regelmäßige Themen-Meetings sind hierfür unerlässlich.

Der oder die Verantwortliche sollte eine Aufgabenteilung anstreben, die im Vorfeld Daten für Gästeansprache, Aufnahme, Postproduktion und Marketing sowie Publikation vorsieht – und mit Blick auf Urlaube und andere Abwesenheiten sollte für jedes Gewerk auch ein(e) Vertreter*in benannt sein, der oder die mit den grundlegenden Workflows vertraut ist.

Zunächst sollte eine Themenplanung vorgenommen werden, die mindestens die ersten sechs Monate umfasst, die dann jeweils für drei weitere Monate im Voraus plant und agil angepasst werden kann. Sinnvoll ist es dabei, Unternehmensereignisse wie anstehende Messen und Konferenzen sowie Produktlaunches und Saisonalitäten zu berücksichtigen. Für den Erfolg entscheidend ist aber auch, den Podcast nicht als Zweitverwertung oder Recyclingplattform zu verstehen, sondern „unique“ und exklusive Inhalte primär dafür zu produzieren. Bewährt hat sich in vielen Unternehmen auch die Herangehensweise, ein Thema erst inhaltlich zu entwickeln und in einem zweiten Schritt zu entscheiden, ob es Podcast-tauglich aufbereitet werden kann.

Für jede Podcast-Folge sollte eine klare Struktur und ein zumindest grober Ablauf festgelegt werden, um Konsistenz zu gewährleisten. In diesem Zusammenhang wird sich übrigens schnell herausstellen, ob die angedachte Frequenz sinnvoll und machbar oder zu ambitioniert ist. Klug ist es, mehrere Episoden im Voraus aufzunehmen, um eine kontinuierliche Veröffentlichung sicherzustellen und auf möglichst verlässliche Veröffentlichungstermine (etwa jeden ersten Freitag im Monat) zu setzen. Ein verbindlicher Veröffentlichungsplan ist wichtig, um regelmäßig neuen Content zu liefern – und weil die Hörer*innen im besten Fall schon auf die neue Folge warten.

Produktion und Technik: Einfache Handhabung und gute Qualität überzeugen

Eine hochwertige Ausrüstung, also gute Mikrofone und Kopfhörer, sowie eine geeignete Aufnahmesoftware und gegebenenfalls ein Mehrspurrecorder sind essenziell für eine hohe Audioqualität. Und die ist vor allem deswegen entscheidend, weil Podcasts meist nah am Ohr gehört werden. Professionelles Equipment ist gar nicht so teuer und komplex in der Handhabung. Bei der Auswahl bieten sich große Musikhändler*innen an, die meist über das nötige Know-how und die Beratungskompetenz rund um Aufnahmetechnik verfügen.

Als Software eignet sich unter anderem das seit Jahren bewährte Freeware-­Tool Audacity (für Windows) oder die bei Apple kostenfrei erhältliche Garage Band (für Mac). Diese Tools sind intuitiv in der Handhabung und gerade für den Anfang gut geeignet, weil sie alle fürs Podcasting relevanten Features besitzen. Aufwendigere und teure Schnittprogramme wie Adobe Audition und Reaper sind im Hinblick auf den Funktionsumfang und die Filter einen Blick wert; die Programme Ultraschall und Hindenburg Pro sind speziell auf die Bedürfnisse von Pocaster*innen zugeschnitten.

Wer Remote aufzeichnet, also die Gesprächspartner*innen an unterschiedlichen Orten sitzen hat, sollte im Hinblick auf die Tonqualität nicht auf eine Konferenzsoftware wie Zoom oder Teams setzen – auch weil dann lediglich eine Spur produziert wird, was die Postproduktion erschwert. Dienste wie Zencastr, Riverside.fm, Waveroom oder Studio-Link zeichnen hingegen lokal einzelne Spuren auf und führen diese erst im Nachgang in einer Cloud zusammen. Das erleichtert einerseits die Angleichung der Lautstärke zwischen den einzelnen Sprecher*innen und hilft andererseits bei der Qualitätsoptimierung in der Postproduktion.

Doch Professionalität ist nicht nur bei der Tonqualität, sondern auch bei den Sprecher*innen wichtig. Auch wenn man als Host für einen Podcast keine Sprecher*innenausbildung benötigt und (leichte) Dialektfärbung oder Akzent überhaupt nicht schadet, sollten Moderator*innen und Sprecher*innen auf Atemtechnik, Tempo (nicht zu schnell und nicht ablesen) sowie Aussprache und Satzmelodie achten. Sprechen im aufrechten Stehen schafft mehr stimmliches Volumen und wirkt selbst beim Hören souveräner.

Die Aufnahmeumgebung sollte ruhig und frei von Hintergrundgeräuschen sein, also möglichst wenig ablenkende Raum­informationen haben. Hier sollte auf unauffällige Raumakustik geachtet werden, die sich mithilfe von Akustikabsorbern und Noppenschaumstoffelementen optimieren lässt. Die Produktion eines Podcasts sollte im besten Fall „live on tape“ durchgeführt werden, sodass im Nachgang möglichst wenig geschnitten werden muss und die Dialoge dennoch lebendig wirken. Vorab durchgeführte Tests helfen, die optimale Audioqualität sicherzustellen. In der Bearbeitung sollten Füllwörter und Pausen herausgeschnitten sowie gegebenenfalls Musik und Jingles hinzugefügt werden. Ein einheitliches In- und Outro, das die Marke widerspiegelt, begrüßt und verabschiedet die Zuhörer*innen und sorgt für einen professionellen Rahmen für jede Episode.

Branding und Marketing: Konsistentes Konzept mit Wiedererkennungswert

Ein konsistentes audio-visuelles Konzept ist wichtig für den Wiedererkennungswert des Podcasts. Logos und Designelemente sollten ebenso wie Jingles und Musikelemente auf allen Plattformen einheitlich verwendet werden. Dabei macht es im Hinblick auf Kosten und im Interesse der Professionalität oftmals Sinn, solche dedizierten Teilgewerke an einen professionellen Dienstleister auszulagern, der solche Sounddesign­Elemente regelmäßig erstellt und ein gutes Ergebnis in einem Bruchteil der Zeit hinbekommen wird.

Eine durchdachte Marketingstrategie hilft dabei, den Podcast bekannt zu machen und eine Audience aufzubauen. Für das Marketing eignen sich die bestehenden Social-Media-Präsenzen und Newsletter, aber natürlich auch die Unternehmenswebsite und andere Kanäle. Partnerschaften oder Sponsoring können die Reichweite des Podcasts ebenso erhöhen wie gut vernetzte Mitarbeitende des Unternehmens, die zu Markenbotschafter*innen via LinkedIn und Co. werden. Unternehmen sollten zudem prüfen, ob Kooperationen sinnvoll sind und wie sie am besten umgesetzt werden können.

Distribution und Monitoring: Auf die Community kommt es an

Ein Podcast wird entweder auf jeder Distributionsplattform einzeln hochgeladen oder mithilfe einer Podcast-Hosting-­Plattform wie Podigee, Podbean, Letscast.fm oder Spotify for Podcasters bereitgestellt. In diesem Fall fungiert die Hosting-Plattform als Basis und die Podcast-Episoden werden über einen RSS-Feed verteilt, der auf verschiedenen Plattformen wie Spotify oder Apple Podcasts mit einer Feed-Adresse registriert wird.

Unternehmen sollten auf die dort mögliche Community-Pflege achten, also entsprechendes Feedback der Hörer*innen berücksichtigen. Denn Zuhörer*innenfeedback ist wertvoll. Unternehmen sollten aktiv um Rückmeldungen bitten und basierend auf diesem Feedback Anpassungen vornehmen. Analyse-Tools der Podcast-Plattformen helfen, Zuhörer*innenzahlen, Downloads und Engagement zu messen. Links sollten mit Link-Shortening-Anbieter*innen verkürzt und mit UTM-Parametern versehen werden, um den Erfolg besser messen zu können.

Basierend auf den gesammelten Daten und dem Feedback sollten Inhalte, Strategie und Veröffentlichungsplan kontinuierlich angepasst werden, um den Erfolg des Podcasts langfristig zu sichern. Auch wenn Podcasts vor allem von Stammhörer*innen gehört werden, kann die Optimierung der Beschreibungen mit relevanten Keywords die Auffindbarkeit verbessern. Auch die Nutzung von Hashtags kann dabei helfen, eine größere Zielgruppe zu erreichen.

Dennoch sind bei einem Podcast die Hörer*innenzahlen nicht ansatzweise mit denen eines populären Comedy-Formats oder „Laber-Podcasts“ vergleichbar – und die Zahlen im deutschsprachigen Raum aufgrund der Sprachbegrenzung auch nicht mit denen anderer Länder. Achte also darauf, dass du nicht Äpfel mit Birnen vergleichst. Umgekehrt heißt das aber, dass man durchaus auf Best Practice Cases aus vergleichbaren Branchen- und Markenumfeldern schauen kann, um sich beim Handwerkszeug einiges abzuschauen – etwa im Hinblick auf Kooperationen oder Brand Influencer*innen. Im Rahmen des Monitorings zeigt sich auch, welche aktuellen saisonalen Inhalte und Branchenthemen gut funktionieren.

Das Potenzial des Unternehmens-Podcasts nutzen und ausbauen

Podcasts bieten Unternehmen eine wertvolle Möglichkeit, ihre Marke nachhaltig mit Content zu stärken, Wissen zu teilen und eine tiefere Verbindung zur Zielgruppe aufzubauen. Mit einer sorgfältigen Planung, qualitativ hochwertiger Produktion und gezieltem Marketing kann ein Podcast zu einem erfolgreichen Kommunikationsinstrument werden. Doch all das erfordert gerade angesichts der wachsenden Konkurrenz einen langen Atem. Durch kontinuierliches Monitoring und Optimierung lässt sich der Erfolg langfristig sichern und ausbauen, wobei ein(e) externe(r) Berater*in wertvolle Insights bringen kann. Ein gut gemachter Podcast ist somit nicht nur ein Trend, sondern ein nachhaltiges Werkzeug in der modernen Unternehmenskommunikation.

Der Autor Eric Hinzpeter ist Content-Marketing-Experte bei Smarketer. Das Unternehmen ist im Bereich Performance Marketing in der DACH-Region tätig und unterstützt Unternehmen bei der Entwicklung professioneller Strategien für Google Ads und Microsoft Advertising Services.

Diese Artikel könnten Sie auch interessieren:

Die digitalen Erntehelfer: Deutschlands AgrarTech-Start-up-Szene 2026

Vom Nischentrend zum Rückgrat der Versorgung: Wie Start-ups die Landwirtschaft mit ihren Innovationen prägen.

Vor Jahren war „Grüne Agrartechnologie“ ein Schlagwort für Visionäre. Heute ist AgTech das Fundament einer krisenfesten Lebensmittelversorgung. In einer Welt geprägt von Extremwetter und strengen ESG-Regulierungen sind Start-ups längst keine experimentellen Ideenlieferanten mehr. Sie fungieren als systemrelevante Partner, die den Landwirt*innen helfen, den Spagat zwischen ökologischer Notwendigkeit und ökonomischem Überleben zu meistern.

Die Intelligenz kommt aufs Feld: Der Markt 2026

Der deutsche AgrarTech-Markt hat in den letzten zwei Jahren seine erste Reifephase abgeschlossen. Während man Anfang des Jahrzehnts noch über einfache Vernetzung sprach, ist künstliche Intelligenz heute der „Standard-Erntehelfer“. Eine aktuelle Analyse des Digitalverbands Bitkom und der DLG zeigt, dass fast die Hälfte aller deutschen Höfe bereits intensiv mit KI-Lösungen arbeitet – bei den Großbetrieben ist es sogar mehr als jeder zweite. Diese Entwicklung spiegelt sich auch in den Finanzströmen wider: KfW Research bezifferte das Investitionsvolumen in deutsche ClimateTech-Start-ups für das vergangene Jahr auf beeindruckende 1,3 Milliarden Euro. Besonders die Automatisierung und das Carbon Farming haben sich dabei von Trendthemen zu echten Geschäftsmodellen entwickelt, die den Landwirt*innen neue, CO2-basierte Einkommensquellen eröffnen.

Jenseits der Robotik: Die neuen Treiber der Agrarwende

Doch die Innovationen gehen 2026 weit über autonome Traktoren hinaus. Im Bereich Agri-BioTech entstehen biologische Pflanzenschutzmittel auf Basis von Mikroben (Biomineralisierung), die chemische Pestizide verdrängen – ein Feld, das von Pionieren wie Bind-X geebnet wurde. Parallel dazu hat die Agri-Photovoltaik den klassischen Flächenkonflikt zwischen Energie und Nahrung gelöst. Dank vertikaler Solarsysteme, wie sie Next2Sun marktreif gemacht hat, wächst das Getreide heute unter dem Schutz von Modulen, die gleichzeitig Strom produzieren. Auch im Stall sorgt LivestockTech für eine stille Revolution: KI-Kameras überwachen das Tierwohl in Echtzeit und senken den Antibiotikaeinsatz drastisch. Gleichzeitig hat sich Vertical Farming gesundgeschrumpft: Die neue Generation fokussiert sich profitabel auf Premium-Nischen wie Erdbeeren oder Medizinalpflanzen.

Lehrgeld und Lerneffekte: Der Reality Check

Dieser Boom war jedoch nicht ohne Opfer. Der Crash von Vertical-Farming-Pionieren wie Infarm dient heute als mahnendes Beispiel für eine ganze Branche. Diese Firmen scheiterten an explodierenden Energiekosten und einer zu komplexen Logistik für margenschwache Massenprodukte. Für Gründerinnen resultieren daraus klare Lektionen: Reine Software-Mentalität scheitert am Acker, wenn die Hardware nicht „landwirtschaftstauglich“ und extrem robust ist. Wer 2026 erfolgreich sein will, muss den „Schmutz-Faktor“ einplanen und Technologien entwickeln, die den Landwirtinnen einen sofortigen, messbaren ROI bieten. AgTech ist kein Lifestyle-Gadget mehr, sondern ein Werkzeug, das im Matsch, bei extremen Witterungen und trotz chronischer Funklöcher durch Edge-Intelligence bestehen muss.

Das deutsche Netzwerk: Hotspots mit Profil

Deutschland hat seine Stärke 2026 in einer einzigartigen Cluster-Struktur gefunden. In Osnabrück verschmilzt die Landtechnik-Industrie mit der KI-Forschung des DFKI zum „AgTech Valley“. München und Freising nutzen die Strahlkraft der TUM für DeepTech und Weltraum-Sensorik, während das Rheinland rund um Jülich zum Zentrum der Bioökonomie aufgestiegen ist. In Berlin schlägt das Herz der ESG-Finanzierung, während Stuttgart durch die Universität Hohenheim die wissenschaftliche Exzellenz bei der Sensorik hält. Die Achse Hannover-Göttingen wiederum nutzt die Messe-Macht der Agritechnica und Inkubatoren wie das RootCamp, um besonders im Bereich LivestockTech neue Maßstäbe zu setzen.

Wer sind die Investor*innen?

Die Finanzierung dieser Transformation ruht auf vier stabilen Säulen, wobei sich die Landschaft der Kapitalgeber massiv professionalisiert hat. Spezialisierte VCs wie Amathaon Capital oder der Green Generation Fund bringen das nötige Branchenwissen mit, während institutionelle Schwergewichte wie Point Nine, HV Capital oder Lakestar die technologische Skalierung finanzieren. Hinzu kommen Corporate VCs von Konzernen wie der BayWa oder KWS Saat, die den Start-ups den direkten Marktzugang zur Landwirtschaft ermöglichen.

Hinter den großen Fondskonstruktionen bewegen sich zudem die Business Angels als unverzichtbares Schmiermittel der frühen Phasen. Hier treffen Impact-Pionierinnen wie Christian Vollmann oder Verena Pausder auf eine neue Generation von „Founder-Angels“, die ihr Kapital nun in die planetare Gesundheit reinvestieren. Besonders spannend ist 2026 das Aufkommen von „Agri-Insider-Syndikaten“: Zusammenschlüsse erfahrener Landwirtinnen und mittelständischer Zulieferer, die über Netzwerke wie die Business Angels Region Stuttgart (BARS) oder Plattformen wie Companisto agieren.

Den Boden bereiten schließlich weiterhin Frühphasen-Motoren wie der HTGF und spezialisierte Acceleratoren wie das RootCamp, die das erste Risiko auf dem Weg vom Labor zum Feld tragen.

Zehn AgTech-Start-ups, die von sich reden machen

Die AgrarTech-Landschaft 2026 ist dynamischer denn je. Für unseren Report haben wir über 50 aktive deutsche Start-ups analysiert. Die Auswahl erfolgte nach einer gewichteten Matrix aus Marktrelevanz, technologischem Reifegrad, Sektor-Diversität und dem Vertrauen namhafter Investor*innen. Die folgende Liste bildet einen Mix aus etablierten „Leuchtturm-Projekten“ und hochspannenden Newcomern ab.

Klim (Berlin) – Die Pioniere des Carbon Farming

Gegründet im Jahr 2020 von Dr. Robert Gerlach, Nina Mannheimer und Adiv Maimon, hat sich Klim zum führenden Insetting-Marktplatz entwickelt. Das Geschäftsmodell basiert auf einer B2B-Plattform, über die Lebensmittelkonzerne für die Dekarbonisierung ihrer Lieferketten bezahlen. Klim nutzt diese Gelder als Prämie für Landwirte und macht regenerative Landwirtschaft so zertifizierbar. Mit einer kürzlich abgeschlossenen, gewaltigen Series-A-Finanzierung von 22 Millionen US-Dollar – angeführt von BNP Paribas – gilt das Team als absoluter Vorreiter für grüne Lieferketten in Europa.

Constellr (Freiburg) – Der Fiebermesser der Erde

Dieses Spin-off des Fraunhofer EMI wurde 2020 von Dr. Max Gulde, Marius Bierdel und Christian Mittermaier ins Leben gerufen. Constellr bietet „Data-as-a-Service“ an: Agrarkonzerne und Versicherer abonnieren hochpräzise Daten thermaler Infrarot-Mikrosatelliten. Der USP liegt in der weltweit einzigartigen Temperaturmessung der Erdoberfläche, die Trockenstress bei Pflanzen identifiziert, bevor er sichtbar wird. Dank einer massiven Series-A-Runde im Februar 2026 beläuft sich die Gesamtfinanzierung des Teams mittlerweile auf rund 75 Millionen Euro. Mit dem frischen Kapital von Lead-Investoren wie Lakestar und Alpine Space Ventures (sowie frühen Unterstützern wie Amathaon Capital) skaliert das Start-up seine Satellitendaten nun neben der Landwirtschaft auch hochprofitabel in den europäischen Verteidigungs- und Sicherheitssektor.

feld.energy (München) – Agri-PV neu gedacht

Das von Dr. Adrian Renner und Lukas Zels im Jahr 2022 gestartete Start-up feld.energy fungiert als Full-Service-Projektentwickler für Agri-Photovoltaik. Das Geschäftsmodell kombiniert für Landwirte eine risikofreie Flächen-Doppelnutzung mit einem lukrativen Pachtmodell: feld.energy plant, baut und betreibt die Anlagen, während die Höfe garantierte Pachteinnahmen erzielen. Landwirt*innen erhalten so einen unkomplizierten Zugang zu Systemen, die Strom und Ernte auf derselben Fläche ermöglichen. Im September 2025 sicherte sich das Team eine Seed-Runde von über 10 Mio. Euro unter der Führung von HV Capital, um den Rollout dieses Modells in Deutschland massiv zu beschleunigen.

Nature Robots (Osnabrück) – Autonomie ohne GPS

Dr. Sebastian Pütz, Sven Lake und Gerrit Woeckner gründeten Nature Robots 2022 als Spin-off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), um die Feldrobotik zu revolutionieren. Ihr Modell setzt auf Softwarelizenzierung: Die smarte KI-Navigation wird an Landmaschinenherstellerinnen lizenziert oder als Abo-Modell für Endkund*innen angeboten. Der technologische Durchbruch liegt in der 3D-Navigation für komplexe Umgebungen wie den Weinbau oder Agroforstsysteme, die komplett ohne GPS-Signal funktioniert. 2025 erhielt das Start-up eine gewaltige Förderung in Höhe von 6,5 Millionen Euro durch den EU EIC Accelerator.

Twogee Biotech (München/Martinsried) – Zirkuläre Biomasse

Als einer der jüngsten Player in der Liste starteten Frank Wallrapp und Helge Jochens 2024 Twogee Biotech. Ihr B2B-Modell umfasst die Produktion und Lizenzierung maßgeschneiderter Enzymlösungen zur Aufbereitung agrarischer Reststoffe. Sie industrialisieren zirkuläre Systeme, um aus Abfällen nachhaltige 2G-Rohstoffe (insbesondere Zucker) für die chemische Industrie zu generieren. Im Januar 2026 schloss das Team eine Seed-Finanzierung über 2,16 Mio. Euro ab, an der unter anderem der HTGF und Bayern Kapital beteiligt sind.

VetVise (Hannover) – KI für das Tierwohl

Das von Johannes Schmidt-Mosig, Jakob Wendt und Norman Caspari im Jahr 2020 gegründete Start-up nutzt Deep Learning zur Stall-Überwachung. Über ein „Hardware-enabled SaaS“-Modell zahlen Betriebe eine monatliche Abo-Gebühr für die KI-Auswertung installierter Kameras. VetVise  erkennt Krankheiten und Stress bei Schweinen und Geflügel rund um die Uhr, oft mehrere Tage bevor Symptome für den Menschen sichtbar sind. Das Start-up wird strategisch durch ein Millionen-Investment von LV digital (Landwirtschaftsverlag) unterstützt, um die internationale Skalierung voranzutreiben.

hexafarms (Berlin) – KI für Gewächshäuser

Gegründet 2021 von David Ahmed und Ilias Attici, optimiert hexafarms die Indoor-Produktion. Über ein B2B-SaaS-Modell abonnieren Gewächshausbetreiber*innen eine Software, die das Pflanzenwachstum exakt vorhersagt. Der USP liegt in der drastischen Reduktion von Ernteverlusten und einer Ertragssteigerung von bis zu 30 % durch präzise Algorithmen. Das Team konnte nach einer ersten Pre-Seed-Runde Ende 2025 eine signifikante Seed-Finanzierung über 6 Mio. Euro einsammeln, angeführt von Speedinvest, um die KI-gestützte Ernteprognose global zu skalieren.

Root Global (Berlin) – Das Betriebssystem für grüne Lieferketten

Eric Oancea und Maurice Hensl entwickelten 2022 das „RootOS“, ein B2B-SaaS-Modell für die Lebensmittelindustrie. Die Software berechnet den Product Carbon Footprint (PCF) vollautomatisiert und in Echtzeit – ein entscheidender Faktor, um die komplexen Scope-3-Emissionen vom Bauernhof bis zum Verkaufsregal transparent zu machen. Mit einer Seed-Runde von 8 Mio. Euro durch Point Nine Capital im August 2024 gilt Root Global heute als technisches Rückgrat für die ESG-Compliance großer Molkereien und Lebensmittelkonzerne.

vGreens (Essen) – Vertical Farming 2.0

Das Team um Dr. Maximilian Hartmann, Claas Ahrens, Dr. Stefan Hey und Dr. Caspar Krampe beweist seit 2022, dass Indoor-Farming technologisch und wirtschaftlich profitabel ist. Ursprünglich als Premium-Produzent gestartet, basiert das heutige B2B-Modell auf der Lizenzierung ihrer „vGreensLab“-Software und dem Verkauf automatisierter Industriemodule. Dank hocheffizienter KI-Klimamodelle und Hyperspektralkameras identifiziert das System den Bedarf jeder einzelnen Pflanze in Echtzeit. vGreens ist mehrfach ausgezeichnet, unter anderem mit dem NEXT GEN UNICORN Award, und skaliert seine Technologie aktuell über eine Tochtergesellschaft in Singapur auf den asiatischen Markt.

Hula Earth (München) – Biodiversität messbar machen

Florian Geiser und David Schmider starteten 2023 mit dem Ziel, Artenvielfalt quantifizierbar zu machen. Als „Data-as-a-Service“ bieten sie Unternehmen rechtssichere Biodiversitäts-Daten für das ESG-Reporting an. Ihr USP ist die Kombination aus eigenen „BioT“-IoT-Sensoren, Bioakustik zur Tierstimmen-Erkennung und Satellitendaten, um verifizierbare Biodiversitäts-Zertifikate zu ermöglichen. Ende 2024 sammelte Hula Earth eine Pre-Seed-Runde von 1,6 Mio. Euro unter der Führung von Point Nine Capital ein, um die weltweit erste Echtzeit-Plattform für Natur-Investments zu skalieren.

Der Blick über den Tellerrand

Abschließend zeigt der Blick ins Ausland, was uns morgen erwartet. In Israel und Kalifornien wird WaterTech durch KI-gesteuerte Smart-Irrigation zur Präzisionsdisziplin erhoben, während in den USA die Genschere CRISPR nach der neuen EU-NGT-Regulierung nun auch in Europa für einen Milliardenmarkt bei klimaresilientem Saatgut sorgt. In Indien boomen Smart-Contract-basierte parametrische Versicherungen, die bei Dürre-Ereignissen automatisiert via Satellitendaten auszahlen, und Singapur treibt die Precision Fermentation voran, um hochwertige Proteine und Fette ressourcenschonend in Bioreaktoren zu brauen.

Fazit: AgTech ist erwachsen geworden

Der Agrar-Sektor ist 2026 das Epizentrum der Climate-Tech-Bewegung. Die Gewinner*innen sind jene, die robuste Hardware mit intelligenter Software und tiefer Biotechnologie kreuzen. Die „Grüne Agrartechnologie“ ist kein bloßes Versprechen mehr – sie ist die hocheffiziente, datengetriebene Realität unserer Ernährungssicherung.

50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert

Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.

Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.

Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.

Vom Side-Project zur modularen Architektur

Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.

Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.

Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.

Das Open-Core-Modell auf dem Prüfstand

Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.

Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.

Im Haifischbecken der Tech-Giganten

In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.

Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.

Lektionen für die Start-up-Szene

Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.

Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.

Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.

Zwischen Hausaufgaben und Datenschutz: Der mutige B2C-Vorstoß von innoGPT

Die Inno KI GmbH aus Vechta öffnet ihre bisher auf Geschäftskunden ausgerichtete KI-Plattform nun für Familien. Mit einem neuen "Family Package" wollen die Gründer Mike Koene und Maurice Brumund das Problem des Datenschutzes bei der KI-Nutzung von Jugendlichen lösen. Ein cleverer Schachzug in eine unbesetzte Nische – oder ein schwieriges B2C-Geschäftsmodell mit hoher Preishürde?

Die Zahlen der jüngsten JIM-Studie (Jugend, Information, Medien) sprechen eine deutliche Sprache: 70 Prozent der Jugendlichen nutzen Künstliche Intelligenz zur Informationssuche, 74 Prozent lassen sich bei den Hausaufgaben helfen. Die Kehrseite dieser rasanten Adaption: Die Nutzung erfolgt zumeist über die kostenlosen Web-Versionen von US-Giganten wie OpenAI oder Google. Sensible Daten – von persönlichen Fragen bis zu hochgeladenen Schuldokumenten – fließen oft ungefiltert in die globalen Trainingsdatenbanken der Anbieter, sofern nicht manuell widersprochen wird.

Während die Politik über Social-Media-Verbote für Minderjährige debattiert, bleibt der regulatorische blinde Fleck bei KI-Tools im Kinderzimmer bislang bestehen. Genau in diese Lücke stößt nun das niedersächsische Start-up Inno KI GmbH mit seiner Plattform innoGPT.

Von der Agentur zum KI-Aggregator

Hinter innoGPT steht kein klassisches, VC-finanziertes Silicon-Valley-Konstrukt, sondern mittelständischer Pragmatismus aus Vechta. Co-Founder Maurice Brumund und sein Team begannen bereits 2022 im Umfeld einer eigenen Digitalmarketing-Agentur, intensiv mit KI-Tools zu experimentieren.

Aus dem internen Pain Point – der Frage, wie Mitarbeitende rechtssicher und datenschutzkonform mit großen Sprachmodellen (LLMs) arbeiten können – entstand Ende 2024 die Plattform innoGPT. Bisher lag der Fokus des Startups strikt auf dem B2B-Segment: Mit rein europäischem Hosting, DSGVO-Konformität und einer Zero-Retention-Policy (keine Nutzung der API-Daten für das Modell-Training) positionierte sich innoGPT als Lösung gegen die „Schatten-IT“ in Unternehmen. Laut Unternehmensangaben nutzen bereits über 2.500 Privat- und Geschäftskund*innen den Service. Nun folgt die Ausweitung des Geschäftsmodells auf den B2C-Markt.

Das Produkt: Ein "Safe Space" für die Familie

Mit dem neuen „Family Package“ erhalten bis zu fünf Familienmitglieder für 34,90 Euro im Monat individuelle Logins zu einer zentralen Plattform. Über diese können sie gebündelt auf verschiedene führende KI-Modelle von OpenAI, Anthropic, Google, Meta, Mistral und Black Forest Labs zugreifen. Ein zusätzlich buchbares Add-on filtert persönliche Daten (Named Entity Recognition) wie Namen oder E-Mail-Adressen und ersetzt diese vor der Übermittlung an die Rechenzentren automatisch durch Platzhalter.

Das Geschäftsmodell und der Markt

Aus Start-up-Sicht ist der Vorstoß von B2B-SaaS in ein Family-Abo-Modell gleichermaßen spannend wie riskant. Eine kritische Analyse offenbart dabei mehrere Marktherausforderungen:

  • Der technologische Burggraben (Moat): Das Geschäftsmodell von innoGPT ist im Kern ein Aggregator- oder Wrapper-Modell. Das Start-up entwickelt keine eigenen Foundation-Modelle, sondern baut eine sichere, europäische Middleware-Schicht über die Schnittstellen (APIs) der Tech-Giganten. Der technologische Burggraben ist folglich eher niedrig. Der primäre Unternehmenswert liegt in der User Experience, der reibungslosen Modellanbindung und dem abstrakten Vertrauensfaktor „Datenschutz“.
  • Zahlungsbereitschaft: 34,90 Euro im Monat (knapp 420 Euro im Jahr) sind für ein klassisches Familienbudget eine erhebliche Summe. Der Preis entspricht fast den Kosten von anderthalb ChatGPT-Plus-Lizenzen. Die zentrale Herausforderung für das Marketing wird sein: Sind Eltern bereit, für den Schutz der Daten ihrer Kinder diesen Premium-Aufschlag zu zahlen, während der Nachwuchs die Basis-Tools de facto kostenlos und mit einem Klick auf dem Smartphone nutzen kann?
  • Token-Ökonomie in der Praxis: Das Modell sieht einen geteilten Token-Pool für die fünf Accounts vor. In der Praxis könnte dies zu Reibereien führen, wenn beispielsweise ein Familienmitglied rechenintensive Bildgenerierungen (etwa über Black Forest Labs) durchführt und das Kontingent für die Text-Prompts der restlichen Familie vorzeitig aufbraucht.
  • Wettbewerbslandschaft: InnoGPT bewegt sich in einem Sandwich-Markt. Von oben drohen die direkten B2C-Angebote der Tech-Riesen (es ist absehbar, dass OpenAI oder Google eigene „Family Plans“ ausrollen). Von der Seite drücken EdTech-Start-ups in den Markt, die KI DSGVO-konform direkt in die Lernplattformen der Schulen integrieren – was eine private Familienlizenz obsolet machen könnte.

Ein mutiger Testballon

Für das Start-up-Ökosystem ist die Inno KI GmbH dennoch ein Paradebeispiel für „bootstrapped“ Innovationskraft. Anstatt ein Produkt am Reißbrett zu entwerfen, hat das Team ein valides Angebot aus einem eigenen betrieblichen Schmerz heraus entwickelt.

Der Vorstoß in den B2C-Markt wirkt wie ein smarter, PR-wirksamer Testballon. Das Start-up greift eine hochaktuelle, emotionale gesellschaftliche Debatte auf (Jugendschutz bei KI) und besetzt rhetorisch geschickt die Rolle des Problemlösers. Ob sich das Family-Modell finanziell trägt, hängt letztlich davon ab, ob innoGPT den trockenen Begriff der „DSGVO-Konformität“ für Eltern emotional so aufladen kann, dass er als unverzichtbare Sicherheitsmaßnahme wahrgenommen wird. Gelingt dies nicht, ist das Risiko überschaubar: Das Start-up kann sich nahtlos wieder auf sein wachsendes B2B-Kerngeschäft konzentrieren.

KI-Müdigkeit im Team? Warum Friction-Maxxing jetzt die Antwort ist

Nach all der Euphorie über KI-Tools macht sich bei immer mehr Menschen eine gewisse KI-Müdigkeit breit. Die Technologie hat die Arbeitswelt im Sturm erobert – doch in Unternehmen wachsen die Zweifel: Macht KI wirklich alles einfacher oder trägt sie sogar zu sinkendem Engagement bei? Dr. Arne Sjöström von Culture Amp erklärt, warum Unternehmen jetzt auf Friction-Maxxing setzen sollten.

Friction-Maxxing ist ein Trend aus dem Lifestyle-Bereich, der jedoch auch großes Potenzial für die Arbeitswelt und den strategischen Einsatz von KI in Unternehmen hat. Gemeint ist damit ein Verhalten, bei dem man bewusst mehr kleine Hindernisse und Hürden in Arbeitsprozessen akzeptiert.

Der große Vorteil: Durch eine bewusste Verzögerung wird das Urteilsvermögen geschärft, das Engagement vertieft und die mentale Resilienz der Mitarbeitenden gestärkt.

Friction-Maxxing als Gegengewicht zur KI-Dominanz

Insbesondere für Führungskräfte und das mittlere Management bietet Friction-Maxxing die Möglichkeit, produktive Reibung in Entscheidungsprozesse zurückzubringen. Durch die Rückkehr zu mehr persönlichen Begegnungen und analogen Arbeitsabläufen entstehen Dinge, die in digitalen Formaten schlicht verloren gehen:

  • Konzentrierte Aufmerksamkeit.
  • Psychologische Sicherheit.
  • Wichtige nonverbale Signale.

Persönliche Begegnungen ermöglichen einen konstruktiven Austausch und helfen Teams dabei, ein gemeinsames Verständnis von Qualität zu entwickeln. Am Ende geht es nicht darum, unnötige Hürden aufzubauen, sondern das richtige Maß an „Reibung“ zu gestalten: Analoges für einen besseren Umgang mit Ambiguität, Kreativität und richtungsweisenden Entscheidungen – Digitales für die Umsetzung.

Fokus und Sinnhaftigkeit zurückerobern

Positive Reibung kann als dringend benötigtes Gegengewicht zur KI-getriebenen Beschleunigung in der Arbeitswelt fungieren und den Fokus wiederherstellen. Sei es durch das gründliche, manuelle Überdenken eines Briefings oder den bewussten Wunsch nach persönlichem Austausch anstelle eines asynchronen Chats. Wer sich Zeit zum Denken, Begegnen und Gestalten zurückerobert, ermöglicht es Teams, sich wieder mit ihrem eigentlichen Auftrag und ihren Ansprüchen zu verbinden – Qualitäten, die KI-Automatisierung allein niemals erreichen kann.

Dieses geänderte Verhalten führt zu mehr Präsenz, weniger Angst und einem gestärkten Gefühl der Kontrolle. Der bewusst gewählte, nur scheinbar umständlichere Weg kann somit zu mehr Autonomie und tieferer Zufriedenheit am Arbeitsplatz beitragen.

Ein Plädoyer für intentionale Reibung

Die Aufgabe moderner Führungskräfte ist es daher, bei menschenzentrierten Tätigkeiten ganz bewusst sogenannte intentionale Reibung herbeizuführen und KI parallel dazu zu nutzen, den täglichen administrativen Arbeitsaufwand zu minimieren.

Unternehmen müssen klar benennen, wo KI ihre Stärken hat und eingesetzt werden soll – und wo menschliche Fähigkeiten wie Empathie, Urteilsvermögen und kritisches Denken absolut unersetzlich sind. So gibt man Mitarbeitenden die Möglichkeit, sich auf die Arbeit zu konzentrieren, die wirklich zählt und echten Mehrwert schafft.

Friction-Maxxing ist somit weniger ein Plädoyer gegen die Technologie, sondern vielmehr ein Aufruf zur Intentionalität: Dem bewussten Abwägen darüber, wann Prozesse automatisiert werden sollten und wann gerade der Widerstand den entscheidenden Unterschied machen kann.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp. Sein Schwerpunkt liegt in der Organisationspsychologie und der angewandten Forschung.

Aiconiq.io: Das KI-Gehirn für den Mittelstand – Brillante Vision oder teure Manufaktur?

Autonome Agenten, halbierte Prozesskosten und sicheres Daten-Hosting: Mit Aiconiq.io tritt ein Start-up an, um das KI-Gehirn für den Mittelstand zu bauen. Wir wollten wissen, wie das „Corporate Brain“ funktioniert und wo die Herausforderungen bei der Skalierung liegen.

Hinter der Aiconiq GmbH stehen zwei ausgewiesene Branchenexperten. Gegründet wurde das Start-up 2025 von Prof. Dr. Peter Gentsch, einem bekannten KI-Pionier und Seriengründer, sowie dem KI-DeepTech-Experten Dr. Michael Patrushev. Gemeinsam bringen sie jahrzehntelange Erfahrung aus der KI-Forschung, im internationalen Engineering und beim Skalieren technologiegetriebener Unternehmen in ihr neues Projekt ein.

Mehr als nur ein Chatbot

Dass hier DeepTech-Experten am Werk sind, zeigt sich am technologischen Anspruch: Während viele Firmen mit generischen Chatbots experimentieren, integriert Aiconiqs Corporate Brain laut Unternehmensangaben nicht nur explizites, sondern gezielt das implizite Wissen (Tacit Knowledge) der Belegschaft. Erfasst wird dies durch KI-gesteuerte Interviews. Um Halluzinationen und subjektiven Fehleinschätzungen vorzubeugen, setzt Co-Gründer Michael Patrushev auf harte Validierung: „Die KI stellt keine offenen, spekulativen Fragen, sondern kontextualisierte, prozessbezogene Fragen entlang realer Use Cases.“

Nach einem Abgleich mit ERP-Logs und Experten-Kreuzvergleichen speichere das System keine absoluten Wahrheiten, so Patrushev, sondern „gewichtete Wissenselemente mit Vertrauens-Score und Quellenreferenz“. Gerade dieses subjektive Erfahrungswissen sei im Unternehmensalltag entscheidend, müsse aber umsichtig geprüft werden.

David gegen die Tech-Goliaths

Im hart umkämpften Markt stellt sich die Frage, wie lange das Start-up gegen die Milliarden-Budgets von Microsoft oder OpenAI bestehen kann. Prof. Peter Gentsch gibt sich pragmatisch: „Wir kämpfen nicht gegen die Hyperscaler wie OpenAI, Google oder Anthropic – wir nutzen sie.“ Das eigene System setze horizontal auf den bekannten Modellen auf. Der Burggraben entstehe durch branchenspezifische Use Cases in einer sicheren, DSGVO-konformen Umgebung, wahlweise on-premises oder in einer europäischen Cloud.

Gentsch pointiert: „Wir wollen nicht das größte Gehirn bauen; wir bauen das relevanteste Brain für ein Unternehmen. Die Tech-Giganten optimieren Skalierung – wir optimieren den Unternehmens-Kontext.“

Skalierung: Softwareprodukt oder Manufaktur?

Die schnelle Entwicklung der eigenen Modelle sichert Aiconiq durch die interne „Aiconiq Factory“ ab, die auf radikale Automatisierung setzt. Kontrollverlust fürchtet Patrushev dabei nicht: „Geschwindigkeit ersetzt bei uns nicht Qualität – sie wird durch Qualitätssicherungssysteme ermöglicht.“ Jeder KI-generierte Code durchlaufe strenge Security-Checks und Test-Pipelines.

Doch lässt sich das aufwendige Einfangen von Unternehmenswissen beim Kunden ebenso reibungslos skalieren, oder droht Aiconiq in einem beratungsintensiven Manufaktur-Modell steckenzubleiben? Gentsch wehrt ab: Man nutze KI, um KI im Unternehmen aufzubauen. Algorithmen deckten Inkonsistenzen im Wissen automatisch auf und lösten sie teils selbständig. Ganz ohne menschliches Zutun gehe es aber nicht, räumt der Gründer ein: „Damit bleibt immer ein wenig Manufaktur bzw. ‚Human in the loop‘.“

Ausblick

Mit einer aktuellen Bewertung von 10 Millionen Euro und der Aufnahme ins „German Accelerator USA-Programm“ hat Aiconiq.io nach eigenen Angaben bereits namhafte DAX-Konzerne überzeugt. Gelingt es den Frankfurtern nun, die komplexe Wissensextraktion weiter zu standardisieren, könnte sich ihr „Corporate Brain“ als eine treibende Kraft der „industriellen KI-Revolution“ aus Deutschland etablieren.

StartingUp-DeepTech-Watchlist 2026

Von „German Engineering“ zu „German DeepTech“: Diese jungen Start-ups und Scale-ups zünden 2026 die nächste Stufe – und sollten zwingend auf dem Radar von Investor*innen und Entscheider*innen stehen.

„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen.“ Dieser Ausspruch unterstreicht die Herausforderung, die Dynamik unseres Start-up-Ökosystems vorherzusagen. Doch wer 2025 aufmerksam verfolgt hat, der spürt: Es hat sich etwas gedreht. Der Investor*innenfokus hat sich verschoben – weg von reinen E-Commerce-Modellen, hin zu substanzieller Technologie, die echte physikalische Probleme löst.

Die folgende Auswahl an Start-ups und Scale-ups, mit denen 2026 gerechnet werden sollte, ist mehr als eine Watchlist. Sie basiert auf einer Analyse der signifikanten Finanzierungsrunden 2025, der technologischen Reife und der Resonanz bei bedeutenden Preisen. Diese Unternehmen stehen beispielhaft für eine Gründer*innengeneration, die Wissenschaft und Skalierung vereint. Natürlich bleibt ein Restrisiko. Unwägbarkeiten – von geopolitischen Instabilitäten über regulatorische Verschärfungen wie dem EU AI Act bis hin zu volatilen Zinsmärkten – können die nahe Zukunft beeinflussen. Doch die Resilienz dieser Unternehmen stimmt optimistisch.

DefenseTech: Die neue Realität der Sicherheit

Lange war Verteidigungstechnologie in Deutschland ein Tabuthema für Risikokapitalgeber. Das hat sich grundlegend geändert. Ganz oben auf der Watchlist steht neben dem Münchner Start-up Helsing nun das 2024 gegründete Black Forest Labs. Das Geschäftsmodell ist faszinierend, weil es die Grenzen zwischen kreativer Zerstörung und Sicherheitstechnologie verwischt. Es basiert auf der Entwicklung proprietärer State-of-the-Art-Modelle für generative Videoerzeugung. Nach einer spektakulären 300-Mio.-USD-Runde im Dezember 2025 katapultierte sich die Bewertung auf satte 3,25 Milliarden USD. Das Start-up ist damit Deutschlands wertvollste KI-Firma und beweist, dass Europa bei Generative AI den Anschluss nicht verloren hat. Der globale Siegeszug deutet sich 2026 unter anderem in einem mehrjährigen Vertrag mit Meta sowie in Kooperationen mit US-Plattformen wie X und Hollywood-Studios an, die Produktionskosten senken wollen. Mitgründer Robin Rombach prognostizierte im Sifted-Podcast: „2026 wird generative Video-KI zum industriellen Standard in der Medienproduktion.“ Doch auch bei der Simulation für Sicherheitsszenarien spielt die Technologie eine wachsende Rolle.

Ein weiterer Schlüsselakteur ist Stark Defence. Das 2024 gegründete Münchner Start-up adressiert eine Lücke der modernen Kriegsführung: asymmetrische Bedrohungen. Stark Defence fokussiert sich auf softwaredefinierte, autonome Drohnensysteme, die „on the edge“ entscheiden und nicht auf ständige Funkverbindung angewiesen sind. Dass das Start-up durch seine KI-Schwarmtechnologie massiv an Bedeutung gewinnen wird, hat sich Ende Februar 2026 eindrucksvoll bestätigt: Der Haushaltsausschuss des Bundestages gab einen Auftrag über 540 Millionen Euro für Kampfdrohnen frei, den sich Stark Defence (Modell „Virtus“) und das nach einer Mega-Runde im Sommer 2025 mittlerweile mit 12 Milliarden Euro bewertete Münchner Unicorn Helsing (Modell „HX-2“) teilen. Um diese rasante Skalierung zu stemmen, hat Stark Defence kürzlich das Berliner Software-Start-up Pleno übernommen und eine neue Serienfertigung im britischen Swindon eröffnet. Mitgründer Florian Seibel dazu: „Unser Ziel für 2026 ist die erste vollautonome Verteidigungslinie für Europa.“

Cyber Security Report 2026

Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.

Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.

Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.

Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten

Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.

Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.

Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil

Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.

Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.

Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken

Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.

IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.

Fazit

Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.

Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?

Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:

  1. Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
  2. Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
  3. Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
  4. Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.

Prämierter Gründungsgeist an der Uni

Elf Mainzer Studierende wurden für ihren Beitrag bzw. ihr Engagement zum regionalen Technologietransfer als treibende Kraft des Rhein-Main-Ökosystems geehrt.

Um ein dynamisches Start-up-Ökosystem aufzubauen, braucht es nicht nur Kapital und Forschung, sondern vor allem eine aktive Basis an den Hochschulen. Für ihren Beitrag zum regionalen Technologietransfer wurden am 5. März 2026 an der Johannes Gutenberg-Universität Mainz (JGU) elf Studierende ausgezeichnet. Die rheinland-pfälzische Wirtschaftsministerin Daniela Schmitt überreichte die Ehrung gemeinsam mit Prof. Dr. Stefan Müller-Stach, Vizepräsident der JGU, und Charlie Müller, Founder & Managing Director von Futury.

Struktureller Aufbau statt reiner Theorie

Die prämierten Studierenden engagieren sich primär im Umfeld des Entrepreneurs Club Mainz (ECM) sowie der studentischen Gründungsinitiative LAUNCH Rhein-Main, die heute hochschulübergreifend in Mainz, Frankfurt und Darmstadt aktiv ist. Sie wurden dafür geehrt, Start-up-Strukturen auf dem Campus nachhaltig zu institutionalisieren und das regionale Ökosystem entscheidend voranzubringen. Zu den wesentlichen, von den Studierenden mitgestalteten Meilensteinen des vergangenen Jahres zählen:

  • Akademische Integration: Erstmals können sich Studierende an der JGU ihr Engagement über das Zertifikatsprogramm Entrepreneurship mit ECTS-Punkten auf das Studium anrechnen lassen.
  • Sichtbarkeit: Die Durchführung zweier Demo Days bot eine Bühne für 24 Startup-Pitches vor mehr als 350 Teilnehmenden.
  • Ökosystem-Finanzierung: Beim „Tag der Metropolregion“ sicherten sich die Initiativen 10.000 Euro Preisgeld für den weiteren Ausbau des studentischen Gründungsnetzwerks.
  • Talententwicklung: Mit der „LAUNCH Talent Forge“ wurde ein neues Leadership-Programm für die nächste Generation studentischer Führungskräfte etabliert.
  • Praxis-Validierung: Der Start der „Venture Labs“ ermöglichte Teams in der Frühphase die Teilnahme an Hackathons und einem fünfwöchigen Validation Track.

Zentraler Baustein einer bundesweiten Strategie

Die Relevanz dieser studentischen Basisarbeit zeigt sich im größeren wirtschaftspolitischen Kontext der Region. Das in Frankfurt am Main ansässige Innovationsnetzwerk Futury, einer der Initiatoren der Auszeichnung, gilt als Europas führendes industriegetriebenes Startup-Ökosystem. Getragen wird Futury von einer Allianz aus 33 Partnern aus Unternehmen und Stiftungen sowie vier Hochschulen: der Frankfurt School of Finance & Management, der Goethe-Universität Frankfurt, der TU Darmstadt und der JGU.

Das erklärte Ziel des Ökosystems ist es, den Transfer wissenschaftlicher Exzellenz in den Markt zu strukturieren, sodass daraus bis zum Jahr 2030 rund 1.000 neue Startups entstehen. Dafür wird Futury als eine von bundesweit zehn Startup Factories mit bis zu 10 Millionen Euro aus dem Bundeshaushalt gefördert.

In diesem Zusammenhang betonte Wirtschaftsministerin Schmitt, dass die Gründungskultur an den Hochschulen beginnen müsse. Eine frühe Berührung mit unternehmerischem Handeln sei essenziell, um Innovationen in Zukunftsfeldern wie Life Sciences, künstlicher Intelligenz und DeepTech zu fördern. Auch JGU-Vizepräsident Müller-Stach ordnete die Auszeichnung in die übergeordnete Transferstrategie der Universität ein: Es bedürfe eines Kulturwandels, um wissenschaftliche Erkenntnisse gezielt in gesellschaftlichen Impact und unternehmerische Lösungen – etwa für die Gesundheitsversorgung oder mehr Nachhaltigkeit – zu übersetzen.

Infokasten: Die exist-Programme des Bundes

Das Programm exist ist die zentrale Initiative des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) zur Förderung von Existenzgründungen aus der Wissenschaft. Es wird teilweise durch den Europäischen Sozialfonds (ESF) kofinanziert und zielt darauf ab, das Gründungsklima an Hochschulen und außeruniversitären Forschungseinrichtungen zu verbessern.

Die wichtigsten exist-Fördersäulen im Überblick:

  • exist-Gründungsstipendium: Richtet sich an Studierende, Absolventen und Wissenschaftler. Es unterstützt die Vorbereitungsphase der Unternehmensgründung für maximal ein Jahr, um einen tragfähigen Businessplan auszuarbeiten und das Produkt oder die Dienstleistung zur Marktreife zu bringen. Neben der Sicherung des Lebensunterhalts werden Sach- und Coachingmittel bereitgestellt.
  • exist-Forschungstransfer: Fördert besonders anspruchsvolle, forschungsbasierte Gründungsvorhaben (DeepTech), die mit aufwändigen und risikoreichen Entwicklungsarbeiten verbunden sind. Das Programm ist in zwei Phasen unterteilt: Phase I (Nachweis der technischen Machbarkeit und Businessplan-Erstellung) und Phase II (Unternehmensgründung und Vorbereitung einer externen Unternehmensfinanzierung).
  • exist-Women: Eine spezifische Förderlinie, die gezielt darauf ausgerichtet ist, gründungsinteressierte Frauen an Hochschulen zu unterstützen und den Anteil von weiblichen Gründerinnen im Start-up-Ökosystem nachhaltig zu erhöhen.
  • exist Startup Factories: Im Rahmen dieses Leuchtturmwettbewerbs fördert der Bund überregionale, hochprofessionelle Gründungszentren (wie Futury). Diese Factories agieren als eigenständige Unternehmen und binden gezielt private Investoren sowie etablierte Unternehmen ein, um deutsche Start-up-Ökosysteme auf internationales Spitzenniveau zu heben.

Der Milliarden-Coup: Wie Neura Robotics zur globalen KI-Macht aufsteigen will

Nach unserer Coverstory über Gründer David Reger und der 120-Millionen-Euro-Finanzierung im Januar 2025, zündet das Metzinger Robotik-Start-up Neura Robotics nun offenbar die nächste Stufe. Mit einer kolportierten Bewertung von 4 Milliarden Euro und dem Krypto-Giganten Tether als Investor greift das Unternehmen im globalen Haifischbecken der Humanoiden nach der Marktführerschaft.

Es war absehbar, dass die 120 Millionen Euro aus der Series-B-Runde nur das Warm-up waren. Laut übereinstimmenden Medienberichten (unter anderem von Bloomberg und der Financial Times) steht Neura Robotics vor dem Abschluss einer gigantischen Finanzierungsrunde in Höhe von rund 1 Milliarde Euro (ca. 1,2 Milliarden US-Dollar). Damit würde sich die Unternehmensbewertung auf etwa 4 Milliarden Euro katapultieren. Neura stiege somit endgültig in die absolute Top-Liga der europäischen Tech-Einhörner auf. Das Unternehmen selbst wollte die Berichte auf Nachfrage bislang nicht kommentieren.

Krypto-Milliarden für DeepTech: Der Tether-Faktor

Was diesen Deal in der Tech-Welt so einzigartig macht, ist die Herkunft des Kapitals. Angeführt wird die Runde laut den Berichten von der Tether Holdings SA, dem Emittenten des weltweit größten Stablecoins. Das ist kein Zufall, sondern Teil einer strategischen Neuausrichtung: Tether nutzt seine enormen Krypto-Gewinne (allein in den ersten drei Quartalen 2025 über 10 Milliarden Dollar), um ein „Real-World“-Portfolio aufzubauen – von KI-Rechenzentren über Energie bis hin zu zukunftsweisender Robotik. Für Neura würde das den Zugang zu einem extrem liquiden Investor bedeuten, der bereit ist, die kapitalintensive Skalierung von Hardware langfristig zu stützen.

Das globale Haifischbecken: Metzingen gegen das Silicon Valley

Dieses Kapital ist bitter nötig, denn der Markt für humanoide und kognitive Robotik wird aktuell massiv von US-Hyperscalern und chinesischen Speedbooten befeuert. Auf der einen Seite steht Elon Musk mit Tesla Optimus und enormer Skalierungsmacht. Auf der anderen Seite agieren hochfinanzierte US-Start-ups wie Figure AI, die mit Milliarden von Microsoft und dem KI-Gehirn von OpenAI ausgestattet sind. Hinzu kommen chinesische Hersteller wie Unitree, die mit staatlicher Förderung extrem günstige Modelle auf den Markt werfen.

In diesem Milliarden-Rennen positioniert sich Neura Robotics als europäische Speerspitze. Das Unternehmen liefert einen technologischen Gegenentwurf, der Kunden wie Kawasaki Heavy Industries und Omron bereits überzeugt hat – laut CEO David Reger liegen die Auftragsbücher bei einem Volumen von fast 1 Milliarde US-Dollar.

Der Burggraben: Wie sich Neura Robotics positioniert

Um gegen die Tech-Giganten zu bestehen, setzt das Start-up auf einen technologischen Burggraben. Mit diesen Alleinstellungsmerkmalen will sich Neura von der Konkurrenz abheben:

  • „Physical AI“ statt umgebauter Chatbots: Während viele Konkurrenten textbasierte KI-Modelle nachträglich in Roboter integrieren, betont Neura, seine KI von Grund auf für die physische Welt gebaut zu haben. Die Roboter verfügen über ein multisensorisches System: Sie sehen in 3D, sollen Sprache im Fabriklärm erkennen und durch haptisches Feedback ein echtes "Fingerspitzengefühl" besitzen.
  • Sicherheit ohne Käfige: In traditionellen Fabriken arbeiten Roboter hinter teuren Schutzzäunen. Neuras Modelle verfügen über eine patentierte Sensorik (Touchless Safe Human Detection). Sie sollen Menschen in Echtzeit erkennen, berührungslos stoppen oder ausweichen. Dadurch können Mensch und Maschine ohne teure Fabrikumbauten direkt im selben Raum arbeiten.
  • Die Plattform-Strategie: Das Start-up baut nicht nur einen Roboter. Die kognitive KI fungiert als Betriebssystem, das in verschiedene Hardware-Formen gegossen wird – sei es der Humanoide 4NE-1 oder der hochpräzise kognitive Cobot MAiRA. Die Idee: Macht ein Roboter im Netzwerk einen Fehler, lernen alle anderen weltweit daraus. Ein Ökosystem, das zudem durch strategische Partnerschaften mit Giganten wie Nvidia und Schaeffler gestützt wird.
  • Fokus auf Datensouveränität: Von der KI über die Steuerungssoftware bis hin zu den Sensoren entwickelt Neura Kernkomponenten im eigenen Haus. Dieser "Made in Germany"-Ansatz garantiert aus Unternehmenssicht höchste Datensicherheit. Für westliche Industrieunternehmen ist das ein massives Argument gegenüber asiatischen oder US-amerikanischen Herstellern.

„We serve humanity“: Klare Kante gegen Rüstungsdeals

Trotz des rasanten Wachstums bleibt David Reger seinen Prinzipien treu – ein Aspekt, den wir bereits in unserer Coverstory beleuchtet haben. Der Gründer positioniert seine Roboter strikt als Zivil- und Helfermaschinen für Industrie und Haushalt. Lukrative Anfragen aus der Rüstungsindustrie lehnt das Unternehmen kategorisch ab. Der Humanoide 4NE-1 soll den Menschen entlasten, nicht ersetzen oder bedrohen. Mit dieser ethischen Linie setzt Neura einen bewussten Gegenpol zu einem Markt, der teilweise stark militärisch geprägt ist.

Fazit: Der „iPhone-Moment der Robotik“

Analysten von Barclays schätzen, dass der Markt für KI-basierte Roboter und autonome Maschinen bis 2035 auf rund 1 Billion Dollar anwachsen wird. Mit der erwarteten Milliarden-Finanzierung und dem ehrgeizigen Ziel, bis 2030 rund 5 Millionen Einheiten zu produzieren, unterstreicht Neura Robotics seinen Anspruch auf die globale Weltspitze. Für das Metzinger Start-up hat die Phase der weltweiten Skalierung gerade erst begonnen.

MedTech-Start-up RAYDIAX holt 7,5 Mio. Euro für neuartiges CT-System

RAYDIAX sichert sich 7,5 Mio. Euro, um mit einem speziell für minimal-invasive Eingriffe entwickelten Computertomographen die Krebsbehandlung zu verbessern. Doch der Weg vom universitären Forschungslabor in die globalen Operationssäle ist im hochregulierten Gesundheitsmarkt lang. Ein Blick auf ein DeepTech-Geschäftsmodell, das sich nun in der klinischen Praxis beweisen muss.

Die erfolgreiche Series-A1-Finanzierungsrunde über 7,5 Millionen Euro für RAYDIAX markiert einen wichtigen Meilenstein von der universitären Forschung in den Gesundheitsmarkt. Das 2022 gegründete Unternehmen mit Hauptsitz im Magdeburger Wissenschaftshafen ist eine Ausgründung des Forschungscampus STIMULATE und der Otto-von-Guericke-Universität Magdeburg. Unter der Führung eines fünfköpfigen Gründerteams – bestehend aus CEO Dr. Thomas Hoffmann, Dr. Tim Pfeiffer, Dr. André Mewes, Benjamin Fritsch und Robert Frysch – konnte das Start-up nach einer erfolgreichen Seed-Phase nun erhebliche Mittel für den Eintritt in die klinische Phase sichern.

Das frische Kapital setzt sich aus 5 Millionen Euro Venture Capital von bestehenden Business Angels, dem Bestandsinvestor bmp Ventures mit den IBG Fonds sowie dem neu eingestiegenen GETEC Family Office um Dr. Karl Gerhold zusammen. Ergänzt wird diese Summe durch 2,5 Millionen Euro Fördermittel aus dem hochkompetitiven EIC Accelerator-Programm der Europäischen Kommission, das gezielt disruptive Deep-Tech-Innovationen mit hohem Skalierungspotenzial unterstützt.

TACT: Computertomographie für den OP neu gedacht

Im Zentrum dieser ambitionierten Wachstumspläne steht der Therapieassistenz-Computertomograph „TACT“, den RAYDIAX dediziert für minimal-invasive Krebstherapien entwickelt. Anders als herkömmliche CTs optimiert das Unternehmen sein System sowohl im Hardware- als auch im Softwarebereich speziell für den interventionellen Einsatz bei der Therapieplanung, -durchführung und -kontrolle. Wie Steffen Schmidt, CFO der GETEC-Gruppe, hervorhebt, ermöglicht die innovative Technologie eine fokussierte Live-Bildgebung, welche die Strahlenbelastung für Patient*innen und Operateur*innen senkt und die Operationszeit verringert.

Zudem bietet das System durch eine größere Geräteöffnung völlig neue Operationsmethoden im CT, wie beispielsweise den Einsatz von Robotik. Der Markt für solche Lösungen wächst, da minimal-invasive Eingriffe angesichts einer alternden Bevölkerung und steigender Krebsinzidenzen massiv an Bedeutung gewinnen. Sie ermöglichen in vielen Fällen eine schonendere Behandlung im Vergleich zu offenen chirurgischen Eingriffen, verkürzen potenziell Operations- sowie Liegezeiten, verringern Komplikationen und können so zusätzliche Behandlungskapazitäten schaffen, um die Krankenhausstrukturen zu entlasten.

Harter Wettbewerb und regulatorische Hürden

Trotz der vielversprechenden Technologie steht das Geschäftsmodell in der Praxis vor erheblichen Herausforderungen. Der globale Markt für medizinische Bildgebung ist hart umkämpft, und der Vertrieb an Kliniken ist durch extrem lange, hochkomplexe B2B-Entscheidungszyklen geprägt. RAYDIAX tritt diesem Wettbewerb entgegen, indem es anstrebt, eine funktional dringend benötigte, neue Gerätekategorie in der interventionellen Onkologie zu etablieren, um so eine Lücke im OP-Betrieb zu füllen.

Der Beweisdruck auf dem jungen Unternehmen ist dennoch enorm: Das neu eingeworbene Kapital wird nun für First-in-Human-Studien eingesetzt, um die frühe klinische Evidenz am Patienten zu generieren. Diese Phase legt die Grundlage für die regulatorische Zulassung und kommerzielle Skalierung. Parallel dazu erfordert die Weiterentwicklung zur Serienreife einen konsequenten Ausbau in den Bereichen Vertrieb, Produktion und Qualitätsmanagement, um die ersten kommerziellen Installationen systematisch vorzubereiten.

Lehrstück für europäisches DeepTech

Dieser Fall zeigt eindrucksvoll die Realität und die hohen Anforderungen europäischen DeepTech-Unternehmertums. Der Abschluss dieser Finanzierungsrunde belegt deutlich, wie essenziell die intelligente Kombination aus wissenschaftlicher Grundlagenforschung, klassischem Risikokapital und strategischen europäischen Fördergeldern ist. Nur so lässt sich die extrem kapitalintensive Entwicklungsphase von Hardware in der Medizintechnik erfolgreich überstehen. Wenn es dem Gründerteam nun gelingt, die klinische Wirksamkeit in der Praxis zu belegen und die regulatorischen Hürden zu meistern, hat dieses Spin-off das Potenzial, die Anwendung minimal-invasiver Krebstherapien erheblich auszuweiten.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

eeden: Die Alchemie der Altkleider

Das Münsteraner Unternehmen eeden verwandelt Textilmüll in hochwertige Rohstoffe. Mit Millioneninvestments baut das Team um Steffen Gerlach und Tobias Börnhorst nun die erste Demonstrationsanlage auf.

Steffen Gerlach saß entspannt mit seinem Schulfreund Reiner Mantsch auf einer Couch in einer Kölner Wohngemeinschaft. Mantsch hatte zuvor an der Universität in Mönchengladbach Textiltechnik studiert. Er berichtete leidenschaftlich von seinen naturwissenschaftlichen Forschungen zur Kreislaufwirtschaft. Dieses Gespräch veränderte Gerlachs gesamte berufliche Planung radikal. Mantsch suchte jemanden für die Marktseite seiner technischen Vision. Gerlach war sofort fasziniert von dem ökonomischen Potenzial. Er wollte wissen, ob man daraus ein echtes Unternehmen formen kann. „Das war der eigentliche Startpunkt für eeden. Wir entschieden uns für einen vollen Fokus auf das Projekt. Und wir wollten das Recyclingproblem der Branche grundlegend lösen“, erinnert sich Gerlach.

Der langsame Weg zum technologischen Durchbruch

Es gab keinen plötzlichen Heureka-Moment in einem winzigen und improvisierten Labor. Die Entwicklung war eher eine gezielte Suche nach einer Problemlösung. Mantsch war früher Leistungssportler und brachte den nötigen Fokus mit. Er sah den Frust seiner Kommilitonen nach Praktika in der Industrie. Die Branche wirkte starr und wenig dynamisch für junge Talente. Das Duo suchte stattdessen nach den Megatrends der Zukunft. „Die Kreislaufwirtschaft kristallisierte sich schnell als das zentrale Thema heraus. Ich habe die Marktseite intensiv analysiert und viele Gespräche geführt“, so Gerlach. Er erkannte die Verknüpfungen zwischen technischer Machbarkeit und ökonomischen Anforderungen. Die Suche nach dem technologischen Sweetspot dauerte Monate. Am Anfang stand lediglich die reine Faszination für das Recycling. Es war ein schleichender Prozess mit vielen Etappenentscheidungen.

Die wachsende Last der globalen Fast Fashion

Das Umweltproblem der globalen Textilindustrie ist mittlerweile gewaltig. Die Branche verdoppelt ihren Durchsatz alle 20 bis 30 Jahre. Jährlich werden mittlerweile mehr als 120 Mio. Tonnen Textilien produziert. Nach Angaben der Ellen MacArthur Foundation werden weltweit ungefähr zwei Drittel dieser Mengen praktisch direkt nach der Nutzung entsorgt; sie landen auf riesigen Deponien oder werden ungenutzt verbrannt. In Deutschland steht das klassische Rücknahmesystem laut Experten vor dem Kollaps. Es gibt nach seiner Aussage derzeit eine gestiegene Anzahl an Insolvenzen bei Sammel- und Sortierbetrieben. Die Qualität der Kleidung sinkt durch den Trend zur Fast Fashion massiv. Der Wiederverkauf der gebrauchten Ware lohnt sich oft nicht mehr. Neuware aus Asien ist meistens günstiger als Second Hand-Stücke aus Europa. In Deutschland verursacht die Entsorgung einer Tonne Altkleider zudem Kosten – das Material wird somit zur finanziellen Belastung für die Sammel- und Sortierbetriebe.

Chemische Trennung als industrieller Schlüssel

Das Unternehmen aus Münster setzt genau an diesem Punkt an. Die Technologie ermöglicht die Trennung von Baumwolle und Polyester und macht beide Materialien wieder nutzbar. Das ist entscheidend für den Erfolg der Kreislaufwirtschaft. Die meisten Textilien bestehen heute aus komplexen Mischgeweben. Gerlach erklärt, dass das Unternehmen aus dem Abfall eine hochwertige Cellulose und chemische Bausteine für neues Polyester gewinnt. Die Cellulose dient als sauberes Vorprodukt für die neue Faserherstellung. Das Polyester wird in seine Grundbausteine zerlegt, die für die Herstellung von neuem Polyester verwendet werden können. „Wir stellen aus Baumwolle eine hochwertige Cellulose her und gewinnen aus dem Polyester die chemischen Bausteine zurück“, sagt Gerlach. Beide Materialströme können direkt wieder in der Textilproduktion eingesetzt werden. Damit wird der Kreislauf zwischen Abfall und Kleidung geschlossen. Seit Anfang 2025 hilft zudem eine neue gesetzliche Regelung. Die EU-weite Getrenntsammlungspflicht für Textilabfälle ist in Kraft getreten: Unternehmen dürfen Textilien nun nicht mehr über den Restmüll entsorgen. Das sichert den Zugang zu großen Mengen an Rohstoffen.

Harte Verhandlungen in der Welt des Wagniskapitals

Der Weg von der ersten Idee zur fertig gebauten Industrieanlage ist lang. Deeptech-Unternehmen brauchen oft viel Geduld und Zeit für die Entwicklung. Das erfordert Investoren mit einem sehr langen Atem. In einer frühen Phase kam der High-Tech Gründerfonds an Bord. Auch die NRW.Bank und der TechVision Fonds unterstützen das Vorhaben. Später stiegen Forbion und der Chemiekonzern Henkel als Investor ein. Gerlach erinnert sich im Gespräch an einen intensiven Lernprozess bei den ersten Finanzierungsrunden. Man müsse technische Begeisterung mit harten Umsatzprognosen anreichern. Auch D11Z.Ventures, das Family Office von Dieter Schwarz (Lidl/Kaufland), investierte in das Unternehmen. Die Investoren verstehen laut Gerlach die Entwicklungszyklen und Skalierung von Deeptech-Unternehmen. Mittlerweile flossen über 20 Mio. EUR an Kapital in die Firma. Dieses Geld ermöglicht nun den nächsten großen Schritt.

Ein neues Team für die industrielle Skalierung

Das Start-up ist mittlerweile den Kinderschuhen entwachsen. In Münster entsteht derzeit eine industrielle Demonstrationsanlage. Gerlach erinnert sich an den Moment der Schlüsselübergabe: Zuerst wirkte die leere Halle riesig auf das Team. Inzwischen planen die Ingenieure bereits jeden Zentimeter der Fläche. Das Team ist auf über 25 Köpfe gewachsen. Es ist eine Mischung aus jungen Talenten und erfahrenen Kräften. Viele Mitarbeitende wechselten von großen Konzernen wie BASF nach Münster. Gerlach beobachtet eine große Lust auf die Arbeit an innovativen Prozessen. Die flachen Hierarchien im Unternehmen ziehen Experten an. Er schätzt das Know-how dieser Fachkräfte für den Anlagenbau. Erfahrene Chemiker bringen eine neue Qualität in die Prozesse. Die Zusammenarbeit zwischen Alt und Jung funktioniert hervorragend.

Führung zwischen Agilität und unternehmerischer Verantwortung

Die Unternehmenskultur hat sich mit der Größe weiterentwickelt. Gerlach betont, dass viele Impulse direkt aus der Belegschaft kommen. So wurde die Regelung für die Präsenz im Büro gemeinsam erarbeitet. Die Mitarbeitenden wünschten sich feste Tage für den Austausch. „Die schönsten Tage sind jene mit viel Begegnung“, berichtet Gerlach. Die bürokratischen Pflichten eines Geschäftsführers gehören einfach dazu. Trotzdem bleibt die Mission der Firma der wichtigste Treiber. Die Motivation im gesamten Team sei extrem hoch. Jeder packt an und treibt das Unternehmen voran. Der Spagat zwischen Entwicklung und Business ist fordernd. Gerlach jedoch genießt diese tägliche Herausforderung sehr.

Der Standort Deutschland als Zentrum für Innovation

Viele Fachleute kritisieren die Bedingungen für die Chemieindustrie. Hohe Energiekosten belasten die traditionsreichen Unternehmen stark. Gerlach sieht das differenzierter aus der Perspektive von innovativen Start-ups: „Für die Entwicklung neuer Technologien ist der Standort Deutschland weiter exzellent. Und die Qualifikation der Technologen ist hervorragend. Die aktuelle Krise führt bei uns auch zu Bewerbungen von erfahrenen Talenten aus der chemischen Industrie – die hätte es vor einigen Jahren in der Menge nicht gegeben.“ Die vorhandene Infrastruktur sei ein klarer Vorteil. Auch Konzerne beobachten solche Innovationen genau. Die Nähe zum Mittelstand fördert zudem die Skalierung. Für die beiden Gründer ist die aktuelle Produktionsanlage nur ein Anfang. Langfristig soll die Technologie weltweit lizenziert werden; überall auf der Welt fällt schließlich Textilmüll an. Die Kombination aus Ingenieurskunst und Skalierung ist das Ziel. Auch die aktuellen Investoren von eeden sehen dieses globale Potenzial. Das Unternehmen will beweisen, dass sich Kreislaufwirtschaft lohnt. Deutschland bleibt dafür ein wichtiger Ankerpunkt.

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.