Vom Labor zur Großindustrie: MicroHarvest startet Bau einer 15.000-Tonnen-Anlage

12.02.2026


44 likes

Das 2021 von Katelijne Bekers, Jonathan Roberz und Dr. Luísa Cruz gegründete Hamburger BioTech MicroHarvest vollzieht den Schritt vom Labor in die industrielle Massenproduktion. Im Chemiepark Leuna entsteht eine kommerzielle Großanlage mit einer Jahreskapazität von 15.000 Tonnen.

Der Hamburger Proteinhersteller MicroHarvest verlässt den Pilotmaßstab und beginnt mit der industriellen Umsetzung seiner Fermentationstechnologie. Wie das Unternehmen am 12. Februar bekannt gab, fiel die Standortwahl für die erste kommerzielle Großanlage auf den Chemiepark Leuna in Sachsen-Anhalt.

Rapider Aufstieg: Von der Gründung zum Anlagenbau

Das Tempo, das MicroHarvest vorlegt, ist im Deep-Tech-Bereich ungewöhnlich hoch. Gegründet 2021 von Katelijne Bekers (CEO), Jonathan Roberz (COO) und Dr. Luísa Cruz (CTO) in Hamburg, gelang dem Gründer-Trio binnen weniger Jahre gelang der Sprung von der Verfahrensentwicklung zur Planung einer Großanlage, deren Produktionsstart bereits in rund zwei Jahren vorgesehen ist.

Technologie: Biomasse-Fermentation in Rekordzeit

Kern des Erfolgs ist ein proprietäres Verfahren der Biomasse-Fermentation. Anders als bei der Präzisionsfermentation werden hier die Mikroorganismen selbst zum Produkt: Bakterien vermehren sich exponentiell und werden zu sogenanntem Single Cell Protein (SCP) verarbeitet. Der technologische USP liegt in der Geschwindigkeit: Vom Rohstoff bis zum fertigen Protein vergehen laut MicroHarvest nur 24 Stunden. Das Verfahren gilt als eines der effizientesten weltweit und benötigt nur einen Bruchteil der Fläche und des Wassers konventioneller Proteinquellen.

Validierung durch Top-Investoren und Awards

Dass das Scale-up nun eine Investition im mittleren zweistelligen Millionenbereich stemmen kann, ist auch das Resultat einer soliden Finanzierungsstrategie. Bereits 2022 sicherte sich MicroHarvest in einer Series-A-Runde Kapital, angeführt von FoodTech-VCs wie Astanor Ventures und FoodLabs. Für den Bau in Leuna kommt nun ein Zuwendungsbescheid über knapp 5,5 Millionen Euro aus der Bundesförderung für Energie- und Ressourceneffizienz hinzu.

Standortentscheidung und Marktstrategie

In Leuna sollen rund 25 direkte Arbeitsplätze entstehen. Die Entscheidung für den Standort fiel nach der Prüfung von rund 40 Optionen in Europa. Ausschlaggebend waren die industrielle Infrastruktur und die Nähe zu regionalen Rohstoffen wie Melasse, die kurze Transportwege ermöglichen.

„Wir bauen kein Pilotprojekt, sondern eine Produktionsinfrastruktur für relevante Mengen. Leuna bietet dafür genau das richtige Umfeld: bestehende Industrie, verlässliche Utilities und ein regionales Agrar- und Verarbeitungsnetzwerk“, betont Co-Founder Jonathan Roberz.

Marktseitig ist der Boden bereitet: MicroHarvest zielt zunächst auf den B2B-Markt für Tiernahrung und Aquakultur und konnte bereits Produkteinführungen mit Partnern wie VEGDOG und THE PACK realisieren. Perspektivisch arbeitet das Unternehmen auch an Anwendungen für den Human-Food-Bereich.

Learnings für Gründer*innen

Der Case MicroHarvest zeigt exemplarisch, dass für Hardware-Start-ups die Standortwahl keine reine Immobilienthematik ist. Die Anbindung an bestehende Ökosysteme – hier die Stoffströme und Utilities eines etablierten Chemieparks – kann den entscheidenden Geschwindigkeitsvorteil beim Roll-out liefern. Zudem beweist die Finanzierungsstruktur, wie wichtig der intelligente Mix aus Venture Capital und staatlicher Förderung (hier für Capex) ist, um kapitalintensive Industrieprojekte zu realisieren.

Diese Artikel könnten Sie auch interessieren:

Gründer*in der Woche: SpeakerMatching.com – Disruption auf der Bühne

Die Eventbranche wächst, doch die Suche nach den passenden Köpfen für die Bühne gleicht oft noch einem analogen Kraftakt. Mit der Plattform SpeakerMatching.com will eine erfahrene Seriengründerin den Spieß nun umdrehen. Es ist ein klassisches Plattform-Play ohne die üblichen Vermittlungsprovisionen – doch kann sich das Modell gegen etablierte Branchengrößen durchsetzen? Wir haben die Gründerin Henriette Hochstein-Frädrich befragt.

Hinter SpeakerMatching.com, im November 2025 als B2B-Marktplatz gelauncht, steht Henriette Hochstein-Frädrich. Sie kennt den Schmerz der Branche nicht nur vom Hörensagen. „Ich kenne den Markt nicht nur als Plattformunternehmerin, sondern auch aus zwei weiteren sehr praktischen Perspektiven: Seit vielen Jahren stehe ich selbst als Speakerin und Moderatorin auf Bühnen, und zugleich habe ich eigene Eventformate und Veranstaltungsreihen im Bereich modernes Female Empowerment konzipiert und umgesetzt“, erinnert sich die Gründerin.

„Gerade als Veranstalterin wurde mir immer wieder bewusst, wie zeitaufwendig, intransparent und teilweise zufallsgetrieben die Suche nach passenden Rednerinnen sein kann“, bringt sie das Kernproblem auf den Punkt. Gleichzeitig habe sie beobachtet, wie sich der Markt zunehmend professionalisiere: „Es gibt mehr Expertinnen, mehr Themen, mehr Formate, aber bislang keine wirklich zeitgemäße digitale Infrastruktur, die Angebot und Nachfrage effizient zusammenführt.“

Dass sie diese Infrastruktur bauen kann, hat sie in der Vergangenheit bewiesen: 2009 gründete sie Pharmatching.com, baute es zur Branchengröße auf und verkaufte es 2017. „Aus meinen früheren Plattformgründungen habe ich vor allem drei zentrale Lektionen mitgenommen: Erfolgreiche Marktplätze lösen ein echtes, konkretes Problem. Vertrauen und Qualität sind im B2B-Umfeld entscheidend. Und nicht zuletzt spielt Timing eine größere Rolle, als viele denken“, betont Hochstein-Frädrich.

Rollentausch statt Kaltakquise

Das Timing sei deshalb ideal, weil Veranstaltende heute Plattformlogiken und Self-Service-Modelle erwarten, wie sie sie aus anderen B2B-Märkten längst kennen. Der Kern von SpeakerMatching.com liegt in der Umkehrung des klassischen Buchungsprozesses. Veranstaltende formulieren ihr Gesuch kostenfrei auf der Plattform, woraufhin sich Speaker*innen direkt bewerben können. Das Start-up finanziert sich stattdessen über Abonnements für die Rednerinnen.

„Uns war von Anfang an wichtig, ein sehr niedrigschwelliges und zugleich faires Preismodell für Speaker*innen zu schaffen“, rechnet die Geschäftsführerin vor. Die monatlichen Mitgliedschaften liegen zwischen rund 59 und 89 Euro. „Wenn über die Plattform ein einzelner Auftrag im mittleren vierstelligen Bereich zustande kommt, hat sich die Investition für viele Redner*innen bereits mehrfach amortisiert.“ Sie stellt aber auch klar: „SpeakerMatching.com ist ein Marktplatz, kein Management- oder Vermittlungsvertrag.“

Doch wie verhindert man eine Flut an unpassenden Bewerbungen? „Die Sorge vor einer unüberschaubaren Bewerbungsflut ist absolut nachvollziehbar, gerade bei offenen Plattformmodellen“, räumt die Gründerin ein. Da Veranstaltende jedoch Parameter wie Budget, Zielgruppe oder Sprache sehr konkret vorgeben, entstehe eine starke Vorfilterung. „Unsere bisherigen Erfahrungen aus den ersten Monaten zeigen sehr deutlich: Unpassende ‚Blindbewerbungen‘ sind die absolute Ausnahme“, versichert Hochstein-Frädrich. Zwar sollen perspektivisch KI-basierte Funktionen eine stärkere Rolle spielen, doch die Vision bleibt menschlich: „Unser Ziel ist daher kein vollständig automatisiertes ‚Black-Box-Matching‘, sondern eine intelligente Plattform, die Entscheidungsprozesse vereinfacht und die Qualität der Interaktionen erhöht.“

Um das Problem des Bypassings – also den Abschluss an der Plattform vorbei – zu umgehen, werden Event-Gesuche zunächst anonymisiert veröffentlicht. „Erst wenn sie passende Bewerbungen erhalten und aktiv in den Austausch gehen möchten, geben sie ihre Identität preis“, erklärt die Gründerin den Prozess. „Wenn Speaker*innen über SpeakerMatching.com kontinuierlich relevante Anfragen erhalten und Veranstaltende effizient passende Expertinnen finden, entsteht eine stabile Win-Win-Dynamik. Genau darauf ist das Modell ausgelegt.“

Markt, Wettbewerb und organisches Wachstum

Der Markt wächst kontinuierlich, wird aber von großen Redneragenturen wie Speakers Excellence oder Premium Speakers dominiert. Diese arbeiten stark kuratiert und rufen oft hohe Vermittlungsprovisionen auf. Um in diesem zweiseitigen Markt das klassische Henne-Ei-Problem zu überwinden, verzichtet die Plattform auf der Veranstaltendenseite auf Gebühren.

Finanziert ist das Vorhaben bisher weitgehend aus eigener Kraft. „Aus meinen früheren Gründungen weiß ich, wie wichtig es gerade in der frühen Phase eines zweiseitigen Marktplatzes ist, Produkt, Zielgruppe und Marktmechanik zunächst sehr präzise zu verstehen und organisch zu entwickeln“, lautet ihr Credo. „Plattformmodelle brauchen Zeit, Vertrauen und kritische Masse, das lässt sich nicht ausschließlich mit Kapital ‚beschleunigen‘, sondern vor allem durch konsequenten Nutzen für beide Marktseiten“.

Dabei grenzt sie sich bewusst von stark kuratierten Agenturen ab. Der Mix aus etablierten Persönlichkeiten und neuen Stimmen sei genau das, was der Markt heute suche. Viele Unternehmen wünschen sich heute bewusst mehr Vielfalt auf ihren Bühnen. „Dabei verstehen wir Diversität nicht nur im klassischen demografischen Sinn, sondern auch als Vielfalt an Perspektiven, Erfahrungen und Denkweisen“, so Hochstein-Frädrich.

Den Vorstoß in Richtung Full-Service-Agenturen samt Ausfallversicherungen bremst sie indes ab. „Im Moment konzentrieren wir uns bewusst darauf, das Matching selbst so gut wie möglich zu machen. Alles Weitere kann – zumindest vorerst – auch von anderen Playern im Ökosystem übernommen werden.“

Fazit

Das Speaker-Business ist traditionell ein echtes People Business. Bei Keynotes für teils fünfstellige Honorare verlassen sich viele Großkund*innen gern auf die persönliche Beratung einer Agentur, die im Krankheitsfall sofort für Ersatz sorgt. Diesen Full-Service kann ein Self-Service-Marktplatz aktuell nur schwer vollumfänglich abbilden.

Dennoch ist SpeakerMatching.com ein mutiger und zeitgemäßer Angriff auf die verkrusteten und provisionsgetriebenen Strukturen der Eventbranche. Gelingt es, rasch eine kritische Masse an hochwertigen Event-Gesuchen zu generieren, hat die Plattform das Potenzial, Angebot und Nachfrage künftig deutlich schneller zusammenzubringen.

Münchner Start-up Isar Aerospace bricht Testflug der „Spectrum“-Rakete aus Sicherheitsgründen ab

Der zweite Testflug der „Spectrum“-Trägerrakete des Münchner Raumfahrtunternehmens Isar Aerospace musste kurz vor der Triebwerkszündung gestoppt werden.

Ursache war nach Unternehmensangaben ein unbefugtes Boot, das in die maritime Sicherheitszone eingedrungen war. Bis das Areal geräumt werden konnte, verstrich das enge Startfenster zwischen 21:00 und 21:15 Uhr. Die Rakete blieb unbeschadet auf der Startrampe.

Sicherheitsmechanismus statt Fehlschlag

In der Raumfahrtbranche wird ein solcher Abbruch (ein sogenannter Scrub) nicht als technologischer Rückschlag gewertet, sondern als Beleg für greifende Sicherheitsmechanismen. Ein erheblicher Unterschied besteht zu einem tatsächlichen Fehlstart, bei dem Hardware verloren geht – wie es beim Erstflug der „Spectrum“ am 30. März 2025 geschah, als die Rakete nach knapp 30 Sekunden wegen eines Ausfalls der Lageregelung ins Meer stürzte.

Da die Rakete dieses Mal keinen technischen Defekt erlitt, werten die Ingenieure den abgebrochenen Countdown als erfolgreichen Härtetest der Bodenanlagen und der automatisierten Betankungsprozesse. Das Team um CEO Daniel Metzler hatte im Vorfeld betont, dass das primäre Ziel der Mission „Onward and Upward“ darin bestehe, kritische Systeme unter operativen Bedingungen zu validieren. Die nun gesammelten Daten fließen direkt in die Vorbereitung des nächsten Versuchs ein.

Die komplexe Logistik eines neuen Startfensters

Wann die „Spectrum“ erneut betankt wird, hängt von einem mehrstufigen Abstimmungsprozess ab. Nach der Sicherung der Rakete muss Isar Aerospace bei den norwegischen Behörden neue Sperrzonen beantragen. Damit Fischer, Frachtschiffe und Fluggesellschaften ihre Routen rechtzeitig anpassen können, müssen offizielle Warnungen für die Schifffahrt (NOTMAR) und den Luftraum (NOTAM) mit entsprechendem Vorlauf herausgegeben werden. Erst wenn diese bürokratischen Hürden genommen sind und Parameter wie das Wetter am Polarkreis übereinstimmen, kann ein neuer Countdown für die Nutzlast – darunter universitäre Kleinsatelliten der TU Berlin, der TU Wien sowie der norwegische FramSat-1 – beginnen.

Warum Andøya? Der strategische Vorteil im hohen Norden

Dass das Münchner Start-up diese logistischen Herausforderungen im hohen Norden auf sich nimmt, anstatt etwa den etablierten europäischen Weltraumbahnhof Kourou in Südamerika zu nutzen, hat strategische und physikalische Gründe.

Die Hauptkunden von Isar Aerospace betreiben kleine Erdbeobachtungssatelliten, die bevorzugt über die Pole fliegen, um die Erdoberfläche lückenlos zu erfassen. Von Andøya aus kann die Rakete auf direktem Weg sicher über das offene Europäische Nordmeer in diesen polaren Orbit starten, ohne Treibstoff für aufwendige Kurskorrekturen zu verbrauchen. Zudem spart der Transport der in Ottobrunn gefertigten Bauteile per LKW und Fähre nach Norwegen wertvolle Zeit und Kosten im Vergleich zu einer Verschiffung nach Französisch-Guayana.

Für Europa bleibt der anstehende Flug der „Spectrum“ ein wichtiges Puzzleteil auf dem Weg zu einem wettbewerbsfähigen, kommerziellen Zugang zum All. Sobald die Sperrzonen vor der norwegischen Küste neu eingerichtet sind, wird sich zeigen, ob das Münchner Unternehmen diese Lücke schließen kann.

Mediennutzung 2026: Zwischen KI-Frust, Abo-Müdigkeit und neuen Chancen für Start-ups

Die Deutschen experimentieren so intensiv wie nie mit künstlicher Intelligenz (KI), sind aber zunehmend genervt von Deepfakes und „Content ohne Mehrwert“. Gleichzeitig sehnt sich der überhitzte Streaming-Markt nach einer drastischen Konsolidierung. Die aktuelle Deloitte-Studie „Media Consumer Trends 2026“ liefert nicht nur Bestandsaufnahmen, sondern zeigt deutlich, wo für Gründer*innen und Tech-Unternehmen jetzt die wahren Opportunitäten liegen.

Social Media bleibt der unangefochtene Platzhirsch der Medienlandschaft: 78 Prozent der Konsument*innen in Deutschland sind auf den Plattformen aktiv, bei der Gen Z (unter 25 Jahre) sind es sogar satte 91 Prozent. Fast die Hälfte dieser jungen Zielgruppe nutzt Instagram, TikTok und Co. heute intensiver als noch im Vorjahr. Doch ein Blick unter die Oberfläche offenbart Risse im digitalen Fundament – und die haben maßgeblich mit dem rasanten Einzug generativer künstlicher Intelligenz (KI) zu tun.

Das KI-Paradoxon: Große Kreationslust, massives Vertrauensproblem

Auf der Creator-Seite ist KI bereits Alltag. 22 Prozent der Befragten haben laut Deloitte schon Bilder per KI erstellt, jeder Zehnte generiert Videos oder Musik. Auch die Zahlungsbereitschaft ist überraschend hoch: Jeder Fünfte wäre bereit, monatlich über 10 Euro für entsprechende Tools auszugeben.

Auf der Konsument*innenseite jedoch kippt die Stimmung bedenklich. Zwei Drittel der Nutzer*innen geben an, dass sie KI-generierte Inhalte im Netz nicht mehr zuverlässig erkennen können. Schlimmer noch: 56 Prozent klagen über eine wachsende Flut an KI-generierten Postings „ohne Mehrwert“ – schlichtweg digitaler Spam. Die Konsequenz dieser Verunsicherung zeigt sich bereits in den Nutzungsdaten: Erste Altersgruppen, insbesondere Nutzer*innen ab Mitte 50, beginnen, ihren Social-Media-Konsum aktiv zurückzufahren.

Die Start-up-Perspektive: Die Zeiten des blinden KI-Hypes sind vorbei. Wer als Gründer*in heute rein quantitativ auf automatisierte Content-Erstellung setzt, riskiert Reichweite und Glaubwürdigkeit. Wie Deloitte-Expertin Sophie Pastowski anmerkt, braucht es dringend „transparente Kennzeichnung, um Vertrauen im digitalen Raum zu stärken.“ Genau hier entsteht ein massiver Zukunftsmarkt für „Trust-Tech“-Start-ups: Werkzeuge, die Authentizität verifizieren, Deepfakes zuverlässig herausfiltern, digitale Wasserzeichen etablieren oder Content-Provenance (Herkunftsnachweise) sichern, werden zu kritischen Erfolgsfaktoren für Plattformen und Verlage.

Streaming-Kollaps: Die Sehnsucht nach dem Super-Aggregator

Auch im Video-Streaming-Markt (SVoD) stehen die Zeichen auf Wandel. Der Markt ist in einer Reifephase angekommen: Zwar verbringen die Deutschen immer mehr Zeit mit Streaming, doch die Abo-Zahlen stagnieren. Mit durchschnittlich 2,5 Abos bei 64 Prozent der Haushalte ist die finanzielle und nervliche Schmerzgrenze offenbar erreicht.

Die Fragmentierung des Marktes wird zum Bumerang. Die Hälfte der Konsument*innen findet das zersplitterte Angebot unübersichtlich; das ständige Suchen nach Inhalten über verschiedene Apps hinweg („Decision Fatigue“) nervt. Das Resultat ist ein lauter Ruf nach Bündelung: 43 Prozent der Nutzer*innen wünschen sich eine plattformübergreifende Aggregation ihrer Dienste. Der Haken für Anbietende: 60 Prozent erwarten im Gegenzug für ein solches Bundle einen spürbaren Preisvorteil.

Die Start-up-Perspektive: Der Markt schreit nach einer funktionierenden Meta-Ebene. Wer es schafft, die zersplitterte Content-Landschaft in einer nutzer*innenfreundlichen Oberfläche (Super-App) mit intelligenter, plattformübergreifender Suchfunktion und klugem Pricing zu bündeln, trifft den absoluten Nerv der Zeit. Das reine Hinzufügen eines weiteren Nischen-Streamingdienstes dürfte es hingegen 2026 schwerer denn je haben.

Audio: Der harte Kampf um das knappe Gut „Glaubwürdigkeit“

Im Audio-Segment setzt sich der Strukturwandel fort. Podcasts boomen weiter und haben bei den 25- bis 34-Jährigen das klassische Radio bereits als wichtigstes Medium überholt. Doch das Radio verzeichnet mit 65 Prozent wöchentlicher Reichweite weiterhin eine enorme Resilienz. Der Grund ist ein entscheidender USP, von dem digitale Kanäle lernen können: Vertrauen. Wenn es um harte Informationen und die Nachrichtenlage geht, stufen 54 Prozent der Hörer das Radio als informativer und verlässlicher ein – Podcasts kommen hier nur auf 19 Prozent.

Fazit

Die Mediennutzung 2026 ist stark paradox geprägt: Technologie durchdringt die Erstellung von Inhalten immer tiefer, doch die Sehnsucht der Nutzer*innen nach Authentizität, Übersichtlichkeit und verlässlichen Quellen wächst proportional dazu. Für Start-ups bedeutet dies einen strategischen Paradigmenwechsel. Nicht das nächste Tool zur Erstellung von noch mehr billigem KI-Content ist der heilige Gral, sondern Lösungen, die in der Informationsflut Orientierung schaffen, Fragmentierung auflösen und echtes Vertrauen im digitalen Raum aufbauen. Wer diese Schmerzpunkte adressiert, hat im hart umkämpften Medienmarkt der kommenden Jahre exzellente Karten.

Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet

Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.

Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.

planqc: Aus der Forschung in die Wirtschaft

Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.

Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.

Der schnelle Aufstieg: Millionen-Investments und Großaufträge

Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).

Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.

Das Problem: Der limitierte klassische Computer

Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.

Die Lösung: Ein hybrides Teamwork der Systeme

Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.

„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
 
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind

Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.

Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.

Fazit

Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere

Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.

Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.

Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.

Der technologische Schlüssel: "Direct Cytosolic Transfer"

Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.

Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.

Zwischen enormem Potenzial und hohem Risiko

Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.

Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.

Blaupause für Deep-Tech-Gründer

Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:

  • Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
  • Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
  • Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.

4 Mio. Euro für den Sprung aus dem Labor: Level Nine sichert sich Seed-Finanzierung für den Umbau der Chemie

Das 2023 von Dr. Emily Sheridan und Seadna Quigley gegründete Berliner DeepTech-Start-up Level Nine hat eine Seed-Finanzierungsrunde über 4 Millionen Euro abgeschlossen, um die europäische Chemieindustrie unabhängiger von fossilen Rohstoffen zu machen. Mit einer Kombination aus maschinellem Lernen und robusten, enzym-inspirierten Katalysatoren verspricht das Gründerduo eine wirtschaftliche Alternative zu Erdöl – ohne die bisher üblichen Leistungsverluste. Angeführt von Visionaries Tomorrow, setzen namhafte Investoren darauf, dass Level Nine das „Fossil-Dilemma“ der Schwerindustrie lösen kann.

Die europäische Chemieindustrie, die mit einem Jahresvolumen von rund 1 Billion Euro das industrielle Rückgrat des Kontinents bildet, steckt laut Branchenangaben in einer tiefgreifenden Strukturkrise. Wie Level Nine in seiner aktuellen Mitteilung betont, setzen volatile Rohstoffpreise, hohe Energiekosten und massiver Wettbewerb aus China und dem Nahen Osten die Margen so stark unter Druck, dass Standorte zunehmend gedrosselt oder geschlossen werden müssen. Seit Jahrzehnten gilt Biomasse als potenzielle Alternative, doch die industrielle Umsetzung scheiterte bisher an der Effizienz: Herkömmliche Katalysatoren sind für komplexe Biomoleküle nicht selektiv genug, während natürliche Enzyme für die rauen Bedingungen der Schwerindustrie – wie hohen Druck und extreme Hitze – zu empfindlich und teuer sind. Diese technologische Lücke hat die Industrie bisher in einer riskanten Abhängigkeit von fossilen Importen gehalten.

Das Team hinter der Vision

Um diese Lücke zu schließen, setzt Level Nine auf ein Gründungsduo, das wissenschaftliche Tiefe mit operativer Erfahrung vereint. CTO Dr. Emily Sheridan ist Spezialistin für enzym-inspirierte Materialien sowie Reaktionstechnik. Sie widmete ihre Forschung gezielt der Fragestellung, wie die Präzision biologischer Prozesse mit der für die Industrie notwendigen Robustheit verbunden werden kann.

Ihr zur Seite steht CEO Seadna Quigley, der die kommerzielle Seite des Unternehmens verantwortet. Quigley arbeitete zuvor intensiv an der Schnittstelle von Kreislaufwirtschaft, Nachhaltigkeit und Unternehmensaufbau. Seine Skalierungskompetenz stellte er unter anderem als CFO eines Amsterdamer Unternehmens unter Beweis, dessen Wachstum er auf über 140 Mitarbeitende begleitete. Gemeinsam führt das Duo heute ein 14-köpfiges Team am neuen Hauptsitz in Berlin.

Die Berliner Lösung: Präzision trifft industrielle Härte

Die Innovation von Level Nine basiert auf einer neuen Klasse industrieller Katalysatoren, die enzymähnliche Präzision bieten, aber gleichzeitig hohen Temperaturen, Drücken und industriellen Lösungsmitteln standhalten. Das Herzstück bildet eine auf maschinellem Lernen basierende Plattform, welche die Entwicklungszyklen für neue Katalysatoren massiv verkürzt und eine hocheffiziente Umwandlung komplexer biobasierter Rohstoffe ermöglicht. Laut Dr. Iris ten Have vom Lead-Investor Visionaries Tomorrow stellt dies eine fundamentale Technologieschicht dar, die ganze Wertschöpfungsketten erschließen kann.

Der 100-Milliarden-Euro-Target: Polyurethan im Fokus

Mit dem frischen Kapital konzentriert sich das Team zunächst auf den globalen Polyurethan (PU)-Markt, der jährlich über 100 Milliarden Euro schwer ist. Level Nine hat hierfür ein biobasiertes aromatisches Polyol entwickelt, das laut Unternehmensangaben die Leistung fossiler Alternativen erreicht. Ein strategischer Vorteil ist die „Drop-in“-Fähigkeit: Das Produkt kann laut Mitteilung direkt in bestehende Fertigungsinfrastrukturen integriert werden. Zudem weist das Material laut Level Nine inhärente flammhemmende Eigenschaften auf, was den Einsatz giftiger halogenierter Additive überflüssig machen soll.

Das „Tal des Todes“ der Hardware-Skalierung

Trotz des Investoren-Vertrauens durch Visionaries Tomorrow, Zero Carbon Capital, Rockstart, IBB Ventures und better ventures steht Level Nine vor der größten Hürde: dem physischen Scale-up. Das Unternehmen bereitet aktuell den Bau der ersten Kilotonnen-Produktionsanlage vor. In der Chemiebranche gilt dieser Schritt als das berüchtigte „Tal des Todes“, da die Skalierung von Laborreaktionen in industrielle Dimensionen extrem kapitalintensiv ist und technische Risiken birgt, die rein softwarebasierte Startups nicht kennen. Die Wirtschaftlichkeit wird sich erst beweisen, wenn Level Nine zeigt, dass ihre Chemie den Übergang ohne Kompromisse bei Kosten oder Leistung ermöglicht.

Der EU-Green-Deal als Marktmacher

Die strategische Positionierung von Level Nine wird durch aktuelle regulatorische Weichenstellungen in Europa gestützt. Die EU-Bioökonomie-Strategie hat biobasierte Materialien zur strategischen Priorität erklärt, um die Abhängigkeit von fossilen Rohstoffen zu beenden. Zusätzliche Dynamik verspricht der EU Biotech Act, der regulatorische Hürden abbauen und den Weg vom Labor in die Fabrik beschleunigen soll. Da die Lösungen von Level Nine zudem helfen könnten, strengere Grenzwerte für chemische Additive unter der REACH-Verordnung einzuhalten, bietet das Startup eine zeitgerechte Lösung für eine Industrie unter massivem Anpassungsdruck.

Fazit

Level Nine will die 4 Millionen Euro nutzen, um den Beweis anzutreten, dass nachhaltige Chemie nicht nur ökologisch notwendig, sondern ökonomisch souverän sein kann. Sollte die Skalierung in den Kilotonnen-Maßstab gelingen, könnte das Berliner Team eine Schlüsselrolle dabei spielen, die europäische Industrie zukunftsfähig und unabhängig aufzustellen.

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.

MAxL: Der Vorgründungs-Turbo für die Biotech-Branche

Keine Gründung ohne präzise Vorbereitung: Mit dem Inkubator MAxL bringt BioM Biotech-Projekte aus dem akademischen Umfeld direkt auf den Radar von Venture-Capital und Pharma-Riesen. Christina Enke-Stolle und Dr. Petra Burgstaller – sie haben die Leitung des Gründungsbereichs bei der Biotech Cluster Management Organisation BioM inne – sprechen über die größten Hürden vor der Gründung, selektive Investoren und erste Millionen-Erfolgsstorys aus dem Inkubator.

Wie unterscheidet sich MAxL von anderen Inkubatoren, was zeichnet Ihren Inkubator besonders aus?

Enke-Stolle: Mit MAxL wollen wir für die vielversprechendsten Start-ups im Bereich der Biomedizin und Biotechnologie die besten Rahmenbedingungen schaffen, einerseits in Form von State-of-the-Art-Infrastruktur und andererseits mit einem umfassenden Unterstützungsprogramm. Das Besondere an MAxL ist die Fokussierung auf die Vorgründungsphase, also Projekte und Gründungsteams, die noch ein bis zwei Jahre vor der Ausgründung stehen. Wir haben uns mit MAxL zum Ziel gesetzt, die Teams in dieser entscheidenden Phase der Translation bestmöglich dabei zu unterstützen, die richtigen Entscheidungen zu treffen und ihre Projekte bereits frühzeitig auf die Anforderungen von Investoren und auch späteren Industriepartnern wie Pharmaunternehmen auszurichten. Im Rahmen der Inkubation durch MAxL sollen für Investoren attraktive Geschäftsmodelle entstehen und überzeugende, professionelle Datenpakete generiert werden. MAxL-Teams profitieren auch entscheidend vom umfassenden Netzwerk von BioM, sei es zu potenziellen Kunden, Industriepartnern als auch Investoren.

Worauf sollten angehende Gründer*innen beim Tech-Transfer von Biotech-Themen besonders achten, mit welchen Hürden müssen sie rechnen?

Burgstaller: Ganz entscheidend zu Beginn ist oft eine durchdachte IP-Strategie. Gerade in der Biotechnologie, wo die Entwicklung meist kapitalintensiv ist, sind belastbare Schutzrechte in der Regel ein zentraler Werttreiber. Hierzu bieten wir Teams Erstberatungen durch unsere ehrenamtlichen Patentmentoren an.

Enke-Stolle: Wichtig ist auch, ausreichend Zeit für die Gewinnung von Investoren einzuplanen und die Investoren zielgerichtet anzusprechen. Wir unterstützen unsere Teams bei der Erstellung von überzeugenden Pitch Decks und vermitteln persönliche Kontakte zu Investoren. Außerdem bieten wir ihnen über unsere Veranstaltungen die Möglichkeit, sich wirkungsvoll zu präsentieren. Im Rahmen unserer Eventserie „MAxL Meets the Money“ stellen Investoren sich und ihre Investmentstrategie außerdem in einem informellen Setting vor, sodass unsere Gründer auch den Blickwinkel und das Konzept von Venture Capital verstehen und den jeweiligen Fokus der wichtigsten Player kennen.

Burgstaller: Im Hinblick auf experimentelle Daten, die noch im akademischen Umfeld erhoben werden, und Entwicklungspläne ist es wie bereits erwähnt wichtig, die eigenen Projekte frühzeitig so auszurichten, dass sie Anforderungen aus der Industrie gerecht werden. Produkte wie neuartige Therapeutika sollten hier schon zu Beginn „vom Ende gedacht“ werden: Es geht nicht nur um die Frage „Können wir etwas wissenschaftlich Spannendes entwickeln?“, sondern um Fragen wie „Würde es jemand zulassen, bezahlen, einsetzen – und kaufen?“. Dabei setzen wir bei MAxL neben einer intensiven Begleitung durch unsere MAxL-Mentoren auch auf eine enge Zusammenarbeit mit Pharma. 2025 etwa haben wir eine Kooperation mit dem japanischen Pharmaunternehmen Daiichi Sankyo geschlossen. Daiichi unterstützt ein ausgewähltes Start-up im MAxL, indem es für zwölf Monate die Kosten für den Inkubator übernimmt und mit seinen Experten in der Wirkstoffentwicklung für Fragen des Start-ups zur Verfügung steht. Weitere solche „Golden Ticket-Kooperationen“ sind in der Anbahnung.

Nach welchen Kriterien wählt MAxL Start-ups für das Programm aus?

Burgstaller: Die beiden wichtigsten Kriterien sind ein innovatives Produkt- und Geschäftskonzept und ein talentiertes Gründerteam, dem wir zutrauen, das Konzept auch erfolgreich umzusetzen. Im Bereich der Therapeutikaentwicklung gibt es im Team idealerweise bereits Hands-on Erfahrung im Bereich Drug Development. Wenn das noch nicht der Fall ist, ist es entscheidend, dass das Team offen dafür ist, sich erfahrene Leute ins Team zu holen und/oder von erfahrenen Personen zu lernen.

Enke-Stolle: Bei Projekten, die ins MAxL ziehen möchten, muss schon ein erster Proof of Principle erbracht sein. Lediglich eine Idee zu haben, wäre zu früh für unseren Inkubator. Für das innovative Produkt sollte es einen hohen medizinischen Bedarf und klare Alleinstellungsmerkmale geben, und es sollte möglich sein, eine tragfähige Schutzrechtstrategie zu entwickeln. Die meisten der aktuellen MAxL-Projekte sind durch ein akademisches Pre-Seed- oder Validierungsförderprogramm finanziert. Wir unterstützen aber auch Spin-outs aus bestehenden Unternehmen, wenn Mittel vorhanden sind, um das Projekt in ein bis zwei Jahren experimentell und kommerziell so weiterzuentwickeln, dass ein entscheidender Meilenstein erreicht werden kann.

Burgstaller: Zudem haben Teams einen zusätzlichen Pluspunkt, wenn ihre Expertise und ihr Ansatz auch einen Mehrwert für aktuelle MAxL-Teams bieten und sich daraus spannende Synergien ergeben. Eines unserer Ziele im MAxL ist die Förderung von interdisziplinärer Zusammenarbeit, zum Beispiel zwischen Teams, die Wirkstoffe entwickeln, und solchen, die Algorithmen im Bereich der Wirkstoffentwicklung entwickeln.

Wie viele Start-ups hat MAxL bislang begleitet, welche Erfolgsstory erzählen Sie besonders gern?

Burgstaller: MAxL wurde im Juni 2024 eröffnet und hat seitdem nach und nach neue Teams aufgenommen. Inzwischen sind zehn Teams im MAxL; weitere Aufnahmen bereiten wir derzeit vor. Einen wichtigen ersten Meilenstein konnte nun Twogee Biotech erreichen. Das 2025 gegründete Start-up um Frank Wallrapp und Helge Jochens ist seit Herbst 2024 im MAxL und entwickelt maßgeschneiderte Enzymlösungen zur industriellen Verwertung von Biomasse zu nachhaltigen Rohstoffen. Vor Kurzem konnte Twogee erfolgreich eine Seed-Finanzierungsrunde über 2,16 Mio. EUR abschließen. Zu den Investoren zählen der High-Tech Gründerfonds (HTGF) und Bayern Kapital sowie strategische Partner. Das Team konnte auch bereits eine Reihe von Pilotkunden für seinen Ansatz gewinnen. Eine Erfolgsgeschichte des BioM-Angebots für Start-ups ist natürlich auch Tubulis: Das Unternehmen nahm 2015 am BioM BioEntrepreneur Bootcamp teil, erhielt 2017 den m4 Award und eine Förderung durch exist, wurde 2019 gegründet und konnte seitdem mit seinen innovativen Antibody-Drug-Conjugates für die Krebstherapie über 540 Mio. EUR einwerben.

Wie bewerten Sie das aktuelle Finanzierungsumfeld für frühphasige Biotech-Start-ups?

Enke-Stolle: Für sehr frühphasige Biotech-Start-ups ist das Finanzierungsumfeld aktuell weiterhin schwieriger als noch vor ein paar Jahren. Wie wir an Twogee sehen, ist es zwar nach wie vor möglich, erfolgreiche Seed-Finanzierungen einzuwerben, aber die Investoren sind momentan deutlich selektiver und risikoaverser. Für umso wichtiger halten wir es aktuell, die Teams mit Instrumenten wie MAxL möglichst früh professionell zu unterstützen, damit sie mit überzeugenden Datenpaketen und durchdachten Entwicklungsplänen im internationalen Wettbewerb gut aufgestellt sind. 

Frau Burgstaller und Frau Enke-Stolle – vielen Dank für das Gespräch

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Cyber Security Report 2026

Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.

Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.

Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.

Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten

Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.

Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.

Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil

Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.

Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.

Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken

Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.

IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.

Fazit

Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.

Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?

Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:

  1. Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
  2. Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
  3. Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
  4. Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung

Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.

Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.

Von der regionalen Machbarkeitsstudie zur internationalen Skalierung

Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.

Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle

Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.

Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.

Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.

Marktumfeld: Spezialisierung als Abgrenzungsmerkmal

Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.

Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.

Herausforderungen in der Skalierung: Legacy-Systeme und Change Management

Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.