Gründer*in der Woche: GreenFor - für die Welt von morgen und die Kids von heute

Gründer*in der Woche KW 20/22


44 likes

Das Ziel des Thüringer Start-ups GreenFor ist es, Kitas, Schulen, Bildungseinrichtungen etc. durch fair gehandelte und abbaubare Verbrauchsprodukte auf Nachhaltigkeit umzustellen. Wie die Gründerinnen Franziska Seebauer und Manuela Büttner das schaffen wollen, erzählen sie uns im Interview.

Wann und wie seid ihr beiden auf die Idee zu GreenFor gekommen?

Franziska: Alles fing bei unserer Arbeit in der Kita an. Am Mittag beim Zähneputzen fragte mich ein Kind, warum ich mir denn mit einer „Holzzahnbürste“ die Zähne putze. Es war eine Bambuszahnbürste und die hat uns im Frühling 2020 zum Nachdenken angeregt.

Mit unseren Kindern sprachen wir viel über die Themen Umwelt, Natur und Nachhaltigkeit und sie waren super sensibel dafür. Wenn wir in der Natur waren, nahmen wir immer einen Müllbeutel mit, um den gefunden Müll einzusammeln. Auch Mülltrennung war für unsere Kinder ein Leichtes – warum dann nicht auch nachhaltige Produkte im Kita-Alltag einführen und nutzen?

Was waren dann die wichtigsten Steps von der GreenFor-Gründung bis zum Markteintritt (online und Vor-Ort-Service)?

Manuela: Ja, nach dem wir uns diese Frage gestellt hatten, lies sie uns auch nicht mehr los. Jede freie Minute recherchierten wir nach Produkten, Möglichkeiten und ob es da nicht schon jemanden gab, der sich auf Kitas und Schule spezialisiert hatte. Nachdem uns klar war, dass alle Plattformen und Onlineshops, die wir fanden, entweder super komplex waren, die Auswahl viel zu groß oder die Entscheidung zwischen wirklich nachhaltigen Produkten und Greenwashing nur schwer möglich war, gründeten wir im Oktober 2020, GreenFor.

Ein entscheidender Schritt war, Menschen zu finden, die uns in den Bereichen unterstützen, von denen wir nur wenig Ahnung hatten.

Weitere wichtige Schritte waren die Namensfindung, das Erarbeiten des Logos, die Websiteerstellung, Produktrecherche, Social-Media-Kanäle, Markenauftritt, Businessplan …

Auf den Punkt gebracht: Was ist das Besondere an GreenFor bzw. eurem Konzept und wer sind eure Kund*innen?

Franziska: Unsere Kund*innen sind Kitas, Schulen, SOS-Kinderdörfer, Unternehmen aber auch private Haushalte. Wir bieten alles kompakt auf einer Seite an, d.h. alles, was unsere Kund*innen an nachhaltigen, gut recherchierten Verbrauchsprodukten benötigen. Sie haben eine Zeitersparnis und wir die Möglichkeit, flächendeckend einen Mehrwert zu schaffen.

Das Konzept ist klar, der Nutzen auch. Doch wenn es dann darum geht, dass die Täger*innen einer Einrichtung mehr Geld investieren sollen, wird’s wahrscheinlich oft eng – oder nicht? Wie überzeugt ihr eure Kund*innen?

Manuela: Wir nutzen gern das Wort begeistern, überzeugen möchten wir unsere Kund*innen nicht. Sie wissen um die Problematik, in der unser Planet steckt, und sie wissen auch, dass wir handeln müssen. Ja, und die finanziellen Mittel sind natürlich ein Thema, jedoch darf man dazu sagen, dass einige Kommunen in Deutschland bereits in einer Transformation in Richtung Klimaneutralität stecken und diese bereits schrittweise umsetzen. Das ist natürlich eine gute Grundlage, da ist das Verständnis schon präsent und deren Umsetzung im Alltag leichter anzugehen.

Der Preis, den unsere kommenden Generationen zahlen werden, ist ein ganz anderer, wenn wir uns nicht zeitnah auf den Weg machen! Getreu unserem Motto: „Im Kleinen GROSSES bewirken!“

Wie habt ihr euch und damit die Startphase von GreenFor finanziert?

Franziska: In erster Linie mit Eigenkapital, Privatinvestor*innen aus Familie, Freundeskreis und mithilfe der BAFA-Förderung. Das erste Jahr nach der Gründung haben wir parallel zu GreenFor noch in unserem Job in der Kita gearbeitet, bis zu dem Zeitpunkt, wo beides miteinander zeitlich nicht mehr vereinbar war.

Erst jetzt haben wir einen Bankkredit bekommen, doch der Weg dahin war mehr als steinig und von Vorurteilen und veralteten Strukturen geprägt.

Was sind eure weiteren unternehmerischen To Do's und Ziele?

Manuela: Wir haben es uns zum Ziel gesetzt, bis 2030 zwischen 25 und 30 Prozent aller Kitas und Schulen in Deutschland auf nachhaltig umgestellt zu haben. Das klingt viel, aber 30 Prozent sind noch nicht 100 Prozent und das sollte und wird das eigentliche Ziel sein.

Aktuell arbeiten wir an unserer Marketingstrategie, um noch mehr Menschen auf uns und die Problematik aufmerksam zu machen. Ich denke, ansonsten haben wir ähnlich Ziele wie viele andere Start-ups: Stabilität zu erreichen, noch weitere Unterstützung zu erhalten, z.B. in Form von Investor*innen mit einem größeren Netzwerk und Know-how, weitere Kooperationen mit nachhaltigen Unternehmen eingehen, die Etablierung auf dem deutschen Markt und darüber hinaus auf dem europäischen Markt sowie eigene Produkte anzubieten.

Und last but not least: Was wollt ihr anderen Gründer*innen aus eigener Erfahrung mit auf den unternehmerischen Weg geben?

Franziska: „Nach jedem Tief kommt ein Hoch!“ Ganz egal, wie steinig der Weg ist, wie groß die Hürden sind, es lohnt sich, dran zu bleiben. Scheut euch nicht davor, Fehler zu machen. Fehler gehören dazu und lassen euch lernen und wachsen. Netzwerken macht Spaß, es gibt tolle Netzwerke mit Menschen, die euch auf eurem Weg unterstützen. Fragt nach und vernetzt euch. Noch ein letzter Tipp: Manchmal hilft es wie Kinder zu denken, nicht in Problemen, sondern in Lösungen!

Hier geht's zu GreenFor

Das Interview führte Hans Luthardt

UniteLabs: Der Münchner DeepTech-Herausforderer auf dem Weg zum globalen Labor-Standard?

Das 2024 von Robert Zechlin, Lukas Bromig und Julian Willand gegründete UniteLabs will die Laborautomatisierung von proprietären Hürden befreien. Nach einer Millionenfinanzierung folgte Anfang 2026 der offizielle US-Launch. Wir wollten wissen: Wie realistisch ist die Vision eines herstellerunabhängigen Standards in einem von Hardware-Silos dominierten Markt? Eine Analyse.

Wer heute ein hochmodernes BioTech-Labor betritt, erwartet nahtlos vernetzte HighTech-Forschung. Die Realität sieht oft anders aus: Rund 90 Prozent der Laborgeräte stammen von unterschiedlichen Hersteller*innen und sprechen schlichtweg nicht dieselbe technische Sprache. Um künstliche Intelligenz in der Forschung nutzbar zu machen, müssen hochqualifizierte Wissenschaftler*innen oft als Software-Ingenieur*innen einspringen und mühsam Schnittstellen programmieren. Genau diesen Flaschenhals will das Münchner DeepTech-Start-up UniteLabs beseitigen.

Die Gründer und der Sprung aus München

Hinter UniteLabs stehen Robert Zechlin, Lukas Bromig und Julian Willand. Nach Vorarbeiten ab 2022 wurde das Unternehmen 2024 offiziell gegründet. Das Team vereint interdisziplinäre Expertise aus Chemieingenieurwesen, Wirtschaftsinformatik und Unternehmensstrategie – eine essenzielle Mischung für ein Produkt, das tiefes Prozessverständnis mit modernster Softwarearchitektur verbinden muss.

Dass die Idee einen massiven Schmerzpunkt der Industrie trifft, zeigt die rasante Entwicklung der letzten Monate. Nach einer Pre-Seed-Finanzierungsrunde in Höhe von 2,77 Millionen Euro unter der Führung von NAP (ehemals Cavalry Ventures) im Januar 2025 und der Auszeichnung als „Bestes Münchner Start-up“ beim Munich Startup Award 2025 ist das Unternehmen sichtlich gewachsen. Im ersten Quartal 2026 zählt das Team im Münchner Inkubator Werk1 bereits rund 28 Köpfe.

Doch wie verhindert ein derart rasant wachsendes Team, bei der ständigen Anbindung neuer, exotischer Hardware nicht zu einer hochbezahlten IT-Manufaktur zu verkommen? Schließlich erfordert jedes neue Laborgerät auf dem Markt zunächst einmal Entwicklungsaufwand für den passenden Konnektor.

„Unser Ziel ist nicht, jedes exotische Gerät einzeln ‚irgendwie‘ anzubinden“, stellt Mitgründer Robert Zechlin klar. Vielmehr soll die Integration zu einer wiederholbaren Produktfähigkeit reifen. Statt sich im Klein-Klein der Modellnummern zu verlieren, baue UniteLabs seine Konnektoren entlang grundsätzlicher Geräte-Fähigkeiten. Die puren Herstellerspezifika landen dabei in einer dünnen Adapter-Schicht, während Workflows und Datensemantik konsistent bleiben.

Um die berüchtigte Skalierungsfalle zu umgehen, setzt das Start-up zudem verstärkt auf „Reusable Automation Assets“. „Wir investieren in validierte Workflow-Bausteine, Device-Profile und Test-Suites, mit denen die zweite und dritte Integration deutlich schneller wird als die erste“, betont Zechlin und skizziert damit den Weg zum echten SaaS-Unternehmen. Der Gründer gibt die Richtung selbstbewusst vor: „Die Grenzkosten für das nächste Gerät und den nächsten Standort müssen über Zeit sinken. Unser Endzustand ist ein Ökosystem, in dem Integrationen gemeinsame Infrastruktur sind, nicht Projektgeschäft.“

Vom Prototyp zur Architektur der offenen Labore

Im Februar 2026 hat UniteLabs auf der renommierten Branchenmesse SLAS in Boston den offiziellen US-Launch seines „AI-Ready Lab Automation Systems“ vollzogen. Statt nur isolierte Schnittstellen zu flicken, positioniert sich das Start-up nun mit einer klaren, dreiteiligen Architektur.

Den Kern bildet die Cloud-native „UniteLabs Platform“, die Hardware vernetzt und die Integration von Machine-Learning-Modellen in Echtzeit erlaubt. Ergänzt wird dies durch die lokale Anwendung „GroundControl“ für den Plug-and-Play-Anschluss von Geräten sowie das „UniteLabs SDK“. Letzteres ist ein Python-Werkzeug für Wissenschaftler*innen, um Labor-Workflows komplett als Code zu steuern. Dass diese Theorie praxistauglich ist, beweist das aufstrebende KI-BioTech-Unternehmen Cradle, das die Lücke zwischen Maschinen und digitalen Daten-Lakes intern bereits mit dem Münchner System schließt. Laut UniteLabs soll sich der Labor-Durchsatz für solche KI-getriebenen Forschungsteams durch die Plattform um bis zu das Vierfache steigern lassen.

Ein „Lab-as-Code“-Ansatz via Python mag für entwickleraffine Data Scientists verlockend sein – doch schließt er nicht paradoxerweise die klassischen Biolog*innen aus, für die Code-Workflows oft eine zu steile Lernkurve bedeuten?

„Code ist nicht das Produkt“, kontert Zechlin. Er sei vielmehr eine Schnittstelle, die sowohl Power-User als auch den Laboralltag bedienen müsse. Das SDK richte sich an Teams, die volle Kontrolle über Versionierung und automatisierte Tests verlangen – was im KI-BioTech-Umfeld zunehmend Standard sei. Zechlin räumt jedoch ein, dass das Programmieren nicht jedem liege: „Die meisten wollen zuverlässige Ausführung und klare Transparenz.“

Die Lösung der Münchner: Über die Orchestrierungsschicht und „GroundControl“ werden Workflows paketiert und mit Leitplanken versehen, sodass sie auch für Nicht-Entwickler sicher ausführbar sind. Code bleibt strategisch zwar die „universelle Abstraktion“ über Geräte hinweg, doch das Interface der Zukunft sieht anders aus. Zechlin blickt voraus: „Das User Interface für Wissenschaftler wird zunehmend KI-gesteuert und natürliche Sprache zum primären Interface. UniteLabs dient diesen KI-Applikationen als robuste Surface Area und Source of Truth.“ Die Leitplanke für das Wachstum fasst er in einem Satz zusammen: „Unsere Vision ist: flexibel, wo es Sinn macht, und kompromisslos robust, wo es zählen muss.“

Die Bewährungsprobe auf dem US-Markt

Nach dem Bostoner Launch steht das Start-up nun vor der monumentalen Aufgabe, sich im hochkompetitiven US-Markt zu behaupten. Hier entscheidet sich, ob UniteLabs vom europäischen Hoffnungsträger zum globalen Player reift. Umgeben von gigantischen Investitionen in die KI-Wirkstoffentwicklung reicht es nicht, nur ein weiteres Automatisierungstool zu sein – UniteLabs muss sich als essenzieller „Schaufelhersteller“ für den aktuellen Boom etablieren.

Dabei trifft man auf amerikanische Wettbewerber*innen, die teils mit hunderten Millionen Dollar Venture Capital ausgestattet sind. Wie überlebt ein Münchner Start-up mit einer Pre-Seed-Runde von knapp drei Millionen Euro diese Materialschlacht? Zechlin gibt sich pragmatisch und weicht dem direkten Finanz-Vergleich aus: „Klar: In Infrastrukturmärkten hilft Kapital, aber es ist nicht der entscheidende Hebel.“ Anstatt die Konkurrenz im reinen „Spend“ schlagen zu wollen, baue man auf messbaren Nutzen im Laborbetrieb.

Der Plan scheint aufzugehen: Ein Großteil von Umsatz und Pipeline stammt heute bereits aus den USA, wo UniteLabs Kund*innen an beiden Küsten bedient und mit großen Hardware-Hersteller*innenn kooperiert. „Wir planen für dieses Jahr unseren ersten Big Pharma Roll-out, der sowohl in Europa als auch an Standorten in den USA erfolgen soll“, verrät der Gründer. Um diese Dynamik zu finanzieren, hebe man aktuell eine 9-Millionen-Euro-Seed-Runde für die US-Expansion. Den strukturellen Wettbewerbsvorteil sieht Zechlin in der herstelleragnostischen Verbindung bestehender Geräte: „Statt Rip-and-Replace zu verlangen, werden Workflows schneller produktiv, Daten werden sauber mit Kontext versehen, und Teams können ‚Lab-as-Code‘ wirklich ausrollen.“

Ein strategischer Hebel ist dabei die Zielgruppenansprache. Statt in endlosen Vertriebszyklen mit dem C-Level großer Pharma-Konzerne zu ringen, treibt UniteLabs ein nutzer*innengetriebenes Wachstum voran. Labor-Ingenieur*innen, die durch das Python-SDK wochenlange Schnittstellenprogrammierung einsparen, tragen das System organisch in ihre Unternehmen. Dabei profitiert das Start-up enorm davon, selbst keine Pipettierroboter oder Analysegeräte herzustellen. Als „neutrale Schweiz“ der Labor-Hardware buhlt UniteLabs nicht um lukrative Geräteverkäufe – ein extrem starkes Argument gegen den gefürchteten Vendor-Lock-in amerikanischer Hardware-Giganten.

Stresstest für das Geschäftsmodell und Regularien

Doch die ambitionierte Plattform-Strategie wird kritisch geprüft werden. Das Geschäftsmodell birgt ein ständiges API-Katz-und-Maus-Spiel, da Schnittstellen zu teils stark abgeschirmten Systemen gebaut werden müssen. Wenn etablierte Hersteller*innen ihre Firmware ändern oder Drittanbieter-Zugriffe blockieren, explodieren schnell die Wartungskosten für die Konnektoren.

Bleibt die Frage an den Gründer: Was ist also der Plan B, wenn die Marktführer ihre Schnittstellen per Update plötzlich aktiv verschlüsseln? Reicht der Verweis auf offene Standards wie das SiLA2-Protokoll in der harten Praxis aus?

„Wir gehen davon aus, dass Hersteller ihre Ökosysteme schützen werden. Unsere Strategie darf deshalb nicht auf ‚Goodwill‘ bauen“, gibt sich Zechlin keinen Illusionen hin. Standards wie SiLA2 seien zwar hilfreich gegen Fragmentierung, aber „kein Schutzschild“. Der Ansatz der Münchner ist stattdessen pragmatisch und mehrstufig: Standards nutzen, wo verfügbar, und eigene robuste Adapter bauen, wo nötig. Zudem betreibe man ein Programm mit automatisierten Regressionstests am realen Geräteverhalten, um Fehler durch Updates früh zu erkennen.

Der zweite Baustein der Verteidigung ist kommerzieller Druck. Da Labore zunehmend „Best-of-Breed“-Lösungen kombinieren wollen, würden Hersteller, die Interoperabilität blockieren, zunehmend Deals riskieren. Im Hintergrund investiere man deshalb viel Arbeit in aktiv gepflegte Partnerschaften mit den Produzent*innen. Zechlins Plan B lautet letztlich Resilienz: „Mehrere Integrationspfade, starke Tests, und ein System, das stabil bleibt, auch wenn sich die Oberfläche verändert.“ Er ist sich sicher: „Langfristig wirkt die Ökonomie in Richtung Offenheit.“

Neben blockierender Hardware bleibt die US-Zulassungsbehörde FDA die vielleicht höchste Hürde auf dem Weg in den Enterprise-Markt. Deren strenge Vorgaben zu elektronischen Aufzeichnungen sind der größte Vorbehalt von Pharmaunternehmen gegenüber Cloud-basierten Systemen. Gelingt es UniteLabs, Offenheit mit lückenlosen Audit-Trails zu verknüpfen, könnten sie die berüchtigten Sales-Zyklen drastisch verkürzen.

Doch wie passt maximale Entwickler*innen-Freiheit durch Python-Skripte mit rigider FDA- und GxP-Compliance zusammen? Für Zechlin existiert dieser Widerspruch im Labor-Alltag schlichtweg nicht: „Compliance widerspricht Flexibilität nicht. Was widerspricht, ist unkontrollierte Veränderung.“

Um Big Pharma gerecht zu werden, behandle man hochflexible Workflows wie reguläre Software-Produkte: versioniert, testbar und auditierbar. „Ein Script ist in einem GxP-Kontext kein ‚jeder macht, was er will‘, sondern ein kontrolliertes Artefakt mit definierten Inputs, erwarteten Outputs und einem Validierungsnachweis“, unterstreicht der Mitgründer. Die Plattform trenne Sandbox-Entwicklungen von einer strikt kontrollierten Produktionsebene mit signierten Releases, Environment-Pinning und klarer Datenlineage. Zechlin formuliert einen selbstbewussten Anspruch an die Branche: „Das Labor holt Software-Best-Practices nach. Unser Anspruch ist, ‚compliant by design‘ zur Default-Einstellung für AI-ready Lab Ops zu machen.“

Fazit

UniteLabs hat exzellentes Timing bewiesen. Die BioTech-Branche lechzt nach KI, scheitert aber noch massenhaft an isolierten Daten. Durch das Bereitstellen essenzieller Daten-Infrastruktur haben sich die Münchner in eine starke Ausgangsposition manövriert. Der US-Launch und anstehende Messepräsentationen zeugen vom Anspruch der Gründer. Der ultimative Lackmustest ab 2026 wird jedoch sein, ob die Hardware-Hersteller*innen diesen Wandel dulden – oder den Kampf um ihre lukrativen Software-Margen eröffnen.

Bleibt die Frage nach dem viel zitierten „Endgame“: Baut das Start-up wirklich das globale Betriebssystem für Biotech-Labore, oder macht man sich letztlich nur als hochattraktives Übernahmeziel für Hardware-Giganten hübsch?

Auf diese Entweder-Oder-Frage antwortet Zechlin diplomatisch, aber ambitioniert: „Unsere Vision ist, die neutrale Betriebsschicht für moderne Labore zu werden, weil die Branche einen herstellerunabhängigen Standard braucht, nicht noch ein weiteres Einzellösungstool.“ Gleichzeitig sei man Realist: Infrastruktur zähle nur, wenn sie im Alltag zuverlässig genutzt werde und verlässliche, strukturierte Daten für KI liefere.

Sollte das gelingen, hält sich UniteLabs alle Optionen offen – von der unabhängigen Kategorie-Definition über strategische Partnerschaften bis hin zum Exit. Doch auf einen schnellen Verkauf schiele man nicht, verspricht Zechlin: „Wir bauen nicht für eine Übernahme. Wir bauen so, dass der Markt die Plattform ernst nehmen muss.“ Und am Ende solle ohnehin der/die Kund*in profitieren: „Weniger Silos, schnellere Science, und ein Ökosystem, in dem Innovation nicht an proprietären Schnittstellen hängen bleibt.“

Peak Quantum sichert sich 2,2 Mio. Euro für fehlerresistente Qubits

Peak Quantum holt 2,2 Mio. Euro für fehlerresistente Qubits. Wie das Münchner Spin-off mit EU-Förderung gegen die hochgerüstete Konkurrenz antritt.

München wächst weiter als Europas Quanten-Hauptstadt. Das Start-up Peak Quantum schließt seine Pre-Seed-Runde mit 2,2 Millionen Euro ab und positioniert sich im hart umkämpften Deep-Tech-Markt. Der Pitch der Gründer: Fehlerkorrektur direkt in der Hardware. Doch in einem extrem kapitalintensiven Umfeld reicht Geld allein nicht. Wie das Spin-off mit einem cleveren Infrastruktur-Schachzug gegen die hochgerüstete europäische Konkurrenz bestehen will.

Aus der Forschung in die Praxis

Im Jahr 2024 entstand Peak Quantum als Spin-off aus der Forschungsgruppe von Prof. Stefan Filipp am Walther-Meißner-Institut (WMI), das zur Bayerischen Akademie der Wissenschaften gehört. Das Gründungsteam deckt interdisziplinär die gesamte Wertschöpfungskette vom Chipdesign bis zur Systemintegration ab. Zu den Köpfen hinter der Unternehmung gehören Leon Koch (CEO), Alexander Schult (CFO), Dr. Thomas Luschmann (COO), Dr. Max Werninghaus (CSO), Ivan Tsitsilin (Head of Design), Kedar Honasoge (Head of Production) und Daniil Bazulin (Quantum Engineer). Unterstützt wird das junge Unternehmen durch wichtige Säulen des lokalen Ökosystems wie dem Munich Quantum Valley und der UnternehmerTUM.

„Hardware-First“ statt Software-Pflaster

Das aktuell größte Hindernis im Quantencomputing ist das sogenannte Rauschen – die enorme Fehleranfälligkeit der Recheneinheiten (Qubits). Während die Industrie bisher stark darauf setzte, schlicht die Anzahl physikalischer Qubits hochzuskalieren und Fehler nachträglich per Software zu korrigieren, wählt Peak Quantum einen grundlegend anderen Weg. Das Start-up entwickelt supraleitende Prozessoren, deren physikalische Architektur Fehler bereits auf der reinen Hardware-Ebene unterdrückt. Dieser integrierte Fehlerschutz soll die Komplexität des Gesamtsystems drastisch senken und die Entwicklung kommerziell nutzbarer Rechner massiv beschleunigen.

Das Geschäftsmodell & der EU-Infrastruktur-Hebel

Quanten-Hardware ist ein unfassbar teures Pflaster. Mit dem frischen Kapital von Investor*innen wie dem britischen Lead-Investor Cloudberry Ventures, United Founders oder QAI Ventures steigt die Gesamtfinanzierung von Peak Quantum auf gut fünf Millionen Euro. Für den Aufbau eigener Reinräume (CapEx) reicht das kaum. Der strategische Clou des Geschäftsmodells liegt daher in der europäischen Vernetzung: Peak Quantum bezieht öffentliche Fördermittel aus dem EU Chips Act und wurde ausgewählt, die im April 2026 startende Quantenchip-Pilotlinie SUPREME zu betreiben.

Ziel ist es, in Europa eine skalierbare Produktionsumgebung zu etablieren, die langfristig auch für externe Partner geöffnet werden soll. Ein Modell, das es Peak Quantum erlaubt, trotz einer frühen Finanzierungsphase hocheffizient an industrietauglichen Chips zu feilen.

Der Markt & die Konkurrenz

Doch der Markt verzeiht keine Verzögerungen, und München ist längst ein Haifischbecken der Quantentechnologie. Direkt vor der Haustür sitzen Schwergewichte:

  • IQM Quantum Computers: Der europäische Platzhirsch für supraleitende Quantencomputer (mit Hauptsitz in Finnland, aber großem Zentrum in München), der kürzlich eine SPAC-Fusion für einen geplanten Milliarden-Börsengang ankündigte.
  • planqc: Ein weiteres Münchner Spin-off, das auf neutrale Atome setzt und bereits 2024 eine Series A in Höhe von satten 50 Millionen Euro abschloss.
  • Alice & Bob: Auf internationaler Ebene steht besonders das französische Start-up Alice & Bob in direkter technischer Konkurrenz. Die Pariser entwickeln sogenannte Cat Qubits, die ebenfalls hardwareseitig fehlerresistent sind, und kooperieren dabei bereits eng mit Microsofts Quanten-Sparte.

Fazit: Risiko und enorme Chance

Das Board rund um einen ehemaligen Alphabet-X-Advisor sieht in Peak Quantum ein elementares Puzzleteil für ein eigenständiges europäisches Quanten-Ökosystem. Die Investition ist ein klassisches „Deep-Tech-Infrastruktur-Play“.

Dennoch ist eine Pre-Seed-Runde von 2,2 Millionen Euro im Jahr 2026 angesichts der Kapitalausstattung der Konkurrenz eine riskante Wette. Peak Quantum muss durch den Zugang zur SUPREME-Pilotlinie extrem schnell beweisen, dass die fehlerresistente Architektur industriell skaliert und nicht nur im Labor des WMI funktioniert.

Bringt das Team um Leon Koch erste greifbare Pilotprojekte mit Forschungs- und Industriepartnern in den Bereichen Materialforschung, Logistik oder industrieller Optimierung zum Laufen, könnte Peak Quantum zu einem technologischen Flaschenhals werden, an dem in Europa niemand mehr vorbeikommt. Es ist das Paradebeispiel dafür, wie smarte Gründer*innen nicht nur Code oder Hardware schreiben, sondern das System aus Fördergeldern, Pilotlinien und lokaler Forschungsexzellenz maximal zu ihrem Vorteil hebeln.

50 Mio. US-Dollar-Series A-Runde für Berliner FinTech Midas

Das 2024 von Dennis Dinkelmeyer, Fabrice Grinda und Romain Bourgois gegründete Web3-Start-up Midas sammelt 50 Mio. $ ein, um tokenisierte Vermögenswerte sofort liquide zu machen. Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen.

Der Markt für tokenisierte Vermögenswerte (Real World Assets, kurz RWA) wächst rasant, leidet jedoch noch immer an einer strukturellen Hürde: Während Kryptomärkte rund um die Uhr in Echtzeit handeln, sind traditionelle Finanzprodukte im Hintergrund oft an klassische, mehrtägige Abwicklungszyklen gebunden. Wenn Investor*innen ihre Token in liquide Mittel zurücktauschen wollen, kommt es unweigerlich zu Verzögerungen. Genau diese Lücke will das Berliner FinTech Midas nun schließen und hat dafür massiv Kapital aufgenommen.

Wie das Unternehmen heute mitteilte, flossen in einer Series-A-Finanzierungsrunde 50 Millionen US-Dollar (rund 46 Millionen Euro). Angeführt wird die Runde von den Venture-Capital-Firmen RRE Ventures und Creandum. Zu den weiteren Geldgebern zählen namhafte Branchengrößen wie Framework Ventures, Coinbase Ventures sowie der traditionelle Vermögensverwalter Franklin Templeton, der selbst bereits stark im Bereich tokenisierter Anlageprodukte aktiv ist. Mit der aktuellen Runde steigt das Gesamtfinanzierungsvolumen des Start-ups auf knapp 59 Millionen US-Dollar.

Das Gründerteam aus TradFi und Web3

Hinter Midas, das 2024 gegründet wurde, steht ein Team, das tiefes Wissen aus der traditionellen Finanzwelt (TradFi), dem Venture Capital und dem dezentralen Finanzsektor (DeFi) vereint. An der Spitze steht CEO und Mitgründer Dennis Dinkelmeyer, der vor der Gründung im Investment Research bei Branchengrößen wie Goldman Sachs und der Capital Group tätig war. Er bringt das essenzielle Verständnis für die Strukturierung institutioneller Anlageprodukte in die Blockchain-Welt ein.

Ergänzt wird die Führungsriege durch Executive Chairman und Mitgründer Fabrice Grinda. Als Gründungspartner des Investmentfonds FJ Labs gehört Grinda zu den weltweit aktivsten Angel-Investoren. Er steuert neben Kapital und einem enormen Netzwerk auch operative Erfahrung bei, die er unter anderem als Co-Gründer der für über eine Milliarde US-Dollar übernommenen Plattform OLX sammelte. Komplettiert wird das Führungstrio von Mitgründer Romain Bourgois. Der Tech-Experte war fast ein Jahrzehnt in leitenden Produktrollen beim AdTech-Giganten Criteo tätig, bevor er als Head of Product zum US-Konkurrenten Ondo Finance wechselte. Dort leistete er maßgebliche Pionierarbeit bei der Entwicklung und Skalierung der ersten großen tokenisierten US-Staatsanleihen, wie etwa OUSG und USDY.

Fokus auf „Midas Staked Liquidity“ (MSL)

Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen. Dabei handelt es sich um einen dedizierten Liquiditätspuffer, gegen den die firmeneigenen Token (mToken) jederzeit und ohne Wartezeit eingelöst werden können. Für institutionelle Investoren, die Treasury- und Portfolio-Management auf der Blockchain betreiben, ist diese sofortige Liquidität ein entscheidendes Kriterium.

Bisher mussten Rendite-Investoren oft zwischen der sofortigen Handelbarkeit und den Erträgen von DeFi-Protokollen abwägen – MSL soll diesen Kompromiss überflüssig machen. Die Midas-Plattform überführt dafür institutionelle Anlagestrategien, wie etwa Staatsanleihen (mTBILL) oder Basis-Handelsstrategien (mBASIS), in regulierungskonforme Token, die nahtlos in DeFi-Netzwerke wie Morpho oder Pendle integriert werden können. Nach eigenen Angaben hat Midas seit dem Start Token im Gesamtwert von über 1,7 Milliarden US-Dollar emittiert und dabei Erträge in Höhe von 37 Millionen US-Dollar an seine mehr als 20.000 Nutzer ausgeschüttet. Das Fintech finanziert sich dabei über Gebühren, die auf diese erwirtschafteten Renditen erhoben werden.

Die Brücke zwischen Wall Street und Blockchain

„Wir arbeiten auf eine Zukunft hin, in der Investitionen wie das Internet funktionieren: offen, transparent, kombinierbar und standardmäßig zugänglich“, formuliert CEO Dennis Dinkelmeyer den Anspruch des Unternehmens. Vic Singh, General Partner bei RRE Ventures, teilt diese Vision: Die Tokenisierung werde die globalen Kapitalmärkte fundamental verändern, sobald die traditionelle Finanzwelt ihre Infrastruktur vollständig auf die Blockchain verlagere.

Neben der Etablierung von MSL plant Midas, das frische Kapital für die Erschließung weiterer Anlageklassen und den Ausbau von Partnerschaften zu nutzen. Mit dem Einstieg von Schwergewichten wie Franklin Templeton und Coinbase Ventures positioniert sich das 2024 gegründete Unternehmen damit als einer der zentralen Infrastrukturanbieter an der lukrativen Schnittstelle zwischen klassischem Finanzwesen und der Krypto-Ökonomie.

Gründer*in der Woche: SpeakerMatching.com – Disruption auf der Bühne

Die Eventbranche wächst, doch die Suche nach den passenden Köpfen für die Bühne gleicht oft noch einem analogen Kraftakt. Mit der Plattform SpeakerMatching.com will eine erfahrene Seriengründerin den Spieß nun umdrehen. Es ist ein klassisches Plattform-Play ohne die üblichen Vermittlungsprovisionen – doch kann sich das Modell gegen etablierte Branchengrößen durchsetzen? Wir haben die Gründerin Henriette Hochstein-Frädrich befragt.

Hinter SpeakerMatching.com, im November 2025 als B2B-Marktplatz gelauncht, steht Henriette Hochstein-Frädrich. Sie kennt den Schmerz der Branche nicht nur vom Hörensagen. „Ich kenne den Markt nicht nur als Plattformunternehmerin, sondern auch aus zwei weiteren sehr praktischen Perspektiven: Seit vielen Jahren stehe ich selbst als Speakerin und Moderatorin auf Bühnen, und zugleich habe ich eigene Eventformate und Veranstaltungsreihen im Bereich modernes Female Empowerment konzipiert und umgesetzt“, erinnert sich die Gründerin.

„Gerade als Veranstalterin wurde mir immer wieder bewusst, wie zeitaufwendig, intransparent und teilweise zufallsgetrieben die Suche nach passenden Rednerinnen sein kann“, bringt sie das Kernproblem auf den Punkt. Gleichzeitig habe sie beobachtet, wie sich der Markt zunehmend professionalisiere: „Es gibt mehr Expertinnen, mehr Themen, mehr Formate, aber bislang keine wirklich zeitgemäße digitale Infrastruktur, die Angebot und Nachfrage effizient zusammenführt.“

Dass sie diese Infrastruktur bauen kann, hat sie in der Vergangenheit bewiesen: 2009 gründete sie Pharmatching.com, baute es zur Branchengröße auf und verkaufte es 2017. „Aus meinen früheren Plattformgründungen habe ich vor allem drei zentrale Lektionen mitgenommen: Erfolgreiche Marktplätze lösen ein echtes, konkretes Problem. Vertrauen und Qualität sind im B2B-Umfeld entscheidend. Und nicht zuletzt spielt Timing eine größere Rolle, als viele denken“, betont Hochstein-Frädrich.

Rollentausch statt Kaltakquise

Das Timing sei deshalb ideal, weil Veranstaltende heute Plattformlogiken und Self-Service-Modelle erwarten, wie sie sie aus anderen B2B-Märkten längst kennen. Der Kern von SpeakerMatching.com liegt in der Umkehrung des klassischen Buchungsprozesses. Veranstaltende formulieren ihr Gesuch kostenfrei auf der Plattform, woraufhin sich Speaker*innen direkt bewerben können. Das Start-up finanziert sich stattdessen über Abonnements für die Rednerinnen.

„Uns war von Anfang an wichtig, ein sehr niedrigschwelliges und zugleich faires Preismodell für Speaker*innen zu schaffen“, rechnet die Geschäftsführerin vor. Die monatlichen Mitgliedschaften liegen zwischen rund 59 und 89 Euro. „Wenn über die Plattform ein einzelner Auftrag im mittleren vierstelligen Bereich zustande kommt, hat sich die Investition für viele Redner*innen bereits mehrfach amortisiert.“ Sie stellt aber auch klar: „SpeakerMatching.com ist ein Marktplatz, kein Management- oder Vermittlungsvertrag.“

Doch wie verhindert man eine Flut an unpassenden Bewerbungen? „Die Sorge vor einer unüberschaubaren Bewerbungsflut ist absolut nachvollziehbar, gerade bei offenen Plattformmodellen“, räumt die Gründerin ein. Da Veranstaltende jedoch Parameter wie Budget, Zielgruppe oder Sprache sehr konkret vorgeben, entstehe eine starke Vorfilterung. „Unsere bisherigen Erfahrungen aus den ersten Monaten zeigen sehr deutlich: Unpassende ‚Blindbewerbungen‘ sind die absolute Ausnahme“, versichert Hochstein-Frädrich. Zwar sollen perspektivisch KI-basierte Funktionen eine stärkere Rolle spielen, doch die Vision bleibt menschlich: „Unser Ziel ist daher kein vollständig automatisiertes ‚Black-Box-Matching‘, sondern eine intelligente Plattform, die Entscheidungsprozesse vereinfacht und die Qualität der Interaktionen erhöht.“

Um das Problem des Bypassings – also den Abschluss an der Plattform vorbei – zu umgehen, werden Event-Gesuche zunächst anonymisiert veröffentlicht. „Erst wenn sie passende Bewerbungen erhalten und aktiv in den Austausch gehen möchten, geben sie ihre Identität preis“, erklärt die Gründerin den Prozess. „Wenn Speaker*innen über SpeakerMatching.com kontinuierlich relevante Anfragen erhalten und Veranstaltende effizient passende Expertinnen finden, entsteht eine stabile Win-Win-Dynamik. Genau darauf ist das Modell ausgelegt.“

Markt, Wettbewerb und organisches Wachstum

Der Markt wächst kontinuierlich, wird aber von großen Redneragenturen wie Speakers Excellence oder Premium Speakers dominiert. Diese arbeiten stark kuratiert und rufen oft hohe Vermittlungsprovisionen auf. Um in diesem zweiseitigen Markt das klassische Henne-Ei-Problem zu überwinden, verzichtet die Plattform auf der Veranstaltendenseite auf Gebühren.

Finanziert ist das Vorhaben bisher weitgehend aus eigener Kraft. „Aus meinen früheren Gründungen weiß ich, wie wichtig es gerade in der frühen Phase eines zweiseitigen Marktplatzes ist, Produkt, Zielgruppe und Marktmechanik zunächst sehr präzise zu verstehen und organisch zu entwickeln“, lautet ihr Credo. „Plattformmodelle brauchen Zeit, Vertrauen und kritische Masse, das lässt sich nicht ausschließlich mit Kapital ‚beschleunigen‘, sondern vor allem durch konsequenten Nutzen für beide Marktseiten“.

Dabei grenzt sie sich bewusst von stark kuratierten Agenturen ab. Der Mix aus etablierten Persönlichkeiten und neuen Stimmen sei genau das, was der Markt heute suche. Viele Unternehmen wünschen sich heute bewusst mehr Vielfalt auf ihren Bühnen. „Dabei verstehen wir Diversität nicht nur im klassischen demografischen Sinn, sondern auch als Vielfalt an Perspektiven, Erfahrungen und Denkweisen“, so Hochstein-Frädrich.

Den Vorstoß in Richtung Full-Service-Agenturen samt Ausfallversicherungen bremst sie indes ab. „Im Moment konzentrieren wir uns bewusst darauf, das Matching selbst so gut wie möglich zu machen. Alles Weitere kann – zumindest vorerst – auch von anderen Playern im Ökosystem übernommen werden.“

Fazit

Das Speaker-Business ist traditionell ein echtes People Business. Bei Keynotes für teils fünfstellige Honorare verlassen sich viele Großkund*innen gern auf die persönliche Beratung einer Agentur, die im Krankheitsfall sofort für Ersatz sorgt. Diesen Full-Service kann ein Self-Service-Marktplatz aktuell nur schwer vollumfänglich abbilden.

Dennoch ist SpeakerMatching.com ein mutiger und zeitgemäßer Angriff auf die verkrusteten und provisionsgetriebenen Strukturen der Eventbranche. Gelingt es, rasch eine kritische Masse an hochwertigen Event-Gesuchen zu generieren, hat die Plattform das Potenzial, Angebot und Nachfrage künftig deutlich schneller zusammenzubringen.

deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken

Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.

Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.

Vom Agenturgeschäft zur SaaS-Lösung

Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).

Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“

Plattformansatz für Inspektionsdaten

Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.

Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.

Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“

Marktumfeld & regulatorische Barrieren

Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.

Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.

Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.

Der technologische Burggraben im starken Wettbewerb

Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.

Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.

Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.

Finanzierung & Ausblick

Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.

Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."

Architektur statt Strukturgröße: Aachener Chip-Start-up INCIRT sichert sich 4,8 Mio. Euro

Das Halbleiter-Start-up INCIRT hat eine Finanzierungsrunde in Höhe von 4,8 Millionen Euro abgeschlossen. Angeführt wird die Runde vom finnischen Early-Stage-VC Lifeline Ventures, während der High-Tech Gründerfonds (HTGF) – der bereits in der Seed-Runde 2022 investierte – erneut mitzieht. Das frische Kapital soll die Industrialisierung und den Markteintritt einer neuen Generation von Hochleistungs-Datenwandlern beschleunigen, die vor allem in Satelliten, 5G/6G-Infrastruktur und KI-Rechenzentren zum Einsatz kommen sollen.

Hinter dem DeepTech-Unternehmen steht ein Team mit tiefen akademischen Wurzeln. INCIRT entstand Anfang 2022 als exist-gefördertes Spin-off der RWTH Aachen. Die promovierten Elektrotechniker Dr. Oner Hanay (CEO), Dr. Erkan Bayram und Dr. Mohamed Saeed Elsayed brachten das wissenschaftliche Fundament mit, während Sebastian Waters (CCO/CFO) die kaufmännische Seite abdeckt. Technisch beraten wird das Team durch Prof. Dr. Renato Negra. Bereits im Gründungsjahr sorgten die Aachener für Aufsehen und gewannen den renommierten "Falling Walls Venture"-Award.

Intelligenz schlägt Nanometer

Der technologische Ansatz von INCIRT zielt auf ein Kernproblem der Halbleiterindustrie ab: Dem klassischen „Moore’s Law“ folgend, wurden Leistungssteigerungen in der Vergangenheit vor allem durch immer kleinere Transistoren (mittlerweile im einstelligen Nanometer-Bereich) erkauft. Dieser Weg stößt an physikalische Grenzen und lässt die Produktionskosten explodieren.

INCIRT setzt stattdessen auf eine patentierte, stark parallelisierte Systemarchitektur für seine Analog-Digital- und Digital-Analog-Wandler. Laut Unternehmensangaben ermöglichen diese eine bis zu 100-mal schnellere Datenübertragung bei signifikant geringerem Energieverbrauch. Der entscheidende strategische Vorteil: Weil die Architektur so effizient ist, können die Chips im etablierten, weitaus günstigeren 22-Nanometer-Verfahren produziert werden – und zwar direkt in Europa. Das macht das Start-up zu einem spannenden Akteur im Bestreben der EU, digitale Souveränität aufzubauen und die Abhängigkeit von asiatischen Mega-Foundries wie TSMC zu verringern.

Zwischen IP-Lizenz und Hardware-Hürden

So vielversprechend die Technologie ist, so steinig ist der Weg zur Kommerzialisierung. Der globale Markt für Datenwandler wird von etablierten US-Giganten wie Analog Devices, Texas Instruments oder Broadcom dominiert. Diese Konzerne verfügen nicht nur über Milliardenbudgets für Forschung, sondern auch über extrem tief verwurzelte Lieferbeziehungen zu den großen Netzwerkausrüstern und der Raumfahrtindustrie.

Zudem offenbart die Hardware-Entwicklung extrem lange Validierungszyklen. Bauteile, die in den Weltraum geschossen werden, müssen jahrelange Zertifizierungen durchlaufen. CEO Oner Hanay formuliert dennoch das ambitionierte Ziel, in zehn Jahren bis zu 10.000 europäische Satelliten mit INCIRT-Technologie auszurüsten.

Hier drängt sich die kritische Frage nach dem finalen Geschäftsmodell auf: Zur Seed-Runde 2022 positionierte sich INCIRT noch primär als skalierbarer Anbieter von „IP-Lösungen“ (Intellectual Property), der reine Baupläne lizenziert. In der aktuellen Kommunikation rückt nun die physische "Chipproduktion" in den Vordergrund. Sollte INCIRT als "Fabless"-Unternehmen auftreten, das Chips auf eigene Rechnung produzieren lässt, sind 4,8 Millionen Euro in der Halbleiterindustrie kaum mehr als ein Tropfen auf den heißen Stein. Allein um die Maskenkosten (Tape-outs) und das Working Capital für Massenmärkte zu finanzieren, wird mittelfristig ein Vielfaches an Kapital oder ein starker Industrie-Partner nötig sein.

Fazit

Die neue Runde verschafft INCIRT die entscheidende "Runway", um erste Kundenprojekte zu starten und die Leistungsfähigkeit der Chips im harten Praxiseinsatz zu beweisen. Gelingt es den Aachenern, die Platzhirsche bei Leistung, Kosten und Liefersicherheit zu schlagen, könnte das Spin-off ein essenzieller Baustein der europäischen Telekommunikationszukunft werden. Bis dahin bleibt es eine klassische DeepTech-Wette: Hochriskant, extrem kapitalintensiv – aber mit immensem Hebel, falls sie aufgeht.

Vom Solinger Start-up zum globalen Einhorn: Wie Dash0 die Observability-Giganten dekonstruiert

Das 2023 gegründete KI-Start-up Dash0 hat im März 2026 mit einer 110-Millionen-Dollar-Runde die magische Milliardenbewertung geknackt. Die Vision: Die Systemüberwachung von Software durch offene Standards, radikal faire Preismodelle und pragmatische KI zu revolutionieren. Doch der Frontalangriff auf US-Goliaths wie Datadog birgt strategische Risiken.

In der modernen Softwareentwicklung ertrinken IT-Teams in einer Flut aus Warnmeldungen, Logs und Metriken. Klassische Überwachungs-Tools (Observability) sind oft teuer, komplex und sperren Kunden in geschlossene Daten-Ökosysteme ein. Genau dieses Problem adressiert Dash0 – und hat damit in Rekordzeit Investoren und namhafte Kunden überzeugt. „Systemüberwachung ist heute kaputt: Sie ist zu laut, zu teuer und zu komplex“, bringt es Dash0-CEO und Mitgründer Mirko Novakovic auf den Punkt.

Die Gründer und der rasante Aufstieg zum Einhorn

Hinter Dash0 steht ein Quintett erfahrener Tech-Veteranen. Besonders Mirko Novakovic ist in der B2B-Szene ein Schwergewicht: 2020 verkaufte er sein vorheriges Start-up Instana für rund 500 Millionen US-Dollar an IBM. Dieser „Repeat Founder“-Status erklärt das enorme Vertrauen der Geldgeber.

Die Historie von Dash0 liest sich wie ein Start-up-Märchen im Zeitraffer: Nach der Gründung 2023 im nordrhein-westfälischen Solingen folgte Ende 2024 eine 9,5-Millionen-Dollar-Seed-Runde parallel zum Produktlaunch. Ein Jahr später sammelte das Team 35 Millionen Dollar ein.

Der Ritterschlag folgte nun im März 2026: Mit einer von Balderton Capital angeführten Series-B-Runde über 110 Millionen Dollar steigt Dash0 in den Kreis der Unicorns auf. Diesen Meilenstein verknüpft das Team mit einer klaren Kampfansage: „Mit den 110 Millionen Dollar, die wir heute bekannt geben, bringen wir autonome Abläufe zu jedem Entwicklerteam der Welt – noch bevor unsere Wettbewerber überhaupt begreifen, was mit ihnen geschieht.“

Das Produkt: Ein Frontalangriff auf die Industrie-Norm

Ein Blick unter die Haube zeigt, warum die Plattform so schnell wächst. Das Start-up dekonstruiert gezielt die Schwachstellen der etablierten Milliardenkonzerne:

  • Das Ende des „Vendor Lock-ins“: Dash0 basiert vollständig auf offenen CNCF-Standards (OpenTelemetry). Als Abfragesprache wird nativ PromQL genutzt, für Dashboards kommt das quelloffene Perses zum Einsatz. Das bedeutet für Technik-Entscheider: Würde Dash0 die Preise anheben, könnten sie ihre gesamten Dashboards und Alarme einfach mitnehmen und woanders hosten.
  • Radikales Pricing: Branchenriesen rechnen oft nach Datenvolumen (Gigabyte) oder Nutzerlizenzen ab, was bei wachsenden Systemen zu explodierenden Budgets führt. Dash0 rechnet rein nach der Anzahl der gesendeten Telemetrie-Datenpunkte ab. Unternehmen können unlimitiert Metadaten anhängen und unbegrenzt viele Entwickler auf das System lassen, ohne dass verdeckte Kosten anfallen.
  • Developer Experience (DX): Dash0 positioniert sich als Tool „von Ingenieuren für Ingenieure“. Die Plattform lässt sich für maximale Geschwindigkeit komplett per Tastatur steuern, und Konfigurationen können nahtlos als Code (Configuration as Code) in bestehende Entwicklungs-Pipelines integriert werden.

Dieser Ansatz zieht prominente Kunden an: Tech-Schwergewichte wie Vercel loben die drastisch verkürzte Zeit zur Fehlerbehebung, und auch Traditionskonzerne wie Porsche Digital setzen auf die offene Architektur von Dash0, um sich zukunftssicher aufzustellen. Um das technologische Fundament schnellstmöglich zu verbreitern, akquirierte Dash0 zudem im Februar 2026 das israelische Serverless-Start-up Lumigo.

Pragmatische KI statt Buzzword-Bingo

Während der Markt aktuell von generativen KI-Versprechen überflutet wird, positioniert sich Dash0 erstaunlich pragmatisch. Das Mantra des Start-ups lautet: „AI is an implementation detail.“ (KI ist ein Implementierungsdetail).

Der hauseigene Copilot „Agent0“ soll zwar autonome Analysen durchführen und Teams in Echtzeit entlasten, aber das primäre Ziel ist es, repetitive Aufgaben verlässlich und vor allem ohne Halluzinationen zu lösen. Die beste KI-Funktion, so das Credo der Gründer, sei diejenige, die der/die Nutzer*in liebt, ohne überhaupt zu merken, dass es sich um KI handelt.

David gegen Goliath in New York

Trotz des beeindruckenden Momentums steht Dash0 in der Skalierungsphase vor massiven Hürden:

  • Der Goliath-Wettbewerb: Dash0 tritt gegen etablierte US-Giganten wie Datadog, Dynatrace oder Grafana an. Um diesen Kampf zu führen, hat das Start-up seinen Hauptsitz mittlerweile von Deutschland nach New York verlegt. Dieser Schritt erfordert eine extrem hohe Cash-Burn-Rate im Enterprise-Vertrieb.
  • Der fehlende „Burggraben“: Was für Kund*innen hochattraktiv ist (offene Standards wie Perses und PromQL), beraubt Dash0 eines klassischen defensiven Lock-ins. Da ein Wechsel zu einem anderen Anbieter theoretisch leichter ist als bei geschlossenen Systemen, ist Dash0 dazu verdammt, permanent durch überlegene Usability und fehlerfreie KI zu überzeugen.

Fazit

Für die deutsche Start-up-Szene ist Dash0 ein exzellentes Paradebeispiel für modernes B2B-Hypergrowth. Die Story zeigt, wie man in scheinbar gesättigten Märkten durch konsequente Nutzerzentrierung, offene Standards und transparente Preise in unter drei Jahren zum Einhorn aufsteigen kann. Es ist der Beweis, dass deutsche DeepTech-Gründer*innen auf globaler Ebene nicht nur mitspielen, sondern die Spielregeln aktiv neu schreiben können.

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere

Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.

Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.

Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.

Der technologische Schlüssel: "Direct Cytosolic Transfer"

Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.

Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.

Zwischen enormem Potenzial und hohem Risiko

Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.

Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.

Blaupause für Deep-Tech-Gründer

Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:

  • Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
  • Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
  • Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.

Gründer*in der Woche: VARM – Unf*ck the planet

Wie die VARM-Gründer Christian Grüner und Sebastian Würz das Handwerk skalieren und die Wärmewende beschleunigen wollen.

Am Anfang stand kein Hype, sondern eine einfache Wahrheit: Die günstigste Kilowattstunde ist die, die gar nicht erst verloren geht. Christian Grüner, Mathematiker, ehemaliger Managementberater und Gründer, folgte dieser schlichten Logik, als er sich nach dem Verkauf seines ersten Start-ups den Themen Klimaschutz und klimawirksame Gebäudesanierung widmete und erkannte: Nicht die nächste glänzende Hardware verspricht den größten Hebel für mehr Energie­- und Kosteneffizienz in Gebäuden, sondern eine solide Hülle. „Ich wollte etwas Physisches mit echtem Impact bauen. Dämmung ist dafür der unterschätzte Schlüssel“, sagt Christian rückblickend.

So entstand die Idee zu VARM, das er 2023 zusammen mit Sebastian Würz gründete, der über Know-how im Aufbau wachstumsstarker Start-ups und Expertise in Finanzen, Personal und Vertrieb verfügte, – als zentrale Anlaufstelle für effek­tive Hausdämmung. „Wir verbinden Handwerkskompetenz mit digitalen Prozessen – von der Beratung bis hin zur Ausführung“, so Christian. Das Ziel: Full-Service-Dämmung für Ein- und Mehrfamilienhäuser – transparent, plan- und skalierbar.

Brücke zwischen zwei Welten

Die größte Challenge dabei? Zwei Kulturen zusammenbringen: moderne Start-up-Mechanismen und traditionelles Handwerk. „Auf dem Papier ist Standardisierung leicht. Auf der Baustelle bedeutet sie: klare Abläufe, gute Ausbildung, saubere Kommunikation – jeden Tag“, sagt Christian.

Deshalb baut VARM eigene Teams auf, setzt auf eigene Handwerker*innen statt auf Subunternehmertum und professionalisiert das Gewerk mit durchgängig digitalen Prozessen: Von der Bedarfsanalyse über Angebot und Materiallogistik bis hin zur Nachbetreuung läuft alles in einer klaren Taktung. Qualität ist kein Zufall, sondern das Ergebnis von Prozessen und den Menschen, die diese Struktur tragen, so das Credo der Gründer.

Die Business-in-a-Box fürs Handwerk

Mit der inhouse entwickelten Business-in-a-Box hilft man den eigens ausgebildeten Handwerker*innen, ihre eigenen Betriebe per Franchise zu eröffnen und als selbständige „Dämm-Entrepreneur*innen“ zu operieren. „Wir reduzieren Einstiegshürden, stellen Tools, Aufträge, Schulung sowie Qualitätsmanagement und ermöglichen Selbständigkeit, wo sie bisher nur sehr schwer zugänglich war“, sagt Christian.

Der digitale Backbone schafft zugleich Skalierbarkeit: KI-gestützte Planung, zentrale Materiallogistik und intelligente Einsatzsteuerung sollen es perspektivisch ermöglichen, dass eine Person bis zu 50 Handwerkteams parallel koordiniert; ein Effi­zienzsprung um den Faktor 25 gegenüber dem klassischen Handwerk.

VARM ist somit der klassische Anwendungsfall von Physical­ AI: Hier trifft die „echte“ Welt auf KI-basierte Effi­zienz­steigerung. Für eine fragmentierte Branche bedeutet das Disruption mit Augenmaß: lokal, qualitätsgesichert und paneuropäisch denkbar.

Auf Wachstumskurs

Schon kurz nach dem Start konnte das Start-up eine siebenstellige Pre-Seed-Runde schließen – angeführt von Foundamental und noa, flankiert von Business Angels wie den Gründern von Thermondo und Ecoworks. 2024 folgte die Seed-­Runde über 5,7 Millionen Euro, an der unter anderen Emerge, Pale Blue Dot und die Bestands­investor*innen beteiligt sind.

Zudem expandierte VARM rasch nach Hamburg, Nordrhein-­Westfalen und in die Rhein-Main-Region – weitere Standorte sind in Planung. Strategische Partnerschaften mit Energie­beratungen, Hausverwaltungen, Versorger*innen, Wärmepumpen-Playern und den großen deutschen Baumarktketten sollen letztendlich das Thema Dämmung mit der restlichen Energiewelt verzahnen. „Unser Anspruch ist Exzellenz im Handwerk. Das macht unsere Kunden zu Fans“, so Christian. „Mit über 300 Fünf-Sterne-Google-­Bewertungen können wir stolz auf unseren Service sein.“

Impact, der sich rechnen lässt

Jedes gedämmte Haus spart im Schnitt rund 1,6 Tonnen CO pro Jahr – über 20 Jahre kumuliert das signifikant. Bei hunderten Projekten pro Jahr summiert sich ein sichtbarer Klima­effekt und macht Wärmepumpen und Co. erst richtig effizient. „Die Gebäudehülle ist die erste Energiequelle. Sie bestimmt, wie gut alles andere arbeitet“, so Christian. Oder kürzer: „Ohne Dämmung verpufft der Fortschritt.“

No Bullshit, viel Verantwortung

Im Unternehmen selbst setzen die Gründer auf Customer Obsession, Trust in Data und „No-Bullshit-Strategie“, kombiniert mit einem Satz, der hängenbleibt: „Unf*ck the planet.“ Das soll die Haltung ausdrücken, die auf Baustellen benötigt wird: Initiative, Verlässlichkeit, Respekt. Und ja, Diversität ist gewollt: VARM öffnet Karrierepfade ohne Meisterpflicht und Buy-in, macht unternehmerische Selbständigkeit im Handwerk niedrigschwellig, besonders in solchen Regionen, die neue Chancen gut gebrauchen können.

Der Blick nach vorn

Die Mission von VARM ist und bleibt ambitioniert: Eine Million Häuser in zehn Jahren dämmen, aus lokalem Handwerk eine europäische Infrastruktur bauen. Das Franchise-System hilft bei der Skalierung und die Plattform verbindet Kund*innen, Planung und Teams. „Wir bauen den europäischen Champion für Dämmung: dezentral organisiert, zentral gesteuert“, sagt Christian selbstbewusst.

Christians Tipps für Gründer*innen

  • Baue ein solides System – nicht nur das schnelle Produkt: Die große Idee zählt wenig, wenn Ausbildung, Prozesse und Qualität nicht stehen. Wer Wirkung will, muss Strukturen bauen, die auch im Alltag halten – auf der Baustelle und bei den Kund*innen, nicht nur im Office.
  • Standardisierung ja, aber mit Menschen im Mittelpunkt: Effizienz entsteht nie durch Software allein. Sie entsteht, wenn Teams verstehen, warum ein Ablauf Sinn ergibt, und ihn mittragen. Technologie ist das Werkzeug, aber das tägliche Handeln der Teams entscheidet.
  • Setze auf den „echten“ Hebel: Dämmung hat kein Glanz-Image, aber einen enormen Effekt. Manchmal liegt der größte Impact dort, wo keiner hinschaut – und genau das macht den Unterschied.
  • Skalierung heißt Wiederholung mit Anspruch: Wachstum ist keine Abkürzung, sondern Konsequenz. Es bedeutet, dieselben Dinge jeden Tag verlässlich gut zu machen – und jeden Tag ein Stück besser.

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

European Dynamism-Report zeigt Europas Tech-Paradoxon

Laut den Autoren des aktuellen „European Dynamism“-Reports bringt Europa mittlerweile gefühlt im Wochentakt neue Unicorns hervor. Doch bei der globalen Skalierung wandert die Wertschöpfung zu oft ab. Die Studie zeigt, in welchen sechs Deeptech-Nischen europäische Start-ups die unangefochtenen Kategorie-Führer von morgen bauen können. StartingUp hat die Ergebnisse analysiert und zeigt, was das für eure Go-to-Market-Strategie bedeutet.

Das europäische Start-up-Ökosystem ist laut dem Report „European Dynamism“ im Auftrag von redalpine deutlich reifer geworden. Die Studienautoren konstatieren, dass neue Unicorns zuletzt gefühlt im Wochentakt entstehen. Zudem schlagen europäische VC-Fonds ihre US-Konkurrenten über lange Zeithorizonte, und das Funding zog 2025 wieder spürbar an. Doch der Report benennt ein neues europäisches Tech-Paradoxon: Der zentrale Engpass liegt heute weniger bei Talent, Forschung oder Finanzierung. Es geht vielmehr um die Frage, wo die Wertschöpfung beim globalen Scaling in der Region gehalten werden kann.

Die Kernthese der Studie: Europas Wettbewerbsvorteil liegt exakt dort, wo Software, Wissenschaft und Industrie eng zusammenkommen. Genau hier entstehen neue Cluster, in denen Deutschland eine sichtbar größere Rolle spielt. Berlin etabliert sich dabei laut Report als Standort für Enterprise AI, während München sich als Deeptech-Knoten über die Bereiche Fusion, Space, Health und Robotics hinweg wiederholt.

Die 6 Felder, in denen Europa global gewinnen kann

Die Deep Dives der Studie decken sechs Sektoren ab , in denen Europa nicht nur gründen, sondern den Wert auch langfristig halten und anführen kann:

  • Intelligent Enterprise: Im Bereich Intelligent Enterprise verschiebt sich der Wettbewerb von Foundation Models zu Workflows. Entscheidend ist, ob ein Modell ganze Unternehmensprozesse orchestrieren, verifizieren und tief in Kundenabläufe integrieren kann. Europas Chance liegt laut Report vor allem in Vertical AI und im Orchestrierungs-Layer. Sichtbare Player am Standort Berlin sind hier Start-ups wie n8n und Parloa, während sich das Funding für europäische Enterprise-AI-Startups 2024/25 mehr als verdoppelt hat.
  • Digital Health: Digital Health verlässt die Wellness-Ecke und wird zur klinischen Infrastruktur. Der Report beschreibt einen Shift hin zu "medical-grade devices" und spezialisierter AI für konkrete Versorgungsprobleme. Diese reichen von Wearables (wie Oura und Hilo/Aktiia) bis zu Anwendungen (wie Voize und Avelios), die direkt in klinische Abläufe eingreifen. Europas Vorteil liegt hierbei in Validierung, Regulierung und klinischer Alltagstauglichkeit.
  • New Energy: Im Energiekapitel setzt der Report vor allem auf die Kernfusion als europäische Souveränitätswette. Das globale Investment in Fusion stieg 2025 laut Report um knapp 500 % auf 3,8 Mrd. Dollar. Europas Trumpf ist dabei laut den Autoren nicht die größte Kapitalmaschine , sondern die ITER/CERN-Erfahrung, die Engineering-Tiefe und komplexe Präzisionsfertigung , exemplarisch gezeigt am deutschen Start-up Proxima Fusion.
  • Space: Die Raumfahrt wird im Report bewusst entromantisiert. Der kurzfristige Business Case liegt nicht im Weltraumtourismus, sondern in Erdbeobachtung, Navigation, Konnektivität, Defence und orbitaler Infrastruktur. Das Thema ist damit weniger Sci-Fi als vielmehr Industrie-, Sicherheits- und Infrastrukturpolitik. Getrieben von der Debatte um technologische Souveränität wächst der Druck zum Aufbau eigener Satelliten- und Launch-Infrastrukturen. Europa baut hierfür sichtbare Cluster von Toulouse über München bis Glasgow auf.
  • Unlocking Biology: Die Biologie wird laut Report von einer Beobachtungswissenschaft zu einer datengetriebenen Engineering-Disziplin. Große biologische Foundation Models, proprietäre Datensätze und automatisierte Lab-in-the-loop-Setups beschleunigen Design, Test und Iteration. Europas Chance liegt hier laut Report besonders in der Middleware- und Tooling-Schicht zwischen AI-Fähigkeit und therapeutischem Ergebnis.
  • Robotics: Robotik ist im Report kein Nischenthema mehr, sondern ein Feld, in dem Europas industrielle DNA zum echten Vorteil werden könnte. Der Markt ist groß und noch längst nicht verteilt, da laut Report noch rund 70 % der Lagerhäuser nicht automatisiert sind. Das Funding für europäische Robotik-Startups lag 2025 bei über 1,6 Mrd. Euro. Europas stärkste Position liegt dabei eher im „Brain Layer“ als im reinen Hardware-Rennen: in Physical AI, Real-World-Daten und Software, die Robotern den Umgang mit wechselnden Umgebungen beibringt.

StartingUp ordnet ein: 5 strategische Hebel für euer Pitch-Deck

Was bedeuten diese Fakten nun konkret für Gründerinnen und Gründer, die gerade an ihrem Produkt bauen oder Kapital suchen? Wir haben aus den Daten des Reports fünf harte strategische Leitplanken für eure Go-to-Market-Strategie abgeleitet:

  1. Baut den europäischen Burggraben: Pitcht Investoren keinen reinen Software-as-a-Service-Klon aus den USA. Wenn ihr global skalieren wollt, müsst ihr die Stärken des Standorts nutzen. Investoren suchen derzeit gezielt nach Teams, die exzellente Software mit tiefem, hiesigem Industrie- oder Wissenschafts-Know-how verknüpfen.
  2. Orchestrierung statt Basis-Technologie: Der Versuch, bei Foundation Models mit US-Giganten zu konkurrieren, verbrennt meist nur Ressourcen. Positioniert euer Start-up stattdessen intelligent im Orchestrierungs-Layer. Zeigt, dass ihr das Detailgeschäft beherrscht: das fehlerfreie Integrieren und Verifizieren von KI in tief verwurzelte, bestehende Unternehmens-Workflows.
  3. Nutzt Regulierung als euren stärksten USP: Viele Gründer fürchten europäische Regularien. Dreht den Spieß um! Wenn euer "medical-grade" Produkt die strengen europäischen Hürden für klinische Alltagstauglichkeit meistert, habt ihr den ultimativen Qualitätsnachweis für den globalen Markt.
  4. Baut die Schaufeln für den Goldrausch: Ob in Biotech oder Robotik – versucht nicht, den finalen Roboter oder Wirkstoff komplett allein zu bauen. Entwickelt stattdessen die renditestarken Zwischenschichten wie Middleware, Tooling oder den "Brain Layer", also jene Software, die KIs überhaupt erst befähigt, in komplexen Umgebungen zu agieren.
  5. B2B-Infrastruktur schlägt Sci-Fi-Visionen: VCs finanzieren aktuell keine Luftschlösser. Baut euren Business Case in Bereichen wie Space oder Energy auf knallharter Infrastruktur-, Sicherheits- und Industriepolitik auf. Wer Schlagworte wie "technologische Souveränität" glaubhaft mit einem starken B2B-Produkt untermauern kann, punktet beim Fundraising.

Fazit: Vom Gründen zum Überzeugungstäter

Wie die Studie passend zuspitzt: Europa fehlt nicht der nächste Gründerjahrgang. Europa kann gründen – jetzt muss Europa lernen, mit Überzeugung zu skalieren. Wer heute ein Start-up in den Bereichen Deeptech, AI oder Robotics gründet, muss vom ersten Tag an groß denken. Nur wer die Wertschöpfung und das Ownership konsequent in der eigenen Region hält, macht aus einem starken europäischen Start-up auch einen globalen Kategorie-Führer.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.