Aktuelle Events
Gründer der Woche: Ehrenmüller GmbH – Data Science Consulting
Gründer der Woche 26/19
Ende 2018 gründete Dr. Julia Ehrenmüller ihr Unternehmen Ehrenmüller Data Science Consulting (heute: Ehrenmüller GmbH) in Kempten, und bietet Beratung sowie Dienstleistung im großen Bereich Data Science an. Mehr dazu im Interview mit Julia.
Auf deiner Homepage wirst du als passionierter Data Scientist beschrieben. Wo liegen die Anfänge dieser Leidenschaft, die dich ja letztlich auch zur Selbständigkeit gebracht haben?
Eine Leidenschaft für Mathematik und analytisches Denken begleitet mich schon mein ganzes Leben. In der Schule war Mathematik mein Lieblingsfach und im Studium und in meinen Praktika habe ich mich auch direkt mit Datenanalysen, Optimierung und Machine Learning beschäftigt. So habe ich das Feld der Data Science schon relativ früh entdeckt. Tatsächlich war es aber dann erst nach meiner Promotion, als ich begriffen habe, wie vielfältig die Anwendungsgebiete von Data Science und Machine Learning in der Wirtschaft und Industrie sind und wie viel man mit diesen Mitteln bewegen kann.
Hinzu kommt mein Drang, wiederkehrende Aufgaben zu automatisieren und optimieren. Anstatt eine Sache immer wieder „von Hand“ zu machen, erstelle ich lieber ein kleines Programm, das mir diese Aufgabe abnimmt. Und wenn der Prozess erst einmal digitalisiert ist, kann ich den Computer auch gleich die mühsame Detailarbeit machen lassen, die dafür sorgt, dass er aus seinen selbstproduzierten Daten lernt und die Aufgabe irgendwann besser erledigt, als ich es je könnte.
Gab es dann für dich den einen Punkt, an dem du dich zur Gründung deines Unternehmens entschieden hast? Oder war der Weg dahin "vorgezeichnet"?
Auch wenn es mir lange Zeit nicht so klar war: Rückblickend war mein Weg zur Gründung eines eigenen Unternehmens vermutlich vorgezeichnet. Nach der Promotion habe ich schnell gemerkt, dass ein Nine-to-Five-Job nichts für mich ist. Ohne eigene Projekte nebenbei habe ich mich nie wirklich wohlgefühlt. Neben meinem Studium und meiner Promotion war ich ehrenamtlich aktiv; neben meinen beiden Jobs als Data Scientist habe ich ein Meetup ins Leben gerufen, eine Konferenz mitgegründet und war freiberuflich als Data Scientist tätig. Ich hatte schon länger davon geträumt, ein Unternehmen zu gründen und habe immer mehr Leuten davon erzählt – bis ich mir dann irgendwann gedacht habe: So, und jetzt mache ich es einfach.
Du hast in München, bei Paris, in Hamburg etc. gelebt und gearbeitet. Dann hast du jenseits von Metropolen im Allgäu gegründet. Warum das Allgäu?
Zunächst haben mich private Gründe und ein spannender Job bei Bosch ins Allgäu geführt. Dann habe ich die große Gründerszene in Kempten kennengelernt, deren Existenz einen Außenstehenden, der das Allgäu vor allem aus dem Urlaub kennt, vielleicht überraschen mag. Hier treffen allerdings viele Vorteile aufeinander: Erstens sind die Menschen im Allgäu sehr hilfsbereit und gut vernetzt. Zweitens ist das Allgäu eine wirtschaftsstarke Region mit einer guten Infrastruktur. Und nicht zuletzt bietet das Allgäu eine hervorragende Lebensqualität für eine ausgeglichene Work-Live-Balance. Das heißt, auch wenn das Allgäu vielleicht nicht so hip klingen mag wie München oder Berlin, hat man hier eigentlich alles, was man für den erfolgreichen Start eines Unternehmens braucht. Für mich gab es jedenfalls schnell keinen Zweifel mehr, das Unternehmen genau hier zu gründen.
Und ist der Standort für deine Mitarbeiter ebenso attraktiv?
Definitiv. Als ich ins Allgäu gezogen bin, wurde mir beigebracht: „Allgäuer, die von hier wegziehen, ziehen irgendwann auch wieder zurück“ und dieser Spruch hat sich oft bestätigt. Es gibt viele Allgäuerinnen und Allgäuer, die in einer anderen Stadt studieren und während oder nach dem Studium gerne in ihrer Heimat arbeiten wollen. So ist es zum Beispiel auch bei Ehrenmüller. Der gute Ruf der Hochschule Kempten sorgt außerdem dafür, dass immer mehr Studierende das Allgäu als lebenswerten und wirtschaftsstarken Raum kennenlernen und auch nach dem Studium noch gerne hierbleiben. Hin und wieder erhalten wir auch Bewerbungen von Münchnern, die eine entspannte, hohe Lebensqualität verbunden mit einem spannenden Job in einem zukunftsweisenden Bereich attraktiv finden.
Nun zu deinem Unternehmen: Was genau bietest du an Leistungen?
Ehrenmüller bietet Beratung und Umsetzung in den Bereichen Data Science und Künstliche Intelligenz. Ganz konkret unterstützen wir als leidenschaftliche Mathematiker und Softwareentwickler Unternehmen, datengetriebener und effizienter zu werden, indem wir passende Use-Cases identifizieren und bewerten und darauf aufbauend individuelle, maßgeschneiderte Software konzipieren, entwickeln und implementieren. Dafür analysieren und visualisieren wir Daten, nutzen State-of-the-Art-Methoden und Technologien für Machine Learning und Deep Learning und entwickeln bei Bedarf eigene Algorithmen. Dabei haben wir immer das Ziel vor Augen, in Echtzeit vollautomatisiert optimale Entscheidungen treffen zu können.
Wer sind deine Kunden?
Das Besondere an Data Science und Künstliche Intelligenz ist, dass die mathematischen Modelle und Technologien, die hinter den verschiedensten Anwendungsfällen stehen, sehr ähnlich sind. Daher ist es uns möglich, ganz unterschiedliche Bereiche zu bedienen - von Industrie 4.0 über KI im E-Commerce bis hin zu Machine Learning im Marketing, Controlling oder Qualitätsmanagement. Genauso breit wie die Liste an möglichen Anwendungen ist auch die Auswahl an Branchen, in denen unsere derzeitigen Kunden tätig sind. Als Gemeinsamkeit kann man aber anführen, dass fast alle Kunden kleine und mittlere Unternehmen im süddeutschen Raum sind. Prinzipiell richten wir uns aber an alle, die das Potential von Data Science und Künstliche Intelligenz nutzen und sich dadurch Wettbewerbsvorteile sichern wollen.
Auf deiner Homepage ist zu lesen: "Künstliche Intelligenz wird die meisten Branchen in absehbarer Zukunft grundlegend verändern.“ Kannst du, auf den Punkt gebracht, sagen, worin diese Veränderung besteht?
Im Grunde muss man davon ausgehen, dass in wenigen Jahren in allen relevanten Unternehmen alles digitalisiert und automatisiert sein wird, was digitalisiert und automatisiert werden kann. Die neuesten Durchbrüche im Thema Künstliche Intelligenz zeigen uns, dass das durchaus mehr sein kann als wir bisher geglaubt haben.
Wie sich das genau auswirkt, kommt natürlich auf die Branche an: In der Industrie werden zum Beispiel Maschinen in vollautomatisierten, vernetzten Fertigungen hergestellt, deren Roboter selbstständig zur richtigen Zeit Techniker rufen, wenn sie gewartet werden müssen. Im Verkehr werden Autos und Busse irgendwann autonom fahren. Im Handel werden Preise in Echtzeit unter Berücksichtigung der verschiedensten Einflüsse dynamisch berechnet. Auch bei kreativen Aufgaben sehen wir eine starke Entwicklung. Teilweise können zum Beispiel schon Bilder, Videos oder Musik mit für diesen Zweck angepassten neuronalen Netzen automatisch erzeugt werden, was man bisher eigentlich nur Menschen zugetraut hätte.
Über dein unternehmerisches Engagement hinaus bist du in Sachen Data Science sehr aktiv, Stichworte: Data Science Stammtisch Allgäu, Data Pioneers Konferenz. Was treibt dich hier an?
Den Data Science Stammtisch Allgäu habe ich gegründet, als ich neu im Allgäu war und auf der Suche nach Austausch mit Gleichgesinnten war. Da ich kein passendes Format gefunden habe, habe ich kurzerhand den Stammtisch ins Leben gerufen. Mittlerweile sind wir 230 Mitglieder und treffen uns etwa alle zwei Monate zu vierzigst bis fünfzigst bei den unterschiedlichsten Allgäuer Unternehmen, hören uns jeweils zwei Fachvorträge an und tauschen uns zu neuen Entwicklungen aus. Das positive Feedback der Teilnehmer und Unternehmen treibt mich an, immer wieder neue Treffen zu organisieren. Ich finde es schön, in der Region einen Beitrag leisten und eine Austauschmöglichkeit zu diesem spannenden Thema auch über Firmengrenzen hinweg ermöglichen zu können.
Und last but not least: Was rätst du anderen Gründern aus eigener Erfahrung?
Jeder Gründer merkt schnell, dass ein Unternehmen zu gründen viel Zeit und Energie kostet. Auch die scharfen Grenzen zwischen Freizeit und Arbeit verschwimmen. Mir persönlich fällt es zum Beispiel oft schwer, mir regelmäßig Ruhephasen zu gönnen, weil viele Themen auf dem Tisch sind, die ja mein eigenes Unternehmen und damit unmittelbar auch mich selbst betreffen und um die ich mich natürlich gerne kümmern möchte. Doch ich habe gelernt, dass es oft sinnvoller ist, die Themen bewusst zur Seite zu legen, um Energie zu tanken und dann mit freiem Kopf produktiv weiterarbeiten zu können.
Hier geht's zur Ehrenmüller GmbH
Das Interview führte Hans Luthardt
Diese Artikel könnten Sie auch interessieren:
meinhaus.digital sammelt eine Mio. Euro für die Sanierungswende ein
Ein „KI-Architekt“, der Renovierungen von Bestandsimmobilien deutlich günstiger und schneller machen soll: Das PropTech meinhaus.digital hat eine Pre-Seed-Finanzierungsrunde in Höhe von einer Million Euro abgeschlossen.
Das von Leonie Dowling, Carolin Krebber und Ina Schröder gegründete PropTech-Start-up meinhaus.digital GmbH mit Sitz in Schwäbisch Gmünd und München hat frisches Kapital in Höhe von einer Million Euro eingesammelt. Angesichts eines Marktes für energetische Gebäudesanierung in Deutschland, in den laut dem Deutschen Institut für Wirtschaftsforschung jährlich über 70 Milliarden Euro fließen, verdeutlicht diese Investition das hohe Interesse an digitalen Lösungen für die Bau- und Immobilienbranche. Getragen wird die Finanzierungsrunde von der L-Bank Baden-Württemberg sowie Business Angels aus Stuttgart und München, zu denen auch der Start-up-Investor Martin Giese gehört.
Der Blick ins Register: Neustart statt Neugründung
Hinter meinhaus.digital stehen die drei Gründerinnen Leonie Dowling, Carolin Krebber und Ina Schröder, wobei Dowling und Krebber als Co-CEOs agieren. Ein Blick ins Handelsregister zeigt: Die rechtliche Keimzelle des Start-ups wurde von Dowling bereits 2021 unter dem Namen Palasts GmbH gegründet. Das Jahr 2025 markiert hingegen den operativen Neustart unter dem heutigen Namen meinhaus.digital sowie die Formierung des aktuellen Gründerinnen-Trios. Ungeachtet dieser Vorgeschichte ist das personelle Wachstum beachtlich. Seit 2025 wuchs das Team von drei auf zwölf Mitarbeiterinnen und Mitarbeiter an. Bis Ende 2026 soll die Belegschaft auf rund 30 Personen aufgestockt werden, wobei der Fokus stark auf den Bereichen Technologie, Vertrieb und Marketing liegt.
KI statt Architekt: Kampfpreis und OBI-Deal
Das Start-up positioniert sich als digitaler Planer für Umbau- und Sanierungsprojekte bei Bestandsimmobilien. Die Plattform kombiniert dafür eine KI-gestützte Software mit dem Fachwissen von echten Architektinnen, Architekten sowie der Energieberatung. Das Ziel ist es, Hauskäufer*innen und Eigentümer*innen eine transparente Maßnahmen-, Kosten- und Finanzierungsplanung aus einer Hand zu liefern. Das Versprechen der Gründerinnen, Planungsleistungen bis zu 70 Prozent günstiger und bis zu zehnmal schneller als klassische Architektenleistungen anzubieten, ist dabei eine klare Kampfansage an die traditionelle Zunft.
Um dieses Modell rasant in den Markt zu drücken, nutzt meinhaus.digital strategische B2B2C-Partnerschaften. Eine Kooperation mit der Baumarktkette OBI läuft bereits und soll die digitale Maßnahmenplanung mit der Umsetzungskompetenz des Marktes verknüpfen. Weitere Pilotprojekte mit Branchengrößen wie Check24, Wüstenrot und Schwäbisch Hall stehen kurz vor dem Roll-out. Damit soll der Kund*innenstamm von aktuell über 100 auf mehr als 4.000 skalieren, um langfristig den Umsatz bis 2027 zu verzehnfachen. Der Bedarf ist da, denn die reale Sanierungsquote hinkt den Klimazielen massiv hinterher, da Planungsleistungen für viele schlichtweg zu aufwendig und zu teuer sind.
Reality-Check: Kommt die Software gegen den Altbau an?
Doch die Vision vom digitalen Architekten muss sich in der harten Realität des deutschen Altbaubestandes erst noch dauerhaft beweisen. Jede Bestandsimmobilie bringt individuelle statische, bauphysikalische und rechtliche Tücken mit sich. Ob die hybride Lösung aus Software und menschlicher Expertise die Nuancen eines verbauten Altbaus lückenlos und fehlerfrei erfassen kann, muss sich in der Praxis zeigen. Auch das Versprechen, signifikant günstiger zu sein, birgt Risiken in puncto Profitabilität. Dies erfordert radikal standardisierte Prozesse im Hintergrund, um als VC-finanziertes Start-up dauerhaft profitable Margen zu erwirtschaften.
Hinzu kommt eine massive Konkurrenz. Der PropTech-Sektor ist heiß umkämpft und gut finanziert. Schwergewichte wie das Berliner Start-up Enter oder Fuchs & Eule positionieren sich bereits extrem stark und mit massivem Werbedruck im Bereich der digitalen Energieberatung, 3D-Modellierung und Fördermittelbeantragung. Das junge Team aus München und Schwäbisch Gmünd muss nun beweisen, dass die architektonische Tiefe ihres Produkts einen echten Burggraben gegenüber der reinen Energieberatung der Wettbewerber bildet.
Fazit: Smartes Playbook, harter Stresstest
Für die Start-up-Community liefert meinhaus.digital ein brillantes Playbook in Sachen Go-to-Market-Strategie. Anstatt das frische Kapital in teures, umkämpftes Endkund*innen-Marketing zu verbrennen, setzt das Team konsequent auf den B2B2C-Kanal. Die Integration in die etablierte Customer Journey von Playern wie OBI oder großen Bausparkassen ist ein top Hebel, um die Kund*innenakquisitionskosten drastisch zu senken und sich Vertrauen bei den Endkund*innen zu leihen.
deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken
Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.
Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.
Vom Agenturgeschäft zur SaaS-Lösung
Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).
Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“
Plattformansatz für Inspektionsdaten
Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.
Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.
Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“
Marktumfeld & regulatorische Barrieren
Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.
Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.
Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.
Der technologische Burggraben im starken Wettbewerb
Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.
Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.
Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.
Finanzierung & Ausblick
Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.
Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."
Münchner Start-up Isar Aerospace bricht Testflug der „Spectrum“-Rakete aus Sicherheitsgründen ab
Der zweite Testflug der „Spectrum“-Trägerrakete des Münchner Raumfahrtunternehmens Isar Aerospace musste kurz vor der Triebwerkszündung gestoppt werden.
Ursache war nach Unternehmensangaben ein unbefugtes Boot, das in die maritime Sicherheitszone eingedrungen war. Bis das Areal geräumt werden konnte, verstrich das enge Startfenster zwischen 21:00 und 21:15 Uhr. Die Rakete blieb unbeschadet auf der Startrampe.
Sicherheitsmechanismus statt Fehlschlag
In der Raumfahrtbranche wird ein solcher Abbruch (ein sogenannter Scrub) nicht als technologischer Rückschlag gewertet, sondern als Beleg für greifende Sicherheitsmechanismen. Ein erheblicher Unterschied besteht zu einem tatsächlichen Fehlstart, bei dem Hardware verloren geht – wie es beim Erstflug der „Spectrum“ am 30. März 2025 geschah, als die Rakete nach knapp 30 Sekunden wegen eines Ausfalls der Lageregelung ins Meer stürzte.
Da die Rakete dieses Mal keinen technischen Defekt erlitt, werten die Ingenieure den abgebrochenen Countdown als erfolgreichen Härtetest der Bodenanlagen und der automatisierten Betankungsprozesse. Das Team um CEO Daniel Metzler hatte im Vorfeld betont, dass das primäre Ziel der Mission „Onward and Upward“ darin bestehe, kritische Systeme unter operativen Bedingungen zu validieren. Die nun gesammelten Daten fließen direkt in die Vorbereitung des nächsten Versuchs ein.
Die komplexe Logistik eines neuen Startfensters
Wann die „Spectrum“ erneut betankt wird, hängt von einem mehrstufigen Abstimmungsprozess ab. Nach der Sicherung der Rakete muss Isar Aerospace bei den norwegischen Behörden neue Sperrzonen beantragen. Damit Fischer, Frachtschiffe und Fluggesellschaften ihre Routen rechtzeitig anpassen können, müssen offizielle Warnungen für die Schifffahrt (NOTMAR) und den Luftraum (NOTAM) mit entsprechendem Vorlauf herausgegeben werden. Erst wenn diese bürokratischen Hürden genommen sind und Parameter wie das Wetter am Polarkreis übereinstimmen, kann ein neuer Countdown für die Nutzlast – darunter universitäre Kleinsatelliten der TU Berlin, der TU Wien sowie der norwegische FramSat-1 – beginnen.
Warum Andøya? Der strategische Vorteil im hohen Norden
Dass das Münchner Start-up diese logistischen Herausforderungen im hohen Norden auf sich nimmt, anstatt etwa den etablierten europäischen Weltraumbahnhof Kourou in Südamerika zu nutzen, hat strategische und physikalische Gründe.
Die Hauptkunden von Isar Aerospace betreiben kleine Erdbeobachtungssatelliten, die bevorzugt über die Pole fliegen, um die Erdoberfläche lückenlos zu erfassen. Von Andøya aus kann die Rakete auf direktem Weg sicher über das offene Europäische Nordmeer in diesen polaren Orbit starten, ohne Treibstoff für aufwendige Kurskorrekturen zu verbrauchen. Zudem spart der Transport der in Ottobrunn gefertigten Bauteile per LKW und Fähre nach Norwegen wertvolle Zeit und Kosten im Vergleich zu einer Verschiffung nach Französisch-Guayana.
Für Europa bleibt der anstehende Flug der „Spectrum“ ein wichtiges Puzzleteil auf dem Weg zu einem wettbewerbsfähigen, kommerziellen Zugang zum All. Sobald die Sperrzonen vor der norwegischen Küste neu eingerichtet sind, wird sich zeigen, ob das Münchner Unternehmen diese Lücke schließen kann.
Vom Solinger Start-up zum globalen Einhorn: Wie Dash0 die Observability-Giganten dekonstruiert
Das 2023 gegründete KI-Start-up Dash0 hat im März 2026 mit einer 110-Millionen-Dollar-Runde die magische Milliardenbewertung geknackt. Die Vision: Die Systemüberwachung von Software durch offene Standards, radikal faire Preismodelle und pragmatische KI zu revolutionieren. Doch der Frontalangriff auf US-Goliaths wie Datadog birgt strategische Risiken.
In der modernen Softwareentwicklung ertrinken IT-Teams in einer Flut aus Warnmeldungen, Logs und Metriken. Klassische Überwachungs-Tools (Observability) sind oft teuer, komplex und sperren Kunden in geschlossene Daten-Ökosysteme ein. Genau dieses Problem adressiert Dash0 – und hat damit in Rekordzeit Investoren und namhafte Kunden überzeugt. „Systemüberwachung ist heute kaputt: Sie ist zu laut, zu teuer und zu komplex“, bringt es Dash0-CEO und Mitgründer Mirko Novakovic auf den Punkt.
Die Gründer und der rasante Aufstieg zum Einhorn
Hinter Dash0 steht ein Quintett erfahrener Tech-Veteranen. Besonders Mirko Novakovic ist in der B2B-Szene ein Schwergewicht: 2020 verkaufte er sein vorheriges Start-up Instana für rund 500 Millionen US-Dollar an IBM. Dieser „Repeat Founder“-Status erklärt das enorme Vertrauen der Geldgeber.
Die Historie von Dash0 liest sich wie ein Start-up-Märchen im Zeitraffer: Nach der Gründung 2023 im nordrhein-westfälischen Solingen folgte Ende 2024 eine 9,5-Millionen-Dollar-Seed-Runde parallel zum Produktlaunch. Ein Jahr später sammelte das Team 35 Millionen Dollar ein.
Der Ritterschlag folgte nun im März 2026: Mit einer von Balderton Capital angeführten Series-B-Runde über 110 Millionen Dollar steigt Dash0 in den Kreis der Unicorns auf. Diesen Meilenstein verknüpft das Team mit einer klaren Kampfansage: „Mit den 110 Millionen Dollar, die wir heute bekannt geben, bringen wir autonome Abläufe zu jedem Entwicklerteam der Welt – noch bevor unsere Wettbewerber überhaupt begreifen, was mit ihnen geschieht.“
Das Produkt: Ein Frontalangriff auf die Industrie-Norm
Ein Blick unter die Haube zeigt, warum die Plattform so schnell wächst. Das Start-up dekonstruiert gezielt die Schwachstellen der etablierten Milliardenkonzerne:
- Das Ende des „Vendor Lock-ins“: Dash0 basiert vollständig auf offenen CNCF-Standards (OpenTelemetry). Als Abfragesprache wird nativ PromQL genutzt, für Dashboards kommt das quelloffene Perses zum Einsatz. Das bedeutet für Technik-Entscheider: Würde Dash0 die Preise anheben, könnten sie ihre gesamten Dashboards und Alarme einfach mitnehmen und woanders hosten.
- Radikales Pricing: Branchenriesen rechnen oft nach Datenvolumen (Gigabyte) oder Nutzerlizenzen ab, was bei wachsenden Systemen zu explodierenden Budgets führt. Dash0 rechnet rein nach der Anzahl der gesendeten Telemetrie-Datenpunkte ab. Unternehmen können unlimitiert Metadaten anhängen und unbegrenzt viele Entwickler auf das System lassen, ohne dass verdeckte Kosten anfallen.
- Developer Experience (DX): Dash0 positioniert sich als Tool „von Ingenieuren für Ingenieure“. Die Plattform lässt sich für maximale Geschwindigkeit komplett per Tastatur steuern, und Konfigurationen können nahtlos als Code (Configuration as Code) in bestehende Entwicklungs-Pipelines integriert werden.
Dieser Ansatz zieht prominente Kunden an: Tech-Schwergewichte wie Vercel loben die drastisch verkürzte Zeit zur Fehlerbehebung, und auch Traditionskonzerne wie Porsche Digital setzen auf die offene Architektur von Dash0, um sich zukunftssicher aufzustellen. Um das technologische Fundament schnellstmöglich zu verbreitern, akquirierte Dash0 zudem im Februar 2026 das israelische Serverless-Start-up Lumigo.
Pragmatische KI statt Buzzword-Bingo
Während der Markt aktuell von generativen KI-Versprechen überflutet wird, positioniert sich Dash0 erstaunlich pragmatisch. Das Mantra des Start-ups lautet: „AI is an implementation detail.“ (KI ist ein Implementierungsdetail).
Der hauseigene Copilot „Agent0“ soll zwar autonome Analysen durchführen und Teams in Echtzeit entlasten, aber das primäre Ziel ist es, repetitive Aufgaben verlässlich und vor allem ohne Halluzinationen zu lösen. Die beste KI-Funktion, so das Credo der Gründer, sei diejenige, die der/die Nutzer*in liebt, ohne überhaupt zu merken, dass es sich um KI handelt.
David gegen Goliath in New York
Trotz des beeindruckenden Momentums steht Dash0 in der Skalierungsphase vor massiven Hürden:
- Der Goliath-Wettbewerb: Dash0 tritt gegen etablierte US-Giganten wie Datadog, Dynatrace oder Grafana an. Um diesen Kampf zu führen, hat das Start-up seinen Hauptsitz mittlerweile von Deutschland nach New York verlegt. Dieser Schritt erfordert eine extrem hohe Cash-Burn-Rate im Enterprise-Vertrieb.
- Der fehlende „Burggraben“: Was für Kund*innen hochattraktiv ist (offene Standards wie Perses und PromQL), beraubt Dash0 eines klassischen defensiven Lock-ins. Da ein Wechsel zu einem anderen Anbieter theoretisch leichter ist als bei geschlossenen Systemen, ist Dash0 dazu verdammt, permanent durch überlegene Usability und fehlerfreie KI zu überzeugen.
Fazit
Für die deutsche Start-up-Szene ist Dash0 ein exzellentes Paradebeispiel für modernes B2B-Hypergrowth. Die Story zeigt, wie man in scheinbar gesättigten Märkten durch konsequente Nutzerzentrierung, offene Standards und transparente Preise in unter drei Jahren zum Einhorn aufsteigen kann. Es ist der Beweis, dass deutsche DeepTech-Gründer*innen auf globaler Ebene nicht nur mitspielen, sondern die Spielregeln aktiv neu schreiben können.
Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet
Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.
Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.
planqc: Aus der Forschung in die Wirtschaft
Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.
Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.
Der schnelle Aufstieg: Millionen-Investments und Großaufträge
Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).
Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.
Das Problem: Der limitierte klassische Computer
Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.
Die Lösung: Ein hybrides Teamwork der Systeme
Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.
„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind
Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.
Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.
Fazit
Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.
blue activity sichert sich 8,5 Mio. Euro für biozidfreie Kühlwasserbehandlung
Das Heidelberger CleanTech-Start-up blue activity schließt eine beachtliche Finanzierungsrunde ab. Mit einem unkonventionellen biologischen Ansatz fordert das Team die klassischen Verfahren der industriellen Kühlwasseraufbereitung heraus. Ein Blick auf das Geschäftsmodell, den Milliardenmarkt und die Hürden der Skalierung.
Das im Jahr 2021 gegründete Wassertechnologie-Start-up blue activity aus Heidelberg meldet den Abschluss einer weiteren großvolumigen Finanzierungsrunde in Höhe von 8,5 Millionen Euro. Das Unternehmen deklariert diese als Seed-Runde – ein aus journalistischer Sicht bemerkenswerter Schritt, da bereits Anfang 2023 der österreichische Investor Epoona in einer frühen Phase eingestiegen war. Die aktuelle Runde wurde gemeinsam von den VC-Fonds Wind Capital (Paris) und Venture Stars (München) angeführt, unter Beteiligung von Angel Invest (Berlin). Das frische Kapital soll die Produktentwicklung beschleunigen, das Team auf 15 Mitarbeitende erweitern und die kommerzielle Expansion in Europa vorantreiben.
Das Gründer-Duo
Hinter blue activity stehen CEO Lars Havighorst und Co-Founder sowie CTO Michael Simon. Die Gründung basierte auf der Mission, industrielle Verdunstungskühlsysteme chemiefrei und nachhaltig zu behandeln. Bemerkenswert ist Havighorsts Hintergrund: Vor seiner Zeit als CleanTech-Gründer war er rund 15 Jahre im Vertrieb der Finanzbranche tätig, bevor er den Quereinstieg in die Wassertechnologie wagte. Dabei ergänzt sich das Führungsduo: Während Havighorst die kommerzielle Skalierung treibt, verantwortet Simon als technologisches Rückgrat die Kombination aus neuartiger Mikrobiologie und IoT-Sensorik.
Technologie und Geschäftsmodell
Industrielle Verdunstungskühlanlagen verschlingen enorme Mengen an Wasser und stützen sich traditionell auf biozidbasierte Behandlungsprogramme. Blue activity setzt hier auf einen Paradigmenwechsel: Anstelle von Gefahrstoffen soll ein neuartiger technologischer Ansatz eine umweltfreundliche, chemiefreie und effiziente Wasseraufbereitung ermöglichen.
Der wirtschaftliche Pitch, mit dem das Startup bei der Industrie punkten will, stützt sich auf laut eigenen Angaben messbare Effekte:
- Kostenreduktion: Das Unternehmen verspricht signifikante OPEX-Einsparungen von bis zu 15 % der gesamten Kosten der Kühlwasserbehandlung.
- Anlageneffizienz: Diese sollen durch einen reduzierten Chemikalieneinsatz, geringeren Wartungsaufwand sowie eine verlängerte Lebensdauer der Anlagen erreicht werden. Berichte aus der Fachpresse (z. B. Handelsblatt, Industrieanzeiger) stützen die These der Effizienz und zitieren bei Bestandskunden Wasserverbrauchssenkungen von bis zu 38 Prozent.
Markt und Wettbewerb
Ein wesentlicher Treiber für das Geschäftsmodell ist das regulatorische Umfeld. Da Grenzwerte für Abwassereinleitungen zunehmend verschärft werden, werden traditionelle chemische Verfahren laut blue activity immer kostenintensiver und komplexer in der Handhabung. Die biologische Methode soll die Risiken im Zusammenhang mit Einleitungen senken und eine langfristige regulatorische Compliance unterstützen.
Die Herausforderung
Der Markt für industrielle Wasserbehandlung ist sicherheitsgetrieben und extrem konservativ. Kühltürme sind kritische Infrastrukturen – ein mikrobiologisches Ungleichgewicht kann schwere gesundheitliche und rechtliche Folgen haben. Ein Start-up, das hier eine neuartige Lösung anbietet, muss massives Vertrauen aufbauen. Dass diese Hürde überwindbar ist, zeigt ein Blick auf das aktuelle Kundenportfolio: Laut Branchenberichten zählen Schwergewichte wie BASF, Braskem und die Salzgitter AG bereits zu den Nutzern der Technologie.
Fazit & Einordnung
Mit 8,5 Millionen Euro handelt es sich um eine außergewöhnlich große Frühphasen-Runde im deutschen B2B-Hardware/DeepTech-Sektor. Das internationale Investorenkonsortium bringt dabei ein starkes Netzwerk in den europäischen CleanTech-Markt ein.
Blue activity profitiert von einer starken Problem-Lösungs-Passung: Das Team liefert der Industrie nicht nur moralische Umweltargumente, sondern mit der versprochenen OPEX-Reduktion knallharte betriebswirtschaftliche Anreize. Gelingt es den Heidelbergern, diese Ergebnisse dauerhaft in der industriellen Breite zu skalieren, wartet ein gigantischer Markt: Das globale Volumen für die industrielle Wasseraufbereitung lag 2024 bei rund 46 Milliarden USD und wächst stetig weiter. Das Kapital ist nun der entscheidende Hebel, um in diesem hochkomplexen Marktumfeld die Marktführerschaft für biozidfreie Alternativen anzugreifen.
Infokasten: Die Meilenstein-Historie von blue activity
Jahr / Zeitraum | Meilenstein | Redaktionelle Einordnung / Details |
2021 | Gründung | Lars Havighorst und Michael Simon gründen das CleanTech-Unternehmen in Heidelberg. |
Januar / März 2023 | Erste Seed-Runde | Der österreichische Umwelttech-Investor Epoona steigt mit ca. 500.000 Euro ein, um den Marktaufbau zu finanzieren. |
2023 / 2024 | Proof of Concept (BASF) | Erfolgreiches Pilotprojekt am Standort Ludwigshafen. Der Chemiegigant rüstet in der Folge erste Produktionsstätten auf die biozidfreie Technologie um. |
Februar 2026 | 8,5 Mio. € (Late-)Seed-Runde | Abschluss der neuen, großvolumigen Finanzierungsrunde unter Führung von Wind Capital und Venture Stars. Das Unternehmen deklariert dies offiziell als "Seed-Runde". |
iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere
Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.
Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.
Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.
Der technologische Schlüssel: "Direct Cytosolic Transfer"
Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.
Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.
Zwischen enormem Potenzial und hohem Risiko
Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.
Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.
Blaupause für Deep-Tech-Gründer
Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:
- Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
- Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
- Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.
50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert
Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.
Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.
Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.
Vom Side-Project zur modularen Architektur
Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.
Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.
Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.
Das Open-Core-Modell auf dem Prüfstand
Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.
Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.
Im Haifischbecken der Tech-Giganten
In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.
Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.
Lektionen für die Start-up-Szene
Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.
Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.
Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.
Vom Nanny-Vermittler zum EAP-Giganten: heycare schließt 4-Mio.-Euro-Runde ab
Rund vier Mio. € für heycare: Unser ehemaliges Cover-Start-up (früher heynanny) wird zum B2B-Health-Ökosystem. Wir analysieren den Deal und den hart umkämpften EAP-Markt.
Das Münchner Scale-up heycare hat seine Extended Seed Runde erfolgreich abgeschlossen. Dem Unternehmen fließen rund 4 Millionen Euro für das weitere Wachstum zu. Angeführt wird die Finanzierungsrunde von Scalehouse Capital als Lead-Investor, flankiert von Swiss Post Ventures als strategischem Co-Investor. Für treue StartingUp-Leserinnen und -Leser ist das Gründerinnenteam kein unbeschriebenes Blatt: Wir hatten die Plattform bereits vor einiger Zeit ausführlich in einer Coverstory porträtiert – damals noch unter dem Gründungsnamen „heynanny“.
Vom Cover-Start-up zum Health-Ökosystem
Die Gründerinnen Anna Schneider und Julia Kahle riefen das Unternehmen im Jahr 2022 ins Leben. Innerhalb kurzer Zeit hat sich das Start-up von einem spezialisierten Care-Anbieter zu einem umfassenden Gesundheitsdienstleister entwickelt. Heute positioniert sich heycare als digitale Plattform, die als ganzheitliches Employee Assistance Program (EAP) und Familienservice fungiert.
Das Angebot deckt mittlerweile ein breites Spektrum ab. So vermittelt die App praktische Betreuungslösungen für Kinder, Pflegebedürftige und sogar Haustiere. Diese gezielten Maßnahmen sollen die Mitarbeitenden im Alltag spürbar entlasten, was die Ausfallzeiten in den Unternehmen nachweislich reduziert. Darüber hinaus setzt das Scale-up stark auf Prävention im Bereich der mentalen Gesundheit. Um die psychische Widerstandskraft der Belegschaft zu stärken, bietet die Plattform unter anderem Trainings, Webinare sowie anonyme 1:1-Beratungen mit Psycholog*innen an.
Abgerundet wird das Portfolio durch die seit Anfang 2026 bestehende Integration des Sport- und Wellness-Netzwerks von Urban Sports Club. Mit diesem Schritt möchte heycare seinen Firmenkund*innen ein lückenloses Gesundheits-Ökosystem aus einer Hand bieten und löst damit ein zentrales Problem der modernen Arbeitswelt: die Vereinbarkeit von Beruf und Privatleben.
Hintergründe zur Finanzierungsrunde
Die frischen Mittel wollen die beiden Gründerinnen primär in den Ausbau ihrer Belegschaft investieren. Damit reagiert heycare auf die gestiegene Nachfrage in der operativen Umsetzung. Das Kund*innenportfolio kann sich bereits sehen lassen, denn Branchengrößen wie Daimler Truck, Douglas, Vaillant und VW Retail zählen bereits zu den Nutzer*innen der Plattform.
Wie Co-CEO Julia Kahle betont, ist das Unternehmen bereits profitabel. Bei der Investor*innensuche wurde daher bewusst selektiert, um Partner*innen zu finden, die die Vision von heycare teilen und das Unternehmen bei der weiteren Skalierung optimal unterstützen können. Scalehouse Capital, ein deutschlandweit agierender Venture Capital Investor, fokussiert sich auf effiziente B2B-Softwareunternehmen und bringt wertvolle Industriezugänge mit. Swiss Post Ventures, der Venture-Arm der Schweizerischen Post, investiert gezielt in B2B-Softwareunternehmen in Bereichen wie HR, Logistik und digitale Ökosysteme.
Markteinordnung und Einordnung
Heycare verfolgt die klare Vision, Mitarbeitende durch präventive Gesundheitsförderung und soziale Entlastung zu stärken und langfristig an ihre Unternehmen zu binden. Doch bei aller Euphorie lohnt sich ein Blick auf den Markt. Der deutsche EAP-Markt ist hochkompetitiv und wird von alteingesessenen Schwergewichten dominiert. Player wie die pme Familienservice Gruppe oder Insite haben das Feld über Jahrzehnte bereitet, während internationale Beratungsriesen wie Mercer mit umfassenden Wellbeing-Strategien kräftig mitmischen. Für heycare ergeben sich daraus handfeste strategische Herausforderungen.
Zum einen erfordert das Versprechen, alles aus einer Hand zu liefern, eine immense operationelle Skalierbarkeit. Vom Babysitter über die Senior*innenbetreuung bis hin zur psychologischen Fachkraft ist die Qualitätssicherung und das ständige Onboarding für ein derart breites Dienstleistungsportfolio massiv ressourcenintensiv. Es besteht stets die Gefahr, sich im operativen Kleinteiligen zu verzetteln.
Zum anderen muss die Balance zwischen Profitabilität und VC-Dynamik gewahrt bleiben. Dass ein Unternehmen in der Seed-Phase bereits Profitabilität vermeldet, ist bemerkenswert. Gleichzeitig fließen die neuen Mittel laut eigenen Angaben vor allem in operative Teams. Da dienstleistungsnahe HR-Modelle in der Regel niedrigere Margen aufweisen als reine SaaS-Produkte, muss heycare beweisen, dass die Plattform-Technologie effizient genug ist, um das hohe Skalierungsversprechen gegenüber den Venture-Capital-Gebern zu erfüllen, ohne die erarbeitete Profitabilität langfristig wieder einzubüßen.
Zudem ist ein echter Wettbewerbsvorteil gefragt. Die Einbindung von Partner*innen wie dem Urban Sports Club ist zwar nutzer*innenfreundlich, stellt aber technologisch keinen echten Burggraben dar, da etablierte Wettbewerber*innen ähnliche Schnittstellen bauen können. Der wahre Hebel von heycare muss daher in einer signifikant höheren App-Nutzung und Engagement-Rate liegen, als es bei den oft verwaisten traditionellen EAP-Hotlines der Konkurrenz der Fall ist.
Fazit
Zusammenfassend haben Anna Schneider und Julia Kahle eindrucksvoll bewiesen, dass sie ein massives Schmerzpunkt-Thema adressieren und die Budgets von Großkonzernen für sich gewinnen können. Der strategische Rebranding-Schritt von der reinen Nanny-Vermittlung zum ganzheitlichen Employee Assistance Program war notwendig, um bei B2B-Kunden entsprechend relevant zu werden. Nun muss das frische Kapital zeigen, ob heycare nicht nur ein modernes Interface bietet, sondern in der operativen Tiefe dauerhaft gegen die Platzhirsche der Branche bestehen kann.
Unchained Robotics auf dem Sprung in die „Champions League“ der Industrielogistik
Der Logistikkonzern Arvato beteiligt sich an Unchained Robotics und ebnet dem Paderborner Start-up den direkten Weg in die internationale Industrielogistik. Wir analysieren, wie dieser Deal den Markt aufmischt und welche strategischen Skalierungs-Learnings B2B-Gründer*innen daraus ziehen können.
Für Gründer*innen im Hardware- und Robotik-Bereich ist der Sprung von der Technologieentwicklung in den industriellen Masseneinsatz oft die größte Hürde. Bisher adressierte Unchained Robotics mit seiner Plattform vor allem kleine und mittelständische Betriebe in Europa. Durch die enge Verzahnung mit der Bertelsmann-Tochter Arvato validiert das Start-up seine Technologie nun im industriellen Großmaßstab.
Arvato plant, in den kommenden Jahren eine dreistellige Anzahl von Robotern in unterschiedlichen operativen Umgebungen zu implementieren. Dieses Volumen schafft Erfahrungswerte und Standards, die Unchained Robotics gegenüber Mitbewerbern einen deutlichen Skalierungsvorteil verschaffen dürften. Neue Lösungen können fortan direkt entlang konkreter Use Cases im echten Betrieb erprobt und für den breiten operativen Rollout vorbereitet werden.
Plattform-Strategie und strategische Einordnung im Wettbewerb
Der deutsche Robotik-Markt ist stark umkämpft und von unterschiedlichen Lösungsansätzen geprägt. Während einige Start-ups auf die Entwicklung eigener Hardware setzen, fokussiert sich Unchained Robotics auf die softwareseitige Integration, insbesondere durch ihr Betriebssystem. So setzt beispielsweise das Münchener Start-up RobCo auf eigene, physische und modulare Hardware-Roboterarme, wohingegen Unchained strikt modular und herstellerunabhängig agiert.
Auch im Vergleich zu WAKU Robotics aus Berlin, die mit einem Marktplatz und eigener Software einen starken Fokus auf mobile Logistikroboter (AMR/AGV) legen, decken die Paderborner breitere Pick-and-Place-Anwendungen ab. Gegenüber Unternehmen wie Magazino (gehört zu Jungheinrich), die auf spezialisierte autonome Logistik-Roboter und Eigenentwicklungen für spezifische Prozesse fokussiert sind, grenzt sich Unchained durch seinen offenen, plattformbasierten Ansatz ab.
Diese strategische Positionierung erweist sich nun als maßgeblicher Hebel. Für einen globalen 3PL-Dienstleister wie Arvato wäre die Bindung an nur einen Hardware-Hersteller zu starr. Durch die Unabhängigkeit von Unchained Robotics lassen sich Lösungen flexibel für reale Logistik- und Fulfillment-Prozesse maßschneidern.
Der „Huckepack“-Vorteil bei der US-Expansion
Ein weiterer kritischer Faktor für die künftige Marktstellung des Start-ups ist die Internationalisierung. Üblicherweise erfordert der Sprung über den Atlantik für deutsche Tech-Gründer enorme Summen und den langwierigen Aufbau eigener Vertriebsstrukturen.
Unchained Robotics wählt eine effizientere Route: Neben europäischen Standorten eröffnet die Partnerschaft den direkten Zugang in internationale Märkte, insbesondere in die USA. Das Start-up expandiert quasi „huckepack“ über die bestehenden, hochkomplexen Logistik-Setups von Arvato. Gerade in den USA, wo hohe Automatisierungsanforderungen auf dynamische E-Commerce-Strukturen treffen, sichert dies einen schnellen und praxisnahen Markteintritt.
Automatisierung ohne „Raketenwissenschaft“
Für den Logistikkonzern steht bei dem Deal vor allem die rasche operative Umsetzung im Vordergrund: Automatisierung müsse heute in erster Linie schnell wirken, so Arvato-CEO Frank Schirrmeister.
Dies zahlt direkt auf die ursprüngliche Vision von Unchained Robotics ein: Die Paderborner sind angetreten, um zu beweisen, dass industrielle Automatisierung längst keine „Raketenwissenschaft“ mehr ist. Durch den Arvato-Deal erhält das Start-up nun die Möglichkeit, diesen Anspruch von der Konzeption bis zur Inbetriebnahme im globalen Großmaßstab unter Beweis zu stellen.
Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen
Aus dem Deal zwischen Unchained Robotics und Arvato lassen sich drei handfeste strategische Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:
1. Orchestrierung schlägt Vendor-Lock-in
Gerade im Hardware- und Maschinenbau neigen Start-ups dazu, eigene proprietäre Systeme zu entwickeln. Unchained Robotics zeigt den Wert des Plattform-Gedankens: Corporates hassen den „Vendor-Lock-in“ (die Abhängigkeit von einem einzigen Hersteller).
Learning: Wer sich als herstellerunabhängige, modulare Software- oder Integrationsschicht positioniert, macht sich für Konzerne, die flexibel bleiben müssen, weitaus attraktiver als der Anbieter einer isolierten Einzellösung.
2. Die „Huckepack“-Expansion (Piggybacking)
Der teuerste und riskanteste Schritt für deutsche B2B-Start-ups ist oft die Internationalisierung – insbesondere in die USA. Anstatt Millionen an VC-Geldern in den Aufbau eigener US-Vertriebs- und Servicestrukturen zu verbrennen, nutzt Unchained Robotics die bestehende Infrastruktur seines strategischen Partners.
Learning: Sucht gezielt nach Kund*innen oder Investor*innen, deren eigene globale Logistik oder Infrastruktur ihr als direktes Sprungbrett für neue Märkte nutzen könnt.
3. Volumen-Commitment als unfairen Wettbewerbsvorteil (Moat) aufbauen
Ein Corporate-Investment ist gut, ein garantiertes operatives Testfeld ist besser. Arvato hat sich nicht nur an dem Start-up beteiligt, sondern ein klares Commitment zum Rollout einer dreistelligen Anzahl von Robotern abgegeben.
Learning: Verhandelt bei strategischen Beteiligungen immer auch den operativen Einsatz mit hinein. Das garantierte Volumen generiert reale Use Cases und Datenmengen, die für neue Wettbewerber einen fast unüberwindbaren Burggraben („Moat“) darstellen.
European Dynamism-Report zeigt Europas Tech-Paradoxon
Laut den Autoren des aktuellen „European Dynamism“-Reports bringt Europa mittlerweile gefühlt im Wochentakt neue Unicorns hervor. Doch bei der globalen Skalierung wandert die Wertschöpfung zu oft ab. Die Studie zeigt, in welchen sechs Deeptech-Nischen europäische Start-ups die unangefochtenen Kategorie-Führer von morgen bauen können. StartingUp hat die Ergebnisse analysiert und zeigt, was das für eure Go-to-Market-Strategie bedeutet.
Das europäische Start-up-Ökosystem ist laut dem Report „European Dynamism“ im Auftrag von redalpine deutlich reifer geworden. Die Studienautoren konstatieren, dass neue Unicorns zuletzt gefühlt im Wochentakt entstehen. Zudem schlagen europäische VC-Fonds ihre US-Konkurrenten über lange Zeithorizonte, und das Funding zog 2025 wieder spürbar an. Doch der Report benennt ein neues europäisches Tech-Paradoxon: Der zentrale Engpass liegt heute weniger bei Talent, Forschung oder Finanzierung. Es geht vielmehr um die Frage, wo die Wertschöpfung beim globalen Scaling in der Region gehalten werden kann.
Die Kernthese der Studie: Europas Wettbewerbsvorteil liegt exakt dort, wo Software, Wissenschaft und Industrie eng zusammenkommen. Genau hier entstehen neue Cluster, in denen Deutschland eine sichtbar größere Rolle spielt. Berlin etabliert sich dabei laut Report als Standort für Enterprise AI, während München sich als Deeptech-Knoten über die Bereiche Fusion, Space, Health und Robotics hinweg wiederholt.
Die 6 Felder, in denen Europa global gewinnen kann
Die Deep Dives der Studie decken sechs Sektoren ab , in denen Europa nicht nur gründen, sondern den Wert auch langfristig halten und anführen kann:
- Intelligent Enterprise: Im Bereich Intelligent Enterprise verschiebt sich der Wettbewerb von Foundation Models zu Workflows. Entscheidend ist, ob ein Modell ganze Unternehmensprozesse orchestrieren, verifizieren und tief in Kundenabläufe integrieren kann. Europas Chance liegt laut Report vor allem in Vertical AI und im Orchestrierungs-Layer. Sichtbare Player am Standort Berlin sind hier Start-ups wie n8n und Parloa, während sich das Funding für europäische Enterprise-AI-Startups 2024/25 mehr als verdoppelt hat.
- Digital Health: Digital Health verlässt die Wellness-Ecke und wird zur klinischen Infrastruktur. Der Report beschreibt einen Shift hin zu "medical-grade devices" und spezialisierter AI für konkrete Versorgungsprobleme. Diese reichen von Wearables (wie Oura und Hilo/Aktiia) bis zu Anwendungen (wie Voize und Avelios), die direkt in klinische Abläufe eingreifen. Europas Vorteil liegt hierbei in Validierung, Regulierung und klinischer Alltagstauglichkeit.
- New Energy: Im Energiekapitel setzt der Report vor allem auf die Kernfusion als europäische Souveränitätswette. Das globale Investment in Fusion stieg 2025 laut Report um knapp 500 % auf 3,8 Mrd. Dollar. Europas Trumpf ist dabei laut den Autoren nicht die größte Kapitalmaschine , sondern die ITER/CERN-Erfahrung, die Engineering-Tiefe und komplexe Präzisionsfertigung , exemplarisch gezeigt am deutschen Start-up Proxima Fusion.
- Space: Die Raumfahrt wird im Report bewusst entromantisiert. Der kurzfristige Business Case liegt nicht im Weltraumtourismus, sondern in Erdbeobachtung, Navigation, Konnektivität, Defence und orbitaler Infrastruktur. Das Thema ist damit weniger Sci-Fi als vielmehr Industrie-, Sicherheits- und Infrastrukturpolitik. Getrieben von der Debatte um technologische Souveränität wächst der Druck zum Aufbau eigener Satelliten- und Launch-Infrastrukturen. Europa baut hierfür sichtbare Cluster von Toulouse über München bis Glasgow auf.
- Unlocking Biology: Die Biologie wird laut Report von einer Beobachtungswissenschaft zu einer datengetriebenen Engineering-Disziplin. Große biologische Foundation Models, proprietäre Datensätze und automatisierte Lab-in-the-loop-Setups beschleunigen Design, Test und Iteration. Europas Chance liegt hier laut Report besonders in der Middleware- und Tooling-Schicht zwischen AI-Fähigkeit und therapeutischem Ergebnis.
- Robotics: Robotik ist im Report kein Nischenthema mehr, sondern ein Feld, in dem Europas industrielle DNA zum echten Vorteil werden könnte. Der Markt ist groß und noch längst nicht verteilt, da laut Report noch rund 70 % der Lagerhäuser nicht automatisiert sind. Das Funding für europäische Robotik-Startups lag 2025 bei über 1,6 Mrd. Euro. Europas stärkste Position liegt dabei eher im „Brain Layer“ als im reinen Hardware-Rennen: in Physical AI, Real-World-Daten und Software, die Robotern den Umgang mit wechselnden Umgebungen beibringt.
StartingUp ordnet ein: 5 strategische Hebel für euer Pitch-Deck
Was bedeuten diese Fakten nun konkret für Gründerinnen und Gründer, die gerade an ihrem Produkt bauen oder Kapital suchen? Wir haben aus den Daten des Reports fünf harte strategische Leitplanken für eure Go-to-Market-Strategie abgeleitet:
- Baut den europäischen Burggraben: Pitcht Investoren keinen reinen Software-as-a-Service-Klon aus den USA. Wenn ihr global skalieren wollt, müsst ihr die Stärken des Standorts nutzen. Investoren suchen derzeit gezielt nach Teams, die exzellente Software mit tiefem, hiesigem Industrie- oder Wissenschafts-Know-how verknüpfen.
- Orchestrierung statt Basis-Technologie: Der Versuch, bei Foundation Models mit US-Giganten zu konkurrieren, verbrennt meist nur Ressourcen. Positioniert euer Start-up stattdessen intelligent im Orchestrierungs-Layer. Zeigt, dass ihr das Detailgeschäft beherrscht: das fehlerfreie Integrieren und Verifizieren von KI in tief verwurzelte, bestehende Unternehmens-Workflows.
- Nutzt Regulierung als euren stärksten USP: Viele Gründer fürchten europäische Regularien. Dreht den Spieß um! Wenn euer "medical-grade" Produkt die strengen europäischen Hürden für klinische Alltagstauglichkeit meistert, habt ihr den ultimativen Qualitätsnachweis für den globalen Markt.
- Baut die Schaufeln für den Goldrausch: Ob in Biotech oder Robotik – versucht nicht, den finalen Roboter oder Wirkstoff komplett allein zu bauen. Entwickelt stattdessen die renditestarken Zwischenschichten wie Middleware, Tooling oder den "Brain Layer", also jene Software, die KIs überhaupt erst befähigt, in komplexen Umgebungen zu agieren.
- B2B-Infrastruktur schlägt Sci-Fi-Visionen: VCs finanzieren aktuell keine Luftschlösser. Baut euren Business Case in Bereichen wie Space oder Energy auf knallharter Infrastruktur-, Sicherheits- und Industriepolitik auf. Wer Schlagworte wie "technologische Souveränität" glaubhaft mit einem starken B2B-Produkt untermauern kann, punktet beim Fundraising.
Fazit: Vom Gründen zum Überzeugungstäter
Wie die Studie passend zuspitzt: Europa fehlt nicht der nächste Gründerjahrgang. Europa kann gründen – jetzt muss Europa lernen, mit Überzeugung zu skalieren. Wer heute ein Start-up in den Bereichen Deeptech, AI oder Robotics gründet, muss vom ersten Tag an groß denken. Nur wer die Wertschöpfung und das Ownership konsequent in der eigenen Region hält, macht aus einem starken europäischen Start-up auch einen globalen Kategorie-Führer.
Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab
Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.
Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.
Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.
Aus dem Drucklabor zum DeepTech
Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.
Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.
Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut
Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).
Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.
Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos
Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.
In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.
Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.
Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.
Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen
Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.
Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.
Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.
Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.
Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
