Aktuelle Events
Gründer*in der Woche: Suitcase - Justice-as-a-Service
KW 45/2024
Eine Klage vor Gericht ist teuer und dauert lange. Das Münchner LegalTech-Start-up Suitcase der Gründer Philipp Hertel, Tim Fischer und Tim Kniepkamp beschleunigt diesen Prozess und bietet dazu ein digitales Schlichtungsverfahren, das den Rechtsstreit in wenigen Tagen verbindlich beilegen kann.
Die Idee zu Suitcase entstand im Sommer 2020. Die angehenden Juristen Tim Fischer und Tim Kniepkamp kannten sich über einen studentischen Wettbewerb. Sie trafen sich in Düsseldorf mit einem befreundeten Rechtsanwalt aus Brasilien. Fast beiläufig zeigt dieser ihnen eine App für digitale Gerichtsverfahren. Als privater Richter verdiente er sich damit ein Nebeneinkommen. „Wir waren sofort beeindruckt, und haben das Potenzial für den deutschen Rechtsmarkt gesehen“, sagt Tim Fischer. Noch am selben Abend waren der Firmenname Suitcase und der Slogan „Dispute resolution suitable to your case“ geboren. Die Vision: digitale Streitbeilegung nach Deutschland zu bringen und stärker an den Bedürfnissen der Menschen zu orientieren.
Streitbeilegung: ein Markt mit vielen Hürden
Parallel zum Studium begannen sie, sich den Markt der Streitbeilegung näher anzuschauen und stießen auf ein Problem von enormer Tragweite: Seit 1995 ging die Zahl der Klagen bei den Amtsgerichten laut Bundesjustizamt um 57 Prozent zurück; vor den Landgerichten verzeichneten sie einen Rückgang um 38 Prozent. Zeitgleich stieg der Betrag, ab dem Menschen vor Gericht gehen würden. Und das Problem würde sich bis 2030 noch verschärfen: 40 Prozent der Jurist*innen würden bis dahin effektiv aus dem Dienst ausscheiden.
Wie kann man dieses Problem lösen? „Uns war klar, dass wir die Gerichte nicht verändern können. Und so entschieden wir uns, eine echte, unabhängige Alternative zu entwickeln“, erinnert sich Tim Kniepkamp. Die Juristen erprobten verschiedene Mechanismen der Streitbeilegung und holten den Informatiker Philipp Hertel ins Team. In einem Buch stießen sie letztlich auf ein innovatives Konzept zur Schlichtung, das besonders hohe Einigungsquoten versprach. Im Frühjahr 2023 begannen sie in Vollzeit an dem Projekt zu arbeiten, zogen für die Gründung nach München und lebten anfangs in einer gemeinsamen WG. Im Ergebnis hat sich der Umzug für die Gründer gelohnt. In München wird das LegalTech-Start-up von der UnternehmerTUM und von Initiativen des Bayrischen Justizministeriums sowie des Bayrischen Wirtschaftsministeriums gefördert.
Ein Tool für Streitigkeiten im Arbeitsrecht
Was ist das Besondere an der innovativen Lösung? Suitcase prüft nicht, ob jemand Recht bzw. Unrecht hat; dafür sind Gerichte zuständig. Stattdessen setzt das Start-up bei den Interessen der Parteien an. Konkret wird das Tool für Streitigkeiten im Arbeitsrecht nach Kündigung eingesetzt: Was würde der/die Arbeitnehmende akzeptieren, um nicht vor Gericht zu ziehen? Was wäre der/die Arbeitgebende bereit zu zahlen, um nicht verklagt zu werden? Um sich auf ein Gebot festzulegen, erhalten die Parteien von Suitcase einen Einigungsvorschlag erstellt. So unterstützt die Plattform insbesondere Menschen ohne Rechtskenntnisse. Im Kern handelt es sich also um eine Plattformlösung zum Bieten – ganz nach dem Vorbild von eBay, mit dem Unterschied, dass hier nicht der Austausch von Gütern im Fokus steht, sondern die Lösung eines Rechtsstreits verhandelt wird.
Damit die Menschen ehrlich sind, setzt Suitcase auf Vertraulichkeit: Nur das System kennt die Summen beider Seiten und gleicht sie mithilfe eines Algorithmus ab. Kommt eine Einigung zustande, liefert Suitcase den individuellen, verbindlichen Vertrag. Damit wird der Konflikt rechtssicher beigelegt. Dieser Prozess dauert in der Regel nur wenige Tage – vor Gericht sind es oftmals mehrere Monate.
Justice-as-a-Service
Das Geschäftsmodell beschreiben die Gründer als Justice-as-a-Service. Dahinter steht die Idee, Streitbeilegung – das Kerngeschäft der Justiz – als eine private, digitale Dienstleistung anzubieten. Der Service richtet sich bewusst nicht an End-, sondern an Firmenkund*innen. „Das Endkundengeschäft wäre bei uns besonders aufwendig. Wir hätten extrem hohen Aufwand im Marketing fahren müssen. Außerdem haben Menschen selten einen Rechtsstreit, sodass sie uns nicht als Kunden erhalten geblieben wären“, erklärt Philipp Hertel. Gegen einen B2B-Ansatz sprach, dass das Marktsegment zu wenig passende Streitfälle bereithielt.
Am Ende entschieden sich die Gründer für ein Hybrid-Modell: B2B2C. Sie vertreiben das Produkt an Firmenkund*innen, die viele Streitigkeiten bündeln (sog. Multiplikatoren). Hierzu zählen insbesondere Rechtsschutzversicherungen, Kanzleien im Arbeitsrecht und HR-Abteilungen. Die Nutzer*innen auf der Plattform sind hingegen Privatpersonen. Diese Kombination erlaubt es dem jungen Unternehmen, die Marketingkosten und die Kund*innenabwanderungsrate gering zu halten. Das wirkt sich positiv aus: Die Kosten einer Schlichtung mit Suitcase liegen bis zu 80 Prozent unter den Kosten eines Verfahrens vor Gericht.
Somit profitieren alle Beteiligten von einer erheblichen Kostenersparnis. Parteien können den Konflikt ohne anwaltliche Begleitung lösen – wahlweise kann sie die Anwältin bzw. der Anwalt auf der Plattform vertreten. Ein weiterer Faktor ist die Zeitersparnis. Suitcase verkürzt den Einigungsprozess um mehrere Monate. Hinzu kommt der geringe Arbeitsaufwand. Einen Fall zu eröffnen bzw. zu prüfen, dauert nur wenige Minuten. Die Kommunikation mit beiden Seiten übernimmt Suitcase. Und der individuelle Vertrag wird automatisch erstellt.
Ein letzter, nicht zu unterschätzender Faktor ist die Neutralität bzw. Vertraulichkeit. Das Start-up sorgt dafür, dass beide Seiten ehrlich verhandeln, und bietet eine gesichtswahrende Lösung, wenn kein gemeinsamer Nenner gefunden wird. „Sicher können die Konfliktpartner auch direkt miteinander eine Abfindung aushandeln. Dieser Prozess ist jedoch arbeitsintensiv und verspricht geringere Chancen einer schnellen Einigung“, resümiert Tim Fischer.
Mehr KI, weniger Anwalt
Im März 2024 ist Suitcase offiziell an den Markt gegangen. Seitdem konnte es bereits zwei bekannte Rechtsschutzversicherer von sich überzeugen. Auch mehrere renommierte Boutique-Kanzleien zählen zu den Kund*innen. Die Gründer haben sich ein langfristiges Ziel gesetzt: möglichst vielen Menschen zu ihrem Recht zu verhelfen. Eine wichtige Komponente ist daher, die Plattform so einfach wie möglich nutzbar zu machen. Privatpersonen sollen ohne Rechtskenntnis einen Fall eröffnen können.
„Steuersoftware hilft uns, ohne Steuerberater Geld schnell und einfach vom Finanzamt zurückzuholen. Mit Suitcase löst du den Rechtsstreit ohne Anwalt. Wer sich besser beraten fühlt, kann natürlich einen Juristen hinzuziehen“, betont Tim Fischer. Auf diese Weise trägt das Start-up auch dazu bei, die Gerichte zu entlasten. Angesichts der eingangs erwähnten Pensionierungswelle und der hohen Einigungsbereitschaft vor dem Arbeitsgericht kann Suitcase eine signifikante Unterstützung leisten.
Aktuell erforscht Suitcase den Einsatz von künstlicher Intelligenz und hat hierzu ein Patent beantragt. Zukünftig werden die Unterlagen der Parteien automatisch analysiert. So kann der/die Arbeitnehmende den Fall mit wenigen Klicks eröffnen, und die Parteien werden dabei unterstützt, einen fairen Kompromiss zu finden. „Künstliche Intelligenz hilft schon heute, Krankheiten früh zu erkennen. In Zukunft wird sie Menschen dabei helfen, schnell und unkompliziert ihren Rechtsstreit zu lösen“, erklärt Philipp Hertel.
Diese Artikel könnten Sie auch interessieren:
UniteLabs: Der Münchner DeepTech-Herausforderer auf dem Weg zum globalen Labor-Standard?
Das 2024 von Robert Zechlin, Lukas Bromig und Julian Willand gegründete UniteLabs will die Laborautomatisierung von proprietären Hürden befreien. Nach einer Millionenfinanzierung folgte Anfang 2026 der offizielle US-Launch. Wir wollten wissen: Wie realistisch ist die Vision eines herstellerunabhängigen Standards in einem von Hardware-Silos dominierten Markt? Eine Analyse.
Wer heute ein hochmodernes BioTech-Labor betritt, erwartet nahtlos vernetzte HighTech-Forschung. Die Realität sieht oft anders aus: Rund 90 Prozent der Laborgeräte stammen von unterschiedlichen Hersteller*innen und sprechen schlichtweg nicht dieselbe technische Sprache. Um künstliche Intelligenz in der Forschung nutzbar zu machen, müssen hochqualifizierte Wissenschaftler*innen oft als Software-Ingenieur*innen einspringen und mühsam Schnittstellen programmieren. Genau diesen Flaschenhals will das Münchner DeepTech-Start-up UniteLabs beseitigen.
Die Gründer und der Sprung aus München
Hinter UniteLabs stehen Robert Zechlin, Lukas Bromig und Julian Willand. Nach Vorarbeiten ab 2022 wurde das Unternehmen 2024 offiziell gegründet. Das Team vereint interdisziplinäre Expertise aus Chemieingenieurwesen, Wirtschaftsinformatik und Unternehmensstrategie – eine essenzielle Mischung für ein Produkt, das tiefes Prozessverständnis mit modernster Softwarearchitektur verbinden muss.
Dass die Idee einen massiven Schmerzpunkt der Industrie trifft, zeigt die rasante Entwicklung der letzten Monate. Nach einer Pre-Seed-Finanzierungsrunde in Höhe von 2,77 Millionen Euro unter der Führung von NAP (ehemals Cavalry Ventures) im Januar 2025 und der Auszeichnung als „Bestes Münchner Start-up“ beim Munich Startup Award 2025 ist das Unternehmen sichtlich gewachsen. Im ersten Quartal 2026 zählt das Team im Münchner Inkubator Werk1 bereits rund 28 Köpfe.
Doch wie verhindert ein derart rasant wachsendes Team, bei der ständigen Anbindung neuer, exotischer Hardware nicht zu einer hochbezahlten IT-Manufaktur zu verkommen? Schließlich erfordert jedes neue Laborgerät auf dem Markt zunächst einmal Entwicklungsaufwand für den passenden Konnektor.
„Unser Ziel ist nicht, jedes exotische Gerät einzeln ‚irgendwie‘ anzubinden“, stellt Mitgründer Robert Zechlin klar. Vielmehr soll die Integration zu einer wiederholbaren Produktfähigkeit reifen. Statt sich im Klein-Klein der Modellnummern zu verlieren, baue UniteLabs seine Konnektoren entlang grundsätzlicher Geräte-Fähigkeiten. Die puren Herstellerspezifika landen dabei in einer dünnen Adapter-Schicht, während Workflows und Datensemantik konsistent bleiben.
Um die berüchtigte Skalierungsfalle zu umgehen, setzt das Start-up zudem verstärkt auf „Reusable Automation Assets“. „Wir investieren in validierte Workflow-Bausteine, Device-Profile und Test-Suites, mit denen die zweite und dritte Integration deutlich schneller wird als die erste“, betont Zechlin und skizziert damit den Weg zum echten SaaS-Unternehmen. Der Gründer gibt die Richtung selbstbewusst vor: „Die Grenzkosten für das nächste Gerät und den nächsten Standort müssen über Zeit sinken. Unser Endzustand ist ein Ökosystem, in dem Integrationen gemeinsame Infrastruktur sind, nicht Projektgeschäft.“
Vom Prototyp zur Architektur der offenen Labore
Im Februar 2026 hat UniteLabs auf der renommierten Branchenmesse SLAS in Boston den offiziellen US-Launch seines „AI-Ready Lab Automation Systems“ vollzogen. Statt nur isolierte Schnittstellen zu flicken, positioniert sich das Start-up nun mit einer klaren, dreiteiligen Architektur.
Den Kern bildet die Cloud-native „UniteLabs Platform“, die Hardware vernetzt und die Integration von Machine-Learning-Modellen in Echtzeit erlaubt. Ergänzt wird dies durch die lokale Anwendung „GroundControl“ für den Plug-and-Play-Anschluss von Geräten sowie das „UniteLabs SDK“. Letzteres ist ein Python-Werkzeug für Wissenschaftler*innen, um Labor-Workflows komplett als Code zu steuern. Dass diese Theorie praxistauglich ist, beweist das aufstrebende KI-BioTech-Unternehmen Cradle, das die Lücke zwischen Maschinen und digitalen Daten-Lakes intern bereits mit dem Münchner System schließt. Laut UniteLabs soll sich der Labor-Durchsatz für solche KI-getriebenen Forschungsteams durch die Plattform um bis zu das Vierfache steigern lassen.
Ein „Lab-as-Code“-Ansatz via Python mag für entwickleraffine Data Scientists verlockend sein – doch schließt er nicht paradoxerweise die klassischen Biolog*innen aus, für die Code-Workflows oft eine zu steile Lernkurve bedeuten?
„Code ist nicht das Produkt“, kontert Zechlin. Er sei vielmehr eine Schnittstelle, die sowohl Power-User als auch den Laboralltag bedienen müsse. Das SDK richte sich an Teams, die volle Kontrolle über Versionierung und automatisierte Tests verlangen – was im KI-BioTech-Umfeld zunehmend Standard sei. Zechlin räumt jedoch ein, dass das Programmieren nicht jedem liege: „Die meisten wollen zuverlässige Ausführung und klare Transparenz.“
Die Lösung der Münchner: Über die Orchestrierungsschicht und „GroundControl“ werden Workflows paketiert und mit Leitplanken versehen, sodass sie auch für Nicht-Entwickler sicher ausführbar sind. Code bleibt strategisch zwar die „universelle Abstraktion“ über Geräte hinweg, doch das Interface der Zukunft sieht anders aus. Zechlin blickt voraus: „Das User Interface für Wissenschaftler wird zunehmend KI-gesteuert und natürliche Sprache zum primären Interface. UniteLabs dient diesen KI-Applikationen als robuste Surface Area und Source of Truth.“ Die Leitplanke für das Wachstum fasst er in einem Satz zusammen: „Unsere Vision ist: flexibel, wo es Sinn macht, und kompromisslos robust, wo es zählen muss.“
Die Bewährungsprobe auf dem US-Markt
Nach dem Bostoner Launch steht das Start-up nun vor der monumentalen Aufgabe, sich im hochkompetitiven US-Markt zu behaupten. Hier entscheidet sich, ob UniteLabs vom europäischen Hoffnungsträger zum globalen Player reift. Umgeben von gigantischen Investitionen in die KI-Wirkstoffentwicklung reicht es nicht, nur ein weiteres Automatisierungstool zu sein – UniteLabs muss sich als essenzieller „Schaufelhersteller“ für den aktuellen Boom etablieren.
Dabei trifft man auf amerikanische Wettbewerber*innen, die teils mit hunderten Millionen Dollar Venture Capital ausgestattet sind. Wie überlebt ein Münchner Start-up mit einer Pre-Seed-Runde von knapp drei Millionen Euro diese Materialschlacht? Zechlin gibt sich pragmatisch und weicht dem direkten Finanz-Vergleich aus: „Klar: In Infrastrukturmärkten hilft Kapital, aber es ist nicht der entscheidende Hebel.“ Anstatt die Konkurrenz im reinen „Spend“ schlagen zu wollen, baue man auf messbaren Nutzen im Laborbetrieb.
Der Plan scheint aufzugehen: Ein Großteil von Umsatz und Pipeline stammt heute bereits aus den USA, wo UniteLabs Kund*innen an beiden Küsten bedient und mit großen Hardware-Hersteller*innenn kooperiert. „Wir planen für dieses Jahr unseren ersten Big Pharma Roll-out, der sowohl in Europa als auch an Standorten in den USA erfolgen soll“, verrät der Gründer. Um diese Dynamik zu finanzieren, hebe man aktuell eine 9-Millionen-Euro-Seed-Runde für die US-Expansion. Den strukturellen Wettbewerbsvorteil sieht Zechlin in der herstelleragnostischen Verbindung bestehender Geräte: „Statt Rip-and-Replace zu verlangen, werden Workflows schneller produktiv, Daten werden sauber mit Kontext versehen, und Teams können ‚Lab-as-Code‘ wirklich ausrollen.“
Ein strategischer Hebel ist dabei die Zielgruppenansprache. Statt in endlosen Vertriebszyklen mit dem C-Level großer Pharma-Konzerne zu ringen, treibt UniteLabs ein nutzer*innengetriebenes Wachstum voran. Labor-Ingenieur*innen, die durch das Python-SDK wochenlange Schnittstellenprogrammierung einsparen, tragen das System organisch in ihre Unternehmen. Dabei profitiert das Start-up enorm davon, selbst keine Pipettierroboter oder Analysegeräte herzustellen. Als „neutrale Schweiz“ der Labor-Hardware buhlt UniteLabs nicht um lukrative Geräteverkäufe – ein extrem starkes Argument gegen den gefürchteten Vendor-Lock-in amerikanischer Hardware-Giganten.
Stresstest für das Geschäftsmodell und Regularien
Doch die ambitionierte Plattform-Strategie wird kritisch geprüft werden. Das Geschäftsmodell birgt ein ständiges API-Katz-und-Maus-Spiel, da Schnittstellen zu teils stark abgeschirmten Systemen gebaut werden müssen. Wenn etablierte Hersteller*innen ihre Firmware ändern oder Drittanbieter-Zugriffe blockieren, explodieren schnell die Wartungskosten für die Konnektoren.
Bleibt die Frage an den Gründer: Was ist also der Plan B, wenn die Marktführer ihre Schnittstellen per Update plötzlich aktiv verschlüsseln? Reicht der Verweis auf offene Standards wie das SiLA2-Protokoll in der harten Praxis aus?
„Wir gehen davon aus, dass Hersteller ihre Ökosysteme schützen werden. Unsere Strategie darf deshalb nicht auf ‚Goodwill‘ bauen“, gibt sich Zechlin keinen Illusionen hin. Standards wie SiLA2 seien zwar hilfreich gegen Fragmentierung, aber „kein Schutzschild“. Der Ansatz der Münchner ist stattdessen pragmatisch und mehrstufig: Standards nutzen, wo verfügbar, und eigene robuste Adapter bauen, wo nötig. Zudem betreibe man ein Programm mit automatisierten Regressionstests am realen Geräteverhalten, um Fehler durch Updates früh zu erkennen.
Der zweite Baustein der Verteidigung ist kommerzieller Druck. Da Labore zunehmend „Best-of-Breed“-Lösungen kombinieren wollen, würden Hersteller, die Interoperabilität blockieren, zunehmend Deals riskieren. Im Hintergrund investiere man deshalb viel Arbeit in aktiv gepflegte Partnerschaften mit den Produzent*innen. Zechlins Plan B lautet letztlich Resilienz: „Mehrere Integrationspfade, starke Tests, und ein System, das stabil bleibt, auch wenn sich die Oberfläche verändert.“ Er ist sich sicher: „Langfristig wirkt die Ökonomie in Richtung Offenheit.“
Neben blockierender Hardware bleibt die US-Zulassungsbehörde FDA die vielleicht höchste Hürde auf dem Weg in den Enterprise-Markt. Deren strenge Vorgaben zu elektronischen Aufzeichnungen sind der größte Vorbehalt von Pharmaunternehmen gegenüber Cloud-basierten Systemen. Gelingt es UniteLabs, Offenheit mit lückenlosen Audit-Trails zu verknüpfen, könnten sie die berüchtigten Sales-Zyklen drastisch verkürzen.
Doch wie passt maximale Entwickler*innen-Freiheit durch Python-Skripte mit rigider FDA- und GxP-Compliance zusammen? Für Zechlin existiert dieser Widerspruch im Labor-Alltag schlichtweg nicht: „Compliance widerspricht Flexibilität nicht. Was widerspricht, ist unkontrollierte Veränderung.“
Um Big Pharma gerecht zu werden, behandle man hochflexible Workflows wie reguläre Software-Produkte: versioniert, testbar und auditierbar. „Ein Script ist in einem GxP-Kontext kein ‚jeder macht, was er will‘, sondern ein kontrolliertes Artefakt mit definierten Inputs, erwarteten Outputs und einem Validierungsnachweis“, unterstreicht der Mitgründer. Die Plattform trenne Sandbox-Entwicklungen von einer strikt kontrollierten Produktionsebene mit signierten Releases, Environment-Pinning und klarer Datenlineage. Zechlin formuliert einen selbstbewussten Anspruch an die Branche: „Das Labor holt Software-Best-Practices nach. Unser Anspruch ist, ‚compliant by design‘ zur Default-Einstellung für AI-ready Lab Ops zu machen.“
Fazit
UniteLabs hat exzellentes Timing bewiesen. Die BioTech-Branche lechzt nach KI, scheitert aber noch massenhaft an isolierten Daten. Durch das Bereitstellen essenzieller Daten-Infrastruktur haben sich die Münchner in eine starke Ausgangsposition manövriert. Der US-Launch und anstehende Messepräsentationen zeugen vom Anspruch der Gründer. Der ultimative Lackmustest ab 2026 wird jedoch sein, ob die Hardware-Hersteller*innen diesen Wandel dulden – oder den Kampf um ihre lukrativen Software-Margen eröffnen.
Bleibt die Frage nach dem viel zitierten „Endgame“: Baut das Start-up wirklich das globale Betriebssystem für Biotech-Labore, oder macht man sich letztlich nur als hochattraktives Übernahmeziel für Hardware-Giganten hübsch?
Auf diese Entweder-Oder-Frage antwortet Zechlin diplomatisch, aber ambitioniert: „Unsere Vision ist, die neutrale Betriebsschicht für moderne Labore zu werden, weil die Branche einen herstellerunabhängigen Standard braucht, nicht noch ein weiteres Einzellösungstool.“ Gleichzeitig sei man Realist: Infrastruktur zähle nur, wenn sie im Alltag zuverlässig genutzt werde und verlässliche, strukturierte Daten für KI liefere.
Sollte das gelingen, hält sich UniteLabs alle Optionen offen – von der unabhängigen Kategorie-Definition über strategische Partnerschaften bis hin zum Exit. Doch auf einen schnellen Verkauf schiele man nicht, verspricht Zechlin: „Wir bauen nicht für eine Übernahme. Wir bauen so, dass der Markt die Plattform ernst nehmen muss.“ Und am Ende solle ohnehin der/die Kund*in profitieren: „Weniger Silos, schnellere Science, und ein Ökosystem, in dem Innovation nicht an proprietären Schnittstellen hängen bleibt.“
Synera sichert sich 35 Mio. Euro für die Revolution des Engineerings
Was einst als bionisches Forschungsprojekt begann, ist heute eine der vielversprechendsten europäischen DeepTech-Hoffnungen. Doch wie tragfähig ist die Vision vom „autonomen digitalen Ingenieur“ im stark regulierten Maschinenbau? Ein tieferer Blick auf Gründer, Markt und das Geschäftsmodell.
Die deutsche Industrie steht unter massivem Druck: Internationale Konkurrenz – insbesondere aus Asien –, chronischer Fachkräftemangel und die Notwendigkeit, Entwicklungszyklen drastisch zu verkürzen, zwingen zum Handeln. Generative künstliche Intelligenz (GenAI) gilt als Heilsbringer, doch in der Praxis verpuffen viele Initiativen. Nur etwa 41 Prozent der KI-Prototypen in der Fertigungsindustrie erreichen laut Branchenstudien den produktiven Einsatz. Die Konstruktions- und Entwicklungsabteilungen gelten als stark in Silos organisiert und bis heute schwer automatisierbar.
„Engineering ist das Rückgrat jedes Industrieunternehmens, gehört jedoch nach wie vor zu den am wenigsten digitalisierten und automatisierten Funktionen und war bis vor Kurzem für KI weitgehend unzugänglich“, bringt es Dr. Moritz Maier, Co-CEO von Synera, auf den Punkt.
Genau in diese Lücke stößt sein Unternehmen. Mit einer Series-B-Finanzierungsrunde über 35 Millionen Euro will das Bremer Startup nun international skalieren. Angeführt wird die Runde vom europäischen Wachstumsfonds Revaia, mit starker Beteiligung des UVC Partners Wachstumsfonds sowie Capgemini (über ISAI Cap Ventures). Auch die Bestandsinvestoren Spark Capital, BMW iVentures und Cherry Ventures ziehen wieder mit. Das Signal an den Markt ist deutlich: Engineering Automation wird zum nächsten großen Software-Schlachtfeld.
Von Kieselalgen zur KI-Plattform
Hinter Synera stehen die Gründer Moritz Maier, Daniel Siegel (beide Co-CEO) und Sebastian Möller (Managing Director). Die Ursprungsidee entstand am renommierten Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Gründer forschten dort im Bereich der Bionik und untersuchten die Leichtbaustrukturen von Kieselalgen, um deren evolutionäre Prinzipien auf technische Bauteile zu übertragen.
Aus „Evolutionary Light Structure Engineering“ wurde 2018 die Ausgründung ELISE. Zunächst lag der Fokus auf algorithmusbasiertem Design. Mit der Zeit erkannten die Gründer jedoch ein viel grundlegenderes Problem: Es fehlte nicht an Software für das eigentliche Design, sondern an einer Brücke, die die unzähligen Insellösungen (CAD, Simulation, Materialprüfung) im Engineering-Alltag verbindet. Dies führte zur Neuausrichtung und schließlich zur Umbenennung in Synera – einer Low-Code- und KI-Plattform für Connected Engineering.
Das Geschäftsmodell im Check
Synera betreibt ein klassisches B2B-Plattform-Modell. Anstatt etablierte Platzhirsche im Computer-Aided Design (CAD) zu verdrängen, positioniert sich Synera als übergeordnete Orchestrierungsschicht. Die Software klinkt sich in über 80 bestehende Tools ein.
- Der Werttreiber: Nutzer*innen können komplexe Workflows (z. B. CAD-Modellierung → Simulation → Kostenkalkulation → Designanpassung) als Templates speichern. Das frische Kapital soll laut Moritz Maier nun eine Entwicklung beschleunigen, „bei der KI-Agenten als echte digitale Engineers agieren und komplexe Workflows entlang der gesamten Wertschöpfungskette autonom ausführen.“
- Der Lock-in-Effekt: Wenn ein Industriekonzern seine Kernprozesse auf Synera automatisiert hat, ist die Plattform kaum noch auszutauschen. Die Wechselkosten für den Kunden sind enorm.
- Die Herausforderungen: Das Modell ist technisch hochkomplex. Die ständige Pflege von über 80 API-Schnittstellen zu Drittanbietern bindet gewaltige Entwickler*innen-Ressourcen. Zudem erfordert der Vertrieb in klassische Hardware-Unternehmen lange Sales-Zyklen.
Zwischen RPA und Spezial-CAD
Wettbewerbsumfeld | Marktansatz | Syneras Differenzierung |
Generatives Design (z. B. nTop, Altair) | Fokus auf die Erstellung hochkomplexer, gewichtsoptimierter Bauteile. | Synera generiert nicht nur das Design, sondern automatisiert den Prozess quer durch verschiedene externe Tools. |
Klassische RPA (z. B. UiPath, Zapier) | Hervorragend für kaufmännische Prozesse (HR, CRM, Rechnungen). | Standard-RPA scheitert an den komplexen 3D-Geometrie- und Physikdaten des Engineerings. |
PLM-Systeme (z. B. Siemens, Dassault) | Verwalten den gesamten Produktlebenszyklus und die Daten. | Synera setzt sich auf diese oft schwerfälligen Systeme, um die agilen Arbeitsschritte flexibler zu machen. |
Kritische Einordnung: Vertraut der/die Ingenieur*in der KI?
Synera verweist auf eine Umsatzverdopplung im vergangenen Jahr und über 60 namhafte Kunden, darunter BMW, Airbus, NASA und Miele. Mit dem frischen Kapital steht die Expansion nach Asien, Europa und in die USA an. Dass dieser Wachstumskurs von den Investoren aktiv gestützt wird, betont Benjamin Erhart, General Partner bei UVC Partners: „Wir konnten erleben, wie Synera als zuverlässiger Partner die Transformation des Engineerings gestaltet.“
Doch der Weg zur breiten Durchdringung birgt auch Stolpersteine:
- Das Vertrauensproblem: „Agentic AI“ bedeutet, dass die Software eigenständig Entscheidungen trifft. In sicherheitskritischen Branchen (Luftfahrt, Automotive) herrschen jedoch strikte Compliance-Regeln. Bevor ein KI-Agent autonome Designänderungen an tragenden Bauteilen vornimmt, müssen massive Haftungsfragen geklärt sein.
- Die Pilot-Falle: Viele GenAI-Projekte scheitern auf dem Weg in die Produktion. Die Gefahr für Synera besteht darin, in Innovationsabteilungen stecken zu bleiben, während das operative Kerngeschäft aus Kostengründen an bewährten Methoden festhält.
- Die API-Abhängigkeit: Wer als Brückenbauer*in zwischen Dutzenden Software-Silos agiert, macht sich von den Anbietern abhängig. Sperrt ein großer CAD-Anbieter seine API, trifft dies Syneras Modell im Kern.
Fazit
Synera ist ein exzellentes Beispiel dafür, wie aus akademischer Grundlagenforschung ein hoch skalierbares DeepTech-Produkt werden kann. Der strategische Pivot vom reinen Design-Tool zur prozessübergreifenden Plattform zahlt sich durch die starke Series B nun aus. Gelingt es den Bremern, den eher konservativen globalen Maschinenbau davon zu überzeugen, dass KI-Agenten die menschlichen Ingenieur*innen nicht ersetzen, sondern befähigen, könnte Synera der entscheidende globale Standard im Connected Engineering werden.
Gründer*in der Woche: Little World – Spracherwerb durch echte Begegnung
Wie Oliver Berlin mit seinem Aachener Social-Start-up Little World trotz beachtlichen Erfolgs vor der großen Herausforderung der Anschlussfinanzierung steht – und was das über ein strukturelles Defizit in unserem Fördersystem verrät.
Es ist eine dieser Geschichten, die eigentlich ein Happy End haben müssten. Die Zahlen stimmen, die gesellschaftliche Wirkung ist messbar, und die Menschen sind begeistert. Doch Oliver Berlin, Wirtschaftsingenieur und Gründer des Social-Start-ups Little World, blickt derzeit nicht auf Erfolgsstatistiken, sondern auf ein finanzielles Problem. Sein Projekt offenbart ein strukturelles Defizit in unserem Fördersystem und steht vor einer massiven Herausforderung, da eine essenzielle Förderung Ende 2025 ausgelaufen ist.
Spracherwerb durch echte Begegnung
Die Vision von Little World ist so simpel wie effektiv: Menschen, die Deutsch sprechen, treffen sich im digitalen Raum mit Menschen, die Deutsch lernen. Es geht dabei nicht um klassische Nachhilfe oder sture Grammatik, sondern um echten Austausch auf Augenhöhe über den Alltag, Hobbys und die Familie.
Auslöser für die Gründung war Berlins eigene Erfahrung während der Pandemie, als er beobachtete, wie seine Mutter täglich ältere Menschen anrief, um ihnen Gesellschaft zu leisten. Zusammen mit Tim Schupp und Sean Blundell fusionierte er 2022 diese Idee zu Little World. Der Erfolg ließ nicht lange auf sich warten. Innerhalb der ersten drei Monate nach dem Launch verzeichnete die Plattform bereits 1.000 Anmeldungen. Heute vernetzt das Start-up bundesweit rund 6.500 Menschen und vermittelt jährlich etwa 1.200 Gesprächspaare.
Wie die Community über sich hinauswächst
Dass Little World weit mehr ist als eine reine Vermittlungsmaschine, zeigt sich daran, wie sich das Angebot mittlerweile organisch aus der Community heraus weiterentwickelt. Neben den 1-zu-1-Gesprächen gibt es inzwischen auch von den Teilnehmenden selbst initiierte Gruppenformate, wie etwa den neuen Online-Buchclub.
Ins Leben gerufen wurde dieser von der 27-jährigen Varvara, die selbst erst seit Anfang 2025 als Deutschlernende auf der Plattform aktiv ist. Ihr eigenes Deutsch hat sie sich maßgeblich durch das Lesen erarbeitet. Nun gibt sie diese Leidenschaft weiter: Alle zwei Wochen treffen sich im virtuellen Lesekreis Lernende und Freiwillige, um über vorab vereinbarte Texte zu sprechen – die Bandbreite reicht von Harry Potter bis Franz Kafka. In kleinen Breakout-Rooms geht es dabei weniger um strenge Literaturkritik, sondern vielmehr darum, das freie Sprechen zu üben und eigene Erfahrungen zu teilen.
Das Paradoxon des Erfolgs: Wenn die Förderung wegbricht
Es sind genau diese Momente der Begegnung und Integration, die aktuell auf dem Spiel stehen. Denn während die Community wächst und floriert, tickt im Hintergrund die finanzielle Uhr. Eine substanzielle Förderung der Deutschen Fernsehlotterie in Höhe von 400.000 Euro, die dem Start-up zwei Jahre lang Luft zum Atmen und Wachsen gab, ist Ende 2025 ausgelaufen. Das Kernteam wurde zwar vergrößert, doch die laufenden Betriebskosten für Server, technischen Support und das Matchmaking bleiben …
Hier schnappt die Falle des deutschen Fördersystems zu. Stiftungen und staatliche Töpfe finanzieren gerne den innovativen Aufbau oder Pilotphasen. Ist ein Projekt jedoch etabliert und läuft erfolgreich, ziehen sich die Geldgeber*innen zurück. Sozialunternehmer wie Oliver Berlin verbringen infolgedessen oft mehr Zeit mit dem Schreiben von Anträgen als mit ihrer eigentlichen gesellschaftlichen Mission.
Kooperationen statt Rückzug
Trotz des immensen Drucks richtet das Team den Blick nach vorn und setzt auf eine strategische Neuausrichtung. Jüngst schloss Little World ein Bündnis mit Lern-Fair, einem Verein zur Unterstützung bildungsbenachteiligter Schüler*innen. Durch diese Zusammenarbeit sollen Ressourcen geteilt und neue Zielgruppen, wie etwa Eltern, erschlossen werden.
Zusätzlich rückt die Wirtschaft stärker in den Fokus. Das Social Start-up positioniert sich zunehmend als Tool für Unternehmen, die ihren Mitarbeitenden über Corporate Volunteering ein unkompliziertes Engagement ermöglichen wollen. Gleichzeitig können Firmen so frühzeitig Kontakt zu internationalen Talenten aufbauen. Um das Modell auf breitere Schultern zu stellen und die Struktur langfristig zu sichern, sollen neben Spenden künftig auch Stiftungen und Unternehmen eine entscheidende Rolle spielen. „Sprachvermittlung ist unser Vehikel – unser Ziel ist gesellschaftlicher Zusammenhalt“, appelliert Berlin.
50 Mio. US-Dollar-Series A-Runde für Berliner FinTech Midas
Das 2024 von Dennis Dinkelmeyer, Fabrice Grinda und Romain Bourgois gegründete Web3-Start-up Midas sammelt 50 Mio. $ ein, um tokenisierte Vermögenswerte sofort liquide zu machen. Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen.
Der Markt für tokenisierte Vermögenswerte (Real World Assets, kurz RWA) wächst rasant, leidet jedoch noch immer an einer strukturellen Hürde: Während Kryptomärkte rund um die Uhr in Echtzeit handeln, sind traditionelle Finanzprodukte im Hintergrund oft an klassische, mehrtägige Abwicklungszyklen gebunden. Wenn Investor*innen ihre Token in liquide Mittel zurücktauschen wollen, kommt es unweigerlich zu Verzögerungen. Genau diese Lücke will das Berliner FinTech Midas nun schließen und hat dafür massiv Kapital aufgenommen.
Wie das Unternehmen heute mitteilte, flossen in einer Series-A-Finanzierungsrunde 50 Millionen US-Dollar (rund 46 Millionen Euro). Angeführt wird die Runde von den Venture-Capital-Firmen RRE Ventures und Creandum. Zu den weiteren Geldgebern zählen namhafte Branchengrößen wie Framework Ventures, Coinbase Ventures sowie der traditionelle Vermögensverwalter Franklin Templeton, der selbst bereits stark im Bereich tokenisierter Anlageprodukte aktiv ist. Mit der aktuellen Runde steigt das Gesamtfinanzierungsvolumen des Start-ups auf knapp 59 Millionen US-Dollar.
Das Gründerteam aus TradFi und Web3
Hinter Midas, das 2024 gegründet wurde, steht ein Team, das tiefes Wissen aus der traditionellen Finanzwelt (TradFi), dem Venture Capital und dem dezentralen Finanzsektor (DeFi) vereint. An der Spitze steht CEO und Mitgründer Dennis Dinkelmeyer, der vor der Gründung im Investment Research bei Branchengrößen wie Goldman Sachs und der Capital Group tätig war. Er bringt das essenzielle Verständnis für die Strukturierung institutioneller Anlageprodukte in die Blockchain-Welt ein.
Ergänzt wird die Führungsriege durch Executive Chairman und Mitgründer Fabrice Grinda. Als Gründungspartner des Investmentfonds FJ Labs gehört Grinda zu den weltweit aktivsten Angel-Investoren. Er steuert neben Kapital und einem enormen Netzwerk auch operative Erfahrung bei, die er unter anderem als Co-Gründer der für über eine Milliarde US-Dollar übernommenen Plattform OLX sammelte. Komplettiert wird das Führungstrio von Mitgründer Romain Bourgois. Der Tech-Experte war fast ein Jahrzehnt in leitenden Produktrollen beim AdTech-Giganten Criteo tätig, bevor er als Head of Product zum US-Konkurrenten Ondo Finance wechselte. Dort leistete er maßgebliche Pionierarbeit bei der Entwicklung und Skalierung der ersten großen tokenisierten US-Staatsanleihen, wie etwa OUSG und USDY.
Fokus auf „Midas Staked Liquidity“ (MSL)
Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen. Dabei handelt es sich um einen dedizierten Liquiditätspuffer, gegen den die firmeneigenen Token (mToken) jederzeit und ohne Wartezeit eingelöst werden können. Für institutionelle Investoren, die Treasury- und Portfolio-Management auf der Blockchain betreiben, ist diese sofortige Liquidität ein entscheidendes Kriterium.
Bisher mussten Rendite-Investoren oft zwischen der sofortigen Handelbarkeit und den Erträgen von DeFi-Protokollen abwägen – MSL soll diesen Kompromiss überflüssig machen. Die Midas-Plattform überführt dafür institutionelle Anlagestrategien, wie etwa Staatsanleihen (mTBILL) oder Basis-Handelsstrategien (mBASIS), in regulierungskonforme Token, die nahtlos in DeFi-Netzwerke wie Morpho oder Pendle integriert werden können. Nach eigenen Angaben hat Midas seit dem Start Token im Gesamtwert von über 1,7 Milliarden US-Dollar emittiert und dabei Erträge in Höhe von 37 Millionen US-Dollar an seine mehr als 20.000 Nutzer ausgeschüttet. Das Fintech finanziert sich dabei über Gebühren, die auf diese erwirtschafteten Renditen erhoben werden.
Die Brücke zwischen Wall Street und Blockchain
„Wir arbeiten auf eine Zukunft hin, in der Investitionen wie das Internet funktionieren: offen, transparent, kombinierbar und standardmäßig zugänglich“, formuliert CEO Dennis Dinkelmeyer den Anspruch des Unternehmens. Vic Singh, General Partner bei RRE Ventures, teilt diese Vision: Die Tokenisierung werde die globalen Kapitalmärkte fundamental verändern, sobald die traditionelle Finanzwelt ihre Infrastruktur vollständig auf die Blockchain verlagere.
Neben der Etablierung von MSL plant Midas, das frische Kapital für die Erschließung weiterer Anlageklassen und den Ausbau von Partnerschaften zu nutzen. Mit dem Einstieg von Schwergewichten wie Franklin Templeton und Coinbase Ventures positioniert sich das 2024 gegründete Unternehmen damit als einer der zentralen Infrastrukturanbieter an der lukrativen Schnittstelle zwischen klassischem Finanzwesen und der Krypto-Ökonomie.
deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken
Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.
Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.
Vom Agenturgeschäft zur SaaS-Lösung
Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).
Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“
Plattformansatz für Inspektionsdaten
Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.
Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.
Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“
Marktumfeld & regulatorische Barrieren
Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.
Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.
Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.
Der technologische Burggraben im starken Wettbewerb
Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.
Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.
Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.
Finanzierung & Ausblick
Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.
Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."
Münchner Start-up Isar Aerospace bricht Testflug der „Spectrum“-Rakete aus Sicherheitsgründen ab
Der zweite Testflug der „Spectrum“-Trägerrakete des Münchner Raumfahrtunternehmens Isar Aerospace musste kurz vor der Triebwerkszündung gestoppt werden.
Ursache war nach Unternehmensangaben ein unbefugtes Boot, das in die maritime Sicherheitszone eingedrungen war. Bis das Areal geräumt werden konnte, verstrich das enge Startfenster zwischen 21:00 und 21:15 Uhr. Die Rakete blieb unbeschadet auf der Startrampe.
Sicherheitsmechanismus statt Fehlschlag
In der Raumfahrtbranche wird ein solcher Abbruch (ein sogenannter Scrub) nicht als technologischer Rückschlag gewertet, sondern als Beleg für greifende Sicherheitsmechanismen. Ein erheblicher Unterschied besteht zu einem tatsächlichen Fehlstart, bei dem Hardware verloren geht – wie es beim Erstflug der „Spectrum“ am 30. März 2025 geschah, als die Rakete nach knapp 30 Sekunden wegen eines Ausfalls der Lageregelung ins Meer stürzte.
Da die Rakete dieses Mal keinen technischen Defekt erlitt, werten die Ingenieure den abgebrochenen Countdown als erfolgreichen Härtetest der Bodenanlagen und der automatisierten Betankungsprozesse. Das Team um CEO Daniel Metzler hatte im Vorfeld betont, dass das primäre Ziel der Mission „Onward and Upward“ darin bestehe, kritische Systeme unter operativen Bedingungen zu validieren. Die nun gesammelten Daten fließen direkt in die Vorbereitung des nächsten Versuchs ein.
Die komplexe Logistik eines neuen Startfensters
Wann die „Spectrum“ erneut betankt wird, hängt von einem mehrstufigen Abstimmungsprozess ab. Nach der Sicherung der Rakete muss Isar Aerospace bei den norwegischen Behörden neue Sperrzonen beantragen. Damit Fischer, Frachtschiffe und Fluggesellschaften ihre Routen rechtzeitig anpassen können, müssen offizielle Warnungen für die Schifffahrt (NOTMAR) und den Luftraum (NOTAM) mit entsprechendem Vorlauf herausgegeben werden. Erst wenn diese bürokratischen Hürden genommen sind und Parameter wie das Wetter am Polarkreis übereinstimmen, kann ein neuer Countdown für die Nutzlast – darunter universitäre Kleinsatelliten der TU Berlin, der TU Wien sowie der norwegische FramSat-1 – beginnen.
Warum Andøya? Der strategische Vorteil im hohen Norden
Dass das Münchner Start-up diese logistischen Herausforderungen im hohen Norden auf sich nimmt, anstatt etwa den etablierten europäischen Weltraumbahnhof Kourou in Südamerika zu nutzen, hat strategische und physikalische Gründe.
Die Hauptkunden von Isar Aerospace betreiben kleine Erdbeobachtungssatelliten, die bevorzugt über die Pole fliegen, um die Erdoberfläche lückenlos zu erfassen. Von Andøya aus kann die Rakete auf direktem Weg sicher über das offene Europäische Nordmeer in diesen polaren Orbit starten, ohne Treibstoff für aufwendige Kurskorrekturen zu verbrauchen. Zudem spart der Transport der in Ottobrunn gefertigten Bauteile per LKW und Fähre nach Norwegen wertvolle Zeit und Kosten im Vergleich zu einer Verschiffung nach Französisch-Guayana.
Für Europa bleibt der anstehende Flug der „Spectrum“ ein wichtiges Puzzleteil auf dem Weg zu einem wettbewerbsfähigen, kommerziellen Zugang zum All. Sobald die Sperrzonen vor der norwegischen Küste neu eingerichtet sind, wird sich zeigen, ob das Münchner Unternehmen diese Lücke schließen kann.
Vom Solinger Start-up zum globalen Einhorn: Wie Dash0 die Observability-Giganten dekonstruiert
Das 2023 gegründete KI-Start-up Dash0 hat im März 2026 mit einer 110-Millionen-Dollar-Runde die magische Milliardenbewertung geknackt. Die Vision: Die Systemüberwachung von Software durch offene Standards, radikal faire Preismodelle und pragmatische KI zu revolutionieren. Doch der Frontalangriff auf US-Goliaths wie Datadog birgt strategische Risiken.
In der modernen Softwareentwicklung ertrinken IT-Teams in einer Flut aus Warnmeldungen, Logs und Metriken. Klassische Überwachungs-Tools (Observability) sind oft teuer, komplex und sperren Kunden in geschlossene Daten-Ökosysteme ein. Genau dieses Problem adressiert Dash0 – und hat damit in Rekordzeit Investoren und namhafte Kunden überzeugt. „Systemüberwachung ist heute kaputt: Sie ist zu laut, zu teuer und zu komplex“, bringt es Dash0-CEO und Mitgründer Mirko Novakovic auf den Punkt.
Die Gründer und der rasante Aufstieg zum Einhorn
Hinter Dash0 steht ein Quintett erfahrener Tech-Veteranen. Besonders Mirko Novakovic ist in der B2B-Szene ein Schwergewicht: 2020 verkaufte er sein vorheriges Start-up Instana für rund 500 Millionen US-Dollar an IBM. Dieser „Repeat Founder“-Status erklärt das enorme Vertrauen der Geldgeber.
Die Historie von Dash0 liest sich wie ein Start-up-Märchen im Zeitraffer: Nach der Gründung 2023 im nordrhein-westfälischen Solingen folgte Ende 2024 eine 9,5-Millionen-Dollar-Seed-Runde parallel zum Produktlaunch. Ein Jahr später sammelte das Team 35 Millionen Dollar ein.
Der Ritterschlag folgte nun im März 2026: Mit einer von Balderton Capital angeführten Series-B-Runde über 110 Millionen Dollar steigt Dash0 in den Kreis der Unicorns auf. Diesen Meilenstein verknüpft das Team mit einer klaren Kampfansage: „Mit den 110 Millionen Dollar, die wir heute bekannt geben, bringen wir autonome Abläufe zu jedem Entwicklerteam der Welt – noch bevor unsere Wettbewerber überhaupt begreifen, was mit ihnen geschieht.“
Das Produkt: Ein Frontalangriff auf die Industrie-Norm
Ein Blick unter die Haube zeigt, warum die Plattform so schnell wächst. Das Start-up dekonstruiert gezielt die Schwachstellen der etablierten Milliardenkonzerne:
- Das Ende des „Vendor Lock-ins“: Dash0 basiert vollständig auf offenen CNCF-Standards (OpenTelemetry). Als Abfragesprache wird nativ PromQL genutzt, für Dashboards kommt das quelloffene Perses zum Einsatz. Das bedeutet für Technik-Entscheider: Würde Dash0 die Preise anheben, könnten sie ihre gesamten Dashboards und Alarme einfach mitnehmen und woanders hosten.
- Radikales Pricing: Branchenriesen rechnen oft nach Datenvolumen (Gigabyte) oder Nutzerlizenzen ab, was bei wachsenden Systemen zu explodierenden Budgets führt. Dash0 rechnet rein nach der Anzahl der gesendeten Telemetrie-Datenpunkte ab. Unternehmen können unlimitiert Metadaten anhängen und unbegrenzt viele Entwickler auf das System lassen, ohne dass verdeckte Kosten anfallen.
- Developer Experience (DX): Dash0 positioniert sich als Tool „von Ingenieuren für Ingenieure“. Die Plattform lässt sich für maximale Geschwindigkeit komplett per Tastatur steuern, und Konfigurationen können nahtlos als Code (Configuration as Code) in bestehende Entwicklungs-Pipelines integriert werden.
Dieser Ansatz zieht prominente Kunden an: Tech-Schwergewichte wie Vercel loben die drastisch verkürzte Zeit zur Fehlerbehebung, und auch Traditionskonzerne wie Porsche Digital setzen auf die offene Architektur von Dash0, um sich zukunftssicher aufzustellen. Um das technologische Fundament schnellstmöglich zu verbreitern, akquirierte Dash0 zudem im Februar 2026 das israelische Serverless-Start-up Lumigo.
Pragmatische KI statt Buzzword-Bingo
Während der Markt aktuell von generativen KI-Versprechen überflutet wird, positioniert sich Dash0 erstaunlich pragmatisch. Das Mantra des Start-ups lautet: „AI is an implementation detail.“ (KI ist ein Implementierungsdetail).
Der hauseigene Copilot „Agent0“ soll zwar autonome Analysen durchführen und Teams in Echtzeit entlasten, aber das primäre Ziel ist es, repetitive Aufgaben verlässlich und vor allem ohne Halluzinationen zu lösen. Die beste KI-Funktion, so das Credo der Gründer, sei diejenige, die der/die Nutzer*in liebt, ohne überhaupt zu merken, dass es sich um KI handelt.
David gegen Goliath in New York
Trotz des beeindruckenden Momentums steht Dash0 in der Skalierungsphase vor massiven Hürden:
- Der Goliath-Wettbewerb: Dash0 tritt gegen etablierte US-Giganten wie Datadog, Dynatrace oder Grafana an. Um diesen Kampf zu führen, hat das Start-up seinen Hauptsitz mittlerweile von Deutschland nach New York verlegt. Dieser Schritt erfordert eine extrem hohe Cash-Burn-Rate im Enterprise-Vertrieb.
- Der fehlende „Burggraben“: Was für Kund*innen hochattraktiv ist (offene Standards wie Perses und PromQL), beraubt Dash0 eines klassischen defensiven Lock-ins. Da ein Wechsel zu einem anderen Anbieter theoretisch leichter ist als bei geschlossenen Systemen, ist Dash0 dazu verdammt, permanent durch überlegene Usability und fehlerfreie KI zu überzeugen.
Fazit
Für die deutsche Start-up-Szene ist Dash0 ein exzellentes Paradebeispiel für modernes B2B-Hypergrowth. Die Story zeigt, wie man in scheinbar gesättigten Märkten durch konsequente Nutzerzentrierung, offene Standards und transparente Preise in unter drei Jahren zum Einhorn aufsteigen kann. Es ist der Beweis, dass deutsche DeepTech-Gründer*innen auf globaler Ebene nicht nur mitspielen, sondern die Spielregeln aktiv neu schreiben können.
Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet
Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.
Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.
planqc: Aus der Forschung in die Wirtschaft
Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.
Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.
Der schnelle Aufstieg: Millionen-Investments und Großaufträge
Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).
Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.
Das Problem: Der limitierte klassische Computer
Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.
Die Lösung: Ein hybrides Teamwork der Systeme
Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.
„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind
Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.
Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.
Fazit
Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.
blue activity sichert sich 8,5 Mio. Euro für biozidfreie Kühlwasserbehandlung
Das Heidelberger CleanTech-Start-up blue activity schließt eine beachtliche Finanzierungsrunde ab. Mit einem unkonventionellen biologischen Ansatz fordert das Team die klassischen Verfahren der industriellen Kühlwasseraufbereitung heraus. Ein Blick auf das Geschäftsmodell, den Milliardenmarkt und die Hürden der Skalierung.
Das im Jahr 2021 gegründete Wassertechnologie-Start-up blue activity aus Heidelberg meldet den Abschluss einer weiteren großvolumigen Finanzierungsrunde in Höhe von 8,5 Millionen Euro. Das Unternehmen deklariert diese als Seed-Runde – ein aus journalistischer Sicht bemerkenswerter Schritt, da bereits Anfang 2023 der österreichische Investor Epoona in einer frühen Phase eingestiegen war. Die aktuelle Runde wurde gemeinsam von den VC-Fonds Wind Capital (Paris) und Venture Stars (München) angeführt, unter Beteiligung von Angel Invest (Berlin). Das frische Kapital soll die Produktentwicklung beschleunigen, das Team auf 15 Mitarbeitende erweitern und die kommerzielle Expansion in Europa vorantreiben.
Das Gründer-Duo
Hinter blue activity stehen CEO Lars Havighorst und Co-Founder sowie CTO Michael Simon. Die Gründung basierte auf der Mission, industrielle Verdunstungskühlsysteme chemiefrei und nachhaltig zu behandeln. Bemerkenswert ist Havighorsts Hintergrund: Vor seiner Zeit als CleanTech-Gründer war er rund 15 Jahre im Vertrieb der Finanzbranche tätig, bevor er den Quereinstieg in die Wassertechnologie wagte. Dabei ergänzt sich das Führungsduo: Während Havighorst die kommerzielle Skalierung treibt, verantwortet Simon als technologisches Rückgrat die Kombination aus neuartiger Mikrobiologie und IoT-Sensorik.
Technologie und Geschäftsmodell
Industrielle Verdunstungskühlanlagen verschlingen enorme Mengen an Wasser und stützen sich traditionell auf biozidbasierte Behandlungsprogramme. Blue activity setzt hier auf einen Paradigmenwechsel: Anstelle von Gefahrstoffen soll ein neuartiger technologischer Ansatz eine umweltfreundliche, chemiefreie und effiziente Wasseraufbereitung ermöglichen.
Der wirtschaftliche Pitch, mit dem das Startup bei der Industrie punkten will, stützt sich auf laut eigenen Angaben messbare Effekte:
- Kostenreduktion: Das Unternehmen verspricht signifikante OPEX-Einsparungen von bis zu 15 % der gesamten Kosten der Kühlwasserbehandlung.
- Anlageneffizienz: Diese sollen durch einen reduzierten Chemikalieneinsatz, geringeren Wartungsaufwand sowie eine verlängerte Lebensdauer der Anlagen erreicht werden. Berichte aus der Fachpresse (z. B. Handelsblatt, Industrieanzeiger) stützen die These der Effizienz und zitieren bei Bestandskunden Wasserverbrauchssenkungen von bis zu 38 Prozent.
Markt und Wettbewerb
Ein wesentlicher Treiber für das Geschäftsmodell ist das regulatorische Umfeld. Da Grenzwerte für Abwassereinleitungen zunehmend verschärft werden, werden traditionelle chemische Verfahren laut blue activity immer kostenintensiver und komplexer in der Handhabung. Die biologische Methode soll die Risiken im Zusammenhang mit Einleitungen senken und eine langfristige regulatorische Compliance unterstützen.
Die Herausforderung
Der Markt für industrielle Wasserbehandlung ist sicherheitsgetrieben und extrem konservativ. Kühltürme sind kritische Infrastrukturen – ein mikrobiologisches Ungleichgewicht kann schwere gesundheitliche und rechtliche Folgen haben. Ein Start-up, das hier eine neuartige Lösung anbietet, muss massives Vertrauen aufbauen. Dass diese Hürde überwindbar ist, zeigt ein Blick auf das aktuelle Kundenportfolio: Laut Branchenberichten zählen Schwergewichte wie BASF, Braskem und die Salzgitter AG bereits zu den Nutzern der Technologie.
Fazit & Einordnung
Mit 8,5 Millionen Euro handelt es sich um eine außergewöhnlich große Frühphasen-Runde im deutschen B2B-Hardware/DeepTech-Sektor. Das internationale Investorenkonsortium bringt dabei ein starkes Netzwerk in den europäischen CleanTech-Markt ein.
Blue activity profitiert von einer starken Problem-Lösungs-Passung: Das Team liefert der Industrie nicht nur moralische Umweltargumente, sondern mit der versprochenen OPEX-Reduktion knallharte betriebswirtschaftliche Anreize. Gelingt es den Heidelbergern, diese Ergebnisse dauerhaft in der industriellen Breite zu skalieren, wartet ein gigantischer Markt: Das globale Volumen für die industrielle Wasseraufbereitung lag 2024 bei rund 46 Milliarden USD und wächst stetig weiter. Das Kapital ist nun der entscheidende Hebel, um in diesem hochkomplexen Marktumfeld die Marktführerschaft für biozidfreie Alternativen anzugreifen.
Infokasten: Die Meilenstein-Historie von blue activity
Jahr / Zeitraum | Meilenstein | Redaktionelle Einordnung / Details |
2021 | Gründung | Lars Havighorst und Michael Simon gründen das CleanTech-Unternehmen in Heidelberg. |
Januar / März 2023 | Erste Seed-Runde | Der österreichische Umwelttech-Investor Epoona steigt mit ca. 500.000 Euro ein, um den Marktaufbau zu finanzieren. |
2023 / 2024 | Proof of Concept (BASF) | Erfolgreiches Pilotprojekt am Standort Ludwigshafen. Der Chemiegigant rüstet in der Folge erste Produktionsstätten auf die biozidfreie Technologie um. |
Februar 2026 | 8,5 Mio. € (Late-)Seed-Runde | Abschluss der neuen, großvolumigen Finanzierungsrunde unter Führung von Wind Capital und Venture Stars. Das Unternehmen deklariert dies offiziell als "Seed-Runde". |
Women Entrepreneurship Monitors 2024/25: Frauen fördern Gründerinnen – Männer bleiben lieber unter sich
Informelles Kapital ist der Treibstoff der frühen Phase. Doch eine neue Auswertung des „Women Entrepreneurship Monitors 2024/25“ zeigt: Wo Geld fließt, spielt das Geschlecht eine entscheidende Rolle. Während Frauen gezielt Gründerinnen stärken, investieren Männer weiterhin überwiegend in Männer. Das hat weitreichende Folgen für das Start-up-Ökosystem.
In der ganz frühen Phase einer Gründung, wenn klassische Bankkredite noch in weiter Ferne liegen, schlägt die Stunde der informellen Investor*innen. Ob Business Angels oder das private Umfeld: Ohne dieses Kapital würden viele Ideen den Sprung zum Markteintritt nicht schaffen.
Eine aktuelle Studie des RKW Kompetenzzentrums in Kooperation mit dem Thünen-Institut offenbart nun jedoch eine tiefe Kluft im Investitionsverhalten. Die Daten, basierend auf dem Global Entrepreneurship Monitor (GEM), zeigen ein deutliches Muster: Man investiert bevorzugt in das eigene Geschlecht.
Die Zahlen: Einseitigkeit bei den Männern
Besonders deutlich wird dies bei den männlichen Kapitalgebern. Rund 64 Prozent ihres Kapitals floss im Jahr 2024 in Gründungen von Männern. Nur magere 18 Prozent der männlichen Investitionen kamen Gründerinnen zugute.
Frauen zeigen sich hier deutlich offener: Fast 60 Prozent der informellen Investorinnen unterstützten andere Frauen. Gleichzeitig floss knapp ein Drittel ihres Kapitals in männlich geführte Startups. Damit investieren Frauen weitaus häufiger geschlechterübergreifend als ihre männlichen Pendants.
Mutiger außerhalb der Familie
Ein weiteres Detail der Studie betrifft die soziale Nähe zum Investitionsobjekt. Zwar bleibt der Kreis aus Familie und Freunden („Family and Friends“) für beide Geschlechter wichtig (ca. 37 bis 39 Prozent), doch bei Investitionen außerhalb des sozialen Nahfelds haben Frauen die Nase vorn:
- Frauen: 51 Prozent investieren in Personen außerhalb des engen Kreises (z. B. Fremde mit guten Ideen oder Kollegen).
- Männer: Hier liegt der Anteil bei lediglich 42 Prozent.
Dies deutet darauf hin, dass Frauen bei ihren Investment-Entscheidungen häufiger sachbezogen und jenseits bestehender privater Netzwerke agieren.
Einordnung für die Praxis
Für das Startup-Ökosystem ist dieser Befund ein Weckruf. Da Männer mit einer Quote von 9 Prozent deutlich häufiger als informelle Investoren auftreten als Frauen (5,1 Prozent), entsteht für Gründerinnen ein struktureller Nachteil beim Kapitalzugang.
Was bedeutet das für Gründer*innen und Investor*innen?
- Netzwerk-Strategie: Gründerinnen sollten gezielt weibliche Business-Angel-Netzwerke ansprechen. Die Daten belegen hier eine signifikant höhere Erfolgswahrscheinlichkeit.
- Unconscious Bias: Männliche Investoren sollten ihr Portfolio kritisch prüfen. Wer nur in das eigene Spiegelbild investiert, übersieht lukrative Investmentchancen in weiblich geprägten Märkten.
- Strukturelle Förderung: Um die Finanzierungslücke für Frauen zu schließen, ist nicht nur mehr Wagniskapital nötig, sondern vor allem eine Stärkung der weiblichen Investorinnen-Basis.
Fazit
Der Women Entrepreneurship Monitor macht klar: Kapital ist in Deutschland (noch) nicht geschlechtsneutral. Die größere Offenheit der Frauen beim Investieren sollte als Vorbild dienen, um die deutsche Startup-Landschaft diverser und damit wettbewerbsfähiger zu machen.
50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert
Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.
Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.
Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.
Vom Side-Project zur modularen Architektur
Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.
Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.
Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.
Das Open-Core-Modell auf dem Prüfstand
Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.
Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.
Im Haifischbecken der Tech-Giganten
In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.
Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.
Lektionen für die Start-up-Szene
Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.
Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.
Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.
Unchained Robotics auf dem Sprung in die „Champions League“ der Industrielogistik
Der Logistikkonzern Arvato beteiligt sich an Unchained Robotics und ebnet dem Paderborner Start-up den direkten Weg in die internationale Industrielogistik. Wir analysieren, wie dieser Deal den Markt aufmischt und welche strategischen Skalierungs-Learnings B2B-Gründer*innen daraus ziehen können.
Für Gründer*innen im Hardware- und Robotik-Bereich ist der Sprung von der Technologieentwicklung in den industriellen Masseneinsatz oft die größte Hürde. Bisher adressierte Unchained Robotics mit seiner Plattform vor allem kleine und mittelständische Betriebe in Europa. Durch die enge Verzahnung mit der Bertelsmann-Tochter Arvato validiert das Start-up seine Technologie nun im industriellen Großmaßstab.
Arvato plant, in den kommenden Jahren eine dreistellige Anzahl von Robotern in unterschiedlichen operativen Umgebungen zu implementieren. Dieses Volumen schafft Erfahrungswerte und Standards, die Unchained Robotics gegenüber Mitbewerbern einen deutlichen Skalierungsvorteil verschaffen dürften. Neue Lösungen können fortan direkt entlang konkreter Use Cases im echten Betrieb erprobt und für den breiten operativen Rollout vorbereitet werden.
Plattform-Strategie und strategische Einordnung im Wettbewerb
Der deutsche Robotik-Markt ist stark umkämpft und von unterschiedlichen Lösungsansätzen geprägt. Während einige Start-ups auf die Entwicklung eigener Hardware setzen, fokussiert sich Unchained Robotics auf die softwareseitige Integration, insbesondere durch ihr Betriebssystem. So setzt beispielsweise das Münchener Start-up RobCo auf eigene, physische und modulare Hardware-Roboterarme, wohingegen Unchained strikt modular und herstellerunabhängig agiert.
Auch im Vergleich zu WAKU Robotics aus Berlin, die mit einem Marktplatz und eigener Software einen starken Fokus auf mobile Logistikroboter (AMR/AGV) legen, decken die Paderborner breitere Pick-and-Place-Anwendungen ab. Gegenüber Unternehmen wie Magazino (gehört zu Jungheinrich), die auf spezialisierte autonome Logistik-Roboter und Eigenentwicklungen für spezifische Prozesse fokussiert sind, grenzt sich Unchained durch seinen offenen, plattformbasierten Ansatz ab.
Diese strategische Positionierung erweist sich nun als maßgeblicher Hebel. Für einen globalen 3PL-Dienstleister wie Arvato wäre die Bindung an nur einen Hardware-Hersteller zu starr. Durch die Unabhängigkeit von Unchained Robotics lassen sich Lösungen flexibel für reale Logistik- und Fulfillment-Prozesse maßschneidern.
Der „Huckepack“-Vorteil bei der US-Expansion
Ein weiterer kritischer Faktor für die künftige Marktstellung des Start-ups ist die Internationalisierung. Üblicherweise erfordert der Sprung über den Atlantik für deutsche Tech-Gründer enorme Summen und den langwierigen Aufbau eigener Vertriebsstrukturen.
Unchained Robotics wählt eine effizientere Route: Neben europäischen Standorten eröffnet die Partnerschaft den direkten Zugang in internationale Märkte, insbesondere in die USA. Das Start-up expandiert quasi „huckepack“ über die bestehenden, hochkomplexen Logistik-Setups von Arvato. Gerade in den USA, wo hohe Automatisierungsanforderungen auf dynamische E-Commerce-Strukturen treffen, sichert dies einen schnellen und praxisnahen Markteintritt.
Automatisierung ohne „Raketenwissenschaft“
Für den Logistikkonzern steht bei dem Deal vor allem die rasche operative Umsetzung im Vordergrund: Automatisierung müsse heute in erster Linie schnell wirken, so Arvato-CEO Frank Schirrmeister.
Dies zahlt direkt auf die ursprüngliche Vision von Unchained Robotics ein: Die Paderborner sind angetreten, um zu beweisen, dass industrielle Automatisierung längst keine „Raketenwissenschaft“ mehr ist. Durch den Arvato-Deal erhält das Start-up nun die Möglichkeit, diesen Anspruch von der Konzeption bis zur Inbetriebnahme im globalen Großmaßstab unter Beweis zu stellen.
Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen
Aus dem Deal zwischen Unchained Robotics und Arvato lassen sich drei handfeste strategische Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:
1. Orchestrierung schlägt Vendor-Lock-in
Gerade im Hardware- und Maschinenbau neigen Start-ups dazu, eigene proprietäre Systeme zu entwickeln. Unchained Robotics zeigt den Wert des Plattform-Gedankens: Corporates hassen den „Vendor-Lock-in“ (die Abhängigkeit von einem einzigen Hersteller).
Learning: Wer sich als herstellerunabhängige, modulare Software- oder Integrationsschicht positioniert, macht sich für Konzerne, die flexibel bleiben müssen, weitaus attraktiver als der Anbieter einer isolierten Einzellösung.
2. Die „Huckepack“-Expansion (Piggybacking)
Der teuerste und riskanteste Schritt für deutsche B2B-Start-ups ist oft die Internationalisierung – insbesondere in die USA. Anstatt Millionen an VC-Geldern in den Aufbau eigener US-Vertriebs- und Servicestrukturen zu verbrennen, nutzt Unchained Robotics die bestehende Infrastruktur seines strategischen Partners.
Learning: Sucht gezielt nach Kund*innen oder Investor*innen, deren eigene globale Logistik oder Infrastruktur ihr als direktes Sprungbrett für neue Märkte nutzen könnt.
3. Volumen-Commitment als unfairen Wettbewerbsvorteil (Moat) aufbauen
Ein Corporate-Investment ist gut, ein garantiertes operatives Testfeld ist besser. Arvato hat sich nicht nur an dem Start-up beteiligt, sondern ein klares Commitment zum Rollout einer dreistelligen Anzahl von Robotern abgegeben.
Learning: Verhandelt bei strategischen Beteiligungen immer auch den operativen Einsatz mit hinein. Das garantierte Volumen generiert reale Use Cases und Datenmengen, die für neue Wettbewerber einen fast unüberwindbaren Burggraben („Moat“) darstellen.
Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard
Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.
Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.
Das Team: Konzern-Know-how trifft Deep-Tech
Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.
Das Problem: Fragmentierung als Kostentreiber
Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.
Der USP: Schwarmintelligenz statt zentralem Broker
Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.
- Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
- Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
- Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.
Die Herausforderung: Die Open-Source-Falle im B2B
Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.
Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.
Der Wettbewerb
Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.
- Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
- Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
- Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.
Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.
Fazit: Infrastruktur statt App-Spielerei
Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.
Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen
Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:
1. Open-Source als trojanisches Pferd
Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.
2. Die blinden Flecken der Tech-Giganten besetzen
Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.
3. Regulatorik als Vertriebsturbo nutzen
Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.
