KI-Start-up Prior Labs erhält 9 Mio.-Euro-Pre-Seed-Finanzierung


44 likes

Das 2024 von Frank Hutter, Noah Hollmann und Sauraj Gambhir gegründete Freiburger KI-Start-up Prior Labs hat ein neues KI-Modell (TabPFN) für tabellarische Daten entwickelt, um das bisher ungenutzte Potenzial von Tabellen- und Datenbankanalysen freizusetzen.

Sogenannte strukturierte Daten in Tabellen und Datenbanken finden sich überall – in klinischen Studien, im Finanzsektor, bei Umweltmessungen oder auch in der Fertigung. Doch während generative KI für Text und Bilder bisher das Gespräch dominieren, spielten Tabellen kaum eine Rolle. Der Grund dafür: Die Daten sind unübersichtlich, vielfältig und stark kontextbezogen. In der Regel nutzen Unternehmen daher nach wie vor veraltete Tools oder sind für jede Aufgabe auf teure, maßgeschneiderte ML-Modelle angewiesen.

Tabellen-KI für besseren Umgang mit Unternehmensdaten

Das 2024 von Frank Hutter, Noah Hollmann und Sauraj Gambhir mit Unterstützung von Bernhard Schölkopf und Alex Diehl gegründete Prior Labs steht für einen Paradigmenwechsel: Ihr TabPFN-Modell bietet eine universelle Lösung, um tabellarische Daten zu analysieren. Es wurde auf 130 Millionen synthetischen Datensätzen trainiert und kann sofort Muster in jedem Datensatz verstehen und ableiten, ohne dass ein aufgabenspezifisches Training erforderlich ist. Als Basismodell kann es außerdem mit unternehmenseigenen Daten optimiert werden, sodass es kontinuierlich genauer wird und sich besser an reale Herausforderungen anpasst.

TabPFN: Präziser, schneller, günstiger

Zudem ist TabPFN präziser als andere moderne Modelle: Laut Aussagen des Unternehmens übertraf es bei kleinen tabellarischen Daten übertraf es diese in über 96 Prozent der breit gefächerten Vorhersageprobleme. Dazu benötigt TabPFN nur 50 Prozent der Daten, um dieselbe Genauigkeit zu erreichen, wie das nächstbeste Modell mit allen Daten. Zudem benötigt es nur 2,8 Sekunden, um eine bessere Leistung zu erzielen als die besten Modelle in mehr als 4 Stunden. Es ist einfach zu bedienen und lässt sich mit nur wenigen Zeilen Code auf jeden Datensatz anwenden.

TabPFN kann Branchen wie Handel, Finanzwesen oder Bereiche der Geschäftsanalyse deutlich rentabler machen. Denn es liefert schnellere und genauere Vorhersagen – die Grundlage, um wichtige Entscheidungen treffen zu können. Auch Branchen mit beschränkter Datenverfügbarkeit wie dem Gesundheitswesen, der Medizin und der Klimaforschung, in denen es oft schwierig oder teuer ist, Daten zu erfassen, profitieren von TabPFNs Dateneffizienz. Das Modell kann auch für Zeitreihenprognosen verwendet werden und belegt derzeit den ersten Platz im branchenüblichen GIFT-Eval-Benchmark, vor dem beliebten Chronos-Modell von Amazon oder Google’s Modellen.

Die aktuelle Finanzierungsrunde wird von Balderton Capital angeführt; ebenfalls beteiligt sind XTX Ventures, die Hector Foundation des SAP-Gründers Hans Werner-Hector, Atlantic Labs und Galion.exe. Ebenfalls investierten prominente KI-Angel-Investor*innen wie Thomas Wolf (Gründer und CSO von Hugging Face), Peter Sarlin (Gründer und CEO von Silo AI), Guy Podjarny (Gründer von Snyk und Tessl), Robin Rombach (Gründer und CEO von Black Forest Labs), Ed Grefenstette (Director bei DeepMind), Chris Lynch (Gründungsinvestor Data Robot und CEO von AtScale), Ash Kulkarni (CEO von Elastic) sowie weitere Führungskräfte.

Mit dem frischen Kapital plant Prior Labs, die Produktentwicklung zu beschleunigen, das Team zu erweitern und sein revolutionäres Grundlagenmodell mehr Nutzer*innen zugänglich zu machen.

Verbesserte API für nahtlose Einbindung

Als weiteren Meilenstein bietet Prior Labs nun eine verbesserte API an. Sie ermöglicht Unternehmen, die Funktionen von TabPFN nahtlos zu integrieren. Weiterhin arbeitet das Freiburger Start-up daran, sein Basismodell noch schneller, genauer und effizienter zu machen. So unterstützt das neue Modell inzwischen Textmerkmale und kann mit eigenen Daten verbessert werden. Zudem lassen sich kontextbezogene Informationen über die Problemdomäne einbeziehen, was TabPFN noch genauer und benutzerfreundlicher macht.

Frank Hutter, Mitgründer und CEO von Prior Labs, kommentiert: „Die meisten kritischen Entscheidungen in der Welt stützen sich auf Tabellendaten. Doch die meisten Datenanalysetools sind veraltet, wirklich intelligente Tools fehlen bisher. Unser Basismodell bedeutet einen Quantensprung für Wissenschaft und Unternehmen und ihre wertvollsten Daten. Wir arbeiten an einer Zukunft, in der Tabellen mithilfe von KI genauso unkompliziert verarbeitet werden können, wie es bereits für Text und Bilder der Fall ist. Unser Modell liefert deutlich schneller genauere Vorhersagen als bisherige Ansätze und liefert größeren Nutzen aus kleineren Datensätzen.“

James Wise, Partner bei Balderton Capital, ergänzt: „Tabellarische Daten sind das Rückgrat von Wissenschaft und Wirtschaft. Aber der bisherige KI-Boom, der Daten wie Texte, Bilder oder Videos erfasst hat, wirkt sich bisher nur marginal auf tabellarische Daten aus. Der Durchbruch von Prior Labs setzt die Superkräfte des maschinellen Lernens nun auch für diesen Bereich frei – ohne dass alle ihre eigenen Modelle trainieren müssen. Wir freuen uns, dieses Spitzenteam dabei zu unterstützen, in ganzen Branchen den Wert von Tabellendaten zu erschließen.“

Diese Artikel könnten Sie auch interessieren:

Synera sichert sich 35 Mio. Euro für die Revolution des Engineerings

Was einst als bionisches Forschungsprojekt begann, ist heute eine der vielversprechendsten europäischen DeepTech-Hoffnungen. Doch wie tragfähig ist die Vision vom „autonomen digitalen Ingenieur“ im stark regulierten Maschinenbau? Ein tieferer Blick auf Gründer, Markt und das Geschäftsmodell.

Die deutsche Industrie steht unter massivem Druck: Internationale Konkurrenz – insbesondere aus Asien –, chronischer Fachkräftemangel und die Notwendigkeit, Entwicklungszyklen drastisch zu verkürzen, zwingen zum Handeln. Generative künstliche Intelligenz (GenAI) gilt als Heilsbringer, doch in der Praxis verpuffen viele Initiativen. Nur etwa 41 Prozent der KI-Prototypen in der Fertigungsindustrie erreichen laut Branchenstudien den produktiven Einsatz. Die Konstruktions- und Entwicklungsabteilungen gelten als stark in Silos organisiert und bis heute schwer automatisierbar.

„Engineering ist das Rückgrat jedes Industrieunternehmens, gehört jedoch nach wie vor zu den am wenigsten digitalisierten und automatisierten Funktionen und war bis vor Kurzem für KI weitgehend unzugänglich“, bringt es Dr. Moritz Maier, Co-CEO von Synera, auf den Punkt.

Genau in diese Lücke stößt sein Unternehmen. Mit einer Series-B-Finanzierungsrunde über 35 Millionen Euro will das Bremer Startup nun international skalieren. Angeführt wird die Runde vom europäischen Wachstumsfonds Revaia, mit starker Beteiligung des UVC Partners Wachstumsfonds sowie Capgemini (über ISAI Cap Ventures). Auch die Bestandsinvestoren Spark Capital, BMW iVentures und Cherry Ventures ziehen wieder mit. Das Signal an den Markt ist deutlich: Engineering Automation wird zum nächsten großen Software-Schlachtfeld.

Von Kieselalgen zur KI-Plattform

Hinter Synera stehen die Gründer Moritz Maier, Daniel Siegel (beide Co-CEO) und Sebastian Möller (Managing Director). Die Ursprungsidee entstand am renommierten Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Gründer forschten dort im Bereich der Bionik und untersuchten die Leichtbaustrukturen von Kieselalgen, um deren evolutionäre Prinzipien auf technische Bauteile zu übertragen.

Aus „Evolutionary Light Structure Engineering“ wurde 2018 die Ausgründung ELISE. Zunächst lag der Fokus auf algorithmusbasiertem Design. Mit der Zeit erkannten die Gründer jedoch ein viel grundlegenderes Problem: Es fehlte nicht an Software für das eigentliche Design, sondern an einer Brücke, die die unzähligen Insellösungen (CAD, Simulation, Materialprüfung) im Engineering-Alltag verbindet. Dies führte zur Neuausrichtung und schließlich zur Umbenennung in Synera – einer Low-Code- und KI-Plattform für Connected Engineering.

Das Geschäftsmodell im Check

Synera betreibt ein klassisches B2B-Plattform-Modell. Anstatt etablierte Platzhirsche im Computer-Aided Design (CAD) zu verdrängen, positioniert sich Synera als übergeordnete Orchestrierungsschicht. Die Software klinkt sich in über 80 bestehende Tools ein.

  • Der Werttreiber: Nutzer*innen können komplexe Workflows (z. B. CAD-Modellierung → Simulation → Kostenkalkulation → Designanpassung) als Templates speichern. Das frische Kapital soll laut Moritz Maier nun eine Entwicklung beschleunigen, „bei der KI-Agenten als echte digitale Engineers agieren und komplexe Workflows entlang der gesamten Wertschöpfungskette autonom ausführen.“
  • Der Lock-in-Effekt: Wenn ein Industriekonzern seine Kernprozesse auf Synera automatisiert hat, ist die Plattform kaum noch auszutauschen. Die Wechselkosten für den Kunden sind enorm.
  • Die Herausforderungen: Das Modell ist technisch hochkomplex. Die ständige Pflege von über 80 API-Schnittstellen zu Drittanbietern bindet gewaltige Entwickler*innen-Ressourcen. Zudem erfordert der Vertrieb in klassische Hardware-Unternehmen lange Sales-Zyklen.

Zwischen RPA und Spezial-CAD

Wettbewerbsumfeld

Marktansatz

Syneras Differenzierung

Generatives Design (z. B. nTop, Altair)

Fokus auf die Erstellung hochkomplexer, gewichtsoptimierter Bauteile.

Synera generiert nicht nur das Design, sondern automatisiert den Prozess quer durch verschiedene externe Tools.

Klassische RPA (z. B. UiPath, Zapier)

Hervorragend für kaufmännische Prozesse (HR, CRM, Rechnungen).

Standard-RPA scheitert an den komplexen 3D-Geometrie- und Physikdaten des Engineerings.

PLM-Systeme (z. B. Siemens, Dassault)

Verwalten den gesamten Produktlebenszyklus und die Daten.

Synera setzt sich auf diese oft schwerfälligen Systeme, um die agilen Arbeitsschritte flexibler zu machen.

Kritische Einordnung: Vertraut der/die Ingenieur*in der KI?

Synera verweist auf eine Umsatzverdopplung im vergangenen Jahr und über 60 namhafte Kunden, darunter BMW, Airbus, NASA und Miele. Mit dem frischen Kapital steht die Expansion nach Asien, Europa und in die USA an. Dass dieser Wachstumskurs von den Investoren aktiv gestützt wird, betont Benjamin Erhart, General Partner bei UVC Partners: „Wir konnten erleben, wie Synera als zuverlässiger Partner die Transformation des Engineerings gestaltet.“

Doch der Weg zur breiten Durchdringung birgt auch Stolpersteine:

  1. Das Vertrauensproblem: „Agentic AI“ bedeutet, dass die Software eigenständig Entscheidungen trifft. In sicherheitskritischen Branchen (Luftfahrt, Automotive) herrschen jedoch strikte Compliance-Regeln. Bevor ein KI-Agent autonome Designänderungen an tragenden Bauteilen vornimmt, müssen massive Haftungsfragen geklärt sein.
  2. Die Pilot-Falle: Viele GenAI-Projekte scheitern auf dem Weg in die Produktion. Die Gefahr für Synera besteht darin, in Innovationsabteilungen stecken zu bleiben, während das operative Kerngeschäft aus Kostengründen an bewährten Methoden festhält.
  3. Die API-Abhängigkeit: Wer als Brückenbauer*in zwischen Dutzenden Software-Silos agiert, macht sich von den Anbietern abhängig. Sperrt ein großer CAD-Anbieter seine API, trifft dies Syneras Modell im Kern.

Fazit

Synera ist ein exzellentes Beispiel dafür, wie aus akademischer Grundlagenforschung ein hoch skalierbares DeepTech-Produkt werden kann. Der strategische Pivot vom reinen Design-Tool zur prozessübergreifenden Plattform zahlt sich durch die starke Series B nun aus. Gelingt es den Bremern, den eher konservativen globalen Maschinenbau davon zu überzeugen, dass KI-Agenten die menschlichen Ingenieur*innen nicht ersetzen, sondern befähigen, könnte Synera der entscheidende globale Standard im Connected Engineering werden.

Peak Quantum sichert sich 2,2 Mio. Euro für fehlerresistente Qubits

Peak Quantum holt 2,2 Mio. Euro für fehlerresistente Qubits. Wie das Münchner Spin-off mit EU-Förderung gegen die hochgerüstete Konkurrenz antritt.

München wächst weiter als Europas Quanten-Hauptstadt. Das Start-up Peak Quantum schließt seine Pre-Seed-Runde mit 2,2 Millionen Euro ab und positioniert sich im hart umkämpften Deep-Tech-Markt. Der Pitch der Gründer: Fehlerkorrektur direkt in der Hardware. Doch in einem extrem kapitalintensiven Umfeld reicht Geld allein nicht. Wie das Spin-off mit einem cleveren Infrastruktur-Schachzug gegen die hochgerüstete europäische Konkurrenz bestehen will.

Aus der Forschung in die Praxis

Im Jahr 2024 entstand Peak Quantum als Spin-off aus der Forschungsgruppe von Prof. Stefan Filipp am Walther-Meißner-Institut (WMI), das zur Bayerischen Akademie der Wissenschaften gehört. Das Gründungsteam deckt interdisziplinär die gesamte Wertschöpfungskette vom Chipdesign bis zur Systemintegration ab. Zu den Köpfen hinter der Unternehmung gehören Leon Koch (CEO), Alexander Schult (CFO), Dr. Thomas Luschmann (COO), Dr. Max Werninghaus (CSO), Ivan Tsitsilin (Head of Design), Kedar Honasoge (Head of Production) und Daniil Bazulin (Quantum Engineer). Unterstützt wird das junge Unternehmen durch wichtige Säulen des lokalen Ökosystems wie dem Munich Quantum Valley und der UnternehmerTUM.

„Hardware-First“ statt Software-Pflaster

Das aktuell größte Hindernis im Quantencomputing ist das sogenannte Rauschen – die enorme Fehleranfälligkeit der Recheneinheiten (Qubits). Während die Industrie bisher stark darauf setzte, schlicht die Anzahl physikalischer Qubits hochzuskalieren und Fehler nachträglich per Software zu korrigieren, wählt Peak Quantum einen grundlegend anderen Weg. Das Start-up entwickelt supraleitende Prozessoren, deren physikalische Architektur Fehler bereits auf der reinen Hardware-Ebene unterdrückt. Dieser integrierte Fehlerschutz soll die Komplexität des Gesamtsystems drastisch senken und die Entwicklung kommerziell nutzbarer Rechner massiv beschleunigen.

Das Geschäftsmodell & der EU-Infrastruktur-Hebel

Quanten-Hardware ist ein unfassbar teures Pflaster. Mit dem frischen Kapital von Investor*innen wie dem britischen Lead-Investor Cloudberry Ventures, United Founders oder QAI Ventures steigt die Gesamtfinanzierung von Peak Quantum auf gut fünf Millionen Euro. Für den Aufbau eigener Reinräume (CapEx) reicht das kaum. Der strategische Clou des Geschäftsmodells liegt daher in der europäischen Vernetzung: Peak Quantum bezieht öffentliche Fördermittel aus dem EU Chips Act und wurde ausgewählt, die im April 2026 startende Quantenchip-Pilotlinie SUPREME zu betreiben.

Ziel ist es, in Europa eine skalierbare Produktionsumgebung zu etablieren, die langfristig auch für externe Partner geöffnet werden soll. Ein Modell, das es Peak Quantum erlaubt, trotz einer frühen Finanzierungsphase hocheffizient an industrietauglichen Chips zu feilen.

Der Markt & die Konkurrenz

Doch der Markt verzeiht keine Verzögerungen, und München ist längst ein Haifischbecken der Quantentechnologie. Direkt vor der Haustür sitzen Schwergewichte:

  • IQM Quantum Computers: Der europäische Platzhirsch für supraleitende Quantencomputer (mit Hauptsitz in Finnland, aber großem Zentrum in München), der kürzlich eine SPAC-Fusion für einen geplanten Milliarden-Börsengang ankündigte.
  • planqc: Ein weiteres Münchner Spin-off, das auf neutrale Atome setzt und bereits 2024 eine Series A in Höhe von satten 50 Millionen Euro abschloss.
  • Alice & Bob: Auf internationaler Ebene steht besonders das französische Start-up Alice & Bob in direkter technischer Konkurrenz. Die Pariser entwickeln sogenannte Cat Qubits, die ebenfalls hardwareseitig fehlerresistent sind, und kooperieren dabei bereits eng mit Microsofts Quanten-Sparte.

Fazit: Risiko und enorme Chance

Das Board rund um einen ehemaligen Alphabet-X-Advisor sieht in Peak Quantum ein elementares Puzzleteil für ein eigenständiges europäisches Quanten-Ökosystem. Die Investition ist ein klassisches „Deep-Tech-Infrastruktur-Play“.

Dennoch ist eine Pre-Seed-Runde von 2,2 Millionen Euro im Jahr 2026 angesichts der Kapitalausstattung der Konkurrenz eine riskante Wette. Peak Quantum muss durch den Zugang zur SUPREME-Pilotlinie extrem schnell beweisen, dass die fehlerresistente Architektur industriell skaliert und nicht nur im Labor des WMI funktioniert.

Bringt das Team um Leon Koch erste greifbare Pilotprojekte mit Forschungs- und Industriepartnern in den Bereichen Materialforschung, Logistik oder industrieller Optimierung zum Laufen, könnte Peak Quantum zu einem technologischen Flaschenhals werden, an dem in Europa niemand mehr vorbeikommt. Es ist das Paradebeispiel dafür, wie smarte Gründer*innen nicht nur Code oder Hardware schreiben, sondern das System aus Fördergeldern, Pilotlinien und lokaler Forschungsexzellenz maximal zu ihrem Vorteil hebeln.

meinhaus.digital sammelt eine Mio. Euro für die Sanierungswende ein

Ein „KI-Architekt“, der Renovierungen von Bestandsimmobilien deutlich günstiger und schneller machen soll: Das PropTech meinhaus.digital hat eine Pre-Seed-Finanzierungsrunde in Höhe von einer Million Euro abgeschlossen.

Das von Leonie Dowling, Carolin Krebber und Ina Schröder gegründete PropTech-Start-up meinhaus.digital GmbH mit Sitz in Schwäbisch Gmünd und München hat frisches Kapital in Höhe von einer Million Euro eingesammelt. Angesichts eines Marktes für energetische Gebäudesanierung in Deutschland, in den laut dem Deutschen Institut für Wirtschaftsforschung jährlich über 70 Milliarden Euro fließen, verdeutlicht diese Investition das hohe Interesse an digitalen Lösungen für die Bau- und Immobilienbranche. Getragen wird die Finanzierungsrunde von der L-Bank Baden-Württemberg sowie Business Angels aus Stuttgart und München, zu denen auch der Start-up-Investor Martin Giese gehört.

Der Blick ins Register: Neustart statt Neugründung

Hinter meinhaus.digital stehen die drei Gründerinnen Leonie Dowling, Carolin Krebber und Ina Schröder, wobei Dowling und Krebber als Co-CEOs agieren. Ein Blick ins Handelsregister zeigt: Die rechtliche Keimzelle des Start-ups wurde von Dowling bereits 2021 unter dem Namen Palasts GmbH gegründet. Das Jahr 2025 markiert hingegen den operativen Neustart unter dem heutigen Namen meinhaus.digital sowie die Formierung des aktuellen Gründerinnen-Trios. Ungeachtet dieser Vorgeschichte ist das personelle Wachstum beachtlich. Seit 2025 wuchs das Team von drei auf zwölf Mitarbeiterinnen und Mitarbeiter an. Bis Ende 2026 soll die Belegschaft auf rund 30 Personen aufgestockt werden, wobei der Fokus stark auf den Bereichen Technologie, Vertrieb und Marketing liegt.

KI statt Architekt: Kampfpreis und OBI-Deal

Das Start-up positioniert sich als digitaler Planer für Umbau- und Sanierungsprojekte bei Bestandsimmobilien. Die Plattform kombiniert dafür eine KI-gestützte Software mit dem Fachwissen von echten Architektinnen, Architekten sowie der Energieberatung. Das Ziel ist es, Hauskäufer*innen und Eigentümer*innen eine transparente Maßnahmen-, Kosten- und Finanzierungsplanung aus einer Hand zu liefern. Das Versprechen der Gründerinnen, Planungsleistungen bis zu 70 Prozent günstiger und bis zu zehnmal schneller als klassische Architektenleistungen anzubieten, ist dabei eine klare Kampfansage an die traditionelle Zunft.

Um dieses Modell rasant in den Markt zu drücken, nutzt meinhaus.digital strategische B2B2C-Partnerschaften. Eine Kooperation mit der Baumarktkette OBI läuft bereits und soll die digitale Maßnahmenplanung mit der Umsetzungskompetenz des Marktes verknüpfen. Weitere Pilotprojekte mit Branchengrößen wie Check24, Wüstenrot und Schwäbisch Hall stehen kurz vor dem Roll-out. Damit soll der Kund*innenstamm von aktuell über 100 auf mehr als 4.000 skalieren, um langfristig den Umsatz bis 2027 zu verzehnfachen. Der Bedarf ist da, denn die reale Sanierungsquote hinkt den Klimazielen massiv hinterher, da Planungsleistungen für viele schlichtweg zu aufwendig und zu teuer sind.

Reality-Check: Kommt die Software gegen den Altbau an?

Doch die Vision vom digitalen Architekten muss sich in der harten Realität des deutschen Altbaubestandes erst noch dauerhaft beweisen. Jede Bestandsimmobilie bringt individuelle statische, bauphysikalische und rechtliche Tücken mit sich. Ob die hybride Lösung aus Software und menschlicher Expertise die Nuancen eines verbauten Altbaus lückenlos und fehlerfrei erfassen kann, muss sich in der Praxis zeigen. Auch das Versprechen, signifikant günstiger zu sein, birgt Risiken in puncto Profitabilität. Dies erfordert radikal standardisierte Prozesse im Hintergrund, um als VC-finanziertes Start-up dauerhaft profitable Margen zu erwirtschaften.

Hinzu kommt eine massive Konkurrenz. Der PropTech-Sektor ist heiß umkämpft und gut finanziert. Schwergewichte wie das Berliner Start-up Enter oder Fuchs & Eule positionieren sich bereits extrem stark und mit massivem Werbedruck im Bereich der digitalen Energieberatung, 3D-Modellierung und Fördermittelbeantragung. Das junge Team aus München und Schwäbisch Gmünd muss nun beweisen, dass die architektonische Tiefe ihres Produkts einen echten Burggraben gegenüber der reinen Energieberatung der Wettbewerber bildet.

Fazit: Smartes Playbook, harter Stresstest

Für die Start-up-Community liefert meinhaus.digital ein brillantes Playbook in Sachen Go-to-Market-Strategie. Anstatt das frische Kapital in teures, umkämpftes Endkund*innen-Marketing zu verbrennen, setzt das Team konsequent auf den B2B2C-Kanal. Die Integration in die etablierte Customer Journey von Playern wie OBI oder großen Bausparkassen ist ein top Hebel, um die Kund*innenakquisitionskosten drastisch zu senken und sich Vertrauen bei den Endkund*innen zu leihen.

Gründer*in der Woche: SpeakerMatching.com – Disruption auf der Bühne

Die Eventbranche wächst, doch die Suche nach den passenden Köpfen für die Bühne gleicht oft noch einem analogen Kraftakt. Mit der Plattform SpeakerMatching.com will eine erfahrene Seriengründerin den Spieß nun umdrehen. Es ist ein klassisches Plattform-Play ohne die üblichen Vermittlungsprovisionen – doch kann sich das Modell gegen etablierte Branchengrößen durchsetzen? Wir haben die Gründerin Henriette Hochstein-Frädrich befragt.

Hinter SpeakerMatching.com, im November 2025 als B2B-Marktplatz gelauncht, steht Henriette Hochstein-Frädrich. Sie kennt den Schmerz der Branche nicht nur vom Hörensagen. „Ich kenne den Markt nicht nur als Plattformunternehmerin, sondern auch aus zwei weiteren sehr praktischen Perspektiven: Seit vielen Jahren stehe ich selbst als Speakerin und Moderatorin auf Bühnen, und zugleich habe ich eigene Eventformate und Veranstaltungsreihen im Bereich modernes Female Empowerment konzipiert und umgesetzt“, erinnert sich die Gründerin.

„Gerade als Veranstalterin wurde mir immer wieder bewusst, wie zeitaufwendig, intransparent und teilweise zufallsgetrieben die Suche nach passenden Rednerinnen sein kann“, bringt sie das Kernproblem auf den Punkt. Gleichzeitig habe sie beobachtet, wie sich der Markt zunehmend professionalisiere: „Es gibt mehr Expertinnen, mehr Themen, mehr Formate, aber bislang keine wirklich zeitgemäße digitale Infrastruktur, die Angebot und Nachfrage effizient zusammenführt.“

Dass sie diese Infrastruktur bauen kann, hat sie in der Vergangenheit bewiesen: 2009 gründete sie Pharmatching.com, baute es zur Branchengröße auf und verkaufte es 2017. „Aus meinen früheren Plattformgründungen habe ich vor allem drei zentrale Lektionen mitgenommen: Erfolgreiche Marktplätze lösen ein echtes, konkretes Problem. Vertrauen und Qualität sind im B2B-Umfeld entscheidend. Und nicht zuletzt spielt Timing eine größere Rolle, als viele denken“, betont Hochstein-Frädrich.

Rollentausch statt Kaltakquise

Das Timing sei deshalb ideal, weil Veranstaltende heute Plattformlogiken und Self-Service-Modelle erwarten, wie sie sie aus anderen B2B-Märkten längst kennen. Der Kern von SpeakerMatching.com liegt in der Umkehrung des klassischen Buchungsprozesses. Veranstaltende formulieren ihr Gesuch kostenfrei auf der Plattform, woraufhin sich Speaker*innen direkt bewerben können. Das Start-up finanziert sich stattdessen über Abonnements für die Rednerinnen.

„Uns war von Anfang an wichtig, ein sehr niedrigschwelliges und zugleich faires Preismodell für Speaker*innen zu schaffen“, rechnet die Geschäftsführerin vor. Die monatlichen Mitgliedschaften liegen zwischen rund 59 und 89 Euro. „Wenn über die Plattform ein einzelner Auftrag im mittleren vierstelligen Bereich zustande kommt, hat sich die Investition für viele Redner*innen bereits mehrfach amortisiert.“ Sie stellt aber auch klar: „SpeakerMatching.com ist ein Marktplatz, kein Management- oder Vermittlungsvertrag.“

Doch wie verhindert man eine Flut an unpassenden Bewerbungen? „Die Sorge vor einer unüberschaubaren Bewerbungsflut ist absolut nachvollziehbar, gerade bei offenen Plattformmodellen“, räumt die Gründerin ein. Da Veranstaltende jedoch Parameter wie Budget, Zielgruppe oder Sprache sehr konkret vorgeben, entstehe eine starke Vorfilterung. „Unsere bisherigen Erfahrungen aus den ersten Monaten zeigen sehr deutlich: Unpassende ‚Blindbewerbungen‘ sind die absolute Ausnahme“, versichert Hochstein-Frädrich. Zwar sollen perspektivisch KI-basierte Funktionen eine stärkere Rolle spielen, doch die Vision bleibt menschlich: „Unser Ziel ist daher kein vollständig automatisiertes ‚Black-Box-Matching‘, sondern eine intelligente Plattform, die Entscheidungsprozesse vereinfacht und die Qualität der Interaktionen erhöht.“

Um das Problem des Bypassings – also den Abschluss an der Plattform vorbei – zu umgehen, werden Event-Gesuche zunächst anonymisiert veröffentlicht. „Erst wenn sie passende Bewerbungen erhalten und aktiv in den Austausch gehen möchten, geben sie ihre Identität preis“, erklärt die Gründerin den Prozess. „Wenn Speaker*innen über SpeakerMatching.com kontinuierlich relevante Anfragen erhalten und Veranstaltende effizient passende Expertinnen finden, entsteht eine stabile Win-Win-Dynamik. Genau darauf ist das Modell ausgelegt.“

Markt, Wettbewerb und organisches Wachstum

Der Markt wächst kontinuierlich, wird aber von großen Redneragenturen wie Speakers Excellence oder Premium Speakers dominiert. Diese arbeiten stark kuratiert und rufen oft hohe Vermittlungsprovisionen auf. Um in diesem zweiseitigen Markt das klassische Henne-Ei-Problem zu überwinden, verzichtet die Plattform auf der Veranstaltendenseite auf Gebühren.

Finanziert ist das Vorhaben bisher weitgehend aus eigener Kraft. „Aus meinen früheren Gründungen weiß ich, wie wichtig es gerade in der frühen Phase eines zweiseitigen Marktplatzes ist, Produkt, Zielgruppe und Marktmechanik zunächst sehr präzise zu verstehen und organisch zu entwickeln“, lautet ihr Credo. „Plattformmodelle brauchen Zeit, Vertrauen und kritische Masse, das lässt sich nicht ausschließlich mit Kapital ‚beschleunigen‘, sondern vor allem durch konsequenten Nutzen für beide Marktseiten“.

Dabei grenzt sie sich bewusst von stark kuratierten Agenturen ab. Der Mix aus etablierten Persönlichkeiten und neuen Stimmen sei genau das, was der Markt heute suche. Viele Unternehmen wünschen sich heute bewusst mehr Vielfalt auf ihren Bühnen. „Dabei verstehen wir Diversität nicht nur im klassischen demografischen Sinn, sondern auch als Vielfalt an Perspektiven, Erfahrungen und Denkweisen“, so Hochstein-Frädrich.

Den Vorstoß in Richtung Full-Service-Agenturen samt Ausfallversicherungen bremst sie indes ab. „Im Moment konzentrieren wir uns bewusst darauf, das Matching selbst so gut wie möglich zu machen. Alles Weitere kann – zumindest vorerst – auch von anderen Playern im Ökosystem übernommen werden.“

Fazit

Das Speaker-Business ist traditionell ein echtes People Business. Bei Keynotes für teils fünfstellige Honorare verlassen sich viele Großkund*innen gern auf die persönliche Beratung einer Agentur, die im Krankheitsfall sofort für Ersatz sorgt. Diesen Full-Service kann ein Self-Service-Marktplatz aktuell nur schwer vollumfänglich abbilden.

Dennoch ist SpeakerMatching.com ein mutiger und zeitgemäßer Angriff auf die verkrusteten und provisionsgetriebenen Strukturen der Eventbranche. Gelingt es, rasch eine kritische Masse an hochwertigen Event-Gesuchen zu generieren, hat die Plattform das Potenzial, Angebot und Nachfrage künftig deutlich schneller zusammenzubringen.

deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken

Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.

Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.

Vom Agenturgeschäft zur SaaS-Lösung

Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).

Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“

Plattformansatz für Inspektionsdaten

Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.

Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.

Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“

Marktumfeld & regulatorische Barrieren

Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.

Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.

Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.

Der technologische Burggraben im starken Wettbewerb

Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.

Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.

Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.

Finanzierung & Ausblick

Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.

Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."

Mediennutzung 2026: Zwischen KI-Frust, Abo-Müdigkeit und neuen Chancen für Start-ups

Die Deutschen experimentieren so intensiv wie nie mit künstlicher Intelligenz (KI), sind aber zunehmend genervt von Deepfakes und „Content ohne Mehrwert“. Gleichzeitig sehnt sich der überhitzte Streaming-Markt nach einer drastischen Konsolidierung. Die aktuelle Deloitte-Studie „Media Consumer Trends 2026“ liefert nicht nur Bestandsaufnahmen, sondern zeigt deutlich, wo für Gründer*innen und Tech-Unternehmen jetzt die wahren Opportunitäten liegen.

Social Media bleibt der unangefochtene Platzhirsch der Medienlandschaft: 78 Prozent der Konsument*innen in Deutschland sind auf den Plattformen aktiv, bei der Gen Z (unter 25 Jahre) sind es sogar satte 91 Prozent. Fast die Hälfte dieser jungen Zielgruppe nutzt Instagram, TikTok und Co. heute intensiver als noch im Vorjahr. Doch ein Blick unter die Oberfläche offenbart Risse im digitalen Fundament – und die haben maßgeblich mit dem rasanten Einzug generativer künstlicher Intelligenz (KI) zu tun.

Das KI-Paradoxon: Große Kreationslust, massives Vertrauensproblem

Auf der Creator-Seite ist KI bereits Alltag. 22 Prozent der Befragten haben laut Deloitte schon Bilder per KI erstellt, jeder Zehnte generiert Videos oder Musik. Auch die Zahlungsbereitschaft ist überraschend hoch: Jeder Fünfte wäre bereit, monatlich über 10 Euro für entsprechende Tools auszugeben.

Auf der Konsument*innenseite jedoch kippt die Stimmung bedenklich. Zwei Drittel der Nutzer*innen geben an, dass sie KI-generierte Inhalte im Netz nicht mehr zuverlässig erkennen können. Schlimmer noch: 56 Prozent klagen über eine wachsende Flut an KI-generierten Postings „ohne Mehrwert“ – schlichtweg digitaler Spam. Die Konsequenz dieser Verunsicherung zeigt sich bereits in den Nutzungsdaten: Erste Altersgruppen, insbesondere Nutzer*innen ab Mitte 50, beginnen, ihren Social-Media-Konsum aktiv zurückzufahren.

Die Start-up-Perspektive: Die Zeiten des blinden KI-Hypes sind vorbei. Wer als Gründer*in heute rein quantitativ auf automatisierte Content-Erstellung setzt, riskiert Reichweite und Glaubwürdigkeit. Wie Deloitte-Expertin Sophie Pastowski anmerkt, braucht es dringend „transparente Kennzeichnung, um Vertrauen im digitalen Raum zu stärken.“ Genau hier entsteht ein massiver Zukunftsmarkt für „Trust-Tech“-Start-ups: Werkzeuge, die Authentizität verifizieren, Deepfakes zuverlässig herausfiltern, digitale Wasserzeichen etablieren oder Content-Provenance (Herkunftsnachweise) sichern, werden zu kritischen Erfolgsfaktoren für Plattformen und Verlage.

Streaming-Kollaps: Die Sehnsucht nach dem Super-Aggregator

Auch im Video-Streaming-Markt (SVoD) stehen die Zeichen auf Wandel. Der Markt ist in einer Reifephase angekommen: Zwar verbringen die Deutschen immer mehr Zeit mit Streaming, doch die Abo-Zahlen stagnieren. Mit durchschnittlich 2,5 Abos bei 64 Prozent der Haushalte ist die finanzielle und nervliche Schmerzgrenze offenbar erreicht.

Die Fragmentierung des Marktes wird zum Bumerang. Die Hälfte der Konsument*innen findet das zersplitterte Angebot unübersichtlich; das ständige Suchen nach Inhalten über verschiedene Apps hinweg („Decision Fatigue“) nervt. Das Resultat ist ein lauter Ruf nach Bündelung: 43 Prozent der Nutzer*innen wünschen sich eine plattformübergreifende Aggregation ihrer Dienste. Der Haken für Anbietende: 60 Prozent erwarten im Gegenzug für ein solches Bundle einen spürbaren Preisvorteil.

Die Start-up-Perspektive: Der Markt schreit nach einer funktionierenden Meta-Ebene. Wer es schafft, die zersplitterte Content-Landschaft in einer nutzer*innenfreundlichen Oberfläche (Super-App) mit intelligenter, plattformübergreifender Suchfunktion und klugem Pricing zu bündeln, trifft den absoluten Nerv der Zeit. Das reine Hinzufügen eines weiteren Nischen-Streamingdienstes dürfte es hingegen 2026 schwerer denn je haben.

Audio: Der harte Kampf um das knappe Gut „Glaubwürdigkeit“

Im Audio-Segment setzt sich der Strukturwandel fort. Podcasts boomen weiter und haben bei den 25- bis 34-Jährigen das klassische Radio bereits als wichtigstes Medium überholt. Doch das Radio verzeichnet mit 65 Prozent wöchentlicher Reichweite weiterhin eine enorme Resilienz. Der Grund ist ein entscheidender USP, von dem digitale Kanäle lernen können: Vertrauen. Wenn es um harte Informationen und die Nachrichtenlage geht, stufen 54 Prozent der Hörer das Radio als informativer und verlässlicher ein – Podcasts kommen hier nur auf 19 Prozent.

Fazit

Die Mediennutzung 2026 ist stark paradox geprägt: Technologie durchdringt die Erstellung von Inhalten immer tiefer, doch die Sehnsucht der Nutzer*innen nach Authentizität, Übersichtlichkeit und verlässlichen Quellen wächst proportional dazu. Für Start-ups bedeutet dies einen strategischen Paradigmenwechsel. Nicht das nächste Tool zur Erstellung von noch mehr billigem KI-Content ist der heilige Gral, sondern Lösungen, die in der Informationsflut Orientierung schaffen, Fragmentierung auflösen und echtes Vertrauen im digitalen Raum aufbauen. Wer diese Schmerzpunkte adressiert, hat im hart umkämpften Medienmarkt der kommenden Jahre exzellente Karten.

Vom Solinger Start-up zum globalen Einhorn: Wie Dash0 die Observability-Giganten dekonstruiert

Das 2023 gegründete KI-Start-up Dash0 hat im März 2026 mit einer 110-Millionen-Dollar-Runde die magische Milliardenbewertung geknackt. Die Vision: Die Systemüberwachung von Software durch offene Standards, radikal faire Preismodelle und pragmatische KI zu revolutionieren. Doch der Frontalangriff auf US-Goliaths wie Datadog birgt strategische Risiken.

In der modernen Softwareentwicklung ertrinken IT-Teams in einer Flut aus Warnmeldungen, Logs und Metriken. Klassische Überwachungs-Tools (Observability) sind oft teuer, komplex und sperren Kunden in geschlossene Daten-Ökosysteme ein. Genau dieses Problem adressiert Dash0 – und hat damit in Rekordzeit Investoren und namhafte Kunden überzeugt. „Systemüberwachung ist heute kaputt: Sie ist zu laut, zu teuer und zu komplex“, bringt es Dash0-CEO und Mitgründer Mirko Novakovic auf den Punkt.

Die Gründer und der rasante Aufstieg zum Einhorn

Hinter Dash0 steht ein Quintett erfahrener Tech-Veteranen. Besonders Mirko Novakovic ist in der B2B-Szene ein Schwergewicht: 2020 verkaufte er sein vorheriges Start-up Instana für rund 500 Millionen US-Dollar an IBM. Dieser „Repeat Founder“-Status erklärt das enorme Vertrauen der Geldgeber.

Die Historie von Dash0 liest sich wie ein Start-up-Märchen im Zeitraffer: Nach der Gründung 2023 im nordrhein-westfälischen Solingen folgte Ende 2024 eine 9,5-Millionen-Dollar-Seed-Runde parallel zum Produktlaunch. Ein Jahr später sammelte das Team 35 Millionen Dollar ein.

Der Ritterschlag folgte nun im März 2026: Mit einer von Balderton Capital angeführten Series-B-Runde über 110 Millionen Dollar steigt Dash0 in den Kreis der Unicorns auf. Diesen Meilenstein verknüpft das Team mit einer klaren Kampfansage: „Mit den 110 Millionen Dollar, die wir heute bekannt geben, bringen wir autonome Abläufe zu jedem Entwicklerteam der Welt – noch bevor unsere Wettbewerber überhaupt begreifen, was mit ihnen geschieht.“

Das Produkt: Ein Frontalangriff auf die Industrie-Norm

Ein Blick unter die Haube zeigt, warum die Plattform so schnell wächst. Das Start-up dekonstruiert gezielt die Schwachstellen der etablierten Milliardenkonzerne:

  • Das Ende des „Vendor Lock-ins“: Dash0 basiert vollständig auf offenen CNCF-Standards (OpenTelemetry). Als Abfragesprache wird nativ PromQL genutzt, für Dashboards kommt das quelloffene Perses zum Einsatz. Das bedeutet für Technik-Entscheider: Würde Dash0 die Preise anheben, könnten sie ihre gesamten Dashboards und Alarme einfach mitnehmen und woanders hosten.
  • Radikales Pricing: Branchenriesen rechnen oft nach Datenvolumen (Gigabyte) oder Nutzerlizenzen ab, was bei wachsenden Systemen zu explodierenden Budgets führt. Dash0 rechnet rein nach der Anzahl der gesendeten Telemetrie-Datenpunkte ab. Unternehmen können unlimitiert Metadaten anhängen und unbegrenzt viele Entwickler auf das System lassen, ohne dass verdeckte Kosten anfallen.
  • Developer Experience (DX): Dash0 positioniert sich als Tool „von Ingenieuren für Ingenieure“. Die Plattform lässt sich für maximale Geschwindigkeit komplett per Tastatur steuern, und Konfigurationen können nahtlos als Code (Configuration as Code) in bestehende Entwicklungs-Pipelines integriert werden.

Dieser Ansatz zieht prominente Kunden an: Tech-Schwergewichte wie Vercel loben die drastisch verkürzte Zeit zur Fehlerbehebung, und auch Traditionskonzerne wie Porsche Digital setzen auf die offene Architektur von Dash0, um sich zukunftssicher aufzustellen. Um das technologische Fundament schnellstmöglich zu verbreitern, akquirierte Dash0 zudem im Februar 2026 das israelische Serverless-Start-up Lumigo.

Pragmatische KI statt Buzzword-Bingo

Während der Markt aktuell von generativen KI-Versprechen überflutet wird, positioniert sich Dash0 erstaunlich pragmatisch. Das Mantra des Start-ups lautet: „AI is an implementation detail.“ (KI ist ein Implementierungsdetail).

Der hauseigene Copilot „Agent0“ soll zwar autonome Analysen durchführen und Teams in Echtzeit entlasten, aber das primäre Ziel ist es, repetitive Aufgaben verlässlich und vor allem ohne Halluzinationen zu lösen. Die beste KI-Funktion, so das Credo der Gründer, sei diejenige, die der/die Nutzer*in liebt, ohne überhaupt zu merken, dass es sich um KI handelt.

David gegen Goliath in New York

Trotz des beeindruckenden Momentums steht Dash0 in der Skalierungsphase vor massiven Hürden:

  • Der Goliath-Wettbewerb: Dash0 tritt gegen etablierte US-Giganten wie Datadog, Dynatrace oder Grafana an. Um diesen Kampf zu führen, hat das Start-up seinen Hauptsitz mittlerweile von Deutschland nach New York verlegt. Dieser Schritt erfordert eine extrem hohe Cash-Burn-Rate im Enterprise-Vertrieb.
  • Der fehlende „Burggraben“: Was für Kund*innen hochattraktiv ist (offene Standards wie Perses und PromQL), beraubt Dash0 eines klassischen defensiven Lock-ins. Da ein Wechsel zu einem anderen Anbieter theoretisch leichter ist als bei geschlossenen Systemen, ist Dash0 dazu verdammt, permanent durch überlegene Usability und fehlerfreie KI zu überzeugen.

Fazit

Für die deutsche Start-up-Szene ist Dash0 ein exzellentes Paradebeispiel für modernes B2B-Hypergrowth. Die Story zeigt, wie man in scheinbar gesättigten Märkten durch konsequente Nutzerzentrierung, offene Standards und transparente Preise in unter drei Jahren zum Einhorn aufsteigen kann. Es ist der Beweis, dass deutsche DeepTech-Gründer*innen auf globaler Ebene nicht nur mitspielen, sondern die Spielregeln aktiv neu schreiben können.

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

Start-up-Ökosystem abseits der Metropolen: Wie Ostwestfalen-Lippe das Förder-Vakuum überwindet

280 Neugründungen und über 1.000 neue Arbeitsplätze: Das Förderprojekt „Exzellenz Start-up Center.OWL“ (ESC.OWL) zieht nach sechs Jahren Laufzeit eine beachtliche Schlussbilanz. Die eigentliche Nachricht für die Start-up-Szene liegt jedoch in der Zeit nach dem Förderende: Die Region verankert ihre aufgebauten Inkubator-Strukturen dauerhaft und führt die Vision einer „Startup Factory“ auch ohne finale exist-Bundesförderung fort.

Mit dem Abschluss des Jahres 2025 endete die Förderung des Projekts ESC.OWL, das die regionale Gründer*innenszene in Ostwestfalen-Lippe (OWL) seit 2019 maßgeblich geprägt hat. Rund 16 Millionen Euro flossen in dieser Zeit in das Vorhaben, innovative Geschäftsideen aus der Forschung der beteiligten Hochschulen auf den Weg zu bringen. Geleitet wurde das Konsortium vom „Center für Transfer durch Existenzgründung“ (TECUP) der Universität Paderborn, das auch die Start-up-Schmiede garage33 betreibt. Mit an Bord waren zudem die Technischen Hochschule OWL und die Hochschule Bielefeld.

Ambitionierte Ziele deutlich übertroffen

Die Initiatoren hatten sich für die sechsjährige Laufzeit hohe Ziele gesteckt – und diese letztlich deutlich übertroffen. Die Bilanz in harten Zahlen:

  • Statt der anvisierten 150 Ausgründungen entstanden aus über 700 begleiteten Gründungsvorhaben insgesamt 280 neue Start-ups.
  • Diese jungen Unternehmen schufen in OWL mehr als 1.000 neue Arbeitsplätze.
  • Mehr als 40.000 Menschen wurden für Themen rund um die Existenzgründung sensibilisiert (geplant waren 25.000).
  • Über 20.000 Teilnehmerinnen und Teilnehmer besuchten die diversen Formate, von Ideenwettbewerben über Pitch-Events bis hin zu Networking-Veranstaltungen mit Investoren und Business Angels.

B2B-Fokus: 87 Millionen Euro Wagniskapital eingeworben

Dass sich das Projekt derart dynamisch entwickelte, liegt an der spezifischen DNA der Region. Ostwestfalen-Lippe galt in der landesweiten Förderinitiative „Exzellenz Start-up Center.NRW“ als wichtiges Puzzleteil abseits der klassischen Ballungsräume. Die Region bot ideale Bedingungen für eine hochspezialisierte Art von Start-ups: Als Heimat des Spitzenclusters „Intelligente Technische Systeme“, zahlreicher Weltmarktführer und in direkter Nähe zum Fraunhofer-Institut IEM bildet OWL ein natürliches Testfeld für B2B-Geschäftsmodelle.

Diese enge Verzahnung von universitärer Forschung und etablierter Industrie ermöglichte es vielen Tech-Gründungen, rasch Pilotkunden zu finden. Wie lukrativ dieses Umfeld für Wagniskapitalgeber ist, zeigt eine aktuelle Zahl: Insgesamt warben Start-ups aus dem Ökosystem der garage33 seit 2019 über 87 Millionen Euro an Wagniskapital ein.

Ein Paradebeispiel für diesen Dealflow ist das Paderborner KI-Start-up ONE WARE. Das Team hat eine Software entwickelt, die ressourcenschonende neuronale Netze für verschiedenste Hardwareplattformen generiert. Dieser Ansatz überzeugte den Essener Technologieinvestor Cusp Capital, der das Start-up in dessen erster institutioneller Finanzierungsrunde mit 2,5 Millionen Euro ausstattete.

Verstetigung: Ein physisches Zuhause für Hardware-Gründer

Die größte Schwachstelle vieler staatlich geförderter Hubs ist oft ihr Ablaufdatum. Das ESC.OWL hat hier jedoch frühzeitig entgegengesteuert. An der Universität Paderborn wurde das TECUP offiziell als zentrale Betriebseinheit etabliert, wodurch die Unterstützungsleistungen für gründungsinteressierte Hochschulangehörige langfristig gesichert sind.

Darüber hinaus wurde der Gründer*innenszene ein neues physisches Zuhause geschaffen: Parallel zur ESC.NRW-Förderung bezog die garage33 den Neubau des Start-up Campus OWL im Paderborner Zukunftsquartier. Dieser bietet Start-ups modernste Büro- und Co-Working-Flächen sowie Raum zur Entwicklung physischer Prototypen.

„Wir gewährleisten so, dass Gründungsinteressierte auch künftig kontinuierlich und auf hohem Niveau unterstützt werden können, wenn sie ihre wissenschaftlichen Erkenntnisgewinne in tragfähige Geschäftsmodelle überführen möchten“, resümiert Prof. Dr. Sebastian Vogt, Direktor des TECUP.

Blick nach vorn: Die Vision geht unabhängig weiter

Das Projekt ESC.OWL ist formal abgeschlossen, doch die Region baut auf dem starken Fundament auf. Unter dem Namen Factory33 hatte sich das hochschulübergreifende Konsortium im prestigeträchtigen exist-Leuchtturmwettbewerb „Startup Factories“ des Bundesministeriums für Wirtschaft und Energie (BMWE) beworben.

Bei der finalen Prämierung der zehn bundesweiten Leuchttürme 2025 erhielten in NRW jedoch die Gateway Factory und die Factory BSA / BRYCK Startup Alliance den Zuschlag. Die Vision in Ostwestfalen-Lippe bleibt von dieser Entscheidung unberührt: Mit dem Ziel, einen international sichtbaren Hotspot für B2B-Gründungen der industriellen Transformation zu etablieren, wird das regionale Ökosystem seine Plattform nun als eigenständige und tragfähige Basis weiter vorantreiben.

10 Mio. Euro für Würzburger DeepTech-Start-up WeSort.AI

Das 2021 von Nathanael Laier und Johannes Laier gegründete WeSort.AI nutzt KI und Röntgen, um wertvolle Rohstoffe aus dem Abfall zu retten. Alles zur neuen 10-Mio.-Finanzierung.

Ein kurzes Aufblitzen, gefolgt von beißendem Rauch: Falsch entsorgte Lithium-Ionen-Akkus sind der Albtraum jedes Recyclinghof-Betreibers. Über 50 Prozent aller entsorgten Elektrogeräte und Batterien landen nicht bei spezialisierten Recyclern, sondern im Restmüll oder der gelben Tonne. Dadurch entstehen zahlreiche Brände im Recyclingprozess und wertvolle Rohstoffe wie Lithium, Kobalt und Seltene Erden gehen verloren. Diese Materialien klassifiziert die EU als Critical Raw Materials (CRM), deren Verfügbarkeit entscheidend für die Unabhängigkeit von Drittstaaten ist. Genau in diese schmerzhafte Lücke stößt das Würzburger DeepTech-Start-up WeSort.AI. Das Unternehmen hat sich Finanzierungsmittel in Höhe von zehn Millionen Euro gesichert, um seine KI-basierte Technologie zur Rückgewinnung kritischer Rohstoffe aus Recycling-Anlagen weiter zu skalieren.

Von der Vision zum prämierten Start-up

Hinter WeSort.AI stehen die Gründer Nathanael Laier und Johannes Laier, die das Unternehmen Ende 2021 mit Sitz in Würzburg aus der Taufe hoben. Als die Brüder die veralteten Trennverfahren der globalen Müllsortierung analysierten, erkannten sie das gewaltige, ungenutzte Potenzial von Digitalisierung in diesem Sektor. Der Aufstieg seit der Gründung verlief rasant. Die Kombination aus Unternehmergeist und technischem Know-how gipfelte kürzlich im Gewinn der Tech Metal Transformation Challenge der Bundesagentur für Sprunginnovationen (SPRIND). Dass die Vision der Brüder auch auf politischer Ebene Anklang findet, beweisen zudem weitere Förderzusagen in Millionenhöhe, unter anderem vom BMWE, dem BMFTR und dem Land Bayern, mit denen das Team seine Sortiertechnologie nun weiter optimieren will.

Brandprävention als lukrativer Türöffner

Die Technologie der Würzburger liest sich wie Science-Fiction für den Müllbunker. Das KI-Sortiersystem erkennt mit Hilfe von künstlicher Intelligenz, Spezialkameras und Röntgen Batterien und Elektroschrott automatisch in falschen Abfallfraktionen und sortiert sie zurück ins fachgerechte Recycling. Die Technologie kann dabei verschiedenste gefährliche oder wertvolle kritische Rohstoffe aus diversen Abfallarten wie Altfahrzeugen, Elektronik, Bauabfällen, Industrie und Haushalt aussortieren. Das Geschäftsmodell ist äußerst smart positioniert, da es einen ökologischen Makro-Trend mit einem hochaktuellen betriebswirtschaftlichen Schmerzpunkt verbindet. Das System verhindert nicht nur Brände in Müllverarbeitungsanlagen, sondern sichert auch die Rückgewinnung strategisch wichtiger Rohstoffe.

Dass das System bereits seit 2024 bei führenden Entsorgungsunternehmen wie KORN Recycling und PreZero, einem Teil der Schwarz Gruppe, im Einsatz ist, belegt einen frühen und starken Product-Market-Fit. Zudem surft das Unternehmen geschickt auf der Welle der Geopolitik, denn der EU Critical Raw Material Act setzt ambitionierte Ziele für die europäische Rohstoffunabhängigkeit. Europa ist heute stark abhängig von Importen kritischer Materialien, was wirtschaftliche und geopolitische Risiken birgt. Indem WeSort.AI bisher ungenutzte kritische Rohstoffe aus dem Abfall zurückgewinnt, erschließt das Start-up laut Gründer Nathanael Laier eine bisher ungenutzte urbane Mine und trägt direkt zur Umsetzung der EU-Vorgaben bei.

Markt & Wettbewerb

Das frische Kapital von zehn Millionen Euro stammt von führenden europäischen Impact-Investoren wie Infinity Recycling, dem Green Generation Fund und der Corporate-Venture-Einheit vent.io. Zustande kommt die Finanzierung zudem mit Unterstützung des BayStartUP-Investorennetzwerks.

Doch diese Mittel treffen auf einen hart umkämpften Markt, der sich grob in drei Segmente unterteilen lässt. Allen voran stehen die etablierten Anlagenbau-Goliaths wie das norwegische Milliardenunternehmen Tomra oder das deutsche Traditionsunternehmen Steinert. Diese Branchenriesen dominieren den Markt für sensorgestützte Sortierung historisch und rüsten ihre eigenen Systeme massiv mit Deep-Learning und KI auf.

Neben diesen Giganten drängen extrem gut finanzierte internationale Scale-ups auf den deutschen Markt. Unternehmen wie Recycleye oder Greyparrot aus Großbritannien bringen ihre KI-gesteuerten Analytik- und Robotiksysteme in europäische Anlagen und kooperieren hier bereits mit etablierten Anlagenbauern.

Auch die heimische Start-up-Konkurrenz schläft nicht, wie etwa das Bremer Start-up WasteAnt zeigt, welches Sensorik zur Qualitätskontrolle direkt bei der Müllanlieferung einsetzt.

WeSort.AI versucht, sich in dieser Gemengelage durch einen klaren USP abzugrenzen. Peter Dorfner, Partner beim Green Generation Fund, zeigt sich besonders davon überzeugt, dass die Battery-Sort-Lösung weltweit in ihrer Form einzigartig ist und mit ihrem Patent auf dem internationalen Markt stark vor Wettbewerb geschützt ist.

Ausblick & Einordnung

Es lohnt sich ein zweiter Blick auf die vor WeSort.AI liegenden Herausforderungen. Das Unternehmen entwickelt physische Systeme für eine der rauesten Industrieumgebungen der Welt, was die Hardwareentwicklung extrem kapitalintensiv macht. Die Abfallwirtschaft gilt zudem als eher konservativ, was oft in langen B2B-Vertriebszyklen bei der Integration neuer Hardware in bestehende Infrastrukturen mündet.

Dennoch löst WeSort.AI durch die Vermeidung von Bränden und die Rückgewinnung kritischer Rohstoffe eines der größten Probleme der Branche. Gelingt es dem Gründer-Duo, die Sortiertechnologie weiter zu optimieren und in neue Anwendungen zu skalieren, hat das Start-up beste Chancen, sich als ein führender Anbieter für KI-gestützte Rückgewinnung kritischer Rohstoffe in Europa zu positionieren. Der starke Rückenwind durch EU-Regularien und die eklatante Schmerzgrenze der Entsorger bei brennenden Anlagen bleiben dabei die stärksten Verkaufsargumente.

50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert

Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.

Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.

Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.

Vom Side-Project zur modularen Architektur

Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.

Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.

Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.

Das Open-Core-Modell auf dem Prüfstand

Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.

Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.

Im Haifischbecken der Tech-Giganten

In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.

Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.

Lektionen für die Start-up-Szene

Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.

Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.

Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

Gründer*in der Woche: Herita Technologies – Supply Chain Financing neu gestaltet

Das Berliner FinTech Herita Technologies wurde 2025 von Christoph Iwaniez, Benjamin Jones und Felix Kollmar mit der gemeinsamen Mission gegründet, globale Handelsfinanzierung zu vereinfachen, Abhängigkeiten zu reduzieren und nachhaltiges Wachstum in allen Branchen zu fördern. Mehr dazu im Interview mit dem Co-Founder & CEO Christoph Iwaniez.

Wer sind die Köpfe hinter Herita Technologies und was hat euch 2025 angetrieben, Herita zu gründen?
Wir sind zu dritt gestartet: Felix, Ben und ich. Felix hat ein Industry-Tech-Unternehmen erfolgreich aufgebaut und verkauft – er kennt den deutschen Mittelstand und die Herausforderungen aus der ersten Reihe. Mit seinem Netzwerk und seiner Erfahrung bringt er uns erfolgreich in den Markt. 
Ben und ich haben schon einmal gemeinsam ein FinTech aufgebaut. Er war CTO bei Bitwala und hat mich damals als Late Co-Founder ins Team geholt. Diesmal war ich derjenige, der ihn überzeugt hat, wieder gemeinsam etwas aufzubauen – und er baut jetzt die gesamte technische Plattform.

Welches primäre Geschäftsmodell verfolgt ihr mit Herita?

Die Lücke zwischen geforderten Zahlungszielen und Liquiditätsbedarf von Lieferanten wächst – und niemand löst sie wirklich gut. Factoring erreicht nur wenige große Lieferanten, und klassische SCF-Programme der großen Banken sind schwerfällig und teuer. Und da kommt die unternehmerische Opportunität ins Spiel.

Seit 2024 kann der Handelswechsel vollständig digital abgebildet werden. Damit wird ein jahrhundertealtes, rechtlich starkes Instrument plötzlich global skalierbar – ohne Papier, ohne Unterschriftenchaos, ohne Bankabhängigkeit. Darauf baut Herita auf. Wir kombinieren diese neue rechtliche Opportunität mit einer modernen Plattform. Unsere Technologie hilft Unternehmen, ihren Lieferanten und Kapitalgebern viel effizienter Supply Chain Financing abzuwickeln. Unser Modell ist einfach: Wir helfen Lieferketten zu finanzieren – aber ohne die Hürden und Einschränkungen traditioneller Bankprodukte.

Welche Meilensteine habt ihr bislang erreicht?
Wir haben vor wenigen Wochen den ersten vollständig digitalen Handelswechsel über unsere Plattform ausgestellt, übertragen und refinanziert – echte Transaktion, echtes Geld, korrekt verbucht in allen Systemen. Jetzt erweitern wir die Plattform so, dass Unternehmen ihre gesamten Lieferantenprogramme damit steuern können – von der Ausstellung bis zur Refinanzierung.

Nochmals auf den Punkt gebracht: Welche konkreten Probleme löst ihr für eure Kund*innen besser als bestehende Lösungen bzw. was unterscheidet euch heute von Wettbewerber*innen im FinTech-Sektor?
Wir lösen ein ganz akutes Problem in internationalen Lieferketten: Unsere Kunden wollen ihr working capital optimieren und verlängern zunehmend Zahlungsziele im Einkauf. Aber ihre Lieferanten brauchen Liquidität, viele davon sind zu klein oder in Ländern ansässig, in denen es keinen Zugang zu klassischen SCF-Programmen gibt.

Herita macht zwei Dinge besser:

1. Unsere Technologie ermöglicht Zugang zu Finanzierung für Unternehmen und ihre Lieferanten, die Banken gar nicht erst erreichen.

2. Wir ermöglichen Programme, die international funktionieren, auch dort, wo traditionelle Anbieter nicht aktiv sind.

Kurz gesagt: Wir bringen Kapital dorthin, wo es gebraucht wird – effizient, rechtssicher, global und ohne die hohen Transaktionskosten klassischer Lösungen.

Wie habt ihr die Startphase finanziell gestemmt?
Am Anfang vor allem durch das, was Gründer am meisten investieren: Zeit, Passion für eine innovative Lösung und persönlichen Einsatz.
Dann haben wir eine erste kleine Runde mit Angel-Investoren und frühen VCs aufgenommen, die an unsere These glauben und uns über reines Kapital hinaus mit Netzwerken und Know-how unterstützen.


Ihr habt im letzten Jahr an der renommierten EY Startup Academy teilgenommen. Was war eure Motivation, wie hast du das sechswöchige Programm erlebt und was hat es euch letztlich gebracht?
Für uns war das EY-Programm eine riesige Chance, uns mit Experten aus vielen Bereichen auszutauschen. Umgekehrt konnten wir mit diesen Sparringspartnern unser Produkt auf den Prüfstand stellen. Optimalerweise treffen wir bei den EY-Kollegen auf entsprechende Resonanz für mögliche gemeinsame Initiativen, weil Working Capital, Risiko und Supply Chains überall auf der Agenda stehen.

Am Ende der Academy konntet ihr euch beim großen Pitch-Finale gegen zehn Mitstreiter*innen durchsetzen und den EY Startup Academy Award 2025 gewinnen. Was bedeutet euch diese Auszeichnung?

Für uns war der Pitch das eigentliche Ziel. Wir mussten uns selbst hinterfragen, unser Produkt schärfen und den besten Weg finden, unser Geschäftsmodell in wenigen Minuten klar auf den Punkt zu bringen. Dass wir nun eine Bestätigung haben, dass wir eine ansprechende und ganz konsistente Vorstellung von Herita abrufen können, hilft uns in jedem anstehenden Gespräch mit Kunden und potenziellen Investoren.

Was sind eure weiteren unternehmerischen Vorhaben?
Wir wollen jetzt unsere ersten Top-Kollegen an Bord holen und Herita breiter aufstellen. Gleichzeitig stehen die ersten Kunden schon bereit – jetzt geht es darum, sauber zu liefern und den Erwartungen an unseren Mehrwert gerecht zu werden.

Und last, but not least: Was rätst du anderen Gründer*innen aus eigener Start-up-Erfahrung.
Stärkt eure Resilienz. Gründen ist kein Sprint, sondern ein Weg mit vielen Hindernissen, Rückschlägen und Momenten der Unsicherheit. Wer das aushält und immer weiter geht, kann unglaublich viel gewinnen: die Chance, etwas Eigenes zu bauen und eine Idee Wirklichkeit werden zu lassen.

Hier geht's zu Herita Technologies