Proxima Fusion: Münchner Start-up sichert sich 7 Mio. für Hochleistungsstellarator


44 likes

Proxima Fusion, ein Start-up, das Fusionskraftwerke auf der Grundlage des Stellarator-Konzepts entwickelt, hat sein Pre-Seed-Fundraising in Höhe von 7 Millionen Euro abgeschlossen. Den Lead übernahmen die Beteiligungsgesellschaften Plural und UVC Partners, dazu kommen High-Tech Gründerfonds (HTGF) und die Wilbe Group.

Proxima Fusion ist das erste Spin-out aus dem Max-Planck-Institut für Plasmaphysik (IPP): Das Start-up wurde von ehemaligen Wissenschaftlern und Ingenieuren aus dem Max-Planck-IPP, dem MIT und Google-X gegründet. Ziel der Gruppe ist es, in den kommenden Jahren einen neuen Hochleistungsstellarator zu entwickeln. Proxima Fusion plant, dass das erste Fusionskraftwerk auf Basis eines Stellarators in den 2030er Jahren entsteht.

Fusionskraftwerk auf Basis eines Stellarators

Auch Sterne erzeugen Energie durch Fusion. Die am besten erforschte Methode, Fusion auf der Erde zu ermöglichen, ist das Einschließen hochenergetischer, ionisierter Materie, sogenanntes Plasma, in Magnetfeldern. Große Maschinen wie Tokamaks und Stellaratoren nutzen dazu einen donutförmigen, magnetischen “Käfig”. Dazu verwenden Stellaratoren eine Vielzahl komplexer Elektromagneten außerhalb des Plasmas, während Tokamaks einfache, externe Elektromagneten mit einem großen Strom innerhalb des Plasmas kombinieren.

Dadurch ist das Design eines Tokamaks zwar einfacher, aber der große Strom führt zu Schwierigkeiten bei der Stabilitätskontrolle des Plasmas, die beim Stellarator nicht auftreten. Moderne Anlagen mit magnetischem Einschluss können bereits routinemäßig Plasmen mit mehr als 100 Millionen Grad erreichen – das ist in etwa zehnmal so heiß wie das Zentrum unserer Sonne. Die Chance, die Fusion als sichere, saubere und höchst effiziente Energiequelle zu nutzen, motiviert die akademische Forschung seit vielen Jahrzehnten.

Die Arbeiten von Proxima Fusion bauen auf dem Wendelstein 7-X (W7-X) des IPP’s auf, dem mit Abstand fortschrittlichsten Stellarator der Welt. Das Design von Stellaratoren ist zwar deutlich komplexer als von Tokamaks, aber sie bieten entscheidende Vorteile für ein Fusionskraftwerk: Sie können mit weniger operativem Aufwand im stationären Zustand betrieben werden und bieten eine attraktive Lösung für die Bewältigung der Wärmebelastung der Materialoberflächen.

Die ersten Stellaratoren waren noch mit großen Nachteilen behaftet: u.a. schlechter Plasmaeinschluss bei hohen Temperaturen, hohe Verluste an Fusionsprodukten und schwer einhaltbare Konstruktionstoleranzen.

Viele dieser Probleme konnten in den letzten Jahren jedoch gelöst werden: "Die experimentellen Fortschritte von W7-X und die jüngsten Fortschritte bei der Modellierung von Stellaratoren haben das Bild radikal verändert", erklärt Francesco Sciortino, Mitbegründer und CEO von Proxima Fusion. "Stellaratoren können inzwischen die Hauptprobleme von Tokamaks überwinden und signifikant weiterentwickelt werden, wodurch die Stabilität des Plasmas verbessert und stationäre Spitzenleistungen erreicht werden."

Die Leistung von Fusionsanlagen wurde in der Vergangenheit mit dem "Tripelprodukt" aus Dichte, Temperatur und Einschlusszeit quantifiziert. Seit der Inbetriebnahme im Jahr 2015 hat W7-X schnell zu den fortschrittlichsten Tokamaks aufgeholt, die bisher zusammengenommen weitaus mehr Mittel erhalten haben. Allerdings sagt das Tripelprodukt wenig über die technische und wirtschaftliche Tragfähigkeit eines Fusionskonzepts als Grundlage für ein Kraftwerk aus.

W7-X kann auch hier überzeugen: Sein im Februar 2023 erzielter Rekord beim Energieumsatz, d.h. der gesamten Heizleistung multipliziert mit der Dauer des Experiments, ist nur der jüngste Beweis dafür, dass Stellaratoren wie W7-X in einer Reihe wichtiger Aspekte überlegen sind.

Stellaratortechnologie in Deutschland Weltspitze

Jorrit Lion, Mitbegründer und Experte für die Modellierung von Stellarator-Kraftwerken, sagt: "Die deutsche Regierung hat über Jahrzehnte mit visionären Investitionen die Stellaratortechnologie in Deutschland bis zur Weltspitze vorangebracht. Auf dem dadurch geschaffenen Know-how in Instituten und Unternehmen können wir nun als Startup aufbauen. Wir bündeln jetzt diese Expertise um Fusionsenergie aus Stellaratoren ans Netz zu bringen."

Martin Kubie, der nach einem Jahrzehnt Arbeit im Formel-1-Team von McLaren, bei Google-X und dessen Ausgründung Wing zu seinen Mitgründern dazugestoßen ist, ist sich der harten Arbeit bewusst, die vor dem Team liegt: "Die Fusion ist die Herausforderung unserer Zeit. Unsere Aufgabe wird es sein, sie zu einer kommerziellen Realität zu machen. In den nächsten 12 Monaten wird sich Proxima Fusion in Zusammenarbeit mit seinen akademischen und industriellen Partnern auf die Fertigstellung eines ersten Designs für ein Fusionskraftwerk konzentrieren."

11 Mio. USD für VisioLab: Stürzt ein Osnabrücker Start-up die Kassen-Dinos?

Das Start-up VisioLab der Gründer an Tim Niekamp und Iwo Gernemann hat den Kassen-Dinos den Kampf angesagt, in dem es den Checkout in Mensen und Arenen durch simple iPad-KI automatisiert.

In der Systemgastronomie, in Mensen und Stadien ist der größte Engpass oft nicht die Küche, sondern die Kasse. Das Osnabrücker Start-up VisioLab adressiert dieses Problem mit künstlicher Intelligenz und verwandelt handelsübliche iPads in voll funktionsfähige Self-Checkout-Systeme. Für die weitere globale Skalierung hat das Unternehmen nun eine Series-A-Finanzierung in Höhe von 11 Millionen US-Dollar abgeschlossen. Angeführt wird die Runde von eCAPITAL Entrepreneurial Partners und Simon Capital, unterstützt von bestehenden Investor*innen wie dem High-Tech Gründerfonds, APX, dem Family Office zwei.7 und Business Angels wie Jens Ohr. Doch wie robust ist dieses scheinbar simple Geschäftsmodell im hart umkämpften Markt der Kassenautomatisierung wirklich?

Aus der Mensa in die NBA: Die Köpfe hinter dem Kassen-Killer

Gegründet wurde VisioLab im Jahr 2019 in Osnabrück von CEO Tim Niekamp und President & COO Iwo Gernemann. Die Idee entsprang einem stark spürbaren Schmerzpunkt in der Gastronomie: Zur Mittagszeit oder in der Halbzeitpause stauen sich die Gäste, während herkömmliche Kassensysteme oft im fünfstelligen Preisbereich liegen und aufwendig geschultes Personal erfordern. Zudem verschärft der chronische Personalmangel in der Foodservice-Branche die Lage massiv.

Die Vision der Gründer war von Beginn an, den Checkout-Prozess durch KI so drastisch zu vereinfachen, dass die zugrundeliegende Technologie im Betrieb kaum noch als solche wahrgenommen wird. Mit einem aktuellen Team von rund 25 Mitarbeitern an den Standorten Osnabrück und Boston haben Niekamp und Gernemann das System iterativ zur Marktreife geführt und internationalisiert. Das frische Kapital soll nun genutzt werden, um das Team auf etwa 40 Mitarbeiter auszubauen – gezielt verstärkt durch ehemalige Führungskräfte von Klarna, SumUp und Google.

Ein iPad als Kassensystem: Geniestreich oder Achillesferse?

Die technische Umsetzung besticht durch Hardware-Minimalismus. VisioLab eliminiert teure, proprietäre Scanner-Kassen und setzt stattdessen auf ein Apple iPad samt Kamera, kombiniert mit einem kompakten Bluetooth-Bezahlterminal und der eigenen KI-App. Die KI erkennt Speisen und Getränke auf dem Tablett in Echtzeit – unabhängig davon, ob diese verpackt oder lose sind. VisioLab vertreibt dieses Setup als "Plug-and-Play"-Lösung direkt als E-Commerce-Produkt über einen Online-Shop. Ein einziges Foto genügt laut Unternehmensangaben, um der KI ein neues Produkt beizubringen, wodurch das System in weniger als fünf Minuten startklar sein soll.

Die fundamentalen Zahlen belegen, dass diese Strategie derzeit voll aufgeht:

  • Transaktionen: Weltweit verarbeiten rund 500 Installationen etwa eine Million Transaktionen im Monat.
  • Gesamtvolumen: Das kumulierte Transaktionsvolumen liegt mittlerweile bei knapp 100 Millionen US-Dollar.
  • Wirtschaftlichkeit: Im vergangenen Quartal verzeichnete das Unternehmen erstmals einen positiven Cashflow.

Kritisch hinterfragt

Der Verzicht auf stark spezialisierte Hardware ist ein zweischneidiges Schwert. Einerseits ermöglicht es VisioLab eine enorme Vertriebsgeschwindigkeit ohne große Hardware-Vorfinanzierungen und langwierige Installationen. Andererseits ist die rein kamerabasierte 2D-Erkennung auf einem handelsüblichen Tablet potenziell anfällig für komplexe Lichtverhältnisse oder optisch nahezu identische Gerichte. Zudem begibt sich das Start-up in eine absolute Abhängigkeit vom Apple-Ökosystem. Das Geschäftsmodell erfordert eine konstante technologische Weiterentwicklung, um die "Churn-Rate" (Kund*innenabwanderung) gering zu halten, da die Wechselkosten für Gastronom*innen bei einer reinen iPad-Lösung verhältnismäßig niedrig sind.

Der Kampf um die Food-Erkennung

Der globale Markt für "AI Food Recognition" und Self-Checkout erlebt derzeit einen massiven Schub. VisioLab hat sich in diesem Umfeld geschickt in lukrativen, hochfrequentierten Nischen positioniert:

  • Sport & Entertainment: In den USA stattet VisioLab beispielsweise die Arena des NBA-Teams Orlando Magic mit 43 Systemen aus und deckt damit fast das gesamte Stadion ab. Weitere Kunden sind die NFL-Teams Atlanta Falcons und Carolina Panthers sowie der Fußballclub Inter Miami.
  • Bildung & Corporate: Etwa jeder dritte deutsche Uni-Campus nutzt die Technologie über die Studierendenwerke. Hinzu kommen Betriebskantinen von DAX-Konzernen und Kooperationen mit globalen Caterern wie der Compass Group und Aramark.

Allerdings agiert VisioLab nicht konkurrenzlos. Der Wettbewerb ist technologisch divers und hochkapitalisiert. Das US-Start-up Mashgin gilt als einer der härtesten globalen Konkurrenten. Im Gegensatz zu VisioLab setzt Mashgin auf spezielle Kiosk-Terminals mit multiplen 3D-Kameras. Das erhöht zwar die Hardwarekosten und den Installationsaufwand drastisch, verspricht aber eine extrem hohe Erkennungsgenauigkeit selbst bei chaotischen Objektanordnungen. Auch auf dem Heimatmarkt gibt es mit Start-ups wie auvisus ("VisionCheckout") starke Wettbewerber*innen, die ebenfalls KI-Bilderkennung für Betriebsrestaurants und Kantinen anbieten.

Fazit: Hyperwachstum mit Haken

Für die Start-up-Szene liefert VisioLab ein beeindruckendes Beispiel dafür, wie kluges "Go-to-Market"-Design aussieht. Anstatt den kapitalintensiven Weg proprietärer Hardware-Entwicklung zu gehen, nutzt das Team Standard-Consumer-Hardware und fokussiert die gesamte Wertschöpfung auf die smarte KI-Software am Endgerät.

Diese agile Entscheidung ermöglicht das derzeitige Hyperwachstum: Das US-Geschäft steuert bereits rund 50 Prozent zum Umsatz bei und wächst jährlich um über 1.000 Prozent. Mit dem frischen Kapital, dem Ausbau des US-Standorts durch Co-Founder Iwo Gernemann sowie der gezielten Expansion nach Australien, Neuseeland, Österreich, Großbritannien und in die Niederlande stellt VisioLab die Weichen auf globale Skalierung.

Ob das Osnabrücker Start-up langfristig gegen bestens finanzierte US-Giganten und 3D-Kamera-Spezialisten bestehen kann, wird sich an der Robustheit der Software im massenhaften Dauerbetrieb zeigen. Gelingt es VisioLab, durch kontinuierliches KI-Training seinen Genauigkeits- und "Plug-and-Play"-Vorteil auszubauen, hat das Team hervorragende Chancen, den Checkout-Prozess in der Systemgastronomie dauerhaft zu dominieren.

UniteLabs: Der Münchner DeepTech-Herausforderer auf dem Weg zum globalen Labor-Standard?

Das 2024 von Robert Zechlin, Lukas Bromig und Julian Willand gegründete UniteLabs will die Laborautomatisierung von proprietären Hürden befreien. Nach einer Millionenfinanzierung folgte Anfang 2026 der offizielle US-Launch. Wir wollten wissen: Wie realistisch ist die Vision eines herstellerunabhängigen Standards in einem von Hardware-Silos dominierten Markt? Eine Analyse.

Wer heute ein hochmodernes BioTech-Labor betritt, erwartet nahtlos vernetzte HighTech-Forschung. Die Realität sieht oft anders aus: Rund 90 Prozent der Laborgeräte stammen von unterschiedlichen Hersteller*innen und sprechen schlichtweg nicht dieselbe technische Sprache. Um künstliche Intelligenz in der Forschung nutzbar zu machen, müssen hochqualifizierte Wissenschaftler*innen oft als Software-Ingenieur*innen einspringen und mühsam Schnittstellen programmieren. Genau diesen Flaschenhals will das Münchner DeepTech-Start-up UniteLabs beseitigen.

Die Gründer und der Sprung aus München

Hinter UniteLabs stehen Robert Zechlin, Lukas Bromig und Julian Willand. Nach Vorarbeiten ab 2022 wurde das Unternehmen 2024 offiziell gegründet. Das Team vereint interdisziplinäre Expertise aus Chemieingenieurwesen, Wirtschaftsinformatik und Unternehmensstrategie – eine essenzielle Mischung für ein Produkt, das tiefes Prozessverständnis mit modernster Softwarearchitektur verbinden muss.

Dass die Idee einen massiven Schmerzpunkt der Industrie trifft, zeigt die rasante Entwicklung der letzten Monate. Nach einer Pre-Seed-Finanzierungsrunde in Höhe von 2,77 Millionen Euro unter der Führung von NAP (ehemals Cavalry Ventures) im Januar 2025 und der Auszeichnung als „Bestes Münchner Start-up“ beim Munich Startup Award 2025 ist das Unternehmen sichtlich gewachsen. Im ersten Quartal 2026 zählt das Team im Münchner Inkubator Werk1 bereits rund 28 Köpfe.

Doch wie verhindert ein derart rasant wachsendes Team, bei der ständigen Anbindung neuer, exotischer Hardware nicht zu einer hochbezahlten IT-Manufaktur zu verkommen? Schließlich erfordert jedes neue Laborgerät auf dem Markt zunächst einmal Entwicklungsaufwand für den passenden Konnektor.

„Unser Ziel ist nicht, jedes exotische Gerät einzeln ‚irgendwie‘ anzubinden“, stellt Mitgründer Robert Zechlin klar. Vielmehr soll die Integration zu einer wiederholbaren Produktfähigkeit reifen. Statt sich im Klein-Klein der Modellnummern zu verlieren, baue UniteLabs seine Konnektoren entlang grundsätzlicher Geräte-Fähigkeiten. Die puren Herstellerspezifika landen dabei in einer dünnen Adapter-Schicht, während Workflows und Datensemantik konsistent bleiben.

Um die berüchtigte Skalierungsfalle zu umgehen, setzt das Start-up zudem verstärkt auf „Reusable Automation Assets“. „Wir investieren in validierte Workflow-Bausteine, Device-Profile und Test-Suites, mit denen die zweite und dritte Integration deutlich schneller wird als die erste“, betont Zechlin und skizziert damit den Weg zum echten SaaS-Unternehmen. Der Gründer gibt die Richtung selbstbewusst vor: „Die Grenzkosten für das nächste Gerät und den nächsten Standort müssen über Zeit sinken. Unser Endzustand ist ein Ökosystem, in dem Integrationen gemeinsame Infrastruktur sind, nicht Projektgeschäft.“

Vom Prototyp zur Architektur der offenen Labore

Im Februar 2026 hat UniteLabs auf der renommierten Branchenmesse SLAS in Boston den offiziellen US-Launch seines „AI-Ready Lab Automation Systems“ vollzogen. Statt nur isolierte Schnittstellen zu flicken, positioniert sich das Start-up nun mit einer klaren, dreiteiligen Architektur.

Den Kern bildet die Cloud-native „UniteLabs Platform“, die Hardware vernetzt und die Integration von Machine-Learning-Modellen in Echtzeit erlaubt. Ergänzt wird dies durch die lokale Anwendung „GroundControl“ für den Plug-and-Play-Anschluss von Geräten sowie das „UniteLabs SDK“. Letzteres ist ein Python-Werkzeug für Wissenschaftler*innen, um Labor-Workflows komplett als Code zu steuern. Dass diese Theorie praxistauglich ist, beweist das aufstrebende KI-BioTech-Unternehmen Cradle, das die Lücke zwischen Maschinen und digitalen Daten-Lakes intern bereits mit dem Münchner System schließt. Laut UniteLabs soll sich der Labor-Durchsatz für solche KI-getriebenen Forschungsteams durch die Plattform um bis zu das Vierfache steigern lassen.

Ein „Lab-as-Code“-Ansatz via Python mag für entwickleraffine Data Scientists verlockend sein – doch schließt er nicht paradoxerweise die klassischen Biolog*innen aus, für die Code-Workflows oft eine zu steile Lernkurve bedeuten?

„Code ist nicht das Produkt“, kontert Zechlin. Er sei vielmehr eine Schnittstelle, die sowohl Power-User als auch den Laboralltag bedienen müsse. Das SDK richte sich an Teams, die volle Kontrolle über Versionierung und automatisierte Tests verlangen – was im KI-BioTech-Umfeld zunehmend Standard sei. Zechlin räumt jedoch ein, dass das Programmieren nicht jedem liege: „Die meisten wollen zuverlässige Ausführung und klare Transparenz.“

Die Lösung der Münchner: Über die Orchestrierungsschicht und „GroundControl“ werden Workflows paketiert und mit Leitplanken versehen, sodass sie auch für Nicht-Entwickler sicher ausführbar sind. Code bleibt strategisch zwar die „universelle Abstraktion“ über Geräte hinweg, doch das Interface der Zukunft sieht anders aus. Zechlin blickt voraus: „Das User Interface für Wissenschaftler wird zunehmend KI-gesteuert und natürliche Sprache zum primären Interface. UniteLabs dient diesen KI-Applikationen als robuste Surface Area und Source of Truth.“ Die Leitplanke für das Wachstum fasst er in einem Satz zusammen: „Unsere Vision ist: flexibel, wo es Sinn macht, und kompromisslos robust, wo es zählen muss.“

Die Bewährungsprobe auf dem US-Markt

Nach dem Bostoner Launch steht das Start-up nun vor der monumentalen Aufgabe, sich im hochkompetitiven US-Markt zu behaupten. Hier entscheidet sich, ob UniteLabs vom europäischen Hoffnungsträger zum globalen Player reift. Umgeben von gigantischen Investitionen in die KI-Wirkstoffentwicklung reicht es nicht, nur ein weiteres Automatisierungstool zu sein – UniteLabs muss sich als essenzieller „Schaufelhersteller“ für den aktuellen Boom etablieren.

Dabei trifft man auf amerikanische Wettbewerber*innen, die teils mit hunderten Millionen Dollar Venture Capital ausgestattet sind. Wie überlebt ein Münchner Start-up mit einer Pre-Seed-Runde von knapp drei Millionen Euro diese Materialschlacht? Zechlin gibt sich pragmatisch und weicht dem direkten Finanz-Vergleich aus: „Klar: In Infrastrukturmärkten hilft Kapital, aber es ist nicht der entscheidende Hebel.“ Anstatt die Konkurrenz im reinen „Spend“ schlagen zu wollen, baue man auf messbaren Nutzen im Laborbetrieb.

Der Plan scheint aufzugehen: Ein Großteil von Umsatz und Pipeline stammt heute bereits aus den USA, wo UniteLabs Kund*innen an beiden Küsten bedient und mit großen Hardware-Hersteller*innenn kooperiert. „Wir planen für dieses Jahr unseren ersten Big Pharma Roll-out, der sowohl in Europa als auch an Standorten in den USA erfolgen soll“, verrät der Gründer. Um diese Dynamik zu finanzieren, hebe man aktuell eine 9-Millionen-Euro-Seed-Runde für die US-Expansion. Den strukturellen Wettbewerbsvorteil sieht Zechlin in der herstelleragnostischen Verbindung bestehender Geräte: „Statt Rip-and-Replace zu verlangen, werden Workflows schneller produktiv, Daten werden sauber mit Kontext versehen, und Teams können ‚Lab-as-Code‘ wirklich ausrollen.“

Ein strategischer Hebel ist dabei die Zielgruppenansprache. Statt in endlosen Vertriebszyklen mit dem C-Level großer Pharma-Konzerne zu ringen, treibt UniteLabs ein nutzer*innengetriebenes Wachstum voran. Labor-Ingenieur*innen, die durch das Python-SDK wochenlange Schnittstellenprogrammierung einsparen, tragen das System organisch in ihre Unternehmen. Dabei profitiert das Start-up enorm davon, selbst keine Pipettierroboter oder Analysegeräte herzustellen. Als „neutrale Schweiz“ der Labor-Hardware buhlt UniteLabs nicht um lukrative Geräteverkäufe – ein extrem starkes Argument gegen den gefürchteten Vendor-Lock-in amerikanischer Hardware-Giganten.

Stresstest für das Geschäftsmodell und Regularien

Doch die ambitionierte Plattform-Strategie wird kritisch geprüft werden. Das Geschäftsmodell birgt ein ständiges API-Katz-und-Maus-Spiel, da Schnittstellen zu teils stark abgeschirmten Systemen gebaut werden müssen. Wenn etablierte Hersteller*innen ihre Firmware ändern oder Drittanbieter-Zugriffe blockieren, explodieren schnell die Wartungskosten für die Konnektoren.

Bleibt die Frage an den Gründer: Was ist also der Plan B, wenn die Marktführer ihre Schnittstellen per Update plötzlich aktiv verschlüsseln? Reicht der Verweis auf offene Standards wie das SiLA2-Protokoll in der harten Praxis aus?

„Wir gehen davon aus, dass Hersteller ihre Ökosysteme schützen werden. Unsere Strategie darf deshalb nicht auf ‚Goodwill‘ bauen“, gibt sich Zechlin keinen Illusionen hin. Standards wie SiLA2 seien zwar hilfreich gegen Fragmentierung, aber „kein Schutzschild“. Der Ansatz der Münchner ist stattdessen pragmatisch und mehrstufig: Standards nutzen, wo verfügbar, und eigene robuste Adapter bauen, wo nötig. Zudem betreibe man ein Programm mit automatisierten Regressionstests am realen Geräteverhalten, um Fehler durch Updates früh zu erkennen.

Der zweite Baustein der Verteidigung ist kommerzieller Druck. Da Labore zunehmend „Best-of-Breed“-Lösungen kombinieren wollen, würden Hersteller, die Interoperabilität blockieren, zunehmend Deals riskieren. Im Hintergrund investiere man deshalb viel Arbeit in aktiv gepflegte Partnerschaften mit den Produzent*innen. Zechlins Plan B lautet letztlich Resilienz: „Mehrere Integrationspfade, starke Tests, und ein System, das stabil bleibt, auch wenn sich die Oberfläche verändert.“ Er ist sich sicher: „Langfristig wirkt die Ökonomie in Richtung Offenheit.“

Neben blockierender Hardware bleibt die US-Zulassungsbehörde FDA die vielleicht höchste Hürde auf dem Weg in den Enterprise-Markt. Deren strenge Vorgaben zu elektronischen Aufzeichnungen sind der größte Vorbehalt von Pharmaunternehmen gegenüber Cloud-basierten Systemen. Gelingt es UniteLabs, Offenheit mit lückenlosen Audit-Trails zu verknüpfen, könnten sie die berüchtigten Sales-Zyklen drastisch verkürzen.

Doch wie passt maximale Entwickler*innen-Freiheit durch Python-Skripte mit rigider FDA- und GxP-Compliance zusammen? Für Zechlin existiert dieser Widerspruch im Labor-Alltag schlichtweg nicht: „Compliance widerspricht Flexibilität nicht. Was widerspricht, ist unkontrollierte Veränderung.“

Um Big Pharma gerecht zu werden, behandle man hochflexible Workflows wie reguläre Software-Produkte: versioniert, testbar und auditierbar. „Ein Script ist in einem GxP-Kontext kein ‚jeder macht, was er will‘, sondern ein kontrolliertes Artefakt mit definierten Inputs, erwarteten Outputs und einem Validierungsnachweis“, unterstreicht der Mitgründer. Die Plattform trenne Sandbox-Entwicklungen von einer strikt kontrollierten Produktionsebene mit signierten Releases, Environment-Pinning und klarer Datenlineage. Zechlin formuliert einen selbstbewussten Anspruch an die Branche: „Das Labor holt Software-Best-Practices nach. Unser Anspruch ist, ‚compliant by design‘ zur Default-Einstellung für AI-ready Lab Ops zu machen.“

Fazit

UniteLabs hat exzellentes Timing bewiesen. Die BioTech-Branche lechzt nach KI, scheitert aber noch massenhaft an isolierten Daten. Durch das Bereitstellen essenzieller Daten-Infrastruktur haben sich die Münchner in eine starke Ausgangsposition manövriert. Der US-Launch und anstehende Messepräsentationen zeugen vom Anspruch der Gründer. Der ultimative Lackmustest ab 2026 wird jedoch sein, ob die Hardware-Hersteller*innen diesen Wandel dulden – oder den Kampf um ihre lukrativen Software-Margen eröffnen.

Bleibt die Frage nach dem viel zitierten „Endgame“: Baut das Start-up wirklich das globale Betriebssystem für Biotech-Labore, oder macht man sich letztlich nur als hochattraktives Übernahmeziel für Hardware-Giganten hübsch?

Auf diese Entweder-Oder-Frage antwortet Zechlin diplomatisch, aber ambitioniert: „Unsere Vision ist, die neutrale Betriebsschicht für moderne Labore zu werden, weil die Branche einen herstellerunabhängigen Standard braucht, nicht noch ein weiteres Einzellösungstool.“ Gleichzeitig sei man Realist: Infrastruktur zähle nur, wenn sie im Alltag zuverlässig genutzt werde und verlässliche, strukturierte Daten für KI liefere.

Sollte das gelingen, hält sich UniteLabs alle Optionen offen – von der unabhängigen Kategorie-Definition über strategische Partnerschaften bis hin zum Exit. Doch auf einen schnellen Verkauf schiele man nicht, verspricht Zechlin: „Wir bauen nicht für eine Übernahme. Wir bauen so, dass der Markt die Plattform ernst nehmen muss.“ Und am Ende solle ohnehin der/die Kund*in profitieren: „Weniger Silos, schnellere Science, und ein Ökosystem, in dem Innovation nicht an proprietären Schnittstellen hängen bleibt.“

Synera sichert sich 35 Mio. Euro für die Revolution des Engineerings

Was einst als bionisches Forschungsprojekt begann, ist heute eine der vielversprechendsten europäischen DeepTech-Hoffnungen. Doch wie tragfähig ist die Vision vom „autonomen digitalen Ingenieur“ im stark regulierten Maschinenbau? Ein tieferer Blick auf Gründer, Markt und das Geschäftsmodell.

Die deutsche Industrie steht unter massivem Druck: Internationale Konkurrenz – insbesondere aus Asien –, chronischer Fachkräftemangel und die Notwendigkeit, Entwicklungszyklen drastisch zu verkürzen, zwingen zum Handeln. Generative künstliche Intelligenz (GenAI) gilt als Heilsbringer, doch in der Praxis verpuffen viele Initiativen. Nur etwa 41 Prozent der KI-Prototypen in der Fertigungsindustrie erreichen laut Branchenstudien den produktiven Einsatz. Die Konstruktions- und Entwicklungsabteilungen gelten als stark in Silos organisiert und bis heute schwer automatisierbar.

„Engineering ist das Rückgrat jedes Industrieunternehmens, gehört jedoch nach wie vor zu den am wenigsten digitalisierten und automatisierten Funktionen und war bis vor Kurzem für KI weitgehend unzugänglich“, bringt es Dr. Moritz Maier, Co-CEO von Synera, auf den Punkt.

Genau in diese Lücke stößt sein Unternehmen. Mit einer Series-B-Finanzierungsrunde über 35 Millionen Euro will das Bremer Startup nun international skalieren. Angeführt wird die Runde vom europäischen Wachstumsfonds Revaia, mit starker Beteiligung des UVC Partners Wachstumsfonds sowie Capgemini (über ISAI Cap Ventures). Auch die Bestandsinvestoren Spark Capital, BMW iVentures und Cherry Ventures ziehen wieder mit. Das Signal an den Markt ist deutlich: Engineering Automation wird zum nächsten großen Software-Schlachtfeld.

Von Kieselalgen zur KI-Plattform

Hinter Synera stehen die Gründer Moritz Maier, Daniel Siegel (beide Co-CEO) und Sebastian Möller (Managing Director). Die Ursprungsidee entstand am renommierten Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Gründer forschten dort im Bereich der Bionik und untersuchten die Leichtbaustrukturen von Kieselalgen, um deren evolutionäre Prinzipien auf technische Bauteile zu übertragen.

Aus „Evolutionary Light Structure Engineering“ wurde 2018 die Ausgründung ELISE. Zunächst lag der Fokus auf algorithmusbasiertem Design. Mit der Zeit erkannten die Gründer jedoch ein viel grundlegenderes Problem: Es fehlte nicht an Software für das eigentliche Design, sondern an einer Brücke, die die unzähligen Insellösungen (CAD, Simulation, Materialprüfung) im Engineering-Alltag verbindet. Dies führte zur Neuausrichtung und schließlich zur Umbenennung in Synera – einer Low-Code- und KI-Plattform für Connected Engineering.

Das Geschäftsmodell im Check

Synera betreibt ein klassisches B2B-Plattform-Modell. Anstatt etablierte Platzhirsche im Computer-Aided Design (CAD) zu verdrängen, positioniert sich Synera als übergeordnete Orchestrierungsschicht. Die Software klinkt sich in über 80 bestehende Tools ein.

  • Der Werttreiber: Nutzer*innen können komplexe Workflows (z. B. CAD-Modellierung → Simulation → Kostenkalkulation → Designanpassung) als Templates speichern. Das frische Kapital soll laut Moritz Maier nun eine Entwicklung beschleunigen, „bei der KI-Agenten als echte digitale Engineers agieren und komplexe Workflows entlang der gesamten Wertschöpfungskette autonom ausführen.“
  • Der Lock-in-Effekt: Wenn ein Industriekonzern seine Kernprozesse auf Synera automatisiert hat, ist die Plattform kaum noch auszutauschen. Die Wechselkosten für den Kunden sind enorm.
  • Die Herausforderungen: Das Modell ist technisch hochkomplex. Die ständige Pflege von über 80 API-Schnittstellen zu Drittanbietern bindet gewaltige Entwickler*innen-Ressourcen. Zudem erfordert der Vertrieb in klassische Hardware-Unternehmen lange Sales-Zyklen.

Zwischen RPA und Spezial-CAD

Wettbewerbsumfeld

Marktansatz

Syneras Differenzierung

Generatives Design (z. B. nTop, Altair)

Fokus auf die Erstellung hochkomplexer, gewichtsoptimierter Bauteile.

Synera generiert nicht nur das Design, sondern automatisiert den Prozess quer durch verschiedene externe Tools.

Klassische RPA (z. B. UiPath, Zapier)

Hervorragend für kaufmännische Prozesse (HR, CRM, Rechnungen).

Standard-RPA scheitert an den komplexen 3D-Geometrie- und Physikdaten des Engineerings.

PLM-Systeme (z. B. Siemens, Dassault)

Verwalten den gesamten Produktlebenszyklus und die Daten.

Synera setzt sich auf diese oft schwerfälligen Systeme, um die agilen Arbeitsschritte flexibler zu machen.

Kritische Einordnung: Vertraut der/die Ingenieur*in der KI?

Synera verweist auf eine Umsatzverdopplung im vergangenen Jahr und über 60 namhafte Kunden, darunter BMW, Airbus, NASA und Miele. Mit dem frischen Kapital steht die Expansion nach Asien, Europa und in die USA an. Dass dieser Wachstumskurs von den Investoren aktiv gestützt wird, betont Benjamin Erhart, General Partner bei UVC Partners: „Wir konnten erleben, wie Synera als zuverlässiger Partner die Transformation des Engineerings gestaltet.“

Doch der Weg zur breiten Durchdringung birgt auch Stolpersteine:

  1. Das Vertrauensproblem: „Agentic AI“ bedeutet, dass die Software eigenständig Entscheidungen trifft. In sicherheitskritischen Branchen (Luftfahrt, Automotive) herrschen jedoch strikte Compliance-Regeln. Bevor ein KI-Agent autonome Designänderungen an tragenden Bauteilen vornimmt, müssen massive Haftungsfragen geklärt sein.
  2. Die Pilot-Falle: Viele GenAI-Projekte scheitern auf dem Weg in die Produktion. Die Gefahr für Synera besteht darin, in Innovationsabteilungen stecken zu bleiben, während das operative Kerngeschäft aus Kostengründen an bewährten Methoden festhält.
  3. Die API-Abhängigkeit: Wer als Brückenbauer*in zwischen Dutzenden Software-Silos agiert, macht sich von den Anbietern abhängig. Sperrt ein großer CAD-Anbieter seine API, trifft dies Syneras Modell im Kern.

Fazit

Synera ist ein exzellentes Beispiel dafür, wie aus akademischer Grundlagenforschung ein hoch skalierbares DeepTech-Produkt werden kann. Der strategische Pivot vom reinen Design-Tool zur prozessübergreifenden Plattform zahlt sich durch die starke Series B nun aus. Gelingt es den Bremern, den eher konservativen globalen Maschinenbau davon zu überzeugen, dass KI-Agenten die menschlichen Ingenieur*innen nicht ersetzen, sondern befähigen, könnte Synera der entscheidende globale Standard im Connected Engineering werden.

Strategischer Exit: food42morrow übergibt seine Getränkemarke JUMA an die Berentzen-Gruppe

Die Konsolidierung im Markt für funktionale Getränke setzt sich fort: die 2022 gegründete food42morrow GmbH übergibt ihre Marke JUMA im Rahmen eines strategischen Exits an die Vivaris Getränke GmbH & Co. KG, eine Tochtergesellschaft der börsennotierten Berentzen-Gruppe Aktiengesellschaft. Ab Mai 2026 soll die großflächige Skalierung unter der Flagge von Vivaris als JUMA Recharge+ erfolgen.

Die food42morrow GmbH wurde 2022 in Frankfurt am Main mit dem Ziel gegründet, Marktlücken im Bereich Functional Food durch wissenschaftlich fundierte und trendorientierte Konzepte zu schließen. Die Gründer Raoul Kammann, Max Kammann und Carlos Lopez Granado entwickelten mit JUMA eine Antwort auf die steigende Nachfrage nach natürlichen Wachmachern.

Das Kernprodukt RECHARGE+ ist ein teebasierter Hydration Drink, der Elektrolyte, Vitamine und natürliches Koffein (u. a. aus Guayusa) kombiniert. Der Fokus liegt hierbei auf einer Funktionalität ohne Zuckerzusatz, die speziell auf die Bedürfnisse einer urbanen, aktiven Zielgruppe zugeschnitten ist. Bereits 2025 konnte das Start-up die Marktfähigkeit durch erste Listungen im deutschen Lebensmitteleinzelhandel (LEH) nachweisen.

Packaging-Innovation als strategischer Hebel

Ein wesentliches Alleinstellungsmerkmal, das den Exit maßgeblich begünstigt haben dürfte, ist das innovative Gebinde. food42morrow brachte als erstes Unternehmen in Deutschland eine wiederverschließbare Aluminiumflasche mit Schraubverschluss in dieser Kategorie auf den Markt. Diese Verpackung kombiniert die hohe Recyclingquote von Aluminium mit der Flexibilität einer Flasche. Für etablierte Konzerne wie die Berentzen-Gruppe stellt eine solche bereits validierte „Hardware-Innovation“ einen hohen Wert dar, da sie das Risiko bei der Markteinführung neuer Kategorien senkt.

Einordnung: Die „Evolve 2030“-Strategie

Der Zukauf durch die Berentzen-Gruppe ist kein Zufall, sondern Teil einer breiteren Branchenbewegung. Mit der Strategie BERENTZEN EVOLVE 2030 reagiert der Konzern auf den rückläufigen Spirituosenkonsum und investiert massiv in das Segment der alkoholfreien Getränke (AfG). JUMA fungiert hierbei als Portfolio-Ergänzung im margenstarken Premium-Bereich der funktionalen Drinks. Ähnliche Strategien verfolgten zuletzt auch Akteure wie Eckes-Granini oder die Paulaner-Gruppe bei der Integration agiler Innovationsmarken.

Key Learnings für Gründer*innen

Aus dem Case food42morrow lassen sich drei zentrale Erkenntnisse für die Skalierung von Konsumgüter-Start-ups ableiten:

  1. USP durch Packaging: In einem gesättigten Markt reicht ein guter Inhalt oft nicht aus. Eine technologische oder funktionale Innovation bei der Verpackung kann der entscheidende Türöffner für den LEH und für Akquisitionsgespräche sein.
  2. Validierung vor Skalierung: Der Exit erfolgte erst, nachdem die Marktfähigkeit (Proof of Market) durch erste Listungen 2025 bewiesen war. Große Player kaufen bevorzugt Marken, die ihre „Kinderkrankheiten“ bereits überwunden haben.
  3. Positionierung als „Brückenbauer“: food42morrow hat sich erfolgreich als Bindeglied zwischen Start-up-Agilität und industrieller Skalierung positioniert. Dies ermöglicht es den Gründern, sich auf ihre Kernkompetenz – die Produktentwicklung – zu konzentrieren, während die massive Distribution durch die Strukturen eines Konzerns erfolgt.

Was kommt nach JUMA?

Mit der Übergabe der Marke an Vivaris stellt food42morrow seine Kompetenz als Innovationstaktgeber unter Beweis. Bleibt die spannende Frage, welche Trends das Frankfurter Team als Nächstes identifiziert.

meinhaus.digital sammelt eine Mio. Euro für die Sanierungswende ein

Ein „KI-Architekt“, der Renovierungen von Bestandsimmobilien deutlich günstiger und schneller machen soll: Das PropTech meinhaus.digital hat eine Pre-Seed-Finanzierungsrunde in Höhe von einer Million Euro abgeschlossen.

Das von Leonie Dowling, Carolin Krebber und Ina Schröder gegründete PropTech-Start-up meinhaus.digital GmbH mit Sitz in Schwäbisch Gmünd und München hat frisches Kapital in Höhe von einer Million Euro eingesammelt. Angesichts eines Marktes für energetische Gebäudesanierung in Deutschland, in den laut dem Deutschen Institut für Wirtschaftsforschung jährlich über 70 Milliarden Euro fließen, verdeutlicht diese Investition das hohe Interesse an digitalen Lösungen für die Bau- und Immobilienbranche. Getragen wird die Finanzierungsrunde von der L-Bank Baden-Württemberg sowie Business Angels aus Stuttgart und München, zu denen auch der Start-up-Investor Martin Giese gehört.

Der Blick ins Register: Neustart statt Neugründung

Hinter meinhaus.digital stehen die drei Gründerinnen Leonie Dowling, Carolin Krebber und Ina Schröder, wobei Dowling und Krebber als Co-CEOs agieren. Ein Blick ins Handelsregister zeigt: Die rechtliche Keimzelle des Start-ups wurde von Dowling bereits 2021 unter dem Namen Palasts GmbH gegründet. Das Jahr 2025 markiert hingegen den operativen Neustart unter dem heutigen Namen meinhaus.digital sowie die Formierung des aktuellen Gründerinnen-Trios. Ungeachtet dieser Vorgeschichte ist das personelle Wachstum beachtlich. Seit 2025 wuchs das Team von drei auf zwölf Mitarbeiterinnen und Mitarbeiter an. Bis Ende 2026 soll die Belegschaft auf rund 30 Personen aufgestockt werden, wobei der Fokus stark auf den Bereichen Technologie, Vertrieb und Marketing liegt.

KI statt Architekt: Kampfpreis und OBI-Deal

Das Start-up positioniert sich als digitaler Planer für Umbau- und Sanierungsprojekte bei Bestandsimmobilien. Die Plattform kombiniert dafür eine KI-gestützte Software mit dem Fachwissen von echten Architektinnen, Architekten sowie der Energieberatung. Das Ziel ist es, Hauskäufer*innen und Eigentümer*innen eine transparente Maßnahmen-, Kosten- und Finanzierungsplanung aus einer Hand zu liefern. Das Versprechen der Gründerinnen, Planungsleistungen bis zu 70 Prozent günstiger und bis zu zehnmal schneller als klassische Architektenleistungen anzubieten, ist dabei eine klare Kampfansage an die traditionelle Zunft.

Um dieses Modell rasant in den Markt zu drücken, nutzt meinhaus.digital strategische B2B2C-Partnerschaften. Eine Kooperation mit der Baumarktkette OBI läuft bereits und soll die digitale Maßnahmenplanung mit der Umsetzungskompetenz des Marktes verknüpfen. Weitere Pilotprojekte mit Branchengrößen wie Check24, Wüstenrot und Schwäbisch Hall stehen kurz vor dem Roll-out. Damit soll der Kund*innenstamm von aktuell über 100 auf mehr als 4.000 skalieren, um langfristig den Umsatz bis 2027 zu verzehnfachen. Der Bedarf ist da, denn die reale Sanierungsquote hinkt den Klimazielen massiv hinterher, da Planungsleistungen für viele schlichtweg zu aufwendig und zu teuer sind.

Reality-Check: Kommt die Software gegen den Altbau an?

Doch die Vision vom digitalen Architekten muss sich in der harten Realität des deutschen Altbaubestandes erst noch dauerhaft beweisen. Jede Bestandsimmobilie bringt individuelle statische, bauphysikalische und rechtliche Tücken mit sich. Ob die hybride Lösung aus Software und menschlicher Expertise die Nuancen eines verbauten Altbaus lückenlos und fehlerfrei erfassen kann, muss sich in der Praxis zeigen. Auch das Versprechen, signifikant günstiger zu sein, birgt Risiken in puncto Profitabilität. Dies erfordert radikal standardisierte Prozesse im Hintergrund, um als VC-finanziertes Start-up dauerhaft profitable Margen zu erwirtschaften.

Hinzu kommt eine massive Konkurrenz. Der PropTech-Sektor ist heiß umkämpft und gut finanziert. Schwergewichte wie das Berliner Start-up Enter oder Fuchs & Eule positionieren sich bereits extrem stark und mit massivem Werbedruck im Bereich der digitalen Energieberatung, 3D-Modellierung und Fördermittelbeantragung. Das junge Team aus München und Schwäbisch Gmünd muss nun beweisen, dass die architektonische Tiefe ihres Produkts einen echten Burggraben gegenüber der reinen Energieberatung der Wettbewerber bildet.

Fazit: Smartes Playbook, harter Stresstest

Für die Start-up-Community liefert meinhaus.digital ein brillantes Playbook in Sachen Go-to-Market-Strategie. Anstatt das frische Kapital in teures, umkämpftes Endkund*innen-Marketing zu verbrennen, setzt das Team konsequent auf den B2B2C-Kanal. Die Integration in die etablierte Customer Journey von Playern wie OBI oder großen Bausparkassen ist ein top Hebel, um die Kund*innenakquisitionskosten drastisch zu senken und sich Vertrauen bei den Endkund*innen zu leihen.

deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken

Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.

Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.

Vom Agenturgeschäft zur SaaS-Lösung

Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).

Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“

Plattformansatz für Inspektionsdaten

Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.

Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.

Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“

Marktumfeld & regulatorische Barrieren

Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.

Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.

Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.

Der technologische Burggraben im starken Wettbewerb

Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.

Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.

Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.

Finanzierung & Ausblick

Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.

Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."

Mediennutzung 2026: Zwischen KI-Frust, Abo-Müdigkeit und neuen Chancen für Start-ups

Die Deutschen experimentieren so intensiv wie nie mit künstlicher Intelligenz (KI), sind aber zunehmend genervt von Deepfakes und „Content ohne Mehrwert“. Gleichzeitig sehnt sich der überhitzte Streaming-Markt nach einer drastischen Konsolidierung. Die aktuelle Deloitte-Studie „Media Consumer Trends 2026“ liefert nicht nur Bestandsaufnahmen, sondern zeigt deutlich, wo für Gründer*innen und Tech-Unternehmen jetzt die wahren Opportunitäten liegen.

Social Media bleibt der unangefochtene Platzhirsch der Medienlandschaft: 78 Prozent der Konsument*innen in Deutschland sind auf den Plattformen aktiv, bei der Gen Z (unter 25 Jahre) sind es sogar satte 91 Prozent. Fast die Hälfte dieser jungen Zielgruppe nutzt Instagram, TikTok und Co. heute intensiver als noch im Vorjahr. Doch ein Blick unter die Oberfläche offenbart Risse im digitalen Fundament – und die haben maßgeblich mit dem rasanten Einzug generativer künstlicher Intelligenz (KI) zu tun.

Das KI-Paradoxon: Große Kreationslust, massives Vertrauensproblem

Auf der Creator-Seite ist KI bereits Alltag. 22 Prozent der Befragten haben laut Deloitte schon Bilder per KI erstellt, jeder Zehnte generiert Videos oder Musik. Auch die Zahlungsbereitschaft ist überraschend hoch: Jeder Fünfte wäre bereit, monatlich über 10 Euro für entsprechende Tools auszugeben.

Auf der Konsument*innenseite jedoch kippt die Stimmung bedenklich. Zwei Drittel der Nutzer*innen geben an, dass sie KI-generierte Inhalte im Netz nicht mehr zuverlässig erkennen können. Schlimmer noch: 56 Prozent klagen über eine wachsende Flut an KI-generierten Postings „ohne Mehrwert“ – schlichtweg digitaler Spam. Die Konsequenz dieser Verunsicherung zeigt sich bereits in den Nutzungsdaten: Erste Altersgruppen, insbesondere Nutzer*innen ab Mitte 50, beginnen, ihren Social-Media-Konsum aktiv zurückzufahren.

Die Start-up-Perspektive: Die Zeiten des blinden KI-Hypes sind vorbei. Wer als Gründer*in heute rein quantitativ auf automatisierte Content-Erstellung setzt, riskiert Reichweite und Glaubwürdigkeit. Wie Deloitte-Expertin Sophie Pastowski anmerkt, braucht es dringend „transparente Kennzeichnung, um Vertrauen im digitalen Raum zu stärken.“ Genau hier entsteht ein massiver Zukunftsmarkt für „Trust-Tech“-Start-ups: Werkzeuge, die Authentizität verifizieren, Deepfakes zuverlässig herausfiltern, digitale Wasserzeichen etablieren oder Content-Provenance (Herkunftsnachweise) sichern, werden zu kritischen Erfolgsfaktoren für Plattformen und Verlage.

Streaming-Kollaps: Die Sehnsucht nach dem Super-Aggregator

Auch im Video-Streaming-Markt (SVoD) stehen die Zeichen auf Wandel. Der Markt ist in einer Reifephase angekommen: Zwar verbringen die Deutschen immer mehr Zeit mit Streaming, doch die Abo-Zahlen stagnieren. Mit durchschnittlich 2,5 Abos bei 64 Prozent der Haushalte ist die finanzielle und nervliche Schmerzgrenze offenbar erreicht.

Die Fragmentierung des Marktes wird zum Bumerang. Die Hälfte der Konsument*innen findet das zersplitterte Angebot unübersichtlich; das ständige Suchen nach Inhalten über verschiedene Apps hinweg („Decision Fatigue“) nervt. Das Resultat ist ein lauter Ruf nach Bündelung: 43 Prozent der Nutzer*innen wünschen sich eine plattformübergreifende Aggregation ihrer Dienste. Der Haken für Anbietende: 60 Prozent erwarten im Gegenzug für ein solches Bundle einen spürbaren Preisvorteil.

Die Start-up-Perspektive: Der Markt schreit nach einer funktionierenden Meta-Ebene. Wer es schafft, die zersplitterte Content-Landschaft in einer nutzer*innenfreundlichen Oberfläche (Super-App) mit intelligenter, plattformübergreifender Suchfunktion und klugem Pricing zu bündeln, trifft den absoluten Nerv der Zeit. Das reine Hinzufügen eines weiteren Nischen-Streamingdienstes dürfte es hingegen 2026 schwerer denn je haben.

Audio: Der harte Kampf um das knappe Gut „Glaubwürdigkeit“

Im Audio-Segment setzt sich der Strukturwandel fort. Podcasts boomen weiter und haben bei den 25- bis 34-Jährigen das klassische Radio bereits als wichtigstes Medium überholt. Doch das Radio verzeichnet mit 65 Prozent wöchentlicher Reichweite weiterhin eine enorme Resilienz. Der Grund ist ein entscheidender USP, von dem digitale Kanäle lernen können: Vertrauen. Wenn es um harte Informationen und die Nachrichtenlage geht, stufen 54 Prozent der Hörer das Radio als informativer und verlässlicher ein – Podcasts kommen hier nur auf 19 Prozent.

Fazit

Die Mediennutzung 2026 ist stark paradox geprägt: Technologie durchdringt die Erstellung von Inhalten immer tiefer, doch die Sehnsucht der Nutzer*innen nach Authentizität, Übersichtlichkeit und verlässlichen Quellen wächst proportional dazu. Für Start-ups bedeutet dies einen strategischen Paradigmenwechsel. Nicht das nächste Tool zur Erstellung von noch mehr billigem KI-Content ist der heilige Gral, sondern Lösungen, die in der Informationsflut Orientierung schaffen, Fragmentierung auflösen und echtes Vertrauen im digitalen Raum aufbauen. Wer diese Schmerzpunkte adressiert, hat im hart umkämpften Medienmarkt der kommenden Jahre exzellente Karten.

Architektur statt Strukturgröße: Aachener Chip-Start-up INCIRT sichert sich 4,8 Mio. Euro

Das Halbleiter-Start-up INCIRT hat eine Finanzierungsrunde in Höhe von 4,8 Millionen Euro abgeschlossen. Angeführt wird die Runde vom finnischen Early-Stage-VC Lifeline Ventures, während der High-Tech Gründerfonds (HTGF) – der bereits in der Seed-Runde 2022 investierte – erneut mitzieht. Das frische Kapital soll die Industrialisierung und den Markteintritt einer neuen Generation von Hochleistungs-Datenwandlern beschleunigen, die vor allem in Satelliten, 5G/6G-Infrastruktur und KI-Rechenzentren zum Einsatz kommen sollen.

Hinter dem DeepTech-Unternehmen steht ein Team mit tiefen akademischen Wurzeln. INCIRT entstand Anfang 2022 als exist-gefördertes Spin-off der RWTH Aachen. Die promovierten Elektrotechniker Dr. Oner Hanay (CEO), Dr. Erkan Bayram und Dr. Mohamed Saeed Elsayed brachten das wissenschaftliche Fundament mit, während Sebastian Waters (CCO/CFO) die kaufmännische Seite abdeckt. Technisch beraten wird das Team durch Prof. Dr. Renato Negra. Bereits im Gründungsjahr sorgten die Aachener für Aufsehen und gewannen den renommierten "Falling Walls Venture"-Award.

Intelligenz schlägt Nanometer

Der technologische Ansatz von INCIRT zielt auf ein Kernproblem der Halbleiterindustrie ab: Dem klassischen „Moore’s Law“ folgend, wurden Leistungssteigerungen in der Vergangenheit vor allem durch immer kleinere Transistoren (mittlerweile im einstelligen Nanometer-Bereich) erkauft. Dieser Weg stößt an physikalische Grenzen und lässt die Produktionskosten explodieren.

INCIRT setzt stattdessen auf eine patentierte, stark parallelisierte Systemarchitektur für seine Analog-Digital- und Digital-Analog-Wandler. Laut Unternehmensangaben ermöglichen diese eine bis zu 100-mal schnellere Datenübertragung bei signifikant geringerem Energieverbrauch. Der entscheidende strategische Vorteil: Weil die Architektur so effizient ist, können die Chips im etablierten, weitaus günstigeren 22-Nanometer-Verfahren produziert werden – und zwar direkt in Europa. Das macht das Start-up zu einem spannenden Akteur im Bestreben der EU, digitale Souveränität aufzubauen und die Abhängigkeit von asiatischen Mega-Foundries wie TSMC zu verringern.

Zwischen IP-Lizenz und Hardware-Hürden

So vielversprechend die Technologie ist, so steinig ist der Weg zur Kommerzialisierung. Der globale Markt für Datenwandler wird von etablierten US-Giganten wie Analog Devices, Texas Instruments oder Broadcom dominiert. Diese Konzerne verfügen nicht nur über Milliardenbudgets für Forschung, sondern auch über extrem tief verwurzelte Lieferbeziehungen zu den großen Netzwerkausrüstern und der Raumfahrtindustrie.

Zudem offenbart die Hardware-Entwicklung extrem lange Validierungszyklen. Bauteile, die in den Weltraum geschossen werden, müssen jahrelange Zertifizierungen durchlaufen. CEO Oner Hanay formuliert dennoch das ambitionierte Ziel, in zehn Jahren bis zu 10.000 europäische Satelliten mit INCIRT-Technologie auszurüsten.

Hier drängt sich die kritische Frage nach dem finalen Geschäftsmodell auf: Zur Seed-Runde 2022 positionierte sich INCIRT noch primär als skalierbarer Anbieter von „IP-Lösungen“ (Intellectual Property), der reine Baupläne lizenziert. In der aktuellen Kommunikation rückt nun die physische "Chipproduktion" in den Vordergrund. Sollte INCIRT als "Fabless"-Unternehmen auftreten, das Chips auf eigene Rechnung produzieren lässt, sind 4,8 Millionen Euro in der Halbleiterindustrie kaum mehr als ein Tropfen auf den heißen Stein. Allein um die Maskenkosten (Tape-outs) und das Working Capital für Massenmärkte zu finanzieren, wird mittelfristig ein Vielfaches an Kapital oder ein starker Industrie-Partner nötig sein.

Fazit

Die neue Runde verschafft INCIRT die entscheidende "Runway", um erste Kundenprojekte zu starten und die Leistungsfähigkeit der Chips im harten Praxiseinsatz zu beweisen. Gelingt es den Aachenern, die Platzhirsche bei Leistung, Kosten und Liefersicherheit zu schlagen, könnte das Spin-off ein essenzieller Baustein der europäischen Telekommunikationszukunft werden. Bis dahin bleibt es eine klassische DeepTech-Wette: Hochriskant, extrem kapitalintensiv – aber mit immensem Hebel, falls sie aufgeht.

Gründerin der Woche: beZUG – vom Pendler-Frust zur Gründung

Wer regelmäßig ICE fährt, kennt den kritischen Blick auf das Kopfkissen: Der Zug rollt, aber man zögert, sich anzulehnen. Johanna Hoeflich wollte dieses Dilemma zwischen „Nähe und Distanz“ nicht länger hinnehmen und entwickelte den beZUG. Was als Nähprojekt für den Eigenbedarf begann, ist heute ein junges Unternehmen – mehr dazu im Interview mit der Gründerin.

Das Hygiene-Problem beim Bahnfahren kennen wir alle. Aber vom Ärgernis zur Gründung ist es oft ein weiter Weg. Was war der konkrete Auslöser, tatsächlich eine Firma anzumelden?

Mein Mann pendelt täglich mit dem ICE zwischen Stuttgart und Mannheim. Er ist morgens immer früh unterwegs und möchte häufig noch einmal die Augen schließen auf der Fahrt. Das hat ihn immer Überwindung gekostet, also haben wir nach einer Lösung gesucht, die es jedoch nicht gab. Nachdem wir den beZUG dann entwickelt hatten, gab es reges Interesse im Freundes- und Bekanntenkreis. Das bestärkte mich darin ein Business daraus zu machen.

Sie haben Ihre Prototypen live im Zug getestet. Wie viele skeptische Blicke oder Kommentare von Mitreisenden mussten Sie aushalten, bis die Passform saß?

Ehrlichweise sind Bahnfahrende relativ tolerant außergewöhnlichem Verhalten gegenüber, solange man den anderen nicht stört. Die Kissen hat mein Mann meist morgens vermessen, da abends die Züge einfach zu voll sind. Aber morgens um diese Uhrzeit gilt offenbar das Prinzip: „Mind your own Business“, sodass manches Mal verwunderte Blicke kamen, aber angesprochen wurde er darauf nicht.

Lassen Sie uns über das Risiko sprechen. Ihr Produkt ist technisch einfach: Stoff und Gummizug. Was ist Ihr Schutzwall gegen Billig-Kopien aus Fernost, die das morgen für den halben Preis anbieten könnten?

Das ist eindeutig ein kritischer Punkt. Daher habe ich mir diese Frage ebenfalls sehr früh gestellt und ein Gebrauchsmuster angemeldet. Dieses ist nun tatsächlich auch eingetragen. Zudem habe ich mich von vornherein für faire Produktionsbedingungen innerhalb Europas entschieden. Da der beZUG mit Haut in Berührung kommt war mir auch die Stoffqualität wichtig. Der beZUG ist aus Bekleidungsstoff gefertigt, welcher OEKOTEX 100 zertifiziert ist. Das sind Aspekte bei denen Billigware in der Regel nicht punkten kann. Zudem ist das Produkt eines was explizit auf den deutschen Markt zugeschnitten ist. Da bleibt abzuwarten, ob sich ein Anbieter aus Nahost überhaupt dafür interessiert.

Ein weiteres Thema ist die Abhängigkeit. Ihr Geschäftsmodell basiert zu 100 Prozent auf den Sitzen der Deutschen Bahn. Wie gehen Sie mit diesem „Klumpenrisiko“ um, das heißt, was tun, wenn die Bahn morgen das Sitzdesign radikal ändert?

Diesen Punkt sehe ich relativ entspannt. Laut DB nutzen jeden Tag 400.000 Personen die Fernverkehrsstrecken der Bahn. Eine relevant große Zielgruppe ist also vorhanden. Bezüglich des ICE-Designs wurde im letzten Jahr erst die neueste Generation des ICEs, der ICE L, vorgestellt. Und auch in diesem sind Kopfkissen verbaut. Zudem werden die vorherigen Generationen des ICE nach wie vor weiter eingesetzt. Die Kopfkissen in den verschiedenen Zug-Generationen sind ein wenig unterschiedlich. Der beZUG ist jedoch so designt, dass er auf allen Kissen universell eingesetzt werden kann.

Sie haben als UG gegründet, vermutlich um die Hürden niedrig zu halten. Ist beZUG ein klassisches Bootstrapping-Projekt aus dem Cashflow, oder suchen Sie aktiv nach Investoren für das schnelle Wachstum?

Richtig, die beZUG ist aus Eigenkapital entstanden und der Plan ist auch aus eigenem Cashflow zu wachsen. Das impliziert jedoch ein kontinuierlich moderates Wachstum. Aber müssen, wie bei fast jedem produzierenden Unternehmen, Material und Produktion vorfinanziert werden. Sollte somit das limitierte Budget die Bedienung einer schnell wachsenden Nachfrage ausbremsen, müssen auch externe Finanzmittel in Betracht gezogen werden.

Aktuell verkaufen Sie D2C über Ihren Webshop. Aber bei einem "Mitnahmeartikel" fressen Versand und Marketing oft die Marge. Planen Sie den Schritt in den stationären Handel, etwa in Bahnhofsbuchhandlungen?

Tatsächlich bin ich bereits in Kontakt mit ebensolchen Handelsunternehmen, welche direkt an Bahnhöfen oder Flughäfen angesiedelt sind. Ich könnte mir auch vorstellen, dass der beZUG zukünftig aus einem Automaten direkt am Gleis bezogen werden kann. Das sind aber Ideen für Zukunft.

Bieten Sie den beZUG auch gebrandet bzw. personalisiert an?

Ja, die Verpackung und auch der beZUG selbst bieten verschiedene Möglichkeiten für ein individuelles Branding. Auch eine individuelle Stofffarbe wäre umsetzbar bei entsprechender Abnahmemenge.

Zum Abschluss ein Rat an unsere Leser*innen: Sie haben nicht lange am theoretischen Reißbrett verharrt. Ist „Einfach machen“ immer der beste Weg, oder hätten Sie rückblickend an einer Stelle lieber mehr geplant?

Diese Frage kann ich in fünf Jahren vermutlich besser beantworten. Als Gründer heißt es doch immer learning by doing. Natürlich geht es besser, aber dieses Unternehmen würde es heute noch nicht geben hätte ich alle Eventualitäten, Möglichkeiten und Förderungen vorab recherchiert. Habe ich mich über mich selbst geärgert, als ich manches Mal mit dem Steuerberater gesprochen hatte, weil es auch anders und besser gegangen wäre? Vielleicht ja. Aber bereue ich das Unternehmen so aufgezogen zu haben wie es heute ist? Nein, bestimmt nicht. Also lieber rein ins kalte Wasser und schwimmen lernen als ewig am Beckenrand stehen.

Hier geht's zu beZUG

Das Interview führte StartingUp-Chefredakteur Hans Luthardt

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere

Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.

Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.

Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.

Der technologische Schlüssel: "Direct Cytosolic Transfer"

Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.

Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.

Zwischen enormem Potenzial und hohem Risiko

Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.

Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.

Blaupause für Deep-Tech-Gründer

Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:

  • Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
  • Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
  • Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.

50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert

Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.

Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.

Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.

Vom Side-Project zur modularen Architektur

Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.

Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.

Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.

Das Open-Core-Modell auf dem Prüfstand

Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.

Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.

Im Haifischbecken der Tech-Giganten

In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.

Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.

Lektionen für die Start-up-Szene

Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.

Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.

Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.

Vom Nanny-Vermittler zum EAP-Giganten: heycare schließt 4-Mio.-Euro-Runde ab

Rund vier Mio. € für heycare: Unser ehemaliges Cover-Start-up (früher heynanny) wird zum B2B-Health-Ökosystem. Wir analysieren den Deal und den hart umkämpften EAP-Markt.

Das Münchner Scale-up heycare hat seine Extended Seed Runde erfolgreich abgeschlossen. Dem Unternehmen fließen rund 4 Millionen Euro für das weitere Wachstum zu. Angeführt wird die Finanzierungsrunde von Scalehouse Capital als Lead-Investor, flankiert von Swiss Post Ventures als strategischem Co-Investor. Für treue StartingUp-Leserinnen und -Leser ist das Gründerinnenteam kein unbeschriebenes Blatt: Wir hatten die Plattform bereits vor einiger Zeit ausführlich in einer Coverstory porträtiert – damals noch unter dem Gründungsnamen „heynanny“.

Vom Cover-Start-up zum Health-Ökosystem

Die Gründerinnen Anna Schneider und Julia Kahle riefen das Unternehmen im Jahr 2022 ins Leben. Innerhalb kurzer Zeit hat sich das Start-up von einem spezialisierten Care-Anbieter zu einem umfassenden Gesundheitsdienstleister entwickelt. Heute positioniert sich heycare als digitale Plattform, die als ganzheitliches Employee Assistance Program (EAP) und Familienservice fungiert.

Das Angebot deckt mittlerweile ein breites Spektrum ab. So vermittelt die App praktische Betreuungslösungen für Kinder, Pflegebedürftige und sogar Haustiere. Diese gezielten Maßnahmen sollen die Mitarbeitenden im Alltag spürbar entlasten, was die Ausfallzeiten in den Unternehmen nachweislich reduziert. Darüber hinaus setzt das Scale-up stark auf Prävention im Bereich der mentalen Gesundheit. Um die psychische Widerstandskraft der Belegschaft zu stärken, bietet die Plattform unter anderem Trainings, Webinare sowie anonyme 1:1-Beratungen mit Psycholog*innen an.

Abgerundet wird das Portfolio durch die seit Anfang 2026 bestehende Integration des Sport- und Wellness-Netzwerks von Urban Sports Club. Mit diesem Schritt möchte heycare seinen Firmenkund*innen ein lückenloses Gesundheits-Ökosystem aus einer Hand bieten und löst damit ein zentrales Problem der modernen Arbeitswelt: die Vereinbarkeit von Beruf und Privatleben.

Hintergründe zur Finanzierungsrunde

Die frischen Mittel wollen die beiden Gründerinnen primär in den Ausbau ihrer Belegschaft investieren. Damit reagiert heycare auf die gestiegene Nachfrage in der operativen Umsetzung. Das Kund*innenportfolio kann sich bereits sehen lassen, denn Branchengrößen wie Daimler Truck, Douglas, Vaillant und VW Retail zählen bereits zu den Nutzer*innen der Plattform.

Wie Co-CEO Julia Kahle betont, ist das Unternehmen bereits profitabel. Bei der Investor*innensuche wurde daher bewusst selektiert, um Partner*innen zu finden, die die Vision von heycare teilen und das Unternehmen bei der weiteren Skalierung optimal unterstützen können. Scalehouse Capital, ein deutschlandweit agierender Venture Capital Investor, fokussiert sich auf effiziente B2B-Softwareunternehmen und bringt wertvolle Industriezugänge mit. Swiss Post Ventures, der Venture-Arm der Schweizerischen Post, investiert gezielt in B2B-Softwareunternehmen in Bereichen wie HR, Logistik und digitale Ökosysteme.

Markteinordnung und Einordnung

Heycare verfolgt die klare Vision, Mitarbeitende durch präventive Gesundheitsförderung und soziale Entlastung zu stärken und langfristig an ihre Unternehmen zu binden. Doch bei aller Euphorie lohnt sich ein Blick auf den Markt. Der deutsche EAP-Markt ist hochkompetitiv und wird von alteingesessenen Schwergewichten dominiert. Player wie die pme Familienservice Gruppe oder Insite haben das Feld über Jahrzehnte bereitet, während internationale Beratungsriesen wie Mercer mit umfassenden Wellbeing-Strategien kräftig mitmischen. Für heycare ergeben sich daraus handfeste strategische Herausforderungen.

Zum einen erfordert das Versprechen, alles aus einer Hand zu liefern, eine immense operationelle Skalierbarkeit. Vom Babysitter über die Senior*innenbetreuung bis hin zur psychologischen Fachkraft ist die Qualitätssicherung und das ständige Onboarding für ein derart breites Dienstleistungsportfolio massiv ressourcenintensiv. Es besteht stets die Gefahr, sich im operativen Kleinteiligen zu verzetteln.

Zum anderen muss die Balance zwischen Profitabilität und VC-Dynamik gewahrt bleiben. Dass ein Unternehmen in der Seed-Phase bereits Profitabilität vermeldet, ist bemerkenswert. Gleichzeitig fließen die neuen Mittel laut eigenen Angaben vor allem in operative Teams. Da dienstleistungsnahe HR-Modelle in der Regel niedrigere Margen aufweisen als reine SaaS-Produkte, muss heycare beweisen, dass die Plattform-Technologie effizient genug ist, um das hohe Skalierungsversprechen gegenüber den Venture-Capital-Gebern zu erfüllen, ohne die erarbeitete Profitabilität langfristig wieder einzubüßen.

Zudem ist ein echter Wettbewerbsvorteil gefragt. Die Einbindung von Partner*innen wie dem Urban Sports Club ist zwar nutzer*innenfreundlich, stellt aber technologisch keinen echten Burggraben dar, da etablierte Wettbewerber*innen ähnliche Schnittstellen bauen können. Der wahre Hebel von heycare muss daher in einer signifikant höheren App-Nutzung und Engagement-Rate liegen, als es bei den oft verwaisten traditionellen EAP-Hotlines der Konkurrenz der Fall ist.

Fazit

Zusammenfassend haben Anna Schneider und Julia Kahle eindrucksvoll bewiesen, dass sie ein massives Schmerzpunkt-Thema adressieren und die Budgets von Großkonzernen für sich gewinnen können. Der strategische Rebranding-Schritt von der reinen Nanny-Vermittlung zum ganzheitlichen Employee Assistance Program war notwendig, um bei B2B-Kunden entsprechend relevant zu werden. Nun muss das frische Kapital zeigen, ob heycare nicht nur ein modernes Interface bietet, sondern in der operativen Tiefe dauerhaft gegen die Platzhirsche der Branche bestehen kann.