Gründer der Woche: Beach-Inspector – damit keiner strandet!

Gründer der Woche 31/16


44 likes

Beach-Inspector ist die weltweit erste umfassende Informations- und Bewertungsplattform für Strände. Über das Konzept und die Köpfe hinter dem Strandbewertungsportal sprechen wir mit Co-Gründer Kai Michael Schäfer.


Welches ist (zurzeit) Ihr persönlicher Lieblingsstrand?

Das wechselt bei mir je nach Stimmung und mit wem ich unterwegs bin. Mein letzter „bester Strandtag“ war am Ses Salines auf Ibiza. Wir waren mit einer größeren Gruppe unterwegs und haben es uns in der Nähe einer coolen Strandbar gemütlich gemacht. Der Strand besticht neben türkisfarbenen Wasser und schöner Natur vor allem durch sein junges und attraktives Publikum. Es kommt immer auf die Situation an.


An welche Strände zieht es uns Deutsche in diesem Sommer am häufigsten und wohin sollte man ggf. daher lieber ausweichen?

Die Klassiker der Deutschen sind nach wie vor Spanien (mit den Balearen und Kanaren), die Türkei und die klassischen Badeziele an der Nord- und Ostsee. Die Türkei hat starke Einbrüche dieses Jahr. Auch nach Ägypten, Tunesien und Marokko zieht es auf Grund der politischen Lage weniger Touristen. Das wiederrum führt zu einem Run auf die klassischen spanischen und italienischen Ziele. Eine sehr gute Ausweichoption ist z.B. die Algarve – hier ist es nicht ganz so voll wie in den klassischen Zielen. Und die Algarve hat Strand-Technisch einiges zu bieten.


Wann und wie sind Sie und Ihre beiden Mitstreiter Thomas Berndorfer und Anton Werner auf die Idee zu Beach-Inspector gekommen?

Ich bin bei einer Urlaubsplanung auf die Idee gekommen. Ich war mit meiner damaligen Freundin bei der Urlaubsplanung. Wie es häufiger ist – sie hatte ganz andere Ansprüche an den Urlaubsstrand, als ich. Beim Recherchieren nach einem passenden Urlaubziel / Urlaubstrand habe ich festgestellt, wie schwierig es ist, verlässliche Strandinformationen zu bekommen. Als ich Anton und Thomas von der Idee erzählt habe, haben wir nach intensiven Vorbereitungen den Entschluss gefasst, Beach-Inspector.com zu gründen.


Was waren die wichtigsten Steps auf dem Weg zum Go live Ihrer Plattform?

Das Stranderhebungsverfahren als solches war anfänglich die größte Herausforderung. Wir mussten ein System entwickeln, mit dem der Strand objektiv und unabhängig von persönlichen Präferenzen erhoben werden kann.


Aktuell haben Sie mehr als 1000 Strände erfasst. Wie finden Sie die zu bewertenden Strände und vor allem: Wer bewertet diese für Sie nach welchen Kriterien?

In der Regel erheben wir Destinationen flächendeckend. Anfänglich haben wir überwiegend mit Praktikanten gearbeitet. Diese wurden eine Woche lang in Berlin eingeschult und trainiert und dann gemeinsam mit einem Teamlead in die zu erhebenden Destinationen entsandt. Mittlerweile kommt überwiegend unser Korrespondenten-Netzwerk zum Einsatz. Das ist ein Netzwerk aus Reisebloggern, Digitalen Nomaden und Langzeitreisenden, die sich von uns als Beach-Inspector Korrespondenten zertifizieren lassen können und dann auf ihren Reisen mit Stranderhebungen Geld verdienen können. Diese Erhebungsmethode macht uns unabhängig von Reise- und Übernachtungskosten. Der Content aus dem Korrespondenten-Netzwerk ist auch qualitativ besser. Dazu kommt, dass diese Erhebungsart viel leichter skalierbar ist.


Wie sieht dann eine Bewertung auf Ihrem Portal konkret aus?

Wir erfassen neben umfangreichen Bild- und Videomaterial über 120 Datenpunkte pro Strand. Von Infrastruktur, über Strand- und Wasserqualität, der Farbe des Sandes, bis zur Bebauung werden alle charakteristischen Eigenschaften des Strandes erhoben. Daneben legen wir sehr viel wert auf Lifestyle-Informationen. Hier beantworten wir Fragen wie z.B. „Welche Nationalitäten sind am Strand?“, „Wie voll ist der Strand belegt über die Saison?“ oder „Warum kommen die meisten Menschen zu diesem Strand (Erholung, Party, Familie, Sport)“?

Alle Faktoren werden hochgerechnet. D.h. wenn man auf Beach-Inspector.com einen Familien-Faktor von 7/10 sieht, dann fließen hier mehr als 10 Unterfaktoren in die Hauptbewertung für Familien ein. Das versetzt uns neben der intensiven Beschreibung und Einordnung aller Punkte in die Lage, einen Strand sehr objektiv zu bewerten.


Mit den Strandbewertungen allein lässt sich wahrscheinlich noch nicht das ganz große Geld verdienen - spannender sind hierfür wohl die Angebote drum herum wie Hotels, Restaurants etc. Was ist hier bereits auf Ihrer Plattform geboten bzw. noch angedacht?

Aktuell verlinken wir an den Stellen, an denen unsere User ihr Erfolgserlebnis haben – also den perfekten Urlaubsstrand gefunden – auf Reiseangebote und Hotels direkt in der Nähe dieses Strandes. Das macht schon jetzt die Urlaubsplanung für unsere User deutlich einfacher. Zukünftig werden wir die Angebote noch besser zum Thema Strand matchen und unser Angebot weiter ausbauen. Das wird u.a. von Flügen, Mietwagen und Ausflugsmöglichkeiten vor Ort bis zur Reservierung der Strandliege mit der Beach-Inspector-App gehen. Es gibt noch zahlreiche Erweiterungsmöglichkeiten, die sowohl auf den Nutzwert, als auch auf Umsatzmöglichkeiten einzahlen.


Gibt es vergleichbare Bewertungsportale? Wenn ja, was machen Sie besser als andere?

Es gibt in fast allen touristisch relevanten Regionen lokale Porte, die eben nur diese eine Destination abdecken. Daneben haben auch Portale wie TripAdvisor oder Holiday-Check Strand-Infos. Der große Unterschied ist, dass wir die Daten strukturiert erfassen und es als einziger Anbieter so möglich machen nach Stränden mit bestimmten Eigenschaften zu filtern und zu suchen. Dazu kommt, dass wir deutlich objektiver informieren können als die lokalen Anbieter.


Bis wann wird man „jeden“ Strand bei Ihnen finden können - gibt’s da schon eine Zielvorgabe?

Dazu kann ich nur sagen: „So schnell wie möglich“. Wir möchten in den nächsten 18 Monaten Europa schon sehr gut abgedeckt haben und auch schon wichtige internationale Ziele auf dem Portal anbieten. Bis jetzt haben wir 20 Destinationen online – auf Deutsch und Englisch. Diesen Sommer erfassen wir unter anderem die Nord- und Ostsee, Kroatien, Sardinien und Zypern.


Und last but not least: Was raten Sie anderen Gründern aus eigener Erfahrung?

Es ist in Berlin nicht leicht, die VC-Branche von einem contentlastigen Business-Modell zu überzeugen. Unsere Erfahrung hat uns gelehrt, dass belastbare KPIs und erste relevante und kontinuierliche Umsätze sehr entscheidend für den Erfolg in der Startphase sind.

Hier geht’s zu Beach-Inspector


Das Interview führte Hans Luthardt

Vorschläge für diese Rubrik an redaktion@starting-up.de



Diese Artikel könnten Sie auch interessieren:

Omegga sichert 10 Mio. EUR gegen das Kükentöten

Das 2020 gegründete Münchner Start-up Omegga sichert sich Seed-Kapital für seine optische KI-Spektroskopie. Unsere Marktanalyse.

Omegga wurde 2020 von Katharina Hesseler, Till Nöllgen und Paul Günther gegründet. Zum erweiterten Gründer:innenkreis gehören zudem Moritz Eder, Kyle Hiroyasu und Clara Kaufhold. Das Team bündelt Expertise in den Bereichen KI, Optik und industrielle Systeme. In den vergangenen Jahren entwickelte das Team seine Technologie kontinuierlich vom Prototypen zum Industriestandard weiter und konnte sich bereits 2023 eine Pre-Seed-Finanzierung sowie 2024 Fördermittel des European Innovation Council (EIC) sichern.

CEO und Mitgründerin Katharina Hesseler sieht in dem Einstieg der neuen Partner, die „tiefes technologisches Verständnis mitbringen“, ein „starkes Signal für das enorme Potenzial unseres Ansatzes, einen neuen Standard in der Industrie zu setzen“. Das frische Kapital soll in den gezielten Ausbau des Teams und die kommerzielle Skalierung der Technologie fließen.

Das Problem und die technologische Lösung

Der erste und bereits kommerziell verfügbare Use Case von Omegga widmet sich einem der massivsten ethischen Probleme der modernen Landwirtschaft. Jährlich werden weltweit Milliarden männlicher Küken direkt nach dem Schlüpfen getötet, da sie weder Eier legen noch für die Masthaltung wirtschaftlich nutzbar sind.

Mit der sogenannten spektralen Intelligenz – der Kombination aus KI und Spektroskopie – will Omegga das Unsichtbare sichtbar machen. Im Gegensatz zu vielen Marktbegleitern wählt Omegga einen rein optischen, nicht-invasiven Weg. Durch spezielle Kameras und Lichtfrequenzen werden die Eier im Brutkasten gescannt. Laut eigenen Angaben bietet das Start-up damit die früheste am Markt kommerziell verfügbare Technologie, um das Geschlecht noch vor dem Schlüpfen zu bestimmen. Das System ist bereits bei Kund*innen im laufenden industriellen Produktionsbetrieb im Einsatz.

Markt, Wettbewerb & regulatorischer Druck

Der Markt für das „In-Ovo-Sexing“ wächst rasant, primär getrieben durch den Gesetzgeber. In Deutschland ist das Kükentöten seit 2022 gesetzlich verboten, Frankreich zog nach, und ein EU-weites Verbot wird debattiert. Der Zwang zur Adaption in den Brütereien ist entsprechend hoch.

Omegga tritt in ein Feld ein, das bereits von finanzstarken Konkurrenten besetzt ist:

SELEGGT: Gilt als früher Pionier auf dem Markt. Das Unternehmen nutzt hormonelle Tests am 9. Bruttag, wofür das Ei mittels eines Lasers winzig klein geöffnet werden muss (minimal-invasiv).

In Ovo: Das niederländische Unternehmen setzt auf Flüssigkeitsanalysen mittels Massenspektrometrie am 9. Bruttag und sicherte sich erst kürzlich ein 42-Millionen-Euro-Darlehen der Europäischen Investitionsbank (EIB).

Agri Advanced Technologies (AAT): Die Tochter der EW Group dominiert weite Teile des Marktes mit hyperspektraler Bildgebung, die primär für braune Eier zwischen dem 11. und 13. Tag genutzt wird.

Der entscheidende Vorteil von Omegga: Die Methode kommt völlig ohne Verbrauchsmaterialien wie Chemikalien oder feine Nadeln aus. Da die Eier bei der rein optischen Methode unversehrt bleiben, entfällt das systembedingte Kontaminationsrisiko, das bei invasiven Verfahren entstehen kann.

Unsere Einordnung

Trotz der vielversprechenden Technologie steht Omegga vor Herausforderungen:

Hardware-Skalierung in rauen Umgebungen: Die Systeme müssen in den feuchten, warmen und staubigen Inkubatoren industrieller Brütereien über Jahre hinweg wartungsarm laufen. Hier muss das Start-up beweisen, dass sich die Technologie reibungslos in den globalen Massenbetrieb integrieren lässt.

Der regulatorische „Faktor Zeit“: Rein optische Modelle benötigen oft bis zum 12. Tag für eine verlässliche Auswertung. Sollte die Politik die „Tag 6“-Frist künftig strikt durchsetzen, müssen die KI-Modelle von Omegga beweisen, dass sie derart früh hochpräzise Ergebnisse liefern.

Die Plattform-Vision – Fluch oder Segen?

Omegga positioniert seine Lösung ausdrücklich als Plattformtechnologie für die Landwirtschaft, Lebensmittelproduktion und industrielle Qualitätskontrolle. Wie stark dieses Narrativ bei den Geldgebern verfängt, zeigen die Statements zur aktuellen Runde: Laut Christian Knott (Capnamic) entsteht hier eine Technologie „mit dem Potenzial, gleich mehrere Industrien grundlegend zu verändern“. Auch Mason Sinclair (IQ Capital) lobt die Schaffung einer „Plattform für die nicht-invasive und branchenübergreifende Materialanalyse“.

Dass solche Visionen bei Investor*innen beliebt sind, da sie den adressierbaren Markt massiv vergrößern, ist nachvollziehbar. Für ein 17-köpfiges Start-up birgt die gleichzeitige Erschließung neuer Industriezweige jedoch die Gefahr einer operativen Verzettelung. Der Fokus muss zunächst darauf liegen, den Geflügelmarkt zu durchdringen.

Fazit

Gelingt es Omegga, die rein optische Methode in der Breite zu skalieren und die Genauigkeit auf die allerersten Bruttage zu trainieren, hat das Münchner Start-up einen signifikanten Hebel gegen invasiv arbeitende Wettbewerber. Die 10-Millionen-Euro-Runde ist ein klarer Vertrauensbeweis der Investor*innen in einem schwierigen Funding-Umfeld.

Energie-Betriebssystem fürs Mehrfamilienhaus: Berliner Start-up VREY sichert sich 3,3 Millionen Euro Seed-Kapital

Das Climate-Tech-Start-up VREY sammelt eine Millionenfinanzierung ein, um sich als zentrales „EnergyOS“ für Vermieter*innen zu etablieren. Doch der Markt ist umkämpft und hält operative Tücken bereit.

VREY (rechtlich firmierend unter RE Joule GmbH ) hat den Abschluss einer Seed-Finanzierungsrunde in Höhe von 3,3 Millionen Euro bekannt gegeben. Angeführt wird die Runde von Rubio Impact Ventures. Als weitere Investor*innen steigen der High-Tech Gründerfonds (HTGF) sowie der Impact-Investor Kopa Ventures ein. Das frische Kapital soll in die Skalierung des aktuell rund 20-köpfigen Teams sowie in die Weiterentwicklung der eigenen Software-Plattform fließen.

Warum PV auf Mietshäusern bisher oft scheiterte

Solaranlagen auf Einfamilienhäusern sind längst ein Erfolgsmodell, doch auf Mehrfamilienhäusern galten sie lange als operativ komplex und wirtschaftlich wenig attraktiv. Der Hauptgrund: Vermieter*innen, die ihren Mieter*innen Strom vom eigenen Dach anbieten wollten, fielen beim klassischen Mieterstrom-Modell schnell in die Pflichten eines vollwertigen Energieversorgers. Sie mussten unter anderem eine Vollversorgung garantieren – also auch dann Reststrom einkaufen und liefern, wenn die Sonne nicht schien. Komplexe Abrechnungsprozesse und teure Messtechnik schreckten zusätzlich ab.

Mit der Einführung der „Gemeinschaftlichen Gebäudeversorgung“ (GGV) entfällt ein Großteil dieser Hürden, insbesondere die Notwendigkeit für Eigentümer*innen, selbst als Energieversorger*innen aufzutreten.

VREY als „EnergyOS“

Genau auf diese regulatorische Neuerung setzt VREY. Das Start-up kombiniert eine automatisierte Abrechnungssoftware mit der Zulassung als zertifizierter Messstellenbetreiber. VREY positioniert sich damit als eine Art Betriebssystem („EnergyOS“) für die Messung, Abrechnung und Steuerung von Energieflüssen im Mehrfamilienhaus.

Die Wertschöpfung ist in der Theorie für alle Parteien lukrativ:

  • Vermieter*in: Eine typische 30-kWp-Anlage auf einem Zehn-Parteien-Haus kann laut VREY rund 5.500 Euro an zusätzlichen jährlichen Einnahmen generieren.
  • Mieter*in: Bewohner*innen können ihren Strom bis zu 20 Prozent günstiger beziehen, was laut Unternehmensangaben jährlichen Einsparungen von etwa 120 bis 250 Euro entspricht.

Hohes Tempo seit Gründung

Gegründet wurde VREY im Jahr 2024 von Julius Pahmeier und Cedric Jaeger. Das Tempo des Gründerduos ist beachtlich: Laut Unternehmensangaben hat VREY bereits eine dreistellige Anzahl von Projekten in allen 16 Bundesländern umgesetzt. Die Kundschaft reicht von privaten Vermietern bis hin zu großen Immobilienunternehmen und Wohnungsbaugenossenschaften.

Flaschenhälse und Konkurrenzkampf

Der adressierbare Markt für VREY ist mit über 20 Millionen potenziellen Wohneinheiten in Deutschland enorm. Doch das Start-up bewegt sich keinesfalls im luftleeren Raum.

Der Wettbewerb: Die Marktchancen der GGV haben auch andere Player erkannt. Etabliertere Lösungsanbieter wie Einhundert Energie, Metergrid, Pionierkraft oder das zu Enviria gehörende prosumergy adressieren den Markt für dezentrale Energieversorgung teils seit Jahren mit eigenen Hard- oder Softwarelösungen. VREY muss in der Praxis beweisen, dass die eigene Plattform-Architektur der Konkurrenz langfristig überlegen ist.

Operative Hürden: Obwohl die gesetzlichen Rahmenbedingungen verbessert wurden, ist die Umsetzung oft steinig. Branchenverbände wie die Deutsche Gesellschaft für Sonnenenergie (DGS) kritisieren, dass die Umsetzung der GGV in Deutschland derzeit vielerorts an strukturellen Blockaden der klassischen, grundzuständigen Messstellenbetreiber scheitert. Es kommt zu Verzögerungen beim zwingend notwendigen Einbau intelligenter Messsysteme (Smart Meter).

VREY umgeht diesen Flaschenhals clever, indem das Unternehmen selbst als zertifizierter Messstellenbetreiber agiert und sich so autark von lokalen Netzbetreiber*innen macht. Dennoch bleibt eine zweite operative Hürde bestehen: Die Installation der Anlagen. Hier verlässt sich VREY auf lokale, frei wählbare Installationsbetriebe. Das Wachstum des Start-ups korreliert somit unweigerlich mit den Kapazitäten und dem anhaltenden Fachkräftemangel im deutschen Handwerk.

Fazit

VREY zeigt, wie Start-ups durch neue regulatorische Rahmenbedingungen Märkte erschließen können, die vorher als unprofitabel galten. Die Kombination aus Software-Abrechnung und der Lizenz als eigener Messstellenbetreiber ist ein starker USP, um bürokratische Trägheit zu umschiffen. Mit der soliden Seed-Finanzierung im Rücken hat das Team nun den nötigen Spielraum, um im Kampf um die deutschen Mietshaus-Dächer eine entscheidende Rolle einzunehmen – sofern die Koordination mit dem Handwerk reibungslos skaliert.

Nox Mobility: 2 Mio. EUR für den "Flugzeug-Killer" auf Schienen

Das Berliner Start-up Nox Mobility will mit privaten Zimmern im Nachtzug europäische Kurzstreckenflüge ersetzen. Eine 2-Millionen-Euro-Pre-Seed-Runde gibt erste Starthilfe. Doch der europäische Bahnmarkt ist ein hartes Pflaster für Gründende – erst 2024 scheiterte ein französischer Konkurrent mit exakt demselben Konzept. Eine Einordnung.

Es ist ein mutiges Versprechen in einem der am stärksten regulierten Märkte Europas: Das 2025 gegründete Mobilitäts-Start-up Nox Mobility will das europäische Nachtzug-Erlebnis revolutionieren. Dafür hat das Unternehmen nun eine Pre-Seed-Finanzierungsrunde in Höhe von 2 Millionen Euro abgeschlossen. Angeführt wird die Runde vom Frühphasen-Investor IBB Ventures. Mit an Bord sind zudem der italienische Investor Tommaso Lucca sowie Branchenköpfe wie HomeToGo-Mitgründer und CEO Dr. Patrick Andrae. Das frische Kapital soll primär in den Teamaufbau, die Vorbereitung der ersten Strecken für das Jahr 2027 sowie den Bau eines originalgetreuen Mockups der Zugkabinen fließen.

Rollendes Boutique-Hotel statt Abteilromantik

Während Nachtzüge aktuell zwar einen massiven Nachfrageboom erleben, ist der eigentliche Markt laut Nox Mobility zwischen 2001 und 2019 drastisch geschrumpft – von rund 1.200 wöchentlichen Verbindungen in Europa auf nur noch etwa 450. Nox will diese Lücke nun schließen und positioniert sich explizit nicht als klassisches Bahnunternehmen, sondern als direkte Alternative zum Kurzstreckenflug.

Der Clou: Das traditionelle Teilen von Schlafabteilen mit Fremden entfällt; stattdessen bekommt bei Nox Mobility jede(r) Reisende sein eigenes privates Zimmer mit Schlafplatz. Die Reise verbinde laut Nox die Zuverlässigkeit des Fliegens operativ mit dem Gefühl eines Boutique-Hotels. Abfahrten sollen abends an zentralen Bahnhöfen stattfinden, die Ankunft morgens direkt im Stadtzentrum – Flughafentransfers und Sicherheitskontrollen entfallen. Zielgruppe sind neben Freizeitreisenden vor allem Geschäftsreisende, für die eine Zugfahrt den frühen Abflug und eine zusätzliche Hotelübernachtung ersetzen soll. Preislich will Nox auf dem Niveau vergleichbarer Flugreisen agieren.

Das Gründerteam: Reichweite trifft auf operative Härte

Hinter dem Projekt steht ein Trio, das Branchenerfahrung, Skalierungswissen und bereits jetzt eine enorme Zielgruppe vereint:

Artur Hasselbach bringt als Mitgründer des Payment-Fintechs orderbird – das für über 140 Millionen Euro von Nexi übernommen wurde – ausgewiesene VC- und Tech-Erfahrung mit.

Janek Smalla kennt das harte operative Mobilitätsgeschäft aus seinen vorherigen Stationen bei FlixTrain und dem Mobilitätsanbieter Bolt.

Thibault Constant ist in der Nische ein Star: Mit "Simply Railway" hat er eine der größten Eisenbahn-Communities Europas mit über 600.000 Abonnenten aufgebaut. Er kennt die Probleme der Fahrgäste aus unzähligen Gesprächen und Zugfahrten aus erster Hand.

Die Gründer geben sich selbstbewusst und verkünden, das Rollmaterial für die Züge bereits gesichert zu haben.

Unsere Markteinordnung

Für uns stellt sich jedoch eine zentrale Frage: Kann man mit 2 Millionen Euro Pre-Seed-Kapital tatsächlich einen hochkomplexen Bahn-Infrastrukturbetrieb aufbauen? Die Antwort lautet: Nein, es ist lediglich das Ticket, um überhaupt an den Start zu gehen. Der Bau eines Mockups in Originalgröße ist das eine – die Finanzierung und Zulassung echter Züge für den Betrieb ab 2027 kostet schnell dreistellige Millionenbeträge.

Besonders kritisch wird das Vorhaben mit Blick auf die Konkurrenz und die jüngere europäische Start-up-Historie. Die Idee eines rollenden Hotels mit ausschließlich privaten Abteilen ist nicht neu. Das französische Start-up Midnight Trains startete 2020 mit extrem viel PR und fast exakt demselben Geschäftsmodell. Im Juni 2024 musste das Projekt jedoch Insolvenz anmelden. Die Gründer scheiterten daran, dass europäische VCs und Banken das massive finanzielle Risiko nicht tragen wollten und die europäische Schieneninfrastruktur historisch stark auf staatliche Monopolisten zugeschnitten ist, was neue Player systematisch benachteiligt.

Gleichzeitig schläft der etablierte Markt nicht: Die Österreichischen Bundesbahnen (ÖBB) dominieren mit ihrem Nightjet das Geschäft und haben mit ihren neuen „Mini Cabins“ (Schlafkapseln für Einzelpersonen) bereits auf den Wunsch nach mehr Privatsphäre reagiert.

Eine hochriskante Kapitalwette

Nox Mobility löst zweifellos ein echtes Problem und trifft den Nerv der Zeit in Sachen nachhaltiger Mobilität. Das Team aus Hasselbach, Smalla und Constant ist hervorragend aufgestellt und die Tatsache, dass sie nach eigenen Angaben bereits Züge gesichert haben, könnte der entscheidende Wettbewerbsvorteil gegenüber gescheiterten Projekten wie Midnight Trains sein.

Dennoch bleibt Nox Mobility eine hochriskante Kapitalwette. Die spannende Bewährungsprobe für das Berliner Start-up beginnt nicht erst 2027 auf den Schienen, sondern bereits in der nächsten Finanzierungsrunde: Dann wird sich zeigen, ob das Team Investor*innen davon überzeugen kann, die enormen Summen für den realen Bahnbetrieb aufzubringen – oder ob der Traum vom Start-up-Nachtzug im Trassendschungel Europas stecken bleibt.

UniteLabs: Der Münchner DeepTech-Herausforderer auf dem Weg zum globalen Labor-Standard?

Das 2024 von Robert Zechlin, Lukas Bromig und Julian Willand gegründete UniteLabs will die Laborautomatisierung von proprietären Hürden befreien. Nach einer Millionenfinanzierung folgte Anfang 2026 der offizielle US-Launch. Wir wollten wissen: Wie realistisch ist die Vision eines herstellerunabhängigen Standards in einem von Hardware-Silos dominierten Markt? Eine Analyse.

Wer heute ein hochmodernes BioTech-Labor betritt, erwartet nahtlos vernetzte HighTech-Forschung. Die Realität sieht oft anders aus: Rund 90 Prozent der Laborgeräte stammen von unterschiedlichen Hersteller*innen und sprechen schlichtweg nicht dieselbe technische Sprache. Um künstliche Intelligenz in der Forschung nutzbar zu machen, müssen hochqualifizierte Wissenschaftler*innen oft als Software-Ingenieur*innen einspringen und mühsam Schnittstellen programmieren. Genau diesen Flaschenhals will das Münchner DeepTech-Start-up UniteLabs beseitigen.

Die Gründer und der Sprung aus München

Hinter UniteLabs stehen Robert Zechlin, Lukas Bromig und Julian Willand. Nach Vorarbeiten ab 2022 wurde das Unternehmen 2024 offiziell gegründet. Das Team vereint interdisziplinäre Expertise aus Chemieingenieurwesen, Wirtschaftsinformatik und Unternehmensstrategie – eine essenzielle Mischung für ein Produkt, das tiefes Prozessverständnis mit modernster Softwarearchitektur verbinden muss.

Dass die Idee einen massiven Schmerzpunkt der Industrie trifft, zeigt die rasante Entwicklung der letzten Monate. Nach einer Pre-Seed-Finanzierungsrunde in Höhe von 2,77 Millionen Euro unter der Führung von NAP (ehemals Cavalry Ventures) im Januar 2025 und der Auszeichnung als „Bestes Münchner Start-up“ beim Munich Startup Award 2025 ist das Unternehmen sichtlich gewachsen. Im ersten Quartal 2026 zählt das Team im Münchner Inkubator Werk1 bereits rund 28 Köpfe.

Doch wie verhindert ein derart rasant wachsendes Team, bei der ständigen Anbindung neuer, exotischer Hardware nicht zu einer hochbezahlten IT-Manufaktur zu verkommen? Schließlich erfordert jedes neue Laborgerät auf dem Markt zunächst einmal Entwicklungsaufwand für den passenden Konnektor.

„Unser Ziel ist nicht, jedes exotische Gerät einzeln ‚irgendwie‘ anzubinden“, stellt Mitgründer Robert Zechlin klar. Vielmehr soll die Integration zu einer wiederholbaren Produktfähigkeit reifen. Statt sich im Klein-Klein der Modellnummern zu verlieren, baue UniteLabs seine Konnektoren entlang grundsätzlicher Geräte-Fähigkeiten. Die puren Herstellerspezifika landen dabei in einer dünnen Adapter-Schicht, während Workflows und Datensemantik konsistent bleiben.

Um die berüchtigte Skalierungsfalle zu umgehen, setzt das Start-up zudem verstärkt auf „Reusable Automation Assets“. „Wir investieren in validierte Workflow-Bausteine, Device-Profile und Test-Suites, mit denen die zweite und dritte Integration deutlich schneller wird als die erste“, betont Zechlin und skizziert damit den Weg zum echten SaaS-Unternehmen. Der Gründer gibt die Richtung selbstbewusst vor: „Die Grenzkosten für das nächste Gerät und den nächsten Standort müssen über Zeit sinken. Unser Endzustand ist ein Ökosystem, in dem Integrationen gemeinsame Infrastruktur sind, nicht Projektgeschäft.“

Vom Prototyp zur Architektur der offenen Labore

Im Februar 2026 hat UniteLabs auf der renommierten Branchenmesse SLAS in Boston den offiziellen US-Launch seines „AI-Ready Lab Automation Systems“ vollzogen. Statt nur isolierte Schnittstellen zu flicken, positioniert sich das Start-up nun mit einer klaren, dreiteiligen Architektur.

Den Kern bildet die Cloud-native „UniteLabs Platform“, die Hardware vernetzt und die Integration von Machine-Learning-Modellen in Echtzeit erlaubt. Ergänzt wird dies durch die lokale Anwendung „GroundControl“ für den Plug-and-Play-Anschluss von Geräten sowie das „UniteLabs SDK“. Letzteres ist ein Python-Werkzeug für Wissenschaftler*innen, um Labor-Workflows komplett als Code zu steuern. Dass diese Theorie praxistauglich ist, beweist das aufstrebende KI-BioTech-Unternehmen Cradle, das die Lücke zwischen Maschinen und digitalen Daten-Lakes intern bereits mit dem Münchner System schließt. Laut UniteLabs soll sich der Labor-Durchsatz für solche KI-getriebenen Forschungsteams durch die Plattform um bis zu das Vierfache steigern lassen.

Ein „Lab-as-Code“-Ansatz via Python mag für entwickleraffine Data Scientists verlockend sein – doch schließt er nicht paradoxerweise die klassischen Biolog*innen aus, für die Code-Workflows oft eine zu steile Lernkurve bedeuten?

„Code ist nicht das Produkt“, kontert Zechlin. Er sei vielmehr eine Schnittstelle, die sowohl Power-User als auch den Laboralltag bedienen müsse. Das SDK richte sich an Teams, die volle Kontrolle über Versionierung und automatisierte Tests verlangen – was im KI-BioTech-Umfeld zunehmend Standard sei. Zechlin räumt jedoch ein, dass das Programmieren nicht jedem liege: „Die meisten wollen zuverlässige Ausführung und klare Transparenz.“

Die Lösung der Münchner: Über die Orchestrierungsschicht und „GroundControl“ werden Workflows paketiert und mit Leitplanken versehen, sodass sie auch für Nicht-Entwickler sicher ausführbar sind. Code bleibt strategisch zwar die „universelle Abstraktion“ über Geräte hinweg, doch das Interface der Zukunft sieht anders aus. Zechlin blickt voraus: „Das User Interface für Wissenschaftler wird zunehmend KI-gesteuert und natürliche Sprache zum primären Interface. UniteLabs dient diesen KI-Applikationen als robuste Surface Area und Source of Truth.“ Die Leitplanke für das Wachstum fasst er in einem Satz zusammen: „Unsere Vision ist: flexibel, wo es Sinn macht, und kompromisslos robust, wo es zählen muss.“

Die Bewährungsprobe auf dem US-Markt

Nach dem Bostoner Launch steht das Start-up nun vor der monumentalen Aufgabe, sich im hochkompetitiven US-Markt zu behaupten. Hier entscheidet sich, ob UniteLabs vom europäischen Hoffnungsträger zum globalen Player reift. Umgeben von gigantischen Investitionen in die KI-Wirkstoffentwicklung reicht es nicht, nur ein weiteres Automatisierungstool zu sein – UniteLabs muss sich als essenzieller „Schaufelhersteller“ für den aktuellen Boom etablieren.

Dabei trifft man auf amerikanische Wettbewerber*innen, die teils mit hunderten Millionen Dollar Venture Capital ausgestattet sind. Wie überlebt ein Münchner Start-up mit einer Pre-Seed-Runde von knapp drei Millionen Euro diese Materialschlacht? Zechlin gibt sich pragmatisch und weicht dem direkten Finanz-Vergleich aus: „Klar: In Infrastrukturmärkten hilft Kapital, aber es ist nicht der entscheidende Hebel.“ Anstatt die Konkurrenz im reinen „Spend“ schlagen zu wollen, baue man auf messbaren Nutzen im Laborbetrieb.

Der Plan scheint aufzugehen: Ein Großteil von Umsatz und Pipeline stammt heute bereits aus den USA, wo UniteLabs Kund*innen an beiden Küsten bedient und mit großen Hardware-Hersteller*innenn kooperiert. „Wir planen für dieses Jahr unseren ersten Big Pharma Roll-out, der sowohl in Europa als auch an Standorten in den USA erfolgen soll“, verrät der Gründer. Um diese Dynamik zu finanzieren, hebe man aktuell eine 9-Millionen-Euro-Seed-Runde für die US-Expansion. Den strukturellen Wettbewerbsvorteil sieht Zechlin in der herstelleragnostischen Verbindung bestehender Geräte: „Statt Rip-and-Replace zu verlangen, werden Workflows schneller produktiv, Daten werden sauber mit Kontext versehen, und Teams können ‚Lab-as-Code‘ wirklich ausrollen.“

Ein strategischer Hebel ist dabei die Zielgruppenansprache. Statt in endlosen Vertriebszyklen mit dem C-Level großer Pharma-Konzerne zu ringen, treibt UniteLabs ein nutzer*innengetriebenes Wachstum voran. Labor-Ingenieur*innen, die durch das Python-SDK wochenlange Schnittstellenprogrammierung einsparen, tragen das System organisch in ihre Unternehmen. Dabei profitiert das Start-up enorm davon, selbst keine Pipettierroboter oder Analysegeräte herzustellen. Als „neutrale Schweiz“ der Labor-Hardware buhlt UniteLabs nicht um lukrative Geräteverkäufe – ein extrem starkes Argument gegen den gefürchteten Vendor-Lock-in amerikanischer Hardware-Giganten.

Stresstest für das Geschäftsmodell und Regularien

Doch die ambitionierte Plattform-Strategie wird kritisch geprüft werden. Das Geschäftsmodell birgt ein ständiges API-Katz-und-Maus-Spiel, da Schnittstellen zu teils stark abgeschirmten Systemen gebaut werden müssen. Wenn etablierte Hersteller*innen ihre Firmware ändern oder Drittanbieter-Zugriffe blockieren, explodieren schnell die Wartungskosten für die Konnektoren.

Bleibt die Frage an den Gründer: Was ist also der Plan B, wenn die Marktführer ihre Schnittstellen per Update plötzlich aktiv verschlüsseln? Reicht der Verweis auf offene Standards wie das SiLA2-Protokoll in der harten Praxis aus?

„Wir gehen davon aus, dass Hersteller ihre Ökosysteme schützen werden. Unsere Strategie darf deshalb nicht auf ‚Goodwill‘ bauen“, gibt sich Zechlin keinen Illusionen hin. Standards wie SiLA2 seien zwar hilfreich gegen Fragmentierung, aber „kein Schutzschild“. Der Ansatz der Münchner ist stattdessen pragmatisch und mehrstufig: Standards nutzen, wo verfügbar, und eigene robuste Adapter bauen, wo nötig. Zudem betreibe man ein Programm mit automatisierten Regressionstests am realen Geräteverhalten, um Fehler durch Updates früh zu erkennen.

Der zweite Baustein der Verteidigung ist kommerzieller Druck. Da Labore zunehmend „Best-of-Breed“-Lösungen kombinieren wollen, würden Hersteller, die Interoperabilität blockieren, zunehmend Deals riskieren. Im Hintergrund investiere man deshalb viel Arbeit in aktiv gepflegte Partnerschaften mit den Produzent*innen. Zechlins Plan B lautet letztlich Resilienz: „Mehrere Integrationspfade, starke Tests, und ein System, das stabil bleibt, auch wenn sich die Oberfläche verändert.“ Er ist sich sicher: „Langfristig wirkt die Ökonomie in Richtung Offenheit.“

Neben blockierender Hardware bleibt die US-Zulassungsbehörde FDA die vielleicht höchste Hürde auf dem Weg in den Enterprise-Markt. Deren strenge Vorgaben zu elektronischen Aufzeichnungen sind der größte Vorbehalt von Pharmaunternehmen gegenüber Cloud-basierten Systemen. Gelingt es UniteLabs, Offenheit mit lückenlosen Audit-Trails zu verknüpfen, könnten sie die berüchtigten Sales-Zyklen drastisch verkürzen.

Doch wie passt maximale Entwickler*innen-Freiheit durch Python-Skripte mit rigider FDA- und GxP-Compliance zusammen? Für Zechlin existiert dieser Widerspruch im Labor-Alltag schlichtweg nicht: „Compliance widerspricht Flexibilität nicht. Was widerspricht, ist unkontrollierte Veränderung.“

Um Big Pharma gerecht zu werden, behandle man hochflexible Workflows wie reguläre Software-Produkte: versioniert, testbar und auditierbar. „Ein Script ist in einem GxP-Kontext kein ‚jeder macht, was er will‘, sondern ein kontrolliertes Artefakt mit definierten Inputs, erwarteten Outputs und einem Validierungsnachweis“, unterstreicht der Mitgründer. Die Plattform trenne Sandbox-Entwicklungen von einer strikt kontrollierten Produktionsebene mit signierten Releases, Environment-Pinning und klarer Datenlineage. Zechlin formuliert einen selbstbewussten Anspruch an die Branche: „Das Labor holt Software-Best-Practices nach. Unser Anspruch ist, ‚compliant by design‘ zur Default-Einstellung für AI-ready Lab Ops zu machen.“

Fazit

UniteLabs hat exzellentes Timing bewiesen. Die BioTech-Branche lechzt nach KI, scheitert aber noch massenhaft an isolierten Daten. Durch das Bereitstellen essenzieller Daten-Infrastruktur haben sich die Münchner in eine starke Ausgangsposition manövriert. Der US-Launch und anstehende Messepräsentationen zeugen vom Anspruch der Gründer. Der ultimative Lackmustest ab 2026 wird jedoch sein, ob die Hardware-Hersteller*innen diesen Wandel dulden – oder den Kampf um ihre lukrativen Software-Margen eröffnen.

Bleibt die Frage nach dem viel zitierten „Endgame“: Baut das Start-up wirklich das globale Betriebssystem für Biotech-Labore, oder macht man sich letztlich nur als hochattraktives Übernahmeziel für Hardware-Giganten hübsch?

Auf diese Entweder-Oder-Frage antwortet Zechlin diplomatisch, aber ambitioniert: „Unsere Vision ist, die neutrale Betriebsschicht für moderne Labore zu werden, weil die Branche einen herstellerunabhängigen Standard braucht, nicht noch ein weiteres Einzellösungstool.“ Gleichzeitig sei man Realist: Infrastruktur zähle nur, wenn sie im Alltag zuverlässig genutzt werde und verlässliche, strukturierte Daten für KI liefere.

Sollte das gelingen, hält sich UniteLabs alle Optionen offen – von der unabhängigen Kategorie-Definition über strategische Partnerschaften bis hin zum Exit. Doch auf einen schnellen Verkauf schiele man nicht, verspricht Zechlin: „Wir bauen nicht für eine Übernahme. Wir bauen so, dass der Markt die Plattform ernst nehmen muss.“ Und am Ende solle ohnehin der/die Kund*in profitieren: „Weniger Silos, schnellere Science, und ein Ökosystem, in dem Innovation nicht an proprietären Schnittstellen hängen bleibt.“

Synera sichert sich 35 Mio. Euro für die Revolution des Engineerings

Was einst als bionisches Forschungsprojekt begann, ist heute eine der vielversprechendsten europäischen DeepTech-Hoffnungen. Doch wie tragfähig ist die Vision vom „autonomen digitalen Ingenieur“ im stark regulierten Maschinenbau? Ein tieferer Blick auf Gründer, Markt und das Geschäftsmodell.

Die deutsche Industrie steht unter massivem Druck: Internationale Konkurrenz – insbesondere aus Asien –, chronischer Fachkräftemangel und die Notwendigkeit, Entwicklungszyklen drastisch zu verkürzen, zwingen zum Handeln. Generative künstliche Intelligenz (GenAI) gilt als Heilsbringer, doch in der Praxis verpuffen viele Initiativen. Nur etwa 41 Prozent der KI-Prototypen in der Fertigungsindustrie erreichen laut Branchenstudien den produktiven Einsatz. Die Konstruktions- und Entwicklungsabteilungen gelten als stark in Silos organisiert und bis heute schwer automatisierbar.

„Engineering ist das Rückgrat jedes Industrieunternehmens, gehört jedoch nach wie vor zu den am wenigsten digitalisierten und automatisierten Funktionen und war bis vor Kurzem für KI weitgehend unzugänglich“, bringt es Dr. Moritz Maier, Co-CEO von Synera, auf den Punkt.

Genau in diese Lücke stößt sein Unternehmen. Mit einer Series-B-Finanzierungsrunde über 35 Millionen Euro will das Bremer Startup nun international skalieren. Angeführt wird die Runde vom europäischen Wachstumsfonds Revaia, mit starker Beteiligung des UVC Partners Wachstumsfonds sowie Capgemini (über ISAI Cap Ventures). Auch die Bestandsinvestoren Spark Capital, BMW iVentures und Cherry Ventures ziehen wieder mit. Das Signal an den Markt ist deutlich: Engineering Automation wird zum nächsten großen Software-Schlachtfeld.

Von Kieselalgen zur KI-Plattform

Hinter Synera stehen die Gründer Moritz Maier, Daniel Siegel (beide Co-CEO) und Sebastian Möller (Managing Director). Die Ursprungsidee entstand am renommierten Alfred-Wegener-Institut (AWI) in Bremerhaven. Die Gründer forschten dort im Bereich der Bionik und untersuchten die Leichtbaustrukturen von Kieselalgen, um deren evolutionäre Prinzipien auf technische Bauteile zu übertragen.

Aus „Evolutionary Light Structure Engineering“ wurde 2018 die Ausgründung ELISE. Zunächst lag der Fokus auf algorithmusbasiertem Design. Mit der Zeit erkannten die Gründer jedoch ein viel grundlegenderes Problem: Es fehlte nicht an Software für das eigentliche Design, sondern an einer Brücke, die die unzähligen Insellösungen (CAD, Simulation, Materialprüfung) im Engineering-Alltag verbindet. Dies führte zur Neuausrichtung und schließlich zur Umbenennung in Synera – einer Low-Code- und KI-Plattform für Connected Engineering.

Das Geschäftsmodell im Check

Synera betreibt ein klassisches B2B-Plattform-Modell. Anstatt etablierte Platzhirsche im Computer-Aided Design (CAD) zu verdrängen, positioniert sich Synera als übergeordnete Orchestrierungsschicht. Die Software klinkt sich in über 80 bestehende Tools ein.

  • Der Werttreiber: Nutzer*innen können komplexe Workflows (z. B. CAD-Modellierung → Simulation → Kostenkalkulation → Designanpassung) als Templates speichern. Das frische Kapital soll laut Moritz Maier nun eine Entwicklung beschleunigen, „bei der KI-Agenten als echte digitale Engineers agieren und komplexe Workflows entlang der gesamten Wertschöpfungskette autonom ausführen.“
  • Der Lock-in-Effekt: Wenn ein Industriekonzern seine Kernprozesse auf Synera automatisiert hat, ist die Plattform kaum noch auszutauschen. Die Wechselkosten für den Kunden sind enorm.
  • Die Herausforderungen: Das Modell ist technisch hochkomplex. Die ständige Pflege von über 80 API-Schnittstellen zu Drittanbietern bindet gewaltige Entwickler*innen-Ressourcen. Zudem erfordert der Vertrieb in klassische Hardware-Unternehmen lange Sales-Zyklen.

Zwischen RPA und Spezial-CAD

Wettbewerbsumfeld

Marktansatz

Syneras Differenzierung

Generatives Design (z. B. nTop, Altair)

Fokus auf die Erstellung hochkomplexer, gewichtsoptimierter Bauteile.

Synera generiert nicht nur das Design, sondern automatisiert den Prozess quer durch verschiedene externe Tools.

Klassische RPA (z. B. UiPath, Zapier)

Hervorragend für kaufmännische Prozesse (HR, CRM, Rechnungen).

Standard-RPA scheitert an den komplexen 3D-Geometrie- und Physikdaten des Engineerings.

PLM-Systeme (z. B. Siemens, Dassault)

Verwalten den gesamten Produktlebenszyklus und die Daten.

Synera setzt sich auf diese oft schwerfälligen Systeme, um die agilen Arbeitsschritte flexibler zu machen.

Kritische Einordnung: Vertraut der/die Ingenieur*in der KI?

Synera verweist auf eine Umsatzverdopplung im vergangenen Jahr und über 60 namhafte Kunden, darunter BMW, Airbus, NASA und Miele. Mit dem frischen Kapital steht die Expansion nach Asien, Europa und in die USA an. Dass dieser Wachstumskurs von den Investoren aktiv gestützt wird, betont Benjamin Erhart, General Partner bei UVC Partners: „Wir konnten erleben, wie Synera als zuverlässiger Partner die Transformation des Engineerings gestaltet.“

Doch der Weg zur breiten Durchdringung birgt auch Stolpersteine:

  1. Das Vertrauensproblem: „Agentic AI“ bedeutet, dass die Software eigenständig Entscheidungen trifft. In sicherheitskritischen Branchen (Luftfahrt, Automotive) herrschen jedoch strikte Compliance-Regeln. Bevor ein KI-Agent autonome Designänderungen an tragenden Bauteilen vornimmt, müssen massive Haftungsfragen geklärt sein.
  2. Die Pilot-Falle: Viele GenAI-Projekte scheitern auf dem Weg in die Produktion. Die Gefahr für Synera besteht darin, in Innovationsabteilungen stecken zu bleiben, während das operative Kerngeschäft aus Kostengründen an bewährten Methoden festhält.
  3. Die API-Abhängigkeit: Wer als Brückenbauer*in zwischen Dutzenden Software-Silos agiert, macht sich von den Anbietern abhängig. Sperrt ein großer CAD-Anbieter seine API, trifft dies Syneras Modell im Kern.

Fazit

Synera ist ein exzellentes Beispiel dafür, wie aus akademischer Grundlagenforschung ein hoch skalierbares DeepTech-Produkt werden kann. Der strategische Pivot vom reinen Design-Tool zur prozessübergreifenden Plattform zahlt sich durch die starke Series B nun aus. Gelingt es den Bremern, den eher konservativen globalen Maschinenbau davon zu überzeugen, dass KI-Agenten die menschlichen Ingenieur*innen nicht ersetzen, sondern befähigen, könnte Synera der entscheidende globale Standard im Connected Engineering werden.

Peak Quantum sichert sich 2,2 Mio. Euro für fehlerresistente Qubits

Peak Quantum holt 2,2 Mio. Euro für fehlerresistente Qubits. Wie das Münchner Spin-off mit EU-Förderung gegen die hochgerüstete Konkurrenz antritt.

München wächst weiter als Europas Quanten-Hauptstadt. Das Start-up Peak Quantum schließt seine Pre-Seed-Runde mit 2,2 Millionen Euro ab und positioniert sich im hart umkämpften Deep-Tech-Markt. Der Pitch der Gründer: Fehlerkorrektur direkt in der Hardware. Doch in einem extrem kapitalintensiven Umfeld reicht Geld allein nicht. Wie das Spin-off mit einem cleveren Infrastruktur-Schachzug gegen die hochgerüstete europäische Konkurrenz bestehen will.

Aus der Forschung in die Praxis

Im Jahr 2024 entstand Peak Quantum als Spin-off aus der Forschungsgruppe von Prof. Stefan Filipp am Walther-Meißner-Institut (WMI), das zur Bayerischen Akademie der Wissenschaften gehört. Das Gründungsteam deckt interdisziplinär die gesamte Wertschöpfungskette vom Chipdesign bis zur Systemintegration ab. Zu den Köpfen hinter der Unternehmung gehören Leon Koch (CEO), Alexander Schult (CFO), Dr. Thomas Luschmann (COO), Dr. Max Werninghaus (CSO), Ivan Tsitsilin (Head of Design), Kedar Honasoge (Head of Production) und Daniil Bazulin (Quantum Engineer). Unterstützt wird das junge Unternehmen durch wichtige Säulen des lokalen Ökosystems wie dem Munich Quantum Valley und der UnternehmerTUM.

„Hardware-First“ statt Software-Pflaster

Das aktuell größte Hindernis im Quantencomputing ist das sogenannte Rauschen – die enorme Fehleranfälligkeit der Recheneinheiten (Qubits). Während die Industrie bisher stark darauf setzte, schlicht die Anzahl physikalischer Qubits hochzuskalieren und Fehler nachträglich per Software zu korrigieren, wählt Peak Quantum einen grundlegend anderen Weg. Das Start-up entwickelt supraleitende Prozessoren, deren physikalische Architektur Fehler bereits auf der reinen Hardware-Ebene unterdrückt. Dieser integrierte Fehlerschutz soll die Komplexität des Gesamtsystems drastisch senken und die Entwicklung kommerziell nutzbarer Rechner massiv beschleunigen.

Das Geschäftsmodell & der EU-Infrastruktur-Hebel

Quanten-Hardware ist ein unfassbar teures Pflaster. Mit dem frischen Kapital von Investor*innen wie dem britischen Lead-Investor Cloudberry Ventures, United Founders oder QAI Ventures steigt die Gesamtfinanzierung von Peak Quantum auf gut fünf Millionen Euro. Für den Aufbau eigener Reinräume (CapEx) reicht das kaum. Der strategische Clou des Geschäftsmodells liegt daher in der europäischen Vernetzung: Peak Quantum bezieht öffentliche Fördermittel aus dem EU Chips Act und wurde ausgewählt, die im April 2026 startende Quantenchip-Pilotlinie SUPREME zu betreiben.

Ziel ist es, in Europa eine skalierbare Produktionsumgebung zu etablieren, die langfristig auch für externe Partner geöffnet werden soll. Ein Modell, das es Peak Quantum erlaubt, trotz einer frühen Finanzierungsphase hocheffizient an industrietauglichen Chips zu feilen.

Der Markt & die Konkurrenz

Doch der Markt verzeiht keine Verzögerungen, und München ist längst ein Haifischbecken der Quantentechnologie. Direkt vor der Haustür sitzen Schwergewichte:

  • IQM Quantum Computers: Der europäische Platzhirsch für supraleitende Quantencomputer (mit Hauptsitz in Finnland, aber großem Zentrum in München), der kürzlich eine SPAC-Fusion für einen geplanten Milliarden-Börsengang ankündigte.
  • planqc: Ein weiteres Münchner Spin-off, das auf neutrale Atome setzt und bereits 2024 eine Series A in Höhe von satten 50 Millionen Euro abschloss.
  • Alice & Bob: Auf internationaler Ebene steht besonders das französische Start-up Alice & Bob in direkter technischer Konkurrenz. Die Pariser entwickeln sogenannte Cat Qubits, die ebenfalls hardwareseitig fehlerresistent sind, und kooperieren dabei bereits eng mit Microsofts Quanten-Sparte.

Fazit: Risiko und enorme Chance

Das Board rund um einen ehemaligen Alphabet-X-Advisor sieht in Peak Quantum ein elementares Puzzleteil für ein eigenständiges europäisches Quanten-Ökosystem. Die Investition ist ein klassisches „Deep-Tech-Infrastruktur-Play“.

Dennoch ist eine Pre-Seed-Runde von 2,2 Millionen Euro im Jahr 2026 angesichts der Kapitalausstattung der Konkurrenz eine riskante Wette. Peak Quantum muss durch den Zugang zur SUPREME-Pilotlinie extrem schnell beweisen, dass die fehlerresistente Architektur industriell skaliert und nicht nur im Labor des WMI funktioniert.

Bringt das Team um Leon Koch erste greifbare Pilotprojekte mit Forschungs- und Industriepartnern in den Bereichen Materialforschung, Logistik oder industrieller Optimierung zum Laufen, könnte Peak Quantum zu einem technologischen Flaschenhals werden, an dem in Europa niemand mehr vorbeikommt. Es ist das Paradebeispiel dafür, wie smarte Gründer*innen nicht nur Code oder Hardware schreiben, sondern das System aus Fördergeldern, Pilotlinien und lokaler Forschungsexzellenz maximal zu ihrem Vorteil hebeln.

50 Mio. US-Dollar-Series A-Runde für Berliner FinTech Midas

Das 2024 von Dennis Dinkelmeyer, Fabrice Grinda und Romain Bourgois gegründete Web3-Start-up Midas sammelt 50 Mio. $ ein, um tokenisierte Vermögenswerte sofort liquide zu machen. Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen.

Der Markt für tokenisierte Vermögenswerte (Real World Assets, kurz RWA) wächst rasant, leidet jedoch noch immer an einer strukturellen Hürde: Während Kryptomärkte rund um die Uhr in Echtzeit handeln, sind traditionelle Finanzprodukte im Hintergrund oft an klassische, mehrtägige Abwicklungszyklen gebunden. Wenn Investor*innen ihre Token in liquide Mittel zurücktauschen wollen, kommt es unweigerlich zu Verzögerungen. Genau diese Lücke will das Berliner FinTech Midas nun schließen und hat dafür massiv Kapital aufgenommen.

Wie das Unternehmen heute mitteilte, flossen in einer Series-A-Finanzierungsrunde 50 Millionen US-Dollar (rund 46 Millionen Euro). Angeführt wird die Runde von den Venture-Capital-Firmen RRE Ventures und Creandum. Zu den weiteren Geldgebern zählen namhafte Branchengrößen wie Framework Ventures, Coinbase Ventures sowie der traditionelle Vermögensverwalter Franklin Templeton, der selbst bereits stark im Bereich tokenisierter Anlageprodukte aktiv ist. Mit der aktuellen Runde steigt das Gesamtfinanzierungsvolumen des Start-ups auf knapp 59 Millionen US-Dollar.

Das Gründerteam aus TradFi und Web3

Hinter Midas, das 2024 gegründet wurde, steht ein Team, das tiefes Wissen aus der traditionellen Finanzwelt (TradFi), dem Venture Capital und dem dezentralen Finanzsektor (DeFi) vereint. An der Spitze steht CEO und Mitgründer Dennis Dinkelmeyer, der vor der Gründung im Investment Research bei Branchengrößen wie Goldman Sachs und der Capital Group tätig war. Er bringt das essenzielle Verständnis für die Strukturierung institutioneller Anlageprodukte in die Blockchain-Welt ein.

Ergänzt wird die Führungsriege durch Executive Chairman und Mitgründer Fabrice Grinda. Als Gründungspartner des Investmentfonds FJ Labs gehört Grinda zu den weltweit aktivsten Angel-Investoren. Er steuert neben Kapital und einem enormen Netzwerk auch operative Erfahrung bei, die er unter anderem als Co-Gründer der für über eine Milliarde US-Dollar übernommenen Plattform OLX sammelte. Komplettiert wird das Führungstrio von Mitgründer Romain Bourgois. Der Tech-Experte war fast ein Jahrzehnt in leitenden Produktrollen beim AdTech-Giganten Criteo tätig, bevor er als Head of Product zum US-Konkurrenten Ondo Finance wechselte. Dort leistete er maßgebliche Pionierarbeit bei der Entwicklung und Skalierung der ersten großen tokenisierten US-Staatsanleihen, wie etwa OUSG und USDY.

Fokus auf „Midas Staked Liquidity“ (MSL)

Das frische Kapital soll primär in die Entwicklung und Skalierung der sogenannten Midas Staked Liquidity (MSL) fließen. Dabei handelt es sich um einen dedizierten Liquiditätspuffer, gegen den die firmeneigenen Token (mToken) jederzeit und ohne Wartezeit eingelöst werden können. Für institutionelle Investoren, die Treasury- und Portfolio-Management auf der Blockchain betreiben, ist diese sofortige Liquidität ein entscheidendes Kriterium.

Bisher mussten Rendite-Investoren oft zwischen der sofortigen Handelbarkeit und den Erträgen von DeFi-Protokollen abwägen – MSL soll diesen Kompromiss überflüssig machen. Die Midas-Plattform überführt dafür institutionelle Anlagestrategien, wie etwa Staatsanleihen (mTBILL) oder Basis-Handelsstrategien (mBASIS), in regulierungskonforme Token, die nahtlos in DeFi-Netzwerke wie Morpho oder Pendle integriert werden können. Nach eigenen Angaben hat Midas seit dem Start Token im Gesamtwert von über 1,7 Milliarden US-Dollar emittiert und dabei Erträge in Höhe von 37 Millionen US-Dollar an seine mehr als 20.000 Nutzer ausgeschüttet. Das Fintech finanziert sich dabei über Gebühren, die auf diese erwirtschafteten Renditen erhoben werden.

Die Brücke zwischen Wall Street und Blockchain

„Wir arbeiten auf eine Zukunft hin, in der Investitionen wie das Internet funktionieren: offen, transparent, kombinierbar und standardmäßig zugänglich“, formuliert CEO Dennis Dinkelmeyer den Anspruch des Unternehmens. Vic Singh, General Partner bei RRE Ventures, teilt diese Vision: Die Tokenisierung werde die globalen Kapitalmärkte fundamental verändern, sobald die traditionelle Finanzwelt ihre Infrastruktur vollständig auf die Blockchain verlagere.

Neben der Etablierung von MSL plant Midas, das frische Kapital für die Erschließung weiterer Anlageklassen und den Ausbau von Partnerschaften zu nutzen. Mit dem Einstieg von Schwergewichten wie Franklin Templeton und Coinbase Ventures positioniert sich das 2024 gegründete Unternehmen damit als einer der zentralen Infrastrukturanbieter an der lukrativen Schnittstelle zwischen klassischem Finanzwesen und der Krypto-Ökonomie.

deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken

Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.

Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.

Vom Agenturgeschäft zur SaaS-Lösung

Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).

Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“

Plattformansatz für Inspektionsdaten

Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.

Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.

Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“

Marktumfeld & regulatorische Barrieren

Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.

Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.

Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.

Der technologische Burggraben im starken Wettbewerb

Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.

Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.

Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.

Finanzierung & Ausblick

Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.

Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."

Mediennutzung 2026: Zwischen KI-Frust, Abo-Müdigkeit und neuen Chancen für Start-ups

Die Deutschen experimentieren so intensiv wie nie mit künstlicher Intelligenz (KI), sind aber zunehmend genervt von Deepfakes und „Content ohne Mehrwert“. Gleichzeitig sehnt sich der überhitzte Streaming-Markt nach einer drastischen Konsolidierung. Die aktuelle Deloitte-Studie „Media Consumer Trends 2026“ liefert nicht nur Bestandsaufnahmen, sondern zeigt deutlich, wo für Gründer*innen und Tech-Unternehmen jetzt die wahren Opportunitäten liegen.

Social Media bleibt der unangefochtene Platzhirsch der Medienlandschaft: 78 Prozent der Konsument*innen in Deutschland sind auf den Plattformen aktiv, bei der Gen Z (unter 25 Jahre) sind es sogar satte 91 Prozent. Fast die Hälfte dieser jungen Zielgruppe nutzt Instagram, TikTok und Co. heute intensiver als noch im Vorjahr. Doch ein Blick unter die Oberfläche offenbart Risse im digitalen Fundament – und die haben maßgeblich mit dem rasanten Einzug generativer künstlicher Intelligenz (KI) zu tun.

Das KI-Paradoxon: Große Kreationslust, massives Vertrauensproblem

Auf der Creator-Seite ist KI bereits Alltag. 22 Prozent der Befragten haben laut Deloitte schon Bilder per KI erstellt, jeder Zehnte generiert Videos oder Musik. Auch die Zahlungsbereitschaft ist überraschend hoch: Jeder Fünfte wäre bereit, monatlich über 10 Euro für entsprechende Tools auszugeben.

Auf der Konsument*innenseite jedoch kippt die Stimmung bedenklich. Zwei Drittel der Nutzer*innen geben an, dass sie KI-generierte Inhalte im Netz nicht mehr zuverlässig erkennen können. Schlimmer noch: 56 Prozent klagen über eine wachsende Flut an KI-generierten Postings „ohne Mehrwert“ – schlichtweg digitaler Spam. Die Konsequenz dieser Verunsicherung zeigt sich bereits in den Nutzungsdaten: Erste Altersgruppen, insbesondere Nutzer*innen ab Mitte 50, beginnen, ihren Social-Media-Konsum aktiv zurückzufahren.

Die Start-up-Perspektive: Die Zeiten des blinden KI-Hypes sind vorbei. Wer als Gründer*in heute rein quantitativ auf automatisierte Content-Erstellung setzt, riskiert Reichweite und Glaubwürdigkeit. Wie Deloitte-Expertin Sophie Pastowski anmerkt, braucht es dringend „transparente Kennzeichnung, um Vertrauen im digitalen Raum zu stärken.“ Genau hier entsteht ein massiver Zukunftsmarkt für „Trust-Tech“-Start-ups: Werkzeuge, die Authentizität verifizieren, Deepfakes zuverlässig herausfiltern, digitale Wasserzeichen etablieren oder Content-Provenance (Herkunftsnachweise) sichern, werden zu kritischen Erfolgsfaktoren für Plattformen und Verlage.

Streaming-Kollaps: Die Sehnsucht nach dem Super-Aggregator

Auch im Video-Streaming-Markt (SVoD) stehen die Zeichen auf Wandel. Der Markt ist in einer Reifephase angekommen: Zwar verbringen die Deutschen immer mehr Zeit mit Streaming, doch die Abo-Zahlen stagnieren. Mit durchschnittlich 2,5 Abos bei 64 Prozent der Haushalte ist die finanzielle und nervliche Schmerzgrenze offenbar erreicht.

Die Fragmentierung des Marktes wird zum Bumerang. Die Hälfte der Konsument*innen findet das zersplitterte Angebot unübersichtlich; das ständige Suchen nach Inhalten über verschiedene Apps hinweg („Decision Fatigue“) nervt. Das Resultat ist ein lauter Ruf nach Bündelung: 43 Prozent der Nutzer*innen wünschen sich eine plattformübergreifende Aggregation ihrer Dienste. Der Haken für Anbietende: 60 Prozent erwarten im Gegenzug für ein solches Bundle einen spürbaren Preisvorteil.

Die Start-up-Perspektive: Der Markt schreit nach einer funktionierenden Meta-Ebene. Wer es schafft, die zersplitterte Content-Landschaft in einer nutzer*innenfreundlichen Oberfläche (Super-App) mit intelligenter, plattformübergreifender Suchfunktion und klugem Pricing zu bündeln, trifft den absoluten Nerv der Zeit. Das reine Hinzufügen eines weiteren Nischen-Streamingdienstes dürfte es hingegen 2026 schwerer denn je haben.

Audio: Der harte Kampf um das knappe Gut „Glaubwürdigkeit“

Im Audio-Segment setzt sich der Strukturwandel fort. Podcasts boomen weiter und haben bei den 25- bis 34-Jährigen das klassische Radio bereits als wichtigstes Medium überholt. Doch das Radio verzeichnet mit 65 Prozent wöchentlicher Reichweite weiterhin eine enorme Resilienz. Der Grund ist ein entscheidender USP, von dem digitale Kanäle lernen können: Vertrauen. Wenn es um harte Informationen und die Nachrichtenlage geht, stufen 54 Prozent der Hörer das Radio als informativer und verlässlicher ein – Podcasts kommen hier nur auf 19 Prozent.

Fazit

Die Mediennutzung 2026 ist stark paradox geprägt: Technologie durchdringt die Erstellung von Inhalten immer tiefer, doch die Sehnsucht der Nutzer*innen nach Authentizität, Übersichtlichkeit und verlässlichen Quellen wächst proportional dazu. Für Start-ups bedeutet dies einen strategischen Paradigmenwechsel. Nicht das nächste Tool zur Erstellung von noch mehr billigem KI-Content ist der heilige Gral, sondern Lösungen, die in der Informationsflut Orientierung schaffen, Fragmentierung auflösen und echtes Vertrauen im digitalen Raum aufbauen. Wer diese Schmerzpunkte adressiert, hat im hart umkämpften Medienmarkt der kommenden Jahre exzellente Karten.

Selbstständigen-Report 2026: Wachsender Frust in der Gründer*innen-Szene

Der neue Selbstständigen-Report 2026 zeichnet das Bild einer demoralisierten Leistungsträger*innenschicht: Immer mehr Selbständige schätzen ihre wirtschaftliche Lage als prekär ein und fühlen sich von der Politik im Stich gelassen. Doch wer steckt hinter diesen alarmierenden Zahlen, und wie ist die Lage für Gründer*innen und Start-ups strategisch einzuordnen?

Herausgegeben wird der Report als Gemeinschaftsprojekt von WISO MeinBüro und dem Verband der Gründer und Selbstständigen Deutschland e.V. (VGSD). Die aktuelle Umfrage, an der sich zwischen Mitte Dezember 2025 und Mitte Februar 2026 insgesamt 2684 Personen beteiligten, zeigt die harte Realität der Solo-Selbständigen.

Nur noch knapp 46 Prozent schätzen die Lage ihres Unternehmens als gut bis hervorragend ein. Der Report zeigt einen deutlichen Abwärtstrend: 2024 waren es noch 55 Prozent, im Jahr 2018 waren es sogar 60 Prozent. Thüringen bildet 2026 mit nur rund 37 Prozent Zufriedenheit das Schlusslicht. Nur in Brandenburg scheint sich die Lage gebessert zu haben: Dort bewerteten rund 46 Prozent der Befragten die wirtschaftliche Lage ihres Unternehmens als gut.

Rund 90 Prozent der Befragten teilten mit, dass sie sich als Selbständige überhaupt nicht bis wenig von der Politik respektiert fühlen. Rund 38 Prozent der Befragten haben in den letzten zwei Jahren darüber nachgedacht, auszuwandern. Bürokratie ist dabei der potenzielle Auswanderungsgrund Nummer eins, genannt von 41,6 Prozent der Umfrageteilnehmenden.

Ein besonderer Dorn im Auge der Unternehmer*innen ist zudem das heikle Thema Scheinselbständigkeit, dessen Dringlichkeit bei vielen Befragten noch nicht vollends angekommen zu sein scheint. Im behördlichen Prüfverfahren wird immer nur ein Auftraggebender konkret angeschaut. Dieses Statusfeststellungsverfahren birgt enorme rechtliche und finanzielle Unsicherheiten bei den Selbständigen.

Ebenso sorgt neue Gesetzgebung für Unmut: Seit dem 1. Januar 2026 gilt die Aktivrente. Rentner*innen können bis zu 2.000 Euro monatlich steuerfrei dazuverdienen, wenn sie in einem Angestellt*innenverhältnis sind. Selbständige Rentnerinnen und Rentner dagegen sind weiterhin voll steuerpflichtig. Rund 81 Prozent der Befragten finden diese Ungleichbehandlung ungerecht.

Fazit

Die Hauptmotivationen, selbständig zu sein, sind – wie auch bei den letzten beiden Befragungen – eigenbestimmtes Arbeiten und flexible Arbeitszeiten. Trotz aller Widrigkeiten würden sich mehr als 83,3 Prozent der Befragten wieder selbständig machen.
So zieht Dr. Andreas Lutz, VGSD e. V., das Fazit: „Die Ergebnisse zeigen eine Mischung aus dem für Selbstständige typischen Unternehmergeist, Resilienz und Durchhaltevermögen einerseits und einem hohen Maß an Frustration über die politischen Rahmenbedingungen andererseits. Viele Selbstständige blicken nicht optimistisch, aber sehr realistisch auf die Zukunft: Sie erkennen die Herausforderungen der Zeit, leiten Maßnahmen ab, treiben ihr Geschäft aktiv voran und tragen auch in schwierigen Zeiten Verantwortung. Dieses Potenzial für Wirtschaft und Gesellschaft muss die Politik erkennen und nutzen – und Bedingungen schaffen, die es ihnen nicht weiter unnötig schwer machen. Genau darin liegt die politische Botschaft dieses Reports.“

Der gesamte Report sowie weitere Informationen stehen hier zum kostenlosen Download bereit: https://www.meinbuero.de/selbststaendigen-report-2026/

Gründerin der Woche: beZUG – vom Pendler-Frust zur Gründung

Wer regelmäßig ICE fährt, kennt den kritischen Blick auf das Kopfkissen: Der Zug rollt, aber man zögert, sich anzulehnen. Johanna Hoeflich wollte dieses Dilemma zwischen „Nähe und Distanz“ nicht länger hinnehmen und entwickelte den beZUG. Was als Nähprojekt für den Eigenbedarf begann, ist heute ein junges Unternehmen – mehr dazu im Interview mit der Gründerin.

Das Hygiene-Problem beim Bahnfahren kennen wir alle. Aber vom Ärgernis zur Gründung ist es oft ein weiter Weg. Was war der konkrete Auslöser, tatsächlich eine Firma anzumelden?

Mein Mann pendelt täglich mit dem ICE zwischen Stuttgart und Mannheim. Er ist morgens immer früh unterwegs und möchte häufig noch einmal die Augen schließen auf der Fahrt. Das hat ihn immer Überwindung gekostet, also haben wir nach einer Lösung gesucht, die es jedoch nicht gab. Nachdem wir den beZUG dann entwickelt hatten, gab es reges Interesse im Freundes- und Bekanntenkreis. Das bestärkte mich darin ein Business daraus zu machen.

Sie haben Ihre Prototypen live im Zug getestet. Wie viele skeptische Blicke oder Kommentare von Mitreisenden mussten Sie aushalten, bis die Passform saß?

Ehrlichweise sind Bahnfahrende relativ tolerant außergewöhnlichem Verhalten gegenüber, solange man den anderen nicht stört. Die Kissen hat mein Mann meist morgens vermessen, da abends die Züge einfach zu voll sind. Aber morgens um diese Uhrzeit gilt offenbar das Prinzip: „Mind your own Business“, sodass manches Mal verwunderte Blicke kamen, aber angesprochen wurde er darauf nicht.

Lassen Sie uns über das Risiko sprechen. Ihr Produkt ist technisch einfach: Stoff und Gummizug. Was ist Ihr Schutzwall gegen Billig-Kopien aus Fernost, die das morgen für den halben Preis anbieten könnten?

Das ist eindeutig ein kritischer Punkt. Daher habe ich mir diese Frage ebenfalls sehr früh gestellt und ein Gebrauchsmuster angemeldet. Dieses ist nun tatsächlich auch eingetragen. Zudem habe ich mich von vornherein für faire Produktionsbedingungen innerhalb Europas entschieden. Da der beZUG mit Haut in Berührung kommt war mir auch die Stoffqualität wichtig. Der beZUG ist aus Bekleidungsstoff gefertigt, welcher OEKOTEX 100 zertifiziert ist. Das sind Aspekte bei denen Billigware in der Regel nicht punkten kann. Zudem ist das Produkt eines was explizit auf den deutschen Markt zugeschnitten ist. Da bleibt abzuwarten, ob sich ein Anbieter aus Nahost überhaupt dafür interessiert.

Ein weiteres Thema ist die Abhängigkeit. Ihr Geschäftsmodell basiert zu 100 Prozent auf den Sitzen der Deutschen Bahn. Wie gehen Sie mit diesem „Klumpenrisiko“ um, das heißt, was tun, wenn die Bahn morgen das Sitzdesign radikal ändert?

Diesen Punkt sehe ich relativ entspannt. Laut DB nutzen jeden Tag 400.000 Personen die Fernverkehrsstrecken der Bahn. Eine relevant große Zielgruppe ist also vorhanden. Bezüglich des ICE-Designs wurde im letzten Jahr erst die neueste Generation des ICEs, der ICE L, vorgestellt. Und auch in diesem sind Kopfkissen verbaut. Zudem werden die vorherigen Generationen des ICE nach wie vor weiter eingesetzt. Die Kopfkissen in den verschiedenen Zug-Generationen sind ein wenig unterschiedlich. Der beZUG ist jedoch so designt, dass er auf allen Kissen universell eingesetzt werden kann.

Sie haben als UG gegründet, vermutlich um die Hürden niedrig zu halten. Ist beZUG ein klassisches Bootstrapping-Projekt aus dem Cashflow, oder suchen Sie aktiv nach Investoren für das schnelle Wachstum?

Richtig, die beZUG ist aus Eigenkapital entstanden und der Plan ist auch aus eigenem Cashflow zu wachsen. Das impliziert jedoch ein kontinuierlich moderates Wachstum. Aber müssen, wie bei fast jedem produzierenden Unternehmen, Material und Produktion vorfinanziert werden. Sollte somit das limitierte Budget die Bedienung einer schnell wachsenden Nachfrage ausbremsen, müssen auch externe Finanzmittel in Betracht gezogen werden.

Aktuell verkaufen Sie D2C über Ihren Webshop. Aber bei einem "Mitnahmeartikel" fressen Versand und Marketing oft die Marge. Planen Sie den Schritt in den stationären Handel, etwa in Bahnhofsbuchhandlungen?

Tatsächlich bin ich bereits in Kontakt mit ebensolchen Handelsunternehmen, welche direkt an Bahnhöfen oder Flughäfen angesiedelt sind. Ich könnte mir auch vorstellen, dass der beZUG zukünftig aus einem Automaten direkt am Gleis bezogen werden kann. Das sind aber Ideen für Zukunft.

Bieten Sie den beZUG auch gebrandet bzw. personalisiert an?

Ja, die Verpackung und auch der beZUG selbst bieten verschiedene Möglichkeiten für ein individuelles Branding. Auch eine individuelle Stofffarbe wäre umsetzbar bei entsprechender Abnahmemenge.

Zum Abschluss ein Rat an unsere Leser*innen: Sie haben nicht lange am theoretischen Reißbrett verharrt. Ist „Einfach machen“ immer der beste Weg, oder hätten Sie rückblickend an einer Stelle lieber mehr geplant?

Diese Frage kann ich in fünf Jahren vermutlich besser beantworten. Als Gründer heißt es doch immer learning by doing. Natürlich geht es besser, aber dieses Unternehmen würde es heute noch nicht geben hätte ich alle Eventualitäten, Möglichkeiten und Förderungen vorab recherchiert. Habe ich mich über mich selbst geärgert, als ich manches Mal mit dem Steuerberater gesprochen hatte, weil es auch anders und besser gegangen wäre? Vielleicht ja. Aber bereue ich das Unternehmen so aufgezogen zu haben wie es heute ist? Nein, bestimmt nicht. Also lieber rein ins kalte Wasser und schwimmen lernen als ewig am Beckenrand stehen.

Hier geht's zu beZUG

Das Interview führte StartingUp-Chefredakteur Hans Luthardt

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere

Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.

Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.

Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.

Der technologische Schlüssel: "Direct Cytosolic Transfer"

Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.

Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.

Zwischen enormem Potenzial und hohem Risiko

Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.

Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.

Blaupause für Deep-Tech-Gründer

Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:

  • Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
  • Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
  • Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.