Aktuelle Events
Fünf Jahre DSGVO – vom Säbelzahntiger zum Bettvorleger?
Ein Kommentar von Datenschutzexperte Achim Barth zu fünf Jahren Datenschutz-Grundverordnung (DSGVO).
In den ersten fünf Monaten im Jahr 2018 hätte man meinen können, dass die Geschäftswelt kurz vor dem Untergang steht. Auslöser der Panik: die Datenschutz-Grundverordnung. Es herrschte große Angst vor Abmahnwellen, vor Bußgeldern in Millionenhöhe und blinder Aktionismus im Mittelstand – alles wegen des 25. Mai 2018, an dem die DSGVO in Kraft trat. Und was ist passiert? – Nichts!
Die Abmahnwelle blieb aus – was von vornherein klar war, denn Datenschutz ist kein Wettbewerbsrecht. Die Angst vor Abmahnungen war vor allem das Schreckgespenst vieler Anwaltskanzleien. Bußgelder? Das erste größere Bußgeld wegen eines DSGVO-Verstoßes ließ lange auf sich warten. Das Dating-Portal „Knuddels“ musste 20.000 Euro Bußgeld bezahlen, weil es Passwörter seiner Kunden nicht verschlüsselte. Die richtig hohen Bußgelder in Millionenhöhe werden nicht in Deutschland verhängt, sondern vor allem in Frankreich, Luxemburg und neuerdings auch in Irland. Einzige Ausnahme in Deutschland war „H&M“ mit 35 Millionen Euro Bußgeld wegen unzulässiger Mitarbeiterbefragung.
Viel Wind aus der falschen Richtung
Aber es ist doch etwas passiert. Der Unmut der Unternehmen bezüglich des Datenschutzes wuchs stetig. Nicht wegen der Bußgelder, sondern wegen des völlig unnötigen Aktionismus vor dem offiziellen Inkrafttreten. Unwissende oder überängstliche Geschäftsführer, oft gestresst von übereifrigen Datenschutzbeauftragten, Beratern und vor allem von einem Informationswirrwarr im Internet, verpulverten Unsummen an Geld, um Prozesse zu ändern, Betroffene zu informieren oder IT-Systeme anzupassen – oft für Dinge, die die DSGVO gar nicht fordert. Noch heute muss der Datenschutz herhalten, wenn bestimmte Dinge nicht mehr funktionieren. Ganz nach dem Motto: „Aus Datenschutzgründen können wir das nicht nachvollziehen/ eintragen/ dokumentieren.“ Oft werden die (schlechten) Prozesse im Betrieb gar nicht mehr hinterfragt, die man 2018 ungerechtfertigterweise für die DSGVO eingeführt hat.
Und die staatlichen Aufsichtsbehörden? Die haben erst einmal zwei Jahre die Zeit der „Beratung“ ausgerufen, personell aufgestockt und die Verantwortlichen, also Unternehmer, Inhaber, Geschäftsführer beraten und informiert. Anschließend wurde die Phase der „Kontrolle“ aufgerufen. Dann kam Corona. Die Mitarbeiter der Aufsichtsbehörden agierten im Homeoffice und waren erst mal mit sich selbst, der „pandemischen Datenverarbeitung“ und diversen Corona-Warn-Apps beschäftigt. Manch eine Aufsichtsbehörde fühlte sich dazu aufgerufen, vor Videokonferenzsystemen zu warnen. Und Schulen sollten doch bitte schön nicht mit Teams den Onlineunterricht gestalten, sondern mit europäischen Anbietern.
Oder doch nur ein laues Lüftchen?
Wirklich unangenehm wurde es für die Verantwortlichen in der Privatwirtschaft in den letzten fünf Jahren aber nicht. Es sei denn, ein Betroffener hat sich zum Beispiel wegen einer Videoüberwachung beschwert. Dann rückt die Aufsichtsbehörde mit der Kavallerie an: Wie kann ein Verantwortlicher es wagen, mit einer Videoaufzeichnung Diebstahlprävention betreiben oder Vandalismus verhindern zu wollen? Da gibt es doch viel mildere Mittel wie Wachpersonal.
Wo die Aufsichtsbehörde jedoch genauer hinschauen sollte, da passierte leider nichts: Zum Beispiel bei den DAX-Konzernen, die fleißig auf den Webseiten tracken oder US-Dienste einsetzen. Oder bei den vielen, vielen kleinen und mittleren Unternehmen, die sich überhaupt nicht um Datenschutz kümmern und das Spiel spielen: „Ich rühre mich erst, wenn die Behörde mir offizielle Papiere schickt.“
Fazit: Die DSGVO soll Daten schützen – und nicht für politische Zwecke missbraucht werden
Die DSGVO ist eine smarte Sache. Sie will einerseits personenbezogene Daten schützen und andererseits freien Datenverkehr in der EU ermöglichen – nicht mehr und nicht weniger. Die Aufsichtsbehörden sollten deren Einhaltung und Ziel im Blick behalten – nicht mehr und nicht weniger. Es wäre fatal, wenn die Firmen, die sich verantwortungsbewusst um ihren Datenschutz kümmern, am Ende benachteiligt sind, nur weil sich Wettbewerber einen Teufel darum scheren und Informations- und Kostenvorteile genießen – ohne dass eine höhere Distanz diesem Gebaren Einhalt gebietet.
Für 2023 haben sich die Aufsichtsbehörden Besserung auf die Fahne geschrieben: Sie wollen die Arbeit der Datenschutzbeauftragten genauer prüfen. Als Betroffener finde ich das richtig und wichtig.
Schließlich wollen am Ende doch alle Beteiligten weder einen Säbelzahntiger noch einen Bettvorleger als DSGVO. Vielmehr brauchen wir ein Gesetz, das praxisorientiert dafür sorgt, dass personenbezogene Daten geschützt sind und nur zu den Zwecken verarbeitet werden, zu denen sie einem Verantwortlichen zur Verfügung stehen.
Die DSGVO sollte nicht für politische Zwecke missbraucht werden. Und niemand sollte große Tech-Firmen auf Kosten kleinerer Unternehmen in eine bestimmte Richtung lenken, wie es aktuell die EU mit Microsoft versucht. Wenn die EU möchte, dass europäische Firmen für die Datenverarbeitung europäische Anbieter wählt, dann müssen die Voraussetzungen geschaffen werden, dass europäische Produkte entwickelt werden, die in Qualität und Leistung den US-Pendants entsprechen. Leider ist das, wenn überhaupt, nur mittel- bis langfristig umsetzbar.
Der Autor Achim Barth ist Experte rund um den Schutz personenbezogener Daten. Der mehrfach zertifizierte Datenschutzbeauftragte begleitet mit seinem Unternehmen Barth Datenschutz Verantwortliche und Unternehmen bei der praktikablen Umsetzung des Datenschutzes und des Hinweisgebergesetzes.
Diese Artikel könnten Sie auch interessieren:
UniteLabs: Der Münchner DeepTech-Herausforderer auf dem Weg zum globalen Labor-Standard?
Das 2024 von Robert Zechlin, Lukas Bromig und Julian Willand gegründete UniteLabs will die Laborautomatisierung von proprietären Hürden befreien. Nach einer Millionenfinanzierung folgte Anfang 2026 der offizielle US-Launch. Wir wollten wissen: Wie realistisch ist die Vision eines herstellerunabhängigen Standards in einem von Hardware-Silos dominierten Markt? Eine Analyse.
Wer heute ein hochmodernes BioTech-Labor betritt, erwartet nahtlos vernetzte HighTech-Forschung. Die Realität sieht oft anders aus: Rund 90 Prozent der Laborgeräte stammen von unterschiedlichen Hersteller*innen und sprechen schlichtweg nicht dieselbe technische Sprache. Um künstliche Intelligenz in der Forschung nutzbar zu machen, müssen hochqualifizierte Wissenschaftler*innen oft als Software-Ingenieur*innen einspringen und mühsam Schnittstellen programmieren. Genau diesen Flaschenhals will das Münchner DeepTech-Start-up UniteLabs beseitigen.
Die Gründer und der Sprung aus München
Hinter UniteLabs stehen Robert Zechlin, Lukas Bromig und Julian Willand. Nach Vorarbeiten ab 2022 wurde das Unternehmen 2024 offiziell gegründet. Das Team vereint interdisziplinäre Expertise aus Chemieingenieurwesen, Wirtschaftsinformatik und Unternehmensstrategie – eine essenzielle Mischung für ein Produkt, das tiefes Prozessverständnis mit modernster Softwarearchitektur verbinden muss.
Dass die Idee einen massiven Schmerzpunkt der Industrie trifft, zeigt die rasante Entwicklung der letzten Monate. Nach einer Pre-Seed-Finanzierungsrunde in Höhe von 2,77 Millionen Euro unter der Führung von NAP (ehemals Cavalry Ventures) im Januar 2025 und der Auszeichnung als „Bestes Münchner Start-up“ beim Munich Startup Award 2025 ist das Unternehmen sichtlich gewachsen. Im ersten Quartal 2026 zählt das Team im Münchner Inkubator Werk1 bereits rund 28 Köpfe.
Doch wie verhindert ein derart rasant wachsendes Team, bei der ständigen Anbindung neuer, exotischer Hardware nicht zu einer hochbezahlten IT-Manufaktur zu verkommen? Schließlich erfordert jedes neue Laborgerät auf dem Markt zunächst einmal Entwicklungsaufwand für den passenden Konnektor.
„Unser Ziel ist nicht, jedes exotische Gerät einzeln ‚irgendwie‘ anzubinden“, stellt Mitgründer Robert Zechlin klar. Vielmehr soll die Integration zu einer wiederholbaren Produktfähigkeit reifen. Statt sich im Klein-Klein der Modellnummern zu verlieren, baue UniteLabs seine Konnektoren entlang grundsätzlicher Geräte-Fähigkeiten. Die puren Herstellerspezifika landen dabei in einer dünnen Adapter-Schicht, während Workflows und Datensemantik konsistent bleiben.
Um die berüchtigte Skalierungsfalle zu umgehen, setzt das Start-up zudem verstärkt auf „Reusable Automation Assets“. „Wir investieren in validierte Workflow-Bausteine, Device-Profile und Test-Suites, mit denen die zweite und dritte Integration deutlich schneller wird als die erste“, betont Zechlin und skizziert damit den Weg zum echten SaaS-Unternehmen. Der Gründer gibt die Richtung selbstbewusst vor: „Die Grenzkosten für das nächste Gerät und den nächsten Standort müssen über Zeit sinken. Unser Endzustand ist ein Ökosystem, in dem Integrationen gemeinsame Infrastruktur sind, nicht Projektgeschäft.“
Vom Prototyp zur Architektur der offenen Labore
Im Februar 2026 hat UniteLabs auf der renommierten Branchenmesse SLAS in Boston den offiziellen US-Launch seines „AI-Ready Lab Automation Systems“ vollzogen. Statt nur isolierte Schnittstellen zu flicken, positioniert sich das Start-up nun mit einer klaren, dreiteiligen Architektur.
Den Kern bildet die Cloud-native „UniteLabs Platform“, die Hardware vernetzt und die Integration von Machine-Learning-Modellen in Echtzeit erlaubt. Ergänzt wird dies durch die lokale Anwendung „GroundControl“ für den Plug-and-Play-Anschluss von Geräten sowie das „UniteLabs SDK“. Letzteres ist ein Python-Werkzeug für Wissenschaftler*innen, um Labor-Workflows komplett als Code zu steuern. Dass diese Theorie praxistauglich ist, beweist das aufstrebende KI-BioTech-Unternehmen Cradle, das die Lücke zwischen Maschinen und digitalen Daten-Lakes intern bereits mit dem Münchner System schließt. Laut UniteLabs soll sich der Labor-Durchsatz für solche KI-getriebenen Forschungsteams durch die Plattform um bis zu das Vierfache steigern lassen.
Ein „Lab-as-Code“-Ansatz via Python mag für entwickleraffine Data Scientists verlockend sein – doch schließt er nicht paradoxerweise die klassischen Biolog*innen aus, für die Code-Workflows oft eine zu steile Lernkurve bedeuten?
„Code ist nicht das Produkt“, kontert Zechlin. Er sei vielmehr eine Schnittstelle, die sowohl Power-User als auch den Laboralltag bedienen müsse. Das SDK richte sich an Teams, die volle Kontrolle über Versionierung und automatisierte Tests verlangen – was im KI-BioTech-Umfeld zunehmend Standard sei. Zechlin räumt jedoch ein, dass das Programmieren nicht jedem liege: „Die meisten wollen zuverlässige Ausführung und klare Transparenz.“
Die Lösung der Münchner: Über die Orchestrierungsschicht und „GroundControl“ werden Workflows paketiert und mit Leitplanken versehen, sodass sie auch für Nicht-Entwickler sicher ausführbar sind. Code bleibt strategisch zwar die „universelle Abstraktion“ über Geräte hinweg, doch das Interface der Zukunft sieht anders aus. Zechlin blickt voraus: „Das User Interface für Wissenschaftler wird zunehmend KI-gesteuert und natürliche Sprache zum primären Interface. UniteLabs dient diesen KI-Applikationen als robuste Surface Area und Source of Truth.“ Die Leitplanke für das Wachstum fasst er in einem Satz zusammen: „Unsere Vision ist: flexibel, wo es Sinn macht, und kompromisslos robust, wo es zählen muss.“
Die Bewährungsprobe auf dem US-Markt
Nach dem Bostoner Launch steht das Start-up nun vor der monumentalen Aufgabe, sich im hochkompetitiven US-Markt zu behaupten. Hier entscheidet sich, ob UniteLabs vom europäischen Hoffnungsträger zum globalen Player reift. Umgeben von gigantischen Investitionen in die KI-Wirkstoffentwicklung reicht es nicht, nur ein weiteres Automatisierungstool zu sein – UniteLabs muss sich als essenzieller „Schaufelhersteller“ für den aktuellen Boom etablieren.
Dabei trifft man auf amerikanische Wettbewerber*innen, die teils mit hunderten Millionen Dollar Venture Capital ausgestattet sind. Wie überlebt ein Münchner Start-up mit einer Pre-Seed-Runde von knapp drei Millionen Euro diese Materialschlacht? Zechlin gibt sich pragmatisch und weicht dem direkten Finanz-Vergleich aus: „Klar: In Infrastrukturmärkten hilft Kapital, aber es ist nicht der entscheidende Hebel.“ Anstatt die Konkurrenz im reinen „Spend“ schlagen zu wollen, baue man auf messbaren Nutzen im Laborbetrieb.
Der Plan scheint aufzugehen: Ein Großteil von Umsatz und Pipeline stammt heute bereits aus den USA, wo UniteLabs Kund*innen an beiden Küsten bedient und mit großen Hardware-Hersteller*innenn kooperiert. „Wir planen für dieses Jahr unseren ersten Big Pharma Roll-out, der sowohl in Europa als auch an Standorten in den USA erfolgen soll“, verrät der Gründer. Um diese Dynamik zu finanzieren, hebe man aktuell eine 9-Millionen-Euro-Seed-Runde für die US-Expansion. Den strukturellen Wettbewerbsvorteil sieht Zechlin in der herstelleragnostischen Verbindung bestehender Geräte: „Statt Rip-and-Replace zu verlangen, werden Workflows schneller produktiv, Daten werden sauber mit Kontext versehen, und Teams können ‚Lab-as-Code‘ wirklich ausrollen.“
Ein strategischer Hebel ist dabei die Zielgruppenansprache. Statt in endlosen Vertriebszyklen mit dem C-Level großer Pharma-Konzerne zu ringen, treibt UniteLabs ein nutzer*innengetriebenes Wachstum voran. Labor-Ingenieur*innen, die durch das Python-SDK wochenlange Schnittstellenprogrammierung einsparen, tragen das System organisch in ihre Unternehmen. Dabei profitiert das Start-up enorm davon, selbst keine Pipettierroboter oder Analysegeräte herzustellen. Als „neutrale Schweiz“ der Labor-Hardware buhlt UniteLabs nicht um lukrative Geräteverkäufe – ein extrem starkes Argument gegen den gefürchteten Vendor-Lock-in amerikanischer Hardware-Giganten.
Stresstest für das Geschäftsmodell und Regularien
Doch die ambitionierte Plattform-Strategie wird kritisch geprüft werden. Das Geschäftsmodell birgt ein ständiges API-Katz-und-Maus-Spiel, da Schnittstellen zu teils stark abgeschirmten Systemen gebaut werden müssen. Wenn etablierte Hersteller*innen ihre Firmware ändern oder Drittanbieter-Zugriffe blockieren, explodieren schnell die Wartungskosten für die Konnektoren.
Bleibt die Frage an den Gründer: Was ist also der Plan B, wenn die Marktführer ihre Schnittstellen per Update plötzlich aktiv verschlüsseln? Reicht der Verweis auf offene Standards wie das SiLA2-Protokoll in der harten Praxis aus?
„Wir gehen davon aus, dass Hersteller ihre Ökosysteme schützen werden. Unsere Strategie darf deshalb nicht auf ‚Goodwill‘ bauen“, gibt sich Zechlin keinen Illusionen hin. Standards wie SiLA2 seien zwar hilfreich gegen Fragmentierung, aber „kein Schutzschild“. Der Ansatz der Münchner ist stattdessen pragmatisch und mehrstufig: Standards nutzen, wo verfügbar, und eigene robuste Adapter bauen, wo nötig. Zudem betreibe man ein Programm mit automatisierten Regressionstests am realen Geräteverhalten, um Fehler durch Updates früh zu erkennen.
Der zweite Baustein der Verteidigung ist kommerzieller Druck. Da Labore zunehmend „Best-of-Breed“-Lösungen kombinieren wollen, würden Hersteller, die Interoperabilität blockieren, zunehmend Deals riskieren. Im Hintergrund investiere man deshalb viel Arbeit in aktiv gepflegte Partnerschaften mit den Produzent*innen. Zechlins Plan B lautet letztlich Resilienz: „Mehrere Integrationspfade, starke Tests, und ein System, das stabil bleibt, auch wenn sich die Oberfläche verändert.“ Er ist sich sicher: „Langfristig wirkt die Ökonomie in Richtung Offenheit.“
Neben blockierender Hardware bleibt die US-Zulassungsbehörde FDA die vielleicht höchste Hürde auf dem Weg in den Enterprise-Markt. Deren strenge Vorgaben zu elektronischen Aufzeichnungen sind der größte Vorbehalt von Pharmaunternehmen gegenüber Cloud-basierten Systemen. Gelingt es UniteLabs, Offenheit mit lückenlosen Audit-Trails zu verknüpfen, könnten sie die berüchtigten Sales-Zyklen drastisch verkürzen.
Doch wie passt maximale Entwickler*innen-Freiheit durch Python-Skripte mit rigider FDA- und GxP-Compliance zusammen? Für Zechlin existiert dieser Widerspruch im Labor-Alltag schlichtweg nicht: „Compliance widerspricht Flexibilität nicht. Was widerspricht, ist unkontrollierte Veränderung.“
Um Big Pharma gerecht zu werden, behandle man hochflexible Workflows wie reguläre Software-Produkte: versioniert, testbar und auditierbar. „Ein Script ist in einem GxP-Kontext kein ‚jeder macht, was er will‘, sondern ein kontrolliertes Artefakt mit definierten Inputs, erwarteten Outputs und einem Validierungsnachweis“, unterstreicht der Mitgründer. Die Plattform trenne Sandbox-Entwicklungen von einer strikt kontrollierten Produktionsebene mit signierten Releases, Environment-Pinning und klarer Datenlineage. Zechlin formuliert einen selbstbewussten Anspruch an die Branche: „Das Labor holt Software-Best-Practices nach. Unser Anspruch ist, ‚compliant by design‘ zur Default-Einstellung für AI-ready Lab Ops zu machen.“
Fazit
UniteLabs hat exzellentes Timing bewiesen. Die BioTech-Branche lechzt nach KI, scheitert aber noch massenhaft an isolierten Daten. Durch das Bereitstellen essenzieller Daten-Infrastruktur haben sich die Münchner in eine starke Ausgangsposition manövriert. Der US-Launch und anstehende Messepräsentationen zeugen vom Anspruch der Gründer. Der ultimative Lackmustest ab 2026 wird jedoch sein, ob die Hardware-Hersteller*innen diesen Wandel dulden – oder den Kampf um ihre lukrativen Software-Margen eröffnen.
Bleibt die Frage nach dem viel zitierten „Endgame“: Baut das Start-up wirklich das globale Betriebssystem für Biotech-Labore, oder macht man sich letztlich nur als hochattraktives Übernahmeziel für Hardware-Giganten hübsch?
Auf diese Entweder-Oder-Frage antwortet Zechlin diplomatisch, aber ambitioniert: „Unsere Vision ist, die neutrale Betriebsschicht für moderne Labore zu werden, weil die Branche einen herstellerunabhängigen Standard braucht, nicht noch ein weiteres Einzellösungstool.“ Gleichzeitig sei man Realist: Infrastruktur zähle nur, wenn sie im Alltag zuverlässig genutzt werde und verlässliche, strukturierte Daten für KI liefere.
Sollte das gelingen, hält sich UniteLabs alle Optionen offen – von der unabhängigen Kategorie-Definition über strategische Partnerschaften bis hin zum Exit. Doch auf einen schnellen Verkauf schiele man nicht, verspricht Zechlin: „Wir bauen nicht für eine Übernahme. Wir bauen so, dass der Markt die Plattform ernst nehmen muss.“ Und am Ende solle ohnehin der/die Kund*in profitieren: „Weniger Silos, schnellere Science, und ein Ökosystem, in dem Innovation nicht an proprietären Schnittstellen hängen bleibt.“
Strategischer Exit: food42morrow übergibt seine Getränkemarke JUMA an die Berentzen-Gruppe
Die Konsolidierung im Markt für funktionale Getränke setzt sich fort: die 2022 gegründete food42morrow GmbH übergibt ihre Marke JUMA im Rahmen eines strategischen Exits an die Vivaris Getränke GmbH & Co. KG, eine Tochtergesellschaft der börsennotierten Berentzen-Gruppe Aktiengesellschaft. Ab Mai 2026 soll die großflächige Skalierung unter der Flagge von Vivaris als JUMA Recharge+ erfolgen.
Die food42morrow GmbH wurde 2022 in Frankfurt am Main mit dem Ziel gegründet, Marktlücken im Bereich Functional Food durch wissenschaftlich fundierte und trendorientierte Konzepte zu schließen. Die Gründer Raoul Kammann, Max Kammann und Carlos Lopez Granado entwickelten mit JUMA eine Antwort auf die steigende Nachfrage nach natürlichen Wachmachern.
Das Kernprodukt RECHARGE+ ist ein teebasierter Hydration Drink, der Elektrolyte, Vitamine und natürliches Koffein (u. a. aus Guayusa) kombiniert. Der Fokus liegt hierbei auf einer Funktionalität ohne Zuckerzusatz, die speziell auf die Bedürfnisse einer urbanen, aktiven Zielgruppe zugeschnitten ist. Bereits 2025 konnte das Start-up die Marktfähigkeit durch erste Listungen im deutschen Lebensmitteleinzelhandel (LEH) nachweisen.
Packaging-Innovation als strategischer Hebel
Ein wesentliches Alleinstellungsmerkmal, das den Exit maßgeblich begünstigt haben dürfte, ist das innovative Gebinde. food42morrow brachte als erstes Unternehmen in Deutschland eine wiederverschließbare Aluminiumflasche mit Schraubverschluss in dieser Kategorie auf den Markt. Diese Verpackung kombiniert die hohe Recyclingquote von Aluminium mit der Flexibilität einer Flasche. Für etablierte Konzerne wie die Berentzen-Gruppe stellt eine solche bereits validierte „Hardware-Innovation“ einen hohen Wert dar, da sie das Risiko bei der Markteinführung neuer Kategorien senkt.
Einordnung: Die „Evolve 2030“-Strategie
Der Zukauf durch die Berentzen-Gruppe ist kein Zufall, sondern Teil einer breiteren Branchenbewegung. Mit der Strategie BERENTZEN EVOLVE 2030 reagiert der Konzern auf den rückläufigen Spirituosenkonsum und investiert massiv in das Segment der alkoholfreien Getränke (AfG). JUMA fungiert hierbei als Portfolio-Ergänzung im margenstarken Premium-Bereich der funktionalen Drinks. Ähnliche Strategien verfolgten zuletzt auch Akteure wie Eckes-Granini oder die Paulaner-Gruppe bei der Integration agiler Innovationsmarken.
Key Learnings für Gründer*innen
Aus dem Case food42morrow lassen sich drei zentrale Erkenntnisse für die Skalierung von Konsumgüter-Start-ups ableiten:
- USP durch Packaging: In einem gesättigten Markt reicht ein guter Inhalt oft nicht aus. Eine technologische oder funktionale Innovation bei der Verpackung kann der entscheidende Türöffner für den LEH und für Akquisitionsgespräche sein.
- Validierung vor Skalierung: Der Exit erfolgte erst, nachdem die Marktfähigkeit (Proof of Market) durch erste Listungen 2025 bewiesen war. Große Player kaufen bevorzugt Marken, die ihre „Kinderkrankheiten“ bereits überwunden haben.
- Positionierung als „Brückenbauer“: food42morrow hat sich erfolgreich als Bindeglied zwischen Start-up-Agilität und industrieller Skalierung positioniert. Dies ermöglicht es den Gründern, sich auf ihre Kernkompetenz – die Produktentwicklung – zu konzentrieren, während die massive Distribution durch die Strukturen eines Konzerns erfolgt.
Was kommt nach JUMA?
Mit der Übergabe der Marke an Vivaris stellt food42morrow seine Kompetenz als Innovationstaktgeber unter Beweis. Bleibt die spannende Frage, welche Trends das Frankfurter Team als Nächstes identifiziert.
meinhaus.digital sammelt eine Mio. Euro für die Sanierungswende ein
Ein „KI-Architekt“, der Renovierungen von Bestandsimmobilien deutlich günstiger und schneller machen soll: Das PropTech meinhaus.digital hat eine Pre-Seed-Finanzierungsrunde in Höhe von einer Million Euro abgeschlossen.
Das von Leonie Dowling, Carolin Krebber und Ina Schröder gegründete PropTech-Start-up meinhaus.digital GmbH mit Sitz in Schwäbisch Gmünd und München hat frisches Kapital in Höhe von einer Million Euro eingesammelt. Angesichts eines Marktes für energetische Gebäudesanierung in Deutschland, in den laut dem Deutschen Institut für Wirtschaftsforschung jährlich über 70 Milliarden Euro fließen, verdeutlicht diese Investition das hohe Interesse an digitalen Lösungen für die Bau- und Immobilienbranche. Getragen wird die Finanzierungsrunde von der L-Bank Baden-Württemberg sowie Business Angels aus Stuttgart und München, zu denen auch der Start-up-Investor Martin Giese gehört.
Der Blick ins Register: Neustart statt Neugründung
Hinter meinhaus.digital stehen die drei Gründerinnen Leonie Dowling, Carolin Krebber und Ina Schröder, wobei Dowling und Krebber als Co-CEOs agieren. Ein Blick ins Handelsregister zeigt: Die rechtliche Keimzelle des Start-ups wurde von Dowling bereits 2021 unter dem Namen Palasts GmbH gegründet. Das Jahr 2025 markiert hingegen den operativen Neustart unter dem heutigen Namen meinhaus.digital sowie die Formierung des aktuellen Gründerinnen-Trios. Ungeachtet dieser Vorgeschichte ist das personelle Wachstum beachtlich. Seit 2025 wuchs das Team von drei auf zwölf Mitarbeiterinnen und Mitarbeiter an. Bis Ende 2026 soll die Belegschaft auf rund 30 Personen aufgestockt werden, wobei der Fokus stark auf den Bereichen Technologie, Vertrieb und Marketing liegt.
KI statt Architekt: Kampfpreis und OBI-Deal
Das Start-up positioniert sich als digitaler Planer für Umbau- und Sanierungsprojekte bei Bestandsimmobilien. Die Plattform kombiniert dafür eine KI-gestützte Software mit dem Fachwissen von echten Architektinnen, Architekten sowie der Energieberatung. Das Ziel ist es, Hauskäufer*innen und Eigentümer*innen eine transparente Maßnahmen-, Kosten- und Finanzierungsplanung aus einer Hand zu liefern. Das Versprechen der Gründerinnen, Planungsleistungen bis zu 70 Prozent günstiger und bis zu zehnmal schneller als klassische Architektenleistungen anzubieten, ist dabei eine klare Kampfansage an die traditionelle Zunft.
Um dieses Modell rasant in den Markt zu drücken, nutzt meinhaus.digital strategische B2B2C-Partnerschaften. Eine Kooperation mit der Baumarktkette OBI läuft bereits und soll die digitale Maßnahmenplanung mit der Umsetzungskompetenz des Marktes verknüpfen. Weitere Pilotprojekte mit Branchengrößen wie Check24, Wüstenrot und Schwäbisch Hall stehen kurz vor dem Roll-out. Damit soll der Kund*innenstamm von aktuell über 100 auf mehr als 4.000 skalieren, um langfristig den Umsatz bis 2027 zu verzehnfachen. Der Bedarf ist da, denn die reale Sanierungsquote hinkt den Klimazielen massiv hinterher, da Planungsleistungen für viele schlichtweg zu aufwendig und zu teuer sind.
Reality-Check: Kommt die Software gegen den Altbau an?
Doch die Vision vom digitalen Architekten muss sich in der harten Realität des deutschen Altbaubestandes erst noch dauerhaft beweisen. Jede Bestandsimmobilie bringt individuelle statische, bauphysikalische und rechtliche Tücken mit sich. Ob die hybride Lösung aus Software und menschlicher Expertise die Nuancen eines verbauten Altbaus lückenlos und fehlerfrei erfassen kann, muss sich in der Praxis zeigen. Auch das Versprechen, signifikant günstiger zu sein, birgt Risiken in puncto Profitabilität. Dies erfordert radikal standardisierte Prozesse im Hintergrund, um als VC-finanziertes Start-up dauerhaft profitable Margen zu erwirtschaften.
Hinzu kommt eine massive Konkurrenz. Der PropTech-Sektor ist heiß umkämpft und gut finanziert. Schwergewichte wie das Berliner Start-up Enter oder Fuchs & Eule positionieren sich bereits extrem stark und mit massivem Werbedruck im Bereich der digitalen Energieberatung, 3D-Modellierung und Fördermittelbeantragung. Das junge Team aus München und Schwäbisch Gmünd muss nun beweisen, dass die architektonische Tiefe ihres Produkts einen echten Burggraben gegenüber der reinen Energieberatung der Wettbewerber bildet.
Fazit: Smartes Playbook, harter Stresstest
Für die Start-up-Community liefert meinhaus.digital ein brillantes Playbook in Sachen Go-to-Market-Strategie. Anstatt das frische Kapital in teures, umkämpftes Endkund*innen-Marketing zu verbrennen, setzt das Team konsequent auf den B2B2C-Kanal. Die Integration in die etablierte Customer Journey von Playern wie OBI oder großen Bausparkassen ist ein top Hebel, um die Kund*innenakquisitionskosten drastisch zu senken und sich Vertrauen bei den Endkund*innen zu leihen.
Gründer*in der Woche: SpeakerMatching.com – Disruption auf der Bühne
Die Eventbranche wächst, doch die Suche nach den passenden Köpfen für die Bühne gleicht oft noch einem analogen Kraftakt. Mit der Plattform SpeakerMatching.com will eine erfahrene Seriengründerin den Spieß nun umdrehen. Es ist ein klassisches Plattform-Play ohne die üblichen Vermittlungsprovisionen – doch kann sich das Modell gegen etablierte Branchengrößen durchsetzen? Wir haben die Gründerin Henriette Hochstein-Frädrich befragt.
Hinter SpeakerMatching.com, im November 2025 als B2B-Marktplatz gelauncht, steht Henriette Hochstein-Frädrich. Sie kennt den Schmerz der Branche nicht nur vom Hörensagen. „Ich kenne den Markt nicht nur als Plattformunternehmerin, sondern auch aus zwei weiteren sehr praktischen Perspektiven: Seit vielen Jahren stehe ich selbst als Speakerin und Moderatorin auf Bühnen, und zugleich habe ich eigene Eventformate und Veranstaltungsreihen im Bereich modernes Female Empowerment konzipiert und umgesetzt“, erinnert sich die Gründerin.
„Gerade als Veranstalterin wurde mir immer wieder bewusst, wie zeitaufwendig, intransparent und teilweise zufallsgetrieben die Suche nach passenden Rednerinnen sein kann“, bringt sie das Kernproblem auf den Punkt. Gleichzeitig habe sie beobachtet, wie sich der Markt zunehmend professionalisiere: „Es gibt mehr Expertinnen, mehr Themen, mehr Formate, aber bislang keine wirklich zeitgemäße digitale Infrastruktur, die Angebot und Nachfrage effizient zusammenführt.“
Dass sie diese Infrastruktur bauen kann, hat sie in der Vergangenheit bewiesen: 2009 gründete sie Pharmatching.com, baute es zur Branchengröße auf und verkaufte es 2017. „Aus meinen früheren Plattformgründungen habe ich vor allem drei zentrale Lektionen mitgenommen: Erfolgreiche Marktplätze lösen ein echtes, konkretes Problem. Vertrauen und Qualität sind im B2B-Umfeld entscheidend. Und nicht zuletzt spielt Timing eine größere Rolle, als viele denken“, betont Hochstein-Frädrich.
Rollentausch statt Kaltakquise
Das Timing sei deshalb ideal, weil Veranstaltende heute Plattformlogiken und Self-Service-Modelle erwarten, wie sie sie aus anderen B2B-Märkten längst kennen. Der Kern von SpeakerMatching.com liegt in der Umkehrung des klassischen Buchungsprozesses. Veranstaltende formulieren ihr Gesuch kostenfrei auf der Plattform, woraufhin sich Speaker*innen direkt bewerben können. Das Start-up finanziert sich stattdessen über Abonnements für die Rednerinnen.
„Uns war von Anfang an wichtig, ein sehr niedrigschwelliges und zugleich faires Preismodell für Speaker*innen zu schaffen“, rechnet die Geschäftsführerin vor. Die monatlichen Mitgliedschaften liegen zwischen rund 59 und 89 Euro. „Wenn über die Plattform ein einzelner Auftrag im mittleren vierstelligen Bereich zustande kommt, hat sich die Investition für viele Redner*innen bereits mehrfach amortisiert.“ Sie stellt aber auch klar: „SpeakerMatching.com ist ein Marktplatz, kein Management- oder Vermittlungsvertrag.“
Doch wie verhindert man eine Flut an unpassenden Bewerbungen? „Die Sorge vor einer unüberschaubaren Bewerbungsflut ist absolut nachvollziehbar, gerade bei offenen Plattformmodellen“, räumt die Gründerin ein. Da Veranstaltende jedoch Parameter wie Budget, Zielgruppe oder Sprache sehr konkret vorgeben, entstehe eine starke Vorfilterung. „Unsere bisherigen Erfahrungen aus den ersten Monaten zeigen sehr deutlich: Unpassende ‚Blindbewerbungen‘ sind die absolute Ausnahme“, versichert Hochstein-Frädrich. Zwar sollen perspektivisch KI-basierte Funktionen eine stärkere Rolle spielen, doch die Vision bleibt menschlich: „Unser Ziel ist daher kein vollständig automatisiertes ‚Black-Box-Matching‘, sondern eine intelligente Plattform, die Entscheidungsprozesse vereinfacht und die Qualität der Interaktionen erhöht.“
Um das Problem des Bypassings – also den Abschluss an der Plattform vorbei – zu umgehen, werden Event-Gesuche zunächst anonymisiert veröffentlicht. „Erst wenn sie passende Bewerbungen erhalten und aktiv in den Austausch gehen möchten, geben sie ihre Identität preis“, erklärt die Gründerin den Prozess. „Wenn Speaker*innen über SpeakerMatching.com kontinuierlich relevante Anfragen erhalten und Veranstaltende effizient passende Expertinnen finden, entsteht eine stabile Win-Win-Dynamik. Genau darauf ist das Modell ausgelegt.“
Markt, Wettbewerb und organisches Wachstum
Der Markt wächst kontinuierlich, wird aber von großen Redneragenturen wie Speakers Excellence oder Premium Speakers dominiert. Diese arbeiten stark kuratiert und rufen oft hohe Vermittlungsprovisionen auf. Um in diesem zweiseitigen Markt das klassische Henne-Ei-Problem zu überwinden, verzichtet die Plattform auf der Veranstaltendenseite auf Gebühren.
Finanziert ist das Vorhaben bisher weitgehend aus eigener Kraft. „Aus meinen früheren Gründungen weiß ich, wie wichtig es gerade in der frühen Phase eines zweiseitigen Marktplatzes ist, Produkt, Zielgruppe und Marktmechanik zunächst sehr präzise zu verstehen und organisch zu entwickeln“, lautet ihr Credo. „Plattformmodelle brauchen Zeit, Vertrauen und kritische Masse, das lässt sich nicht ausschließlich mit Kapital ‚beschleunigen‘, sondern vor allem durch konsequenten Nutzen für beide Marktseiten“.
Dabei grenzt sie sich bewusst von stark kuratierten Agenturen ab. Der Mix aus etablierten Persönlichkeiten und neuen Stimmen sei genau das, was der Markt heute suche. Viele Unternehmen wünschen sich heute bewusst mehr Vielfalt auf ihren Bühnen. „Dabei verstehen wir Diversität nicht nur im klassischen demografischen Sinn, sondern auch als Vielfalt an Perspektiven, Erfahrungen und Denkweisen“, so Hochstein-Frädrich.
Den Vorstoß in Richtung Full-Service-Agenturen samt Ausfallversicherungen bremst sie indes ab. „Im Moment konzentrieren wir uns bewusst darauf, das Matching selbst so gut wie möglich zu machen. Alles Weitere kann – zumindest vorerst – auch von anderen Playern im Ökosystem übernommen werden.“
Fazit
Das Speaker-Business ist traditionell ein echtes People Business. Bei Keynotes für teils fünfstellige Honorare verlassen sich viele Großkund*innen gern auf die persönliche Beratung einer Agentur, die im Krankheitsfall sofort für Ersatz sorgt. Diesen Full-Service kann ein Self-Service-Marktplatz aktuell nur schwer vollumfänglich abbilden.
Dennoch ist SpeakerMatching.com ein mutiger und zeitgemäßer Angriff auf die verkrusteten und provisionsgetriebenen Strukturen der Eventbranche. Gelingt es, rasch eine kritische Masse an hochwertigen Event-Gesuchen zu generieren, hat die Plattform das Potenzial, Angebot und Nachfrage künftig deutlich schneller zusammenzubringen.
deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken
Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.
Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.
Vom Agenturgeschäft zur SaaS-Lösung
Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).
Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“
Plattformansatz für Inspektionsdaten
Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.
Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.
Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“
Marktumfeld & regulatorische Barrieren
Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.
Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.
Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.
Der technologische Burggraben im starken Wettbewerb
Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.
Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.
Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.
Finanzierung & Ausblick
Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.
Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."
Selbstständigen-Report 2026: Wachsender Frust in der Gründer*innen-Szene
Der neue Selbstständigen-Report 2026 zeichnet das Bild einer demoralisierten Leistungsträger*innenschicht: Immer mehr Selbständige schätzen ihre wirtschaftliche Lage als prekär ein und fühlen sich von der Politik im Stich gelassen. Doch wer steckt hinter diesen alarmierenden Zahlen, und wie ist die Lage für Gründer*innen und Start-ups strategisch einzuordnen?
Herausgegeben wird der Report als Gemeinschaftsprojekt von WISO MeinBüro und dem Verband der Gründer und Selbstständigen Deutschland e.V. (VGSD). Die aktuelle Umfrage, an der sich zwischen Mitte Dezember 2025 und Mitte Februar 2026 insgesamt 2684 Personen beteiligten, zeigt die harte Realität der Solo-Selbständigen.
Nur noch knapp 46 Prozent schätzen die Lage ihres Unternehmens als gut bis hervorragend ein. Der Report zeigt einen deutlichen Abwärtstrend: 2024 waren es noch 55 Prozent, im Jahr 2018 waren es sogar 60 Prozent. Thüringen bildet 2026 mit nur rund 37 Prozent Zufriedenheit das Schlusslicht. Nur in Brandenburg scheint sich die Lage gebessert zu haben: Dort bewerteten rund 46 Prozent der Befragten die wirtschaftliche Lage ihres Unternehmens als gut.
Rund 90 Prozent der Befragten teilten mit, dass sie sich als Selbständige überhaupt nicht bis wenig von der Politik respektiert fühlen. Rund 38 Prozent der Befragten haben in den letzten zwei Jahren darüber nachgedacht, auszuwandern. Bürokratie ist dabei der potenzielle Auswanderungsgrund Nummer eins, genannt von 41,6 Prozent der Umfrageteilnehmenden.
Ein besonderer Dorn im Auge der Unternehmer*innen ist zudem das heikle Thema Scheinselbständigkeit, dessen Dringlichkeit bei vielen Befragten noch nicht vollends angekommen zu sein scheint. Im behördlichen Prüfverfahren wird immer nur ein Auftraggebender konkret angeschaut. Dieses Statusfeststellungsverfahren birgt enorme rechtliche und finanzielle Unsicherheiten bei den Selbständigen.
Ebenso sorgt neue Gesetzgebung für Unmut: Seit dem 1. Januar 2026 gilt die Aktivrente. Rentner*innen können bis zu 2.000 Euro monatlich steuerfrei dazuverdienen, wenn sie in einem Angestellt*innenverhältnis sind. Selbständige Rentnerinnen und Rentner dagegen sind weiterhin voll steuerpflichtig. Rund 81 Prozent der Befragten finden diese Ungleichbehandlung ungerecht.
Fazit
Die Hauptmotivationen, selbständig zu sein, sind – wie auch bei den letzten beiden Befragungen – eigenbestimmtes Arbeiten und flexible Arbeitszeiten. Trotz aller Widrigkeiten würden sich mehr als 83,3 Prozent der Befragten wieder selbständig machen.
So zieht Dr. Andreas Lutz, VGSD e. V., das Fazit: „Die Ergebnisse zeigen eine Mischung aus dem für Selbstständige typischen Unternehmergeist, Resilienz und Durchhaltevermögen einerseits und einem hohen Maß an Frustration über die politischen Rahmenbedingungen andererseits. Viele Selbstständige blicken nicht optimistisch, aber sehr realistisch auf die Zukunft: Sie erkennen die Herausforderungen der Zeit, leiten Maßnahmen ab, treiben ihr Geschäft aktiv voran und tragen auch in schwierigen Zeiten Verantwortung. Dieses Potenzial für Wirtschaft und Gesellschaft muss die Politik erkennen und nutzen – und Bedingungen schaffen, die es ihnen nicht weiter unnötig schwer machen. Genau darin liegt die politische Botschaft dieses Reports.“
Der gesamte Report sowie weitere Informationen stehen hier zum kostenlosen Download bereit: https://www.meinbuero.de/selbststaendigen-report-2026/
Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet
Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.
Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.
planqc: Aus der Forschung in die Wirtschaft
Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.
Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.
Der schnelle Aufstieg: Millionen-Investments und Großaufträge
Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).
Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.
Das Problem: Der limitierte klassische Computer
Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.
Die Lösung: Ein hybrides Teamwork der Systeme
Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.
„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind
Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.
Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.
Fazit
Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.
Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor
Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.
Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.
Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).
Aus der Forschung in den Logistik-Dschungel
Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.
Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.
Intelligenter Layer statt Systembruch
Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.
Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.
Ist das wirklich eine neue Software-Kategorie?
Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?
- Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
- Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
- Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.
Wettbewerb und Markt
Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.
Einordnung & Ausblick
Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.
Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.
iDEL Therapeutics: 9 Mio. Euro für den Kampf um das Zellinnere
Das Dortmunder Start-up iDEL Therapeutics sichert sich neun Millionen Euro Seed-Kapital. Wie das Gründerteam mit seiner Krebstherapie-Plattform überzeugen konnte.
Das 2025 von Dr. Marcus Kostka, Dr. Andreas Briel und Dr. Jürgen Moll gegründete BioTech-Start-up iDEL Therapeutics hat in einer aktuellen Seed-Finanzierungsrunde insgesamt neun Millionen Euro eingesammelt. Die Runde wird vom Lead-Investor BioMedVC angeführt; zudem beteiligten sich der Gründerfonds Ruhr, der KHAN Technology Transfer Fund-II sowie die NRW.BANK. Allein die Förderbank für Nordrhein-Westfalen investierte über ihren Venture-Capital-Fonds NRW.Venture 3,5 Millionen Euro in das am Biomedizin Zentrum Dortmund ansässige Unternehmen. Dass VCs so viel Geld in ein junges Start-up stecken, dessen Erfolgschancen laut NRW.BANK selbst bei neuartigen Marktideen oftmals nur schwer abzuschätzen sind, liegt vor allem an einem Faktor: dem Team.
Hinter iDEL stehen erfahrene Akteure. Das Unternehmen wurde von einem Team aus „Serial Entrepreneurs“ und Industrieexperten ins Leben gerufen. Co-Founder und CEO Dr. Marcus Kostka, der zuvor die Geschicke der Abalos Therapeutics lenkte, und Mitgründer Andreas Briel (u. a. nanoPet Pharma, XIRALITE) setzen von Beginn an auf eine strikt kapitaleffiziente Strategie. Die neun Millionen Euro sind so berechnet, dass sie dem Team einen soliden Runway geben. In dieser Zeit sollen die Voraussetzungen für eine klinische Bewertung der neuen Technologie geschaffen werden.
Der technologische Schlüssel: "Direct Cytosolic Transfer"
Der medizinische Ansatz von iDEL Therapeutics ist ein sogenanntes Drug Delivery System. Solche Wirkstofftransportsysteme sollen Medikamente präzise zu ihrem Zielort im Körper manövrieren. Die größte Hürde moderner Krebsmedikamente ist es nämlich, in das Innere einer Tumorzelle zu gelangen, ohne zuvor im Zellapparat (den Endosomen) gefangen und abgebaut zu werden.
Genau hier setzt das Start-up mit seiner proprietären Shuttle-Technologie an: Die Lösung zielt spezifisch auf Krebszellen ab und befördert die Wirkstoffe direkt ins Zellinnere. Gesunde Zellen werden dabei geschont. Dieser Ansatz soll bestehende und bisher unzugängliche intrazelluläre Ziele angreifbar machen, was die Nebenwirkungen der Behandlung reduziert und zugleich die Wirksamkeit der Krebstherapie erhöhen soll.
Zwischen enormem Potenzial und hohem Risiko
Das Geschäftsmodell von iDEL ist ein klassisches "Platform-Play". Anstatt sich auf ein einziges Medikament zu versteifen, baut das Unternehmen eine Pan-Krebs-Plattform auf, die auf eine Vielzahl von Tumoren angewendet werden kann. Das Ziel für die nächsten Jahre ist es, den präklinischen "Proof-of-Concept" zu erbringen. Gelingt dies, öffnet sich der Weg für lukrative Lizenzabkommen (Out-Licensing) mit großen Pharmaunternehmen, die solche Türöffner-Mechanismen für ihre eigenen Wirkstoffe benötigen.
Gleichzeitig agiert iDEL in einem extrem kompetitiven "High Risk, High Reward"-Umfeld. Der globale Onkologie-Markt ist zwar gigantisch, doch im Bereich des "Targeted Drug Delivery" herrscht ein massiver Verdrängungswettbewerb mit etablierten Technologien wie Antibody-Drug Conjugates (ADCs) oder Lipid-Nanopartikeln (LNPs). iDEL muss beweisen, dass die eigene Plattform diesen Vehikeln in puncto Sicherheit und Wirksamkeit überlegen ist. Sollten sich toxische Effekte zeigen oder die In-vivo-Daten die Laborergebnisse nicht stützen, droht das frühzeitige Aus.
Blaupause für Deep-Tech-Gründer
Für die Start-up-Szene liefert iDEL Therapeutics dennoch ein exzellentes Lehrstück dafür, wie Deep-Tech-Finanzierung funktioniert:
- Execution-Sicherheit durch Erfahrung: Investoren honorieren Branchenerfahrung – gerade bei technologieorientierten Unternehmen, die oftmals keine klassischen Bankkredite erhalten.
- Plattform schlägt Einzelprodukt: Eine vielseitig einsetzbare und lizenzierbare Technologie streut das Risiko der Geldgeber massiv.
- Klare Meilensteinfokussierung: Das Team nahm zielgerichtet genau das Budget auf, das für den nächsten entscheidenden Validierungsschritt in Richtung klinischer Bewertung benötigt wird.
10 Mio. Euro für Würzburger DeepTech-Start-up WeSort.AI
Das 2021 von Nathanael Laier und Johannes Laier gegründete WeSort.AI nutzt KI und Röntgen, um wertvolle Rohstoffe aus dem Abfall zu retten. Alles zur neuen 10-Mio.-Finanzierung.
Ein kurzes Aufblitzen, gefolgt von beißendem Rauch: Falsch entsorgte Lithium-Ionen-Akkus sind der Albtraum jedes Recyclinghof-Betreibers. Über 50 Prozent aller entsorgten Elektrogeräte und Batterien landen nicht bei spezialisierten Recyclern, sondern im Restmüll oder der gelben Tonne. Dadurch entstehen zahlreiche Brände im Recyclingprozess und wertvolle Rohstoffe wie Lithium, Kobalt und Seltene Erden gehen verloren. Diese Materialien klassifiziert die EU als Critical Raw Materials (CRM), deren Verfügbarkeit entscheidend für die Unabhängigkeit von Drittstaaten ist. Genau in diese schmerzhafte Lücke stößt das Würzburger DeepTech-Start-up WeSort.AI. Das Unternehmen hat sich Finanzierungsmittel in Höhe von zehn Millionen Euro gesichert, um seine KI-basierte Technologie zur Rückgewinnung kritischer Rohstoffe aus Recycling-Anlagen weiter zu skalieren.
Von der Vision zum prämierten Start-up
Hinter WeSort.AI stehen die Gründer Nathanael Laier und Johannes Laier, die das Unternehmen Ende 2021 mit Sitz in Würzburg aus der Taufe hoben. Als die Brüder die veralteten Trennverfahren der globalen Müllsortierung analysierten, erkannten sie das gewaltige, ungenutzte Potenzial von Digitalisierung in diesem Sektor. Der Aufstieg seit der Gründung verlief rasant. Die Kombination aus Unternehmergeist und technischem Know-how gipfelte kürzlich im Gewinn der Tech Metal Transformation Challenge der Bundesagentur für Sprunginnovationen (SPRIND). Dass die Vision der Brüder auch auf politischer Ebene Anklang findet, beweisen zudem weitere Förderzusagen in Millionenhöhe, unter anderem vom BMWE, dem BMFTR und dem Land Bayern, mit denen das Team seine Sortiertechnologie nun weiter optimieren will.
Brandprävention als lukrativer Türöffner
Die Technologie der Würzburger liest sich wie Science-Fiction für den Müllbunker. Das KI-Sortiersystem erkennt mit Hilfe von künstlicher Intelligenz, Spezialkameras und Röntgen Batterien und Elektroschrott automatisch in falschen Abfallfraktionen und sortiert sie zurück ins fachgerechte Recycling. Die Technologie kann dabei verschiedenste gefährliche oder wertvolle kritische Rohstoffe aus diversen Abfallarten wie Altfahrzeugen, Elektronik, Bauabfällen, Industrie und Haushalt aussortieren. Das Geschäftsmodell ist äußerst smart positioniert, da es einen ökologischen Makro-Trend mit einem hochaktuellen betriebswirtschaftlichen Schmerzpunkt verbindet. Das System verhindert nicht nur Brände in Müllverarbeitungsanlagen, sondern sichert auch die Rückgewinnung strategisch wichtiger Rohstoffe.
Dass das System bereits seit 2024 bei führenden Entsorgungsunternehmen wie KORN Recycling und PreZero, einem Teil der Schwarz Gruppe, im Einsatz ist, belegt einen frühen und starken Product-Market-Fit. Zudem surft das Unternehmen geschickt auf der Welle der Geopolitik, denn der EU Critical Raw Material Act setzt ambitionierte Ziele für die europäische Rohstoffunabhängigkeit. Europa ist heute stark abhängig von Importen kritischer Materialien, was wirtschaftliche und geopolitische Risiken birgt. Indem WeSort.AI bisher ungenutzte kritische Rohstoffe aus dem Abfall zurückgewinnt, erschließt das Start-up laut Gründer Nathanael Laier eine bisher ungenutzte urbane Mine und trägt direkt zur Umsetzung der EU-Vorgaben bei.
Markt & Wettbewerb
Das frische Kapital von zehn Millionen Euro stammt von führenden europäischen Impact-Investoren wie Infinity Recycling, dem Green Generation Fund und der Corporate-Venture-Einheit vent.io. Zustande kommt die Finanzierung zudem mit Unterstützung des BayStartUP-Investorennetzwerks.
Doch diese Mittel treffen auf einen hart umkämpften Markt, der sich grob in drei Segmente unterteilen lässt. Allen voran stehen die etablierten Anlagenbau-Goliaths wie das norwegische Milliardenunternehmen Tomra oder das deutsche Traditionsunternehmen Steinert. Diese Branchenriesen dominieren den Markt für sensorgestützte Sortierung historisch und rüsten ihre eigenen Systeme massiv mit Deep-Learning und KI auf.
Neben diesen Giganten drängen extrem gut finanzierte internationale Scale-ups auf den deutschen Markt. Unternehmen wie Recycleye oder Greyparrot aus Großbritannien bringen ihre KI-gesteuerten Analytik- und Robotiksysteme in europäische Anlagen und kooperieren hier bereits mit etablierten Anlagenbauern.
Auch die heimische Start-up-Konkurrenz schläft nicht, wie etwa das Bremer Start-up WasteAnt zeigt, welches Sensorik zur Qualitätskontrolle direkt bei der Müllanlieferung einsetzt.
WeSort.AI versucht, sich in dieser Gemengelage durch einen klaren USP abzugrenzen. Peter Dorfner, Partner beim Green Generation Fund, zeigt sich besonders davon überzeugt, dass die Battery-Sort-Lösung weltweit in ihrer Form einzigartig ist und mit ihrem Patent auf dem internationalen Markt stark vor Wettbewerb geschützt ist.
Ausblick & Einordnung
Es lohnt sich ein zweiter Blick auf die vor WeSort.AI liegenden Herausforderungen. Das Unternehmen entwickelt physische Systeme für eine der rauesten Industrieumgebungen der Welt, was die Hardwareentwicklung extrem kapitalintensiv macht. Die Abfallwirtschaft gilt zudem als eher konservativ, was oft in langen B2B-Vertriebszyklen bei der Integration neuer Hardware in bestehende Infrastrukturen mündet.
Dennoch löst WeSort.AI durch die Vermeidung von Bränden und die Rückgewinnung kritischer Rohstoffe eines der größten Probleme der Branche. Gelingt es dem Gründer-Duo, die Sortiertechnologie weiter zu optimieren und in neue Anwendungen zu skalieren, hat das Start-up beste Chancen, sich als ein führender Anbieter für KI-gestützte Rückgewinnung kritischer Rohstoffe in Europa zu positionieren. Der starke Rückenwind durch EU-Regularien und die eklatante Schmerzgrenze der Entsorger bei brennenden Anlagen bleiben dabei die stärksten Verkaufsargumente.
50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert
Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.
Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.
Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.
Vom Side-Project zur modularen Architektur
Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.
Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.
Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.
Das Open-Core-Modell auf dem Prüfstand
Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.
Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.
Im Haifischbecken der Tech-Giganten
In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.
Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.
Lektionen für die Start-up-Szene
Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.
Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.
Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.
MAxL: Der Vorgründungs-Turbo für die Biotech-Branche
Keine Gründung ohne präzise Vorbereitung: Mit dem Inkubator MAxL bringt BioM Biotech-Projekte aus dem akademischen Umfeld direkt auf den Radar von Venture-Capital und Pharma-Riesen. Christina Enke-Stolle und Dr. Petra Burgstaller – sie haben die Leitung des Gründungsbereichs bei der Biotech Cluster Management Organisation BioM inne – sprechen über die größten Hürden vor der Gründung, selektive Investoren und erste Millionen-Erfolgsstorys aus dem Inkubator.
Wie unterscheidet sich MAxL von anderen Inkubatoren, was zeichnet Ihren Inkubator besonders aus?
Enke-Stolle: Mit MAxL wollen wir für die vielversprechendsten Start-ups im Bereich der Biomedizin und Biotechnologie die besten Rahmenbedingungen schaffen, einerseits in Form von State-of-the-Art-Infrastruktur und andererseits mit einem umfassenden Unterstützungsprogramm. Das Besondere an MAxL ist die Fokussierung auf die Vorgründungsphase, also Projekte und Gründungsteams, die noch ein bis zwei Jahre vor der Ausgründung stehen. Wir haben uns mit MAxL zum Ziel gesetzt, die Teams in dieser entscheidenden Phase der Translation bestmöglich dabei zu unterstützen, die richtigen Entscheidungen zu treffen und ihre Projekte bereits frühzeitig auf die Anforderungen von Investoren und auch späteren Industriepartnern wie Pharmaunternehmen auszurichten. Im Rahmen der Inkubation durch MAxL sollen für Investoren attraktive Geschäftsmodelle entstehen und überzeugende, professionelle Datenpakete generiert werden. MAxL-Teams profitieren auch entscheidend vom umfassenden Netzwerk von BioM, sei es zu potenziellen Kunden, Industriepartnern als auch Investoren.
Worauf sollten angehende Gründer*innen beim Tech-Transfer von Biotech-Themen besonders achten, mit welchen Hürden müssen sie rechnen?
Burgstaller: Ganz entscheidend zu Beginn ist oft eine durchdachte IP-Strategie. Gerade in der Biotechnologie, wo die Entwicklung meist kapitalintensiv ist, sind belastbare Schutzrechte in der Regel ein zentraler Werttreiber. Hierzu bieten wir Teams Erstberatungen durch unsere ehrenamtlichen Patentmentoren an.
Enke-Stolle: Wichtig ist auch, ausreichend Zeit für die Gewinnung von Investoren einzuplanen und die Investoren zielgerichtet anzusprechen. Wir unterstützen unsere Teams bei der Erstellung von überzeugenden Pitch Decks und vermitteln persönliche Kontakte zu Investoren. Außerdem bieten wir ihnen über unsere Veranstaltungen die Möglichkeit, sich wirkungsvoll zu präsentieren. Im Rahmen unserer Eventserie „MAxL Meets the Money“ stellen Investoren sich und ihre Investmentstrategie außerdem in einem informellen Setting vor, sodass unsere Gründer auch den Blickwinkel und das Konzept von Venture Capital verstehen und den jeweiligen Fokus der wichtigsten Player kennen.
Burgstaller: Im Hinblick auf experimentelle Daten, die noch im akademischen Umfeld erhoben werden, und Entwicklungspläne ist es wie bereits erwähnt wichtig, die eigenen Projekte frühzeitig so auszurichten, dass sie Anforderungen aus der Industrie gerecht werden. Produkte wie neuartige Therapeutika sollten hier schon zu Beginn „vom Ende gedacht“ werden: Es geht nicht nur um die Frage „Können wir etwas wissenschaftlich Spannendes entwickeln?“, sondern um Fragen wie „Würde es jemand zulassen, bezahlen, einsetzen – und kaufen?“. Dabei setzen wir bei MAxL neben einer intensiven Begleitung durch unsere MAxL-Mentoren auch auf eine enge Zusammenarbeit mit Pharma. 2025 etwa haben wir eine Kooperation mit dem japanischen Pharmaunternehmen Daiichi Sankyo geschlossen. Daiichi unterstützt ein ausgewähltes Start-up im MAxL, indem es für zwölf Monate die Kosten für den Inkubator übernimmt und mit seinen Experten in der Wirkstoffentwicklung für Fragen des Start-ups zur Verfügung steht. Weitere solche „Golden Ticket-Kooperationen“ sind in der Anbahnung.
Nach welchen Kriterien wählt MAxL Start-ups für das Programm aus?
Burgstaller: Die beiden wichtigsten Kriterien sind ein innovatives Produkt- und Geschäftskonzept und ein talentiertes Gründerteam, dem wir zutrauen, das Konzept auch erfolgreich umzusetzen. Im Bereich der Therapeutikaentwicklung gibt es im Team idealerweise bereits Hands-on Erfahrung im Bereich Drug Development. Wenn das noch nicht der Fall ist, ist es entscheidend, dass das Team offen dafür ist, sich erfahrene Leute ins Team zu holen und/oder von erfahrenen Personen zu lernen.
Enke-Stolle: Bei Projekten, die ins MAxL ziehen möchten, muss schon ein erster Proof of Principle erbracht sein. Lediglich eine Idee zu haben, wäre zu früh für unseren Inkubator. Für das innovative Produkt sollte es einen hohen medizinischen Bedarf und klare Alleinstellungsmerkmale geben, und es sollte möglich sein, eine tragfähige Schutzrechtstrategie zu entwickeln. Die meisten der aktuellen MAxL-Projekte sind durch ein akademisches Pre-Seed- oder Validierungsförderprogramm finanziert. Wir unterstützen aber auch Spin-outs aus bestehenden Unternehmen, wenn Mittel vorhanden sind, um das Projekt in ein bis zwei Jahren experimentell und kommerziell so weiterzuentwickeln, dass ein entscheidender Meilenstein erreicht werden kann.
Burgstaller: Zudem haben Teams einen zusätzlichen Pluspunkt, wenn ihre Expertise und ihr Ansatz auch einen Mehrwert für aktuelle MAxL-Teams bieten und sich daraus spannende Synergien ergeben. Eines unserer Ziele im MAxL ist die Förderung von interdisziplinärer Zusammenarbeit, zum Beispiel zwischen Teams, die Wirkstoffe entwickeln, und solchen, die Algorithmen im Bereich der Wirkstoffentwicklung entwickeln.
Wie viele Start-ups hat MAxL bislang begleitet, welche Erfolgsstory erzählen Sie besonders gern?
Burgstaller: MAxL wurde im Juni 2024 eröffnet und hat seitdem nach und nach neue Teams aufgenommen. Inzwischen sind zehn Teams im MAxL; weitere Aufnahmen bereiten wir derzeit vor. Einen wichtigen ersten Meilenstein konnte nun Twogee Biotech erreichen. Das 2025 gegründete Start-up um Frank Wallrapp und Helge Jochens ist seit Herbst 2024 im MAxL und entwickelt maßgeschneiderte Enzymlösungen zur industriellen Verwertung von Biomasse zu nachhaltigen Rohstoffen. Vor Kurzem konnte Twogee erfolgreich eine Seed-Finanzierungsrunde über 2,16 Mio. EUR abschließen. Zu den Investoren zählen der High-Tech Gründerfonds (HTGF) und Bayern Kapital sowie strategische Partner. Das Team konnte auch bereits eine Reihe von Pilotkunden für seinen Ansatz gewinnen. Eine Erfolgsgeschichte des BioM-Angebots für Start-ups ist natürlich auch Tubulis: Das Unternehmen nahm 2015 am BioM BioEntrepreneur Bootcamp teil, erhielt 2017 den m4 Award und eine Förderung durch exist, wurde 2019 gegründet und konnte seitdem mit seinen innovativen Antibody-Drug-Conjugates für die Krebstherapie über 540 Mio. EUR einwerben.
Wie bewerten Sie das aktuelle Finanzierungsumfeld für frühphasige Biotech-Start-ups?
Enke-Stolle: Für sehr frühphasige Biotech-Start-ups ist das Finanzierungsumfeld aktuell weiterhin schwieriger als noch vor ein paar Jahren. Wie wir an Twogee sehen, ist es zwar nach wie vor möglich, erfolgreiche Seed-Finanzierungen einzuwerben, aber die Investoren sind momentan deutlich selektiver und risikoaverser. Für umso wichtiger halten wir es aktuell, die Teams mit Instrumenten wie MAxL möglichst früh professionell zu unterstützen, damit sie mit überzeugenden Datenpaketen und durchdachten Entwicklungsplänen im internationalen Wettbewerb gut aufgestellt sind.
Frau Burgstaller und Frau Enke-Stolle – vielen Dank für das Gespräch
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Gründer*in der Woche: Herita Technologies – Supply Chain Financing neu gestaltet
Das Berliner FinTech Herita Technologies wurde 2025 von Christoph Iwaniez, Benjamin Jones und Felix Kollmar mit der gemeinsamen Mission gegründet, globale Handelsfinanzierung zu vereinfachen, Abhängigkeiten zu reduzieren und nachhaltiges Wachstum in allen Branchen zu fördern. Mehr dazu im Interview mit dem Co-Founder & CEO Christoph Iwaniez.
Wer sind die Köpfe hinter Herita Technologies und was hat euch 2025 angetrieben, Herita zu gründen?
Wir sind zu dritt gestartet: Felix, Ben und ich. Felix hat ein Industry-Tech-Unternehmen erfolgreich aufgebaut und verkauft – er kennt den deutschen Mittelstand und die Herausforderungen aus der ersten Reihe. Mit seinem Netzwerk und seiner Erfahrung bringt er uns erfolgreich in den Markt. Ben und ich haben schon einmal gemeinsam ein FinTech aufgebaut. Er war CTO bei Bitwala und hat mich damals als Late Co-Founder ins Team geholt. Diesmal war ich derjenige, der ihn überzeugt hat, wieder gemeinsam etwas aufzubauen – und er baut jetzt die gesamte technische Plattform.
Welches primäre Geschäftsmodell verfolgt ihr mit Herita?
Die Lücke zwischen geforderten Zahlungszielen und Liquiditätsbedarf von Lieferanten wächst – und niemand löst sie wirklich gut. Factoring erreicht nur wenige große Lieferanten, und klassische SCF-Programme der großen Banken sind schwerfällig und teuer. Und da kommt die unternehmerische Opportunität ins Spiel.
Seit 2024 kann der Handelswechsel vollständig digital abgebildet werden. Damit wird ein jahrhundertealtes, rechtlich starkes Instrument plötzlich global skalierbar – ohne Papier, ohne Unterschriftenchaos, ohne Bankabhängigkeit. Darauf baut Herita auf. Wir kombinieren diese neue rechtliche Opportunität mit einer modernen Plattform. Unsere Technologie hilft Unternehmen, ihren Lieferanten und Kapitalgebern viel effizienter Supply Chain Financing abzuwickeln. Unser Modell ist einfach: Wir helfen Lieferketten zu finanzieren – aber ohne die Hürden und Einschränkungen traditioneller Bankprodukte.
Welche Meilensteine habt ihr bislang erreicht?
Wir haben vor wenigen Wochen den ersten vollständig digitalen Handelswechsel über unsere Plattform ausgestellt, übertragen und refinanziert – echte Transaktion, echtes Geld, korrekt verbucht in allen Systemen. Jetzt erweitern wir die Plattform so, dass Unternehmen ihre gesamten Lieferantenprogramme damit steuern können – von der Ausstellung bis zur Refinanzierung.
Nochmals auf den Punkt gebracht: Welche konkreten Probleme löst ihr für eure Kund*innen besser als bestehende Lösungen bzw. was unterscheidet euch heute von Wettbewerber*innen im FinTech-Sektor?
Wir lösen ein ganz akutes Problem in internationalen Lieferketten: Unsere Kunden wollen ihr working capital optimieren und verlängern zunehmend Zahlungsziele im Einkauf. Aber ihre Lieferanten brauchen Liquidität, viele davon sind zu klein oder in Ländern ansässig, in denen es keinen Zugang zu klassischen SCF-Programmen gibt.
Herita macht zwei Dinge besser:
1. Unsere Technologie ermöglicht Zugang zu Finanzierung für Unternehmen und ihre Lieferanten, die Banken gar nicht erst erreichen.
2. Wir ermöglichen Programme, die international funktionieren, auch dort, wo traditionelle Anbieter nicht aktiv sind.
Kurz gesagt: Wir bringen Kapital dorthin, wo es gebraucht wird – effizient, rechtssicher, global und ohne die hohen Transaktionskosten klassischer Lösungen.
Wie habt ihr die Startphase finanziell gestemmt?
Am Anfang vor allem durch das, was Gründer am meisten investieren: Zeit, Passion für eine innovative Lösung und persönlichen Einsatz.
Dann haben wir eine erste kleine Runde mit Angel-Investoren und frühen VCs aufgenommen, die an unsere These glauben und uns über reines Kapital hinaus mit Netzwerken und Know-how unterstützen.
Ihr habt im letzten Jahr an der renommierten EY Startup Academy teilgenommen. Was war eure Motivation, wie hast du das sechswöchige Programm erlebt und was hat es euch letztlich gebracht?
Für uns war das EY-Programm eine riesige Chance, uns mit Experten aus vielen Bereichen auszutauschen. Umgekehrt konnten wir mit diesen Sparringspartnern unser Produkt auf den Prüfstand stellen. Optimalerweise treffen wir bei den EY-Kollegen auf entsprechende Resonanz für mögliche gemeinsame Initiativen, weil Working Capital, Risiko und Supply Chains überall auf der Agenda stehen.
Am Ende der Academy konntet ihr euch beim großen Pitch-Finale gegen zehn Mitstreiter*innen durchsetzen und den EY Startup Academy Award 2025 gewinnen. Was bedeutet euch diese Auszeichnung?
Für uns war der Pitch das eigentliche Ziel. Wir mussten uns selbst hinterfragen, unser Produkt schärfen und den besten Weg finden, unser Geschäftsmodell in wenigen Minuten klar auf den Punkt zu bringen. Dass wir nun eine Bestätigung haben, dass wir eine ansprechende und ganz konsistente Vorstellung von Herita abrufen können, hilft uns in jedem anstehenden Gespräch mit Kunden und potenziellen Investoren.
Was sind eure weiteren unternehmerischen Vorhaben?
Wir wollen jetzt unsere ersten Top-Kollegen an Bord holen und Herita breiter aufstellen. Gleichzeitig stehen die ersten Kunden schon bereit – jetzt geht es darum, sauber zu liefern und den Erwartungen an unseren Mehrwert gerecht zu werden.
Und last, but not least: Was rätst du anderen Gründer*innen aus eigener Start-up-Erfahrung.
Stärkt eure Resilienz. Gründen ist kein Sprint, sondern ein Weg mit vielen Hindernissen, Rückschlägen und Momenten der Unsicherheit. Wer das aushält und immer weiter geht, kann unglaublich viel gewinnen: die Chance, etwas Eigenes zu bauen und eine Idee Wirklichkeit werden zu lassen.
Hier geht's zu Herita Technologies
Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab
Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.
Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.
Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.
Aus dem Drucklabor zum DeepTech
Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.
Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.
Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut
Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).
Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.
Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos
Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.
In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.
Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.
Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.
Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen
Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.
Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.
Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.
Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.
Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.
