Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding

Autor: David Padilla
44 likes

Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.

In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?

Das Phänomen des Tool-Hoardings

Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.

Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.

Die versteckten Kosten des Tool-Hoardings

Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.

Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.

Sicherheits- und Datenschutzrisiken

Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.

Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.

HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?

Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?

Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.

Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung

Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.

Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.

Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.

Fazit: Klasse statt Masse

Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.

Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.

Better Sol: Zweites Leben für die Solarwende

Wie das 2023 von Mirko Laube und Luisa Schulze gegründete Start-up Better Sol den PV-Gebrauchtmarkt aufmischen will.

Das Braunschweiger Start-up Better Sol erhält rund 125.000 Euro Förderung aus dem „Green Startup“-Programm der Deutschen Bundesstiftung Umwelt (DBU), um gebrauchte Solarpaneele in großem Stil zurück in den Markt zu bringen.

Hinter dem Start-up stehen Luisa Schulze und Mirko Laube. Better Sol entstand ursprünglich im Sommer 2022 als Ausgründung des Magdeburger Recycling-Unternehmens Solar Materials und agiert seit 2023 als eigenständige GmbH am Standort Braunschweig. Während sich die ehemalige Muttergesellschaft auf das komplexe werkstoffliche Recycling von Modulen konzentriert, widmet sich Better Sol voll und ganz dem „Second Life“ – also der direkten Wiederverwendung der noch intakten Platten.

KI-gestützte Prüfung statt Schredder

Die Beschaffungsseite von Better Sol zielt primär auf große Solarparks ab. Die Betreiber tauschen dort häufig größere Mengen an Solarmodulen recht früh in ihrem Lebenszyklus durch neuere, leistungsstärkere Modelle aus. Um diese Module vor dem Müll zu bewahren, hat das Better-Sol-Team mittels DBU-Förderung ein in Teilen automatisiertes Testsystem mit eigener Software auf Basis künstlicher Intelligenz (KI) entwickelt.

Der Prüfprozess beginnt mit einer mehrstufigen optischen Untersuchung, bei der sowohl grobe Beschädigungen als auch jede Solarzelle einzeln begutachtet werden. Im Anschluss folgen eine eingehende Prüfung der elektrischen Sicherheit sowie eine Leistungsüberprüfung, die misst, wie viel Watt das Produkt im Vergleich zur ursprünglichen Leistung noch liefert. Die Software führt all diese Daten automatisiert zu einer detaillierten Leistungsprognose zusammen. Jedes funktionstüchtige Modul erhält ein Label mit den Testdaten, einer zugewiesenen Leistungsklasse und einem umfangreichen Prüfprotokoll. Nur der endgültige Rest wird zum Recycling aussortiert. Der Vertrieb erfolgt direkt über die Internetseite von Better Sol. Zielgruppe sind oft Privathaushalte oder die Dächer größerer Fabrikhallen.

Der Markt und die Technologie im Wettbewerbsvergleich

Nach Angaben des Statistischen Bundesamtes verbucht die Photovoltaik mittlerweile einen Anteil von etwa 24 Prozent und ist damit der zweitwichtigste Energieträger der inländischen Stromerzeugung. Das Reservoir an ausgemusterten, aber noch funktionierenden Modulen wächst rasant. Laut Schulze ist im Schnitt jedes zweite gebrauchte Solarmodul noch für eine erneute Nutzung geeignet. Doch der Gebrauchtmarkt professionalisiert sich zusehends.

Better Sol setzt aktuell auf eine pragmatische, KI-gestützte Teilautomatisierung und plant als nächsten logischen Entwicklungsschritt eine mobile Testanlage, um die Solarmodule direkt dort zu testen, wo sie ausgemustert werden. Genau in diesem logistisch entscheidenden Bereich der Vor-Ort-Prüfung operiert bereits der etablierte Wettbewerber 2ndlifesolar, eine Marke der großen Buhck Gruppe. 2ndlifesolar greift auf ein deutschlandweites Logistiknetzwerk zurück und kombiniert stationäre Erstbehandlungsanlagen mit mobilen Prüflaboren. Technologisch geht das Unternehmen tief in die industrielle Qualitätssicherung und führt standardmäßig Elektrolumineszenz-Prüfungen durch, um unsichtbare Mikrorisse im Vorfeld zu detektieren.

Einen völlig anderen, stark hochskalierten Weg bestreitet das österreichische CleanTech-Start-up 2nd Cycle. Das Unternehmen betreibt eine vollautomatische Inspektions- und Upcycling-Anlage im industriellen Hochdurchsatz und nutzt neben klassischer Robotik auch patentierte hyperspektrale Analysen aus der Raumfahrt, um Zellalterungen frühzeitig zu erkennen.

Der Schlüssel zum wirtschaftlichen Erfolg

Das Vorhaben von Better Sol leistet einen fundamentalen Beitrag, um noch leistungsfähige Materialien durch geschickte Kreislaufwirtschaft für eine Weiternutzung zu erhalten, damit die Bemühungen für mehr erneuerbare Energien nicht ins Stocken geraten. Dennoch muss sich das Geschäftsmodell in einem harten Wettbewerb beweisen.

Die Handwerkerkosten für den Aufbau einer PV-Anlage auf einem Eigenheim sind hoch und fallen völlig unabhängig davon an, ob man neue oder gebrauchte Paneele installiert. Gleichzeitig steht der Markt unter enormem Preisdruck durch historisch günstige asiatische Neuware. Wenn fabrikneue Module extrem billiger werden, schwindet das Argument der finanziellen Ersparnis bei Gebrauchtmodulen mit kürzerer Restlebensdauer. Der Schlüssel zum wirtschaftlichen Erfolg von Better Sol liegt daher in der rigorosen Minimierung der eigenen Logistik- und Prozesskosten. Die geplante mobile Testanlage und die zusätzliche Automatisierung des Testsystems sind für das Start-up essenziell, um künftig auch größere Ausmusterungen von Solarparks wirtschaftlich bewältigen zu können.

StartingUp-DeepTech-Watchlist 2026

Von „German Engineering“ zu „German DeepTech“: Diese jungen Start-ups und Scale-ups zünden 2026 die nächste Stufe – und sollten zwingend auf dem Radar von Investor*innen und Entscheider*innen stehen.

„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen.“ Dieser Ausspruch unterstreicht die Herausforderung, die Dynamik unseres Start-up-Ökosystems vorherzusagen. Doch wer 2025 aufmerksam verfolgt hat, der spürt: Es hat sich etwas gedreht. Der Investor*innenfokus hat sich verschoben – weg von reinen E-Commerce-Modellen, hin zu substanzieller Technologie, die echte physikalische Probleme löst.

Die folgende Auswahl an Start-ups und Scale-ups, mit denen 2026 gerechnet werden sollte, ist mehr als eine Watchlist. Sie basiert auf einer Analyse der signifikanten Finanzierungsrunden 2025, der technologischen Reife und der Resonanz bei bedeutenden Preisen. Diese Unternehmen stehen beispielhaft für eine Gründer*innengeneration, die Wissenschaft und Skalierung vereint. Natürlich bleibt ein Restrisiko. Unwägbarkeiten – von geopolitischen Instabilitäten über regulatorische Verschärfungen wie dem EU AI Act bis hin zu volatilen Zinsmärkten – können die nahe Zukunft beeinflussen. Doch die Resilienz dieser Unternehmen stimmt optimistisch.

DefenseTech: Die neue Realität der Sicherheit

Lange war Verteidigungstechnologie in Deutschland ein Tabuthema für Risikokapitalgeber. Das hat sich grundlegend geändert. Ganz oben auf der Watchlist steht neben dem Münchner Start-up Helsing nun das 2024 gegründete Black Forest Labs. Das Geschäftsmodell ist faszinierend, weil es die Grenzen zwischen kreativer Zerstörung und Sicherheitstechnologie verwischt. Es basiert auf der Entwicklung proprietärer State-of-the-Art-Modelle für generative Videoerzeugung. Nach einer spektakulären 300-Mio.-USD-Runde im Dezember 2025 katapultierte sich die Bewertung auf satte 3,25 Milliarden USD. Das Start-up ist damit Deutschlands wertvollste KI-Firma und beweist, dass Europa bei Generative AI den Anschluss nicht verloren hat. Der globale Siegeszug deutet sich 2026 unter anderem in einem mehrjährigen Vertrag mit Meta sowie in Kooperationen mit US-Plattformen wie X und Hollywood-Studios an, die Produktionskosten senken wollen. Mitgründer Robin Rombach prognostizierte im Sifted-Podcast: „2026 wird generative Video-KI zum industriellen Standard in der Medienproduktion.“ Doch auch bei der Simulation für Sicherheitsszenarien spielt die Technologie eine wachsende Rolle.

Ein weiterer Schlüsselakteur ist Stark Defence. Das 2024 gegründete Münchner Start-up adressiert eine Lücke der modernen Kriegsführung: asymmetrische Bedrohungen. Stark Defence fokussiert sich auf softwaredefinierte, autonome Drohnensysteme, die „on the edge“ entscheiden und nicht auf ständige Funkverbindung angewiesen sind. Dass das Start-up durch seine KI-Schwarmtechnologie massiv an Bedeutung gewinnen wird, hat sich Ende Februar 2026 eindrucksvoll bestätigt: Der Haushaltsausschuss des Bundestages gab einen Auftrag über 540 Millionen Euro für Kampfdrohnen frei, den sich Stark Defence (Modell „Virtus“) und das nach einer Mega-Runde im Sommer 2025 mittlerweile mit 12 Milliarden Euro bewertete Münchner Unicorn Helsing (Modell „HX-2“) teilen. Um diese rasante Skalierung zu stemmen, hat Stark Defence kürzlich das Berliner Software-Start-up Pleno übernommen und eine neue Serienfertigung im britischen Swindon eröffnet. Mitgründer Florian Seibel dazu: „Unser Ziel für 2026 ist die erste vollautonome Verteidigungslinie für Europa.“

MedTech-Start-up RAYDIAX holt 7,5 Mio. Euro für neuartiges CT-System

RAYDIAX sichert sich 7,5 Mio. Euro, um mit einem speziell für minimal-invasive Eingriffe entwickelten Computertomographen die Krebsbehandlung zu verbessern. Doch der Weg vom universitären Forschungslabor in die globalen Operationssäle ist im hochregulierten Gesundheitsmarkt lang. Ein Blick auf ein DeepTech-Geschäftsmodell, das sich nun in der klinischen Praxis beweisen muss.

Die erfolgreiche Series-A1-Finanzierungsrunde über 7,5 Millionen Euro für RAYDIAX markiert einen wichtigen Meilenstein von der universitären Forschung in den Gesundheitsmarkt. Das 2022 gegründete Unternehmen mit Hauptsitz im Magdeburger Wissenschaftshafen ist eine Ausgründung des Forschungscampus STIMULATE und der Otto-von-Guericke-Universität Magdeburg. Unter der Führung eines fünfköpfigen Gründerteams – bestehend aus CEO Dr. Thomas Hoffmann, Dr. Tim Pfeiffer, Dr. André Mewes, Benjamin Fritsch und Robert Frysch – konnte das Start-up nach einer erfolgreichen Seed-Phase nun erhebliche Mittel für den Eintritt in die klinische Phase sichern.

Das frische Kapital setzt sich aus 5 Millionen Euro Venture Capital von bestehenden Business Angels, dem Bestandsinvestor bmp Ventures mit den IBG Fonds sowie dem neu eingestiegenen GETEC Family Office um Dr. Karl Gerhold zusammen. Ergänzt wird diese Summe durch 2,5 Millionen Euro Fördermittel aus dem hochkompetitiven EIC Accelerator-Programm der Europäischen Kommission, das gezielt disruptive Deep-Tech-Innovationen mit hohem Skalierungspotenzial unterstützt.

TACT: Computertomographie für den OP neu gedacht

Im Zentrum dieser ambitionierten Wachstumspläne steht der Therapieassistenz-Computertomograph „TACT“, den RAYDIAX dediziert für minimal-invasive Krebstherapien entwickelt. Anders als herkömmliche CTs optimiert das Unternehmen sein System sowohl im Hardware- als auch im Softwarebereich speziell für den interventionellen Einsatz bei der Therapieplanung, -durchführung und -kontrolle. Wie Steffen Schmidt, CFO der GETEC-Gruppe, hervorhebt, ermöglicht die innovative Technologie eine fokussierte Live-Bildgebung, welche die Strahlenbelastung für Patient*innen und Operateur*innen senkt und die Operationszeit verringert.

Zudem bietet das System durch eine größere Geräteöffnung völlig neue Operationsmethoden im CT, wie beispielsweise den Einsatz von Robotik. Der Markt für solche Lösungen wächst, da minimal-invasive Eingriffe angesichts einer alternden Bevölkerung und steigender Krebsinzidenzen massiv an Bedeutung gewinnen. Sie ermöglichen in vielen Fällen eine schonendere Behandlung im Vergleich zu offenen chirurgischen Eingriffen, verkürzen potenziell Operations- sowie Liegezeiten, verringern Komplikationen und können so zusätzliche Behandlungskapazitäten schaffen, um die Krankenhausstrukturen zu entlasten.

Harter Wettbewerb und regulatorische Hürden

Trotz der vielversprechenden Technologie steht das Geschäftsmodell in der Praxis vor erheblichen Herausforderungen. Der globale Markt für medizinische Bildgebung ist hart umkämpft, und der Vertrieb an Kliniken ist durch extrem lange, hochkomplexe B2B-Entscheidungszyklen geprägt. RAYDIAX tritt diesem Wettbewerb entgegen, indem es anstrebt, eine funktional dringend benötigte, neue Gerätekategorie in der interventionellen Onkologie zu etablieren, um so eine Lücke im OP-Betrieb zu füllen.

Der Beweisdruck auf dem jungen Unternehmen ist dennoch enorm: Das neu eingeworbene Kapital wird nun für First-in-Human-Studien eingesetzt, um die frühe klinische Evidenz am Patienten zu generieren. Diese Phase legt die Grundlage für die regulatorische Zulassung und kommerzielle Skalierung. Parallel dazu erfordert die Weiterentwicklung zur Serienreife einen konsequenten Ausbau in den Bereichen Vertrieb, Produktion und Qualitätsmanagement, um die ersten kommerziellen Installationen systematisch vorzubereiten.

Lehrstück für europäisches DeepTech

Dieser Fall zeigt eindrucksvoll die Realität und die hohen Anforderungen europäischen DeepTech-Unternehmertums. Der Abschluss dieser Finanzierungsrunde belegt deutlich, wie essenziell die intelligente Kombination aus wissenschaftlicher Grundlagenforschung, klassischem Risikokapital und strategischen europäischen Fördergeldern ist. Nur so lässt sich die extrem kapitalintensive Entwicklungsphase von Hardware in der Medizintechnik erfolgreich überstehen. Wenn es dem Gründerteam nun gelingt, die klinische Wirksamkeit in der Praxis zu belegen und die regulatorischen Hürden zu meistern, hat dieses Spin-off das Potenzial, die Anwendung minimal-invasiver Krebstherapien erheblich auszuweiten.

Die Müsli-Macher und die Kälte: Das neue Millionen-Projekt von Kraiss & Mahler

Dass sie Märkte revolutionieren können, haben die Freda-Gründer bereits bewiesen – nun steht die Tiefkühlkette auf dem Prüfstand. Mit einem mutigen Modul-Konzept fordern Philipp Kraiss und Christian Mahler die Industrie-Riesen im Supermarktregal heraus.

In der Start-up-Welt ist der Begriff Seriengründer*in oft ein zweischneidiges Schwert: Das Vertrauen der Investor*innen ist hoch, doch die Fallhöhe nach einem Erfolg wie mymuesli ebenso. Philipp Kraiss und Christian Mahler haben sich mit ihrem 2023 gegründeten Food-Start-up Freda bewusst gegen ein „Me-too-Produkt“ und für eine operative Wette auf die Zukunft der Tiefkühlkette entschieden. Mit einem mutigen Modul-Konzept fordern sie die etablierten Industrie-Riesen im Supermarktregal heraus. Die Prämisse: Der Markt für Tiefkühlkost (TK) wächst – auf über 22,6 Milliarden Euro im Jahr 2024 –, ist aber durch extremen Preisdruck und eine veraltete Produktlogik geprägt. Wir haben uns das Geschäftsmodell näher angesehen und die Gründer dazu befragt.

Pizza, Pasta, Gelato … und jetzt Blocks?

Die Pizza „Salami Sensation“ war für Freda der Türöffner. Mit dem Sieg bei Stiftung Warentest (2024) bewies das Team, dass es Qualität „kann“ und schuf einen starken USP. Strategisch ist Pizza jedoch kein leichtes Feld: Der Wettbewerb ist anspruchsvoll, die Regalplätze im Einzelhandel sind besetzt und die Differenzierung erfolgt meist über den Preis. Mit einer Innovation wie „Frozen Blocks“ erweitert Freda nun das Spielfeld und eröffnet eine neue Kategorie von Tiefkühlkost.

Es handelt sich dabei nicht mehr um ein fertiges Gericht, sondern um eine Systemkomponente. Das Konzept orientiert sich am gastronomischen „Mise en Place“: Vorbereitete, schockgefrostete Komponenten wie Beef Ragù oder Chili sin Carne fungieren als Basismodule für die heimische Küche. Strategisch gesehen erhöht dies die Wertdichte pro Kubikzentimeter im TK-Fach und verringert die Komplexität in der eigenen Produktion im Vergleich zu mehrkomponentigen Fertigmenüs.

Auf die Frage, ob der strategische Wechsel von der Pizza zu den „Frozen Blocks“ eine Flucht aus dem Commodity-Preiskampf der Pizza-Truhe hin zu einer proprietären Nische sei, widerspricht Philipp Kraiss. Vielmehr handele es sich um einen konsequenten Ausbau des Sortiments, denn Freda solle künftig den gesamten Alltag der Kund*innen abbilden – vom Frühstück bis zum Abendbrot. Das sei eben mehr als nur Pizza. „Unser Anspruch ist aber nicht nur Bekanntes besser zu machen – wie bei unserer Pizza, sondern auch neue Wege zu gehen“, stellt der Gründer klar. Die flexiblen Module seien auf diesem Weg der nächste logische Schritt. Er verspricht dabei maximale Vielfalt aus dem Gefrierfach, „denn jeder Block lässt sich vielfältig kombinieren.“

Die Retail-Herausforderung: Kaufland als Stresstest

Mit einer Basis von über 30.000 D2C-Kund*innen hat das Unternehmen bereits bewiesen, dass die Nachfrage nach seinen Produkten besteht. Um dieses Potenzial voll auszuschöpfen und die Margen zu stärken, wurde im August 2025 der Launch in 780 Kaufland-Märkten umgesetzt – ein strategischer Meilenstein, der die Reichweite massiv erhöht und über das Volumen des stationären Einzelhandels den Weg zu nachhaltigem, profitablem Wachstum ebnet – ohne aufwendigen Versand mit Isolierung und Trockeneis.

Hier zählt nun die Shelf Velocity (Abverkaufsgeschwindigkeit). Ein modulares System erfordert von der Kundschaft jedoch ein Umdenken: Man kauft kein fertiges Abendessen, sondern eine Zutat. Freda muss hier beweisen, dass der Mehrwert der Zeitersparnis am Point of Sale verstanden wird, bevor die harten Auslistungsmechanismen des Handels greifen.

Doch wie überzeugt man eine*n Einkäufer*in davon, dass ein modulares System mehr Flächenproduktivität bringt als die zehnte Sorte Standard-Lasagne? Christian Mahler kontert auf diese Retail-Frage mit einem anschaulichen Branchen-Vergleich: „Wir sind eben nicht die zehnte Lasagne. Eine klassische TK-Lasagne belegt viel Regalfläche, bedient genau einen Anlass und konkurriert mit neun anderen Lasagnen um denselben Kunden.“ Durch das kompakte Format und eine maximale SKU-Dichte der Blocks könne der Händler auf derselben Regalfläche mehrere Sorten listen und spreche damit dutzende Zubereitungsarten von der Bowl bis zum Curry an. Mahler zeigt sich selbstbewusst: „Wir eröffnen eine neue Kategorie statt in einer bestehenden zu kämpfen.“

Operative Exzellenz vs. bayerisches Handwerk

Ein weiterer Spagat wartet in der Produktion: Freda wirbt offensiv mit „Made in Bavaria“ und handwerklicher Herstellung. In der Start-up-Praxis beißt sich Handwerk jedoch oft mit Skalierung. Wer bundesweit fast 900 Supermärkte bedient, muss industrielle Prozesse beherrschen. Die Gefahr dabei ist offensichtlich: Wenn die Qualität durch die Masse sinkt, verliert Freda seinen wichtigsten USP. Gleichzeitig bleibt bei der exklusiven Zielgruppe, die bereit ist, für TK-Komponenten Premium-Preise zu zahlen, in Zeiten der Inflation die Frage der Preissensibilität bestehen.

Auf drohende Kapazitätsgrenzen angesprochen, räumt Philipp Kraiss ein, dass die Passauer Manufaktur zwar das Herzstück bleibe. „Aber wir waren von Anfang an ehrlich zu uns selbst: Eine Manufaktur skaliert nicht linear“, gibt der Seriengründer zu bedenken. Mit wachsendem Geschäft müsse man die Produktion auf breitere Schultern stellen und mit Partnern zusammenarbeiten. Sein Kernversprechen an die Kund*innen lautet dabei jedoch: „Wir lagern nicht die Rezeptur aus, sondern die Kapazität.“

Marktpsychologie: Convenience ohne Reue

Psychologisch besetzt Freda damit eine überaus geschickte Lücke. Die „Frozen Blocks“ nehmen der Käuferschaft zwar die Entscheidung für die aufwendige Kernkomponente ab, lassen das Gefühl des Selbstkochens durch das frische Ergänzen von Beilagen jedoch vollkommen intakt. Dies eliminiert die oft vorhandene „Convenience-Scham“ gesundheitsbewusster Zielgruppen und könnte die Lösung für die stagnierenden Marktanteile klassischer Fertiggerichte bei jüngeren Konsument*innen sein.

Fazit für die Start-up-Praxis

Freda ist ein Lehrstück für den Übergang von einer digitalen D2C-Brand zum Player im Massenmarkt. Die Gründer nutzen ihre Erfahrung, um eine etablierte Kategorie neu zu denken. Ob die Rechnung aufgeht, wird sich an der Regal-Rotation zeigen. Wenn die Kund*innen den Aufpreis für die „bayerische Handarbeit“ und das modulare System dauerhaft akzeptieren, könnte Freda die Blaupause für die nächste Generation von Food-Marken liefern.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

Fördermittel: Worauf Gründer*innen von Beginn an achten sollten

Wichtige Dos and Don’ts bei der Fördermittelbeantragung.

Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.

In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.

Die Weichenstellung: Förderung ist eine Managemententscheidung

Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:

1) Aufbauphase: Fokus schaffen (unter anderem exist)

In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.

2) Projektphase: Planbar entwickeln (etwa ZIM)

Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.

3) Förderung in jeder Phase (Forschungszulage)

Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.

Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.

Fazit

Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.

Die Autorinnen

Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.

Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Strategischer Fokus auf Multimorbidität: Oska Health sichert sich 11 Mio. Euro

Das Frankfurter HealthTech-Unternehmen Oska Health hat eine Finanzierungsrunde über 11 Millionen Euro abgeschlossen. Angeführt von Capricorn Partners und SwissHealth Ventures, adressiert das Start-up die Versorgungslücke bei chronisch Kranken. Ein Blick auf das Geschäftsmodell, die personelle Aufstellung und die Herausforderungen im regulierten Gesundheitsmarkt.

In der aktuellen Seed-Runde haben sich neben den Lead-Investoren Capricorn Partners und SwissHealth Ventures auch Revent, Calm Storm, BMH, LBBW Venture Capital, GoHub Ventures und Aurum Impact beteiligt. Mit dem frischen Kapital plant Oska Health, die technologische Infrastruktur auszubauen und das Versorgungsmodell, das bereits mit über 20 Krankenkassen (darunter die KKH) etabliert wurde, in die Breite zu bringen.

Adhärenz als wirtschaftlicher Hebel

Der Fokus des 2022 gegründeten Unternehmens liegt auf sog. multimorbiden Patient*innen – Menschen, die gleichzeitig an mehreren chronischen Leiden wie Nierenerkrankungen (CKD), Diabetes und Bluthochdruck leiden. Ein Kernproblem in diesem Bereich ist die mangelnde Therapietreue im Alltag (Adhärenz). Statistiken des Gesundheitswesens belegen, dass etwa 50 % der chronisch Kranken ihre Medikamente nicht vorschriftsmäßig einnehmen. Oska Health setzt hier auf eine hybride Betreuung: Ein digitaler Begleiter (App) wird durch persönliches Coaching via Video und Chat ergänzt.

Ziel dieses Ansatzes ist die Reduktion von vermeidbaren Komplikationen und teuren Krankenhausaufenthalten. Für die Kostenträger stellt dies ein mathematisches Optimierungsproblem dar: Übersteigen die Kosten für die digitale Betreuung die Einsparungen durch verhinderte Akutereignisse? Oska Health scheint hier erste überzeugende Daten geliefert zu haben, wie die Beteiligung des Venture-Arms der Schweizer CSS Versicherung (SwissHealth Ventures) signalisiert.

Das Gründungsteam: Erfahrung aus der Industrie

Ein wesentliches Merkmal von Oska Health ist der „Founder-Market-Fit“. Die Gründer*innen kommen nicht aus der klassischen Software-Entwicklung, sondern bringen tiefgreifende Branchenerfahrung aus dem Gesundheitssektor mit:

  • Niklas Best (CEO): War zuvor über zehn Jahre in der Branche tätig, unter anderem als Director of Digital Products bei Fresenius Medical Care. Er verfügt über einen Executive MBA der Universität St. Gallen.
  • Dr. Malte Waldeck (CFO/COO): Der promovierte Wirtschaftswissenschaftler (RWTH Aachen) sammelte Erfahrungen im Investmentbanking (Metzler) sowie in Führungspositionen bei DaVita Kidney Care und der D.med Healthcare Group.
  • Claudia Ehmke (CPO): Verantwortet mit langjähriger Erfahrung in der Tech-Szene (u.a. bei der Design-Agentur ustwo in London) die Nutzerschnittstelle und Produktstrategie.

Diese personelle Konstellation dürfte den Zugang zu den oft schwer zugänglichen Entscheidungsträgern der Gesetzlichen Krankenversicherungen (GKV) erleichtert haben.

Strukturelle Herausforderungen und Wettbewerb

Trotz des Kapitalzuflusses steht das Unternehmen vor den typischen Hürden des deutschen Digital-Health-Marktes. Im Gegensatz zu Digitalen Gesundheitsanwendungen (DiGA), die einen standardisierten Zulassungsweg gehen, nutzt Oska Health sog. Selektivverträge. Dieser Weg erfordert einen deutlich höheren individuellen Vertriebsaufwand pro Krankenkasse, ermöglicht aber eine tiefere Integration in bestehende Versorgungspfade.

Ein kritischer Faktor bleibt die Skalierbarkeit. Ein Modell, das auf menschliches Coaching setzt, hat naturgemäß höhere Grenzkosten als eine reine Software-Lösung. Oska Health begegnet dem durch den Einsatz von KI, um administrative Aufgaben der Coaches zu automatisieren. Der Erfolg der nächsten Jahre wird davon abhängen, ob die technologische Unterstützung die Effizienz so weit steigert, dass eine flächendeckende Versorgung bei gleichbleibender Marge möglich ist.

Zudem ist das Marktumfeld für Chronic Care Management zunehmend besetzt. Während spezialisierte Anbieter wie Oviva (Ernährung) oder Mika (Onkologie) einzelne Nischen besetzen, positioniert sich Oska Health durch die Fokussierung auf die komplexere Multimorbidität. Dies vergrößert zwar die Zielgruppe, erhöht jedoch gleichzeitig die regulatorischen Anforderungen an das Produkt als zertifiziertes Medizinprodukt.

Einordnung für den Start-up-Sektor

Die Finanzierung von Oska Health zeigt einen deutlichen Trend im HealthTech-Investment: Kapital fließt verstärkt in Modelle, die nicht nur eine digitale Lösung bieten, sondern eine nachweisbare Integration in die Abrechnungsstrukturen des Gesundheitssystems vorweisen können. Für Gründer*innen im Bereich Medtech verdeutlicht der Fall Oska, dass Branchenexpertise und die Wahl des richtigen Erstattungsweges oft wichtiger sind als die reine technologische Innovation. Ob sich der hybride Ansatz langfristig gegen rein algorithmische Lösungen durchsetzt, wird an den klinischen und ökonomischen Langzeitdaten der Krankenkassen-Partner gemessen werden.

Steuern als Start-up-Wachstumsbremse

Was tun, wenn Steuerpflichten und Papierkram die Vision vom eigenen Business erstickt? Drei Quick Wins für dein Finanz-Setup.

Der Start in die Selbständigkeit ist ein Balanceakt zwischen der eigenen Vision und administrativen Pflichten. Entgegen der landläufigen Meinung, dass fehlendes Kapital oder die erste Kund*innengewinnung die größten Hürden sind, zeigt eine aktuelle Erhebung von sevdesk: Steuerpflichten und Papierkram belasten junge Gründer*innen am stärksten.

Realitätscheck: Was Gründer*innen wirklich nachts wachhält

Eine repräsentative Umfrage unterstreicht, wie stark administrative Themen den Alltag dominieren:

  • 40 Prozent sehen in Steuern und dem damit verbundenen Papierkram den größten Stressfaktor.
  • 38 Prozent nennen finanziellen Druck und unregelmäßiges Einkommen als größte Hürde.
  • 36 Prozent verorten die stärksten Herausforderungen bei der Kundenakquise.

StartingUp-Insight: Warum stressen Steuern mehr als wackelige Einnahmen? Weil hier die Fehlerkultur der Start-up-Welt aufhört. Bei Fehlern in der Buchhaltung drohen schnell Säumniszuschläge oder rechtliche Konsequenzen – diese „Angst vor dem Finanzamt“ lähmt viele. Hinzu kommen die massiven Opportunitätskosten: Jede Stunde, die ein Young Founder mit manueller Zettelwirtschaft oder dem Suchen von Belegen verbringt, fehlt bei der Produktentwicklung oder der Kund*innenakquise. Die Bürokratie bremst das eigentliche Wachstum also aktiv aus.

Paradox: Digitales Business, aber analoge Buchhaltung

Besonders auffällig: Etwa ein Drittel (32 Prozent) der Befragten befindet sich noch im ersten Jahr der Selbständigkeit (0 bis 12 Monate). Der überwiegende Teil dieser jungen Unternehmer*innen agiert in modernen Branchen wie Handel und E-Commerce (13 Prozent) oder IT und Social Media (11 Prozent). Dennoch zeigt sich bei der administrativen Organisation ein überraschend traditionelles Bild:

  • Knapp ein Drittel (29 Prozent) der Microbusiness-Entrepreneurs nutzt für Rechnungserstellung und Buchhaltung keine speziellen Software- oder Cloud-Lösungen.
  • Als Gründe wird zu jeweils 29 Prozent angegeben, dass die Prozesse auch ohne Tools funktionieren würden oder das Unternehmen noch zu klein für digitale Lösungen sei.
  • Weitere 21 Prozent befürchten, dass externe Tools ihre eigenen speziellen Anforderungen nicht abbilden könnten.

Compliance-Falle: Wenn die „Zettelwirtschaft“ zum Risiko wird

Dieser Verzicht auf digitale Unterstützung birgt handfeste Risiken – auch rechtlicher Natur. Die Studie verweist auf die E-Rechnungspflicht, die bereits seit dem 1. Januar 2025 in Deutschland flächendeckend gilt.

StartingUp-Insight: Zur Erinnerung: Seit Jahresbeginn 2025 müssen B2B-Unternehmen in Deutschland in der Lage sein, elektronische Rechnungen in strukturierten Formaten (wie ZUGFeRD oder XRechnung) zu empfangen und zu verarbeiten. Wer die manuelle Verarbeitung von klassischen PDF- oder Papierrechnungen beibehält, tappt unweigerlich in eine Compliance-Falle. Zudem gilt: „Zu klein“ für eine saubere Software-Infrastruktur gibt es heute kaum noch. Ein sauberes digitales Setup von Tag eins an nimmt nicht nur die Angst vor Fehlern, sondern ist auch deutlich günstiger und nervenschonender als der spätere, schmerzhafte Wechsel im laufenden Betrieb.

Raus aus dem Chaos: 3 Quick Wins für dein Finanz-Setup

  1. Trennung ab Tag 1: Eröffne sofort ein separates Geschäftskonto. Private und geschäftliche Ausgaben zu vermischen, ist der Garant für stundenlange Sortierarbeit am Jahresende.
  2. Schnittstellen nutzen: Verknüpfe das Geschäftskonto direkt mit einer gängigen Buchhaltungssoftware. So lassen sich Zahlungseingänge automatisch mit offenen Rechnungen abgleichen.
  3. Steuerrücklagen automatisieren: Lege konsequent ca. 30 Prozent aller Netto-Einnahmen auf ein Tagesgeldkonto. So verlieren Vorauszahlungen für die Einkommen- oder Gewerbesteuer dauerhaft ihren Schrecken.

Über die Daten

Die Umfrage wurde im Juni 2025 vom Marktforschungsunternehmen Appinio im Auftrag von sevdesk durchgeführt. Befragt wurden deutschlandweit 300 Berufstätige ab 18 Jahren.

GameChanger des Monats: Gwen Thomas - Vom Background-Gesang zum SOMA SPACE

Das Business mit der inneren Stimme: Wie Gwen Thomas Stimmtherapie zum Gamechanger macht.

Einst stand Natascha Gweneth (Gwen) Thomas als Backgroundsängerin für Größen wie Sido und Cro auf der Bühne. Heute ist sie Unternehmerin, Stimmtherapeutin und Autorin. Mit ihrer digitalen Plattform, einer eigenen Ausbildungsmethode und dem Hamburger Studio SOMA SPACE hat sie eine Nische für körperbasierte Bewusstseinsarbeit besetzt.

Dabei schien ihre Karriere zunächst ganz anders vorgezeichnet: Nach einem Stipendium an der Stage School und Jahren im professionellen Musikbusiness tourte sie intensiv und schrieb Songs in den Hansa Studios. Doch der Erfolg in dieser stark männlich geprägten und druckvollen Zeit hatte seinen Preis. „Ich habe funktioniert, aber mich selbst immer weiter verloren“, erinnert sie sich heute. Ein schwerer biografischer Einschnitt zog schließlich den endgültigen Schlussstrich unter ihre Musikkarriere: Im siebten Monat verlor sie ihren ersten Sohn. Sie brach alle Engagements ab, begann eine Therapie und zog sich vollständig zurück. Aus diesem schmerzhaften Nullpunkt heraus entstand das Fundament für ihr heutiges Unternehmen.

Aus eigener Heilung wird ein Business Case

Anstatt auf die Bühne zurückzukehren, verwebte Gwen ihre Erfahrungen aus Musik, Schauspiel, somatischer Arbeit und Klangtherapie zu einem neuen Konzept. Ende 2020 launchte sie die Website www.deinestimmedeinraum.de. Hieraus entwickelte sie rechtlich geschützte Methoden wie das Holistisch Stimmtherapeutische Coaching® sowie den Vocal-Energetic Release™. Ihr Ansatz ist dabei stets körperorientiert. „Die Stimme weiß oft früher als der Verstand, dass etwas nicht stimmt“, erklärt sie. Es gehe nicht um bloßes Schreien, sondern um die Wahrnehmung von Blockaden im Nervensystem. Die Stimme fungiere dabei als Antenne, die zeigt, wo jemand nicht in seiner Wahrheit lebt.

Heute ist ihr Geschäftsmodell breit aufgestellt und umfasst Workshops, Retreats sowie ein spezialisiertes Mentoring. Dass ihre Arbeit oft exklusiv und hochpreisig ist, sieht Gwen nicht als Widerspruch zu ihrem feministischen Anspruch. Für sie ist es ein Akt der Selbstfürsorge, den eigenen finanziellen Wert zu kennen. Sie betont: „Wenn Frauen in meine Ausbildung oder in ein Mentoring investieren, ermöglichen sie ein System, in dem ich Frauen anstellen kann, sie fair bezahle und wirtschaftliche Unabhängigkeit fördere.“

Feminismus und wirtschaftliche Klarheit gehören für Gwen untrennbar zusammen, da das Unter-Wert-Verkaufen lediglich alte patriarchale Systeme reproduzieren würde. Sie möchte, dass Frauen – die oft jahrelang unbezahlte Care-Arbeit geleistet haben – endlich in finanzieller Fülle stehen dürfen.

Embodiment als politischer Akt

Für Gwen ist diese Arbeit weit mehr als individuelles Coaching; sie ist zutiefst politisch. Sie ist überzeugt, dass die Wahrnehmung der Frau über Generationen vom Patriarchat abgespalten wurde. „Gerade wir Frauen haben gelernt, uns zurückzunehmen – nicht nur in unserem Ausdruck, sondern auch in dem, was wir vom Leben wollen“, sagt sie. In ihrem Mentoring arbeitet sie daher gezielt mit Frauen in Führungspositionen, wie etwa Chefärztinnen oder Tech-Expertinnen, die gelernt haben, auf eine männliche Weise zu performen, sich dabei aber selbst verlieren.

Ihre Marke The Vulva Voice ist in diesem Kontext ein klares Statement. Gwen erklärt, dass dieses Branding keine kalkulierte Marketingstrategie war, sondern aus einer verkörperten Haltung entstand. Sie fordert eine Erweiterung des Marktes und eine neue Offenheit in klassischen Unternehmensräumen: „Wir dürfen aufhören so zu tun, als seien Körper, Zyklus, Trauma oder emotionale Intelligenz ‚private Themen‘. Sie betreffen jede Frau – und damit jede Organisation.“

Qualitätssicherung und die Grenzen des Coachings

Um dieses politische Ziel mit fachlicher Exzellenz zu untermauern, nutzt Gwen ihr Buch Vulva Voice als Filter für Qualität. Ihr Fundament bilden Zertifizierungen in traumasensibler Begleitung, Body-Mind-Centering und MediAkupresseur.

Angesprochen auf die Abgrenzung zur klassischen Therapie stellt sie klar, dass ihre Angebote reine „Erfahrungsräume“ sind. Sie versteht sich nicht als Heilerin, sondern als Raumhalterin. Durch ihren traumasensiblen Hintergrund arbeitet sie strikt ressourcenorientiert: „Wir aktivieren zunächst die Fähigkeit zur Selbstregulation [...], bevor wir mit intensiveren Themen arbeiten.“ Sie diagnostiziert nicht und ersetzt keine Therapie. Sollte eine Teilnehmerin therapeutische Hilfe benötigen, kommuniziert Gwen dies transparent. Ihre Arbeit dient der Kapazitätsbildung im Umgang mit biografischen Prägungen, nicht deren „Wegmachen“.

Skalierung und Vision

Obwohl das Unternehmen stark mit Gwens persönlicher Geschichte verwoben ist, plant sie bereits die Skalierung über ausgebildete Trainerinnen im Soma Space. Diese sollen keine Kopien ihrer selbst sein, sondern ihre eigene Geschichte und Stimme nutzen. Für Gwen bedeutet unternehmerisches Wachstum vor allem Multiplikation: „Skalierung bedeutet für mich nicht Entpersonalisierung, sondern Verkörperung in vielen Körpern.“

Die Ergebnisse sind oft lebensverändernd. Viele Frauen erkennen, dass ihre Dysregulation kein individuelles Versagen ist, sondern eine Reaktion auf nicht geachtete Ressourcen. Das führt oft zu radikaler Klarheit – bis hin zu Trennungen, wenn Klientinnen plötzlich ihre eigene Wahrheit spüren.

Gwen Thomas selbst blickt heute mit großer Klarheit auf ihren Weg. Sie hat ihren Schmerz und ihr Trauma in ihre Arbeit transformiert. „Ich weiß heute, dass ich den Schmerz [...] nicht mehr brauche“, sagt sie. „Das hat mir geholfen, hier anzukommen.“

Distart: Vom Agentur-Frust zum EdTech-Champion

Wie das 2021 von Thomy Roecklin gegründete und seit 2025 zusammen mit Lucia-Miriam Selbert geführte Leipziger EdTech Distart das Bildungssystem „gegen den Strich bürstet“.

Wer in Deutschland über Start-up-Hubs spricht, landet meist schnell in Berlin oder München. Doch in der sächsischen Metropole Leipzig wächst seit einigen Jahren ein Player heran, der beweist, dass Innovation auch abseits der üblichen Verdächtigen gedeiht: Die Distart Education GmbH. Ihr Treibstoff ist der eklatante Mangel an digitaler Kompetenz in der deutschen Wirtschaft – und der Mut, das „System Bildung“ gegen den Strich zu bürsten.

Wenn „Done for You“ nicht mehr reicht

Die Wurzeln des Unternehmens reichen weiter zurück als das offizielle Gründungsjahr 2021. Gründer Thomy Roecklin setzte jahrelang mit seinen Agenturen MNKY lab und TRDIGITAL digitale Kampagnen für Kund*innen um. Doch im Tagesgeschäft bremste das fehlende Digitalverständnis auf Kundenseite die Projekte immer wieder aus. Die Erkenntnis, dass Deutschland weniger neue Agenturen, sondern mehr digitale Mündigkeit braucht, führte schließlich zum Pivot.

Interessanterweise war der Auslöser für diesen Kurswechsel kein konkretes Kundenprojekt. Auf die Frage nach dem „Aha-Moment“ erklärt Roecklin, dass er lediglich versuchte, Lucia-Miriam Selbert einzuarbeiten, und dabei schockiert feststellte, wie wenig praxisnahe digitale Weiterbildungen existierten. Er baute kurzerhand selbst ein Lernprogramm – ohne zu ahnen, dass daraus einmal Distart entstehen würde. Im Januar 2021 fiel der Startschuss für Distart learn. Mitten in der Pandemie setzte Roecklin auf ein Modell, das sich radikal von klassischen Bildungsträgern unterschied: 100 Prozent remote, aber mit enger persönlicher Betreuung und einem klaren Fokus auf die Praxis.

Das Schnellboot zwischen den Tankern

Distart operiert im sogenannten AZAV-Markt (Akkreditierungs- und Zulassungsverordnung Arbeitsförderung). Während etablierte Bildungsriesen oft mit der Trägheit ihrer Größe kämpfen und bis zu 24 Monate für Lehrplananpassungen benötigen, hat sich Distart als agiler „Qualitäts-Vorreiter“ positioniert.

Für Roecklin ist diese Agilität eine Frage des Überlebens, da sich Jobs und Skills heute schneller verändern als jede klassische Bildungslogik. Er betont, dass man ohne permanente Weiterentwicklung der Inhalte zwangsläufig am Markt vorbei ausbilden würde. Diese Flexibilität ist zudem essenziell für die Zielgruppe: Viele Teilnehmende bilden sich neben ihrem 9-to-5-Job weiter, betreuen Kinder oder pflegen Angehörige und benötigen daher flexible statt starrer Strukturen.

Agency-DNA statt Schulbank-Feeling

Der entscheidende Wettbewerbsvorteil liegt in der Herkunft: Distart ist keine klassische Schule, sondern wurde von Marketern für Marketer gebaut. Diese „Agency-DNA“ durchzieht das gesamte Geschäftsmodell. Mit einer modernen Lernumgebung aus Live-Sessions und asynchronen Deep-Dives spricht das Unternehmen alle Altersgruppen gleichermaßen an.

Auch technologisch ist man der Konkurrenz oft einen Schritt voraus: Als ChatGPT Ende 2022 die Arbeitswelt veränderte, reagierte Distart fast in Echtzeit. Auf die kritische Frage, ob KI das vermittelte Wissen nicht bald obsolet mache, findet Roecklin eine klare Antwort: KI ersetzt keine Menschen, sie ersetzt lediglich Mittelmaß. Während KI das Netz mit generischen Inhalten flutet, steige paradoxerweise der Hunger nach echten Stimmen, Ideen und Perspektiven – Marketing werde also menschlicher.

Bootstrapping und gesundes Wachstum

Der Erfolg gibt dem Konzept recht. Im September 2024 erfolgte die Umfirmierung zur Distart Education GmbH, was den Übergang vom Start-up zum etablierten Bildungsinstitut markierte. Während andere Tech-Unternehmen Personal abbauen mussten, verdoppelte Distart seine Belegschaft beinahe auf über 100 Köpfe und bezog im Oktober 2025 neue Räumlichkeiten im NEO Leipzig.

Besonders bemerkenswert: Das Wachstum ist organisch und gebootstrapped – finanziert aus dem eigenen Cashflow ohne externe Risikokapitalgeber. Das macht Distart unabhängig von Exit-Druck. Seit Februar 2025 verstärkt Lucia-Miriam Selbert als Geschäftsführerin die strategische Ausrichtung.

Dennoch birgt die Skalierung Risiken, da das Geschäftsmodell stark von staatlichen Bildungsgutscheinen abhängt. Auf einen möglichen „Plan B“ angesprochen, erklärt das Unternehmen, dass Förderungen zwar beim Beschleunigen helfen, man Distart aber bewusst so aufbaue, dass langfristig strukturelle Unabhängigkeit erreicht wird. Auch die Qualitätssicherung bei über 100 Mitarbeitenden ist eine Herausforderung. Thomy Roecklin gibt offen zu, dass Wachstum kein Wellnessprogramm ist und es im Getriebe zwangsläufig knirscht. Sein Schlüssel: Qualität darf nicht an Einzelpersonen hängen, sondern muss im gesamten System verankert sein, kombiniert mit echtem Vertrauen in das Team statt Kontrolle.

Der Standort als Statement und Vision

Dass Distart in Leipzig verwurzelt bleibt, ist Teil der Identität. Roecklin sieht im Osten Deutschlands ein enormes, oft unterschätztes Potenzial und erlebt dort viel Talent, Pragmatismus und Lernhunger. Distart versteht sich hier auch als Regionalentwickler.

Die Vision der Gründer geht jedoch über reine Kurse hinaus. Unterstrichen durch Auszeichnungen wie „Top Fernschule 2025“ und „2026“, arbeitet das Team nun an der Gründung der Distart University of Applied Sciences. Das Ziel bis 2030 ist ambitioniert: Ein Alumni-Netzwerk von 25.000 Absolvent*innen. Sollte der komplexe Weg zur staatlichen Anerkennung gelingen, wird Distart endgültig zum gewichtigen Faktor für die digitale Wettbewerbsfähigkeit der Bundesrepublik.

Executive Search 2026

Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.

Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Was kann KI leisten – und was nicht?

Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.

Warum der Mensch unverzichtbar bleibt

Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.

Leadership in Zeiten von KI

Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.

Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.

KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung

Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.

Fazit: Executive Search neu denken

Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.

KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.

Der Staat als Pre-Seed-Investor

Warum die Gründung aus der Arbeitslosigkeit oft die smarteste Finanzierungsform ist.

Venture Capital ist sexy, Business Angels sind begehrt – doch in der aktuellen Marktphase wird die effektivste Form der Frühphasenfinanzierung oft übersehen: Der Gründungszuschuss der Bundesagentur für Arbeit. Wer strategisch aus der Arbeitslosigkeit gründet, sichert sich nicht nur den Lebensunterhalt, sondern erhält Zugang zu Ressourcen, für die andere Start-ups fünfstellige Summen aufbringen müssen. Das entscheidende Detail: Man muss dafür keine Unternehmensanteile abgeben.

In der Start-up-Szene wird oft über die „Runway“ gesprochen – die Zeitspanne, die einem Unternehmen bleibt, bevor das Geld ausgeht. Gründer*innen verbringen oft Monate damit, Pitch-Decks zu bauen, um Investoren zu überzeugen, ihnen diese Zeit zu erkaufen. In einer Zeit, in der Risikokapitalgeber*innen zurückhaltender agieren und Bewertungen sinken, rückt eine alternative Finanzierungsquelle in den Fokus, die oft fälschlicherweise als reines Sozialinstrument abgetan wird: Die Gründung aus dem Bezug von Arbeitslosengeld I (ALG 1).

Wer dieses System nicht als soziales Auffangnetz, sondern als strategisches Finanzierungsinstrument begreift, verschafft sich einen Wettbewerbsvorteil, der in der freien Wirtschaft kaum zu bezahlen ist. Es handelt sich hierbei um „Non-Dilutive Capital“ – Kapital, das die Anteile der Gründer*innen nicht verwässert.

Der mathematische Vorteil: ALG 1 als Bootstrapping-Hebel

Um die Dimension dieses Vorteils zu verstehen, lohnt sich ein Rechenbeispiel: Ein Gründer, der Anspruch auf den Gründungszuschuss hat, erhält in der ersten Phase (6 Monate) sein volles Arbeitslosengeld plus 300 Euro zur sozialen Absicherung. In der zweiten Phase (9 Monate) folgen weitere 300 Euro monatlich.

Bei einem vorherigen guten Einkommen summieren sich diese Zahlungen schnell auf 20.000 bis 25.000 Euro. Wichtig hierbei: Diese Summe ist steuerfrei (das ALG 1 unterliegt lediglich dem steuerlichen Progressionsvorbehalt) und muss nicht zurückgezahlt werden.

Um den gleichen Liquiditätseffekt über einen Umsatz zu erzielen, müsste ein frisch gegründetes Unternehmen – bei einer angenommenen Umsatzrendite von 20 % – im ersten Jahr bereits über 100.000 Euro Umsatz erwirtschaften. Alternativ müsste ein Business Angel für 25.000 Euro einsteigen. Bei einer frühen Bewertung von 500.000 Euro würde das den Verlust von 5 % der Firmenanteile bedeuten. Der Gründungszuschuss liefert dieselbe Liquidität, ohne dass der Gründer auch nur 0,1 % seines Unternehmens abtreten muss.

Wissen & Technik: Der unterschätzte Faktor AVGS

Neben der reinen Liquidität bietet die Bundesagentur für Arbeit ein zweites Instrument, das für Gründer*innen essenziell ist: den Aktivierungs- und Vermittlungsgutschein (AVGS).

Viele Gründer*innen wissen, dass es Coachings gibt. Wenige realisieren jedoch, dass professionelle AVGS-Maßnahmen heute oft wie private Inkubatoren funktionieren. Der Gutschein ermöglicht es Gründer*innen, externe Expertise einzukaufen, ohne die eigene Liquidität zu belasten.

Der Fokus liegt hierbei auf der Professionalisierung:

  • Validierung des Geschäftsmodells: Ein(e) Sparringspartner*in prüft die Idee auf Markttauglichkeit, bevor teure Fehler gemacht werden.
  • Finanzplanung: Erstellung einer realistischen Rentabilitätsvorschau, die nicht nur dem Amt, sondern auch Banken standhält.
  • Infrastruktur: Hochwertige Programme stellen den Teilnehmer*innen oft auch notwendige technische Ausstattung (z.B. Laptops oder Software-Lizenzen als Leihgeräte) für die Dauer der Maßnahme zur Verfügung, um den Start technisch zu ermöglichen.

Aus der Praxis: Wie der strategische Einsatz funktioniert

Wie dieser Prozess in der Realität aussieht, zeigt das Beispiel von Jonas (Name geändert), einem Marketingmanager, der seinen Job verlor und den Sprung in die Selbständigkeit als digitaler Berater wagte. Anstatt sofort hastig ein Gewerbe anzumelden, nutzte Jonas die strategische Reihenfolge:

  1. Status klären: Er meldete sich arbeitslos und sicherte seinen Anspruch.
  2. Professionalisierung: Über einen AVGS-Gutschein buchte er ein intensives Gründungscoaching. Dort feilte er vier Wochen lang an seiner Positionierung und seinem Pricing.
  3. Businessplan: Gemeinsam mit dem Coach erstellte er einen Businessplan, der die Tragfähigkeit seines Vorhabens klar belegte.
  4. Antragstellung: Er beantragte den Gründungszuschuss vor der eigentlichen Gründung.

Das Ergebnis: Jonas erhielt die Bewilligung für den vollen Zuschuss. Die sechs Monate „gesicherte Runway“ nutzte er, um hochwertige Referenzkunden zu gewinnen, anstatt aus finanzieller Not heraus schlecht bezahlte Projekte anzunehmen. Heute führt er eine profitable Agentur. Ohne die Förderung wäre der Druck, sofort Umsatz zu generieren, vermutlich zulasten der strategischen Ausrichtung gegangen.

Die Hürden meistern: Vermittlungsvorrang und Ermessensleistung

Der Gründungszuschuss ist seit 2011 eine Ermessensleistung. Es besteht kein Rechtsanspruch. Das führt oft zu der Fehlannahme, die Bewilligung sei reine Glückssache. Doch Verwaltungsentscheidungen folgen einer Logik. Das größte Hindernis ist der gesetzliche Vermittlungsvorrang: Der/die Sachbearbeiter*in muss prüfen, ob nicht doch eine Festanstellung möglich wäre, und prognostizieren, ob die Gründung die Arbeitslosigkeit nachhaltiger beendet.

Die Strategie zur Bewilligung liegt daher in der Qualität der Vorbereitung. Ein exzellenter Businessplan, eine klare Argumentation, warum eine Festanstellung aktuell keine Option ist, und eine positive Tragfähigkeitsbescheinigung durch eine fachkundige Stelle sind die stärksten Argumente. Wenn aus den Unterlagen hervorgeht, dass der/die Gründer*in qualifiziert ist und der Markt das Angebot braucht, reduziert sich das „Ermessen“ der Agentur faktisch drastisch. Eine Ablehnung muss begründet werden – und bei einer wasserdichten Vorbereitung fehlen oft schlicht die Argumente für ein Nein.

Zielgruppen-Check: Für wen ist dieser Weg geeignet?

Nicht für jedes Start-up ist dieser Weg der richtige. Die Förderung ist als Brücke konzipiert, nicht als Großinvestition.

Besonders geeignet ist der Weg für:

  • Wissensbasierte Geschäftsmodelle: Berater*innen, Coaches, Agenturen, Freelancer*innen. Hier sind die Anfangsinvestitionen gering, und der Zuschuss deckt die Lebenshaltungskosten perfekt ab.
  • Digitale Start-ups & SaaS: Gründer*innen, die Zeit für die Produktentwicklung (Coding, Content) brauchen, bevor der erste Euro fließt.
  • Soloselbständige: Die Förderung ist personengebunden und sichert den/die Unternehmer*in direkt ab.

Weniger geeignet ist der Weg für:

  • Kapitalintensive Hardware-Gründungen: Wer Maschinen für 500.000 Euro benötigt, für den sind 20.000 Euro Zuschuss nur ein Tropfen auf den heißen Stein. Hier werden Bankdarlehen oder VC-Gelder benötigt (wobei der Zuschuss als private Absicherung natürlich dennoch helfen kann).
  • Gründungen aus der Festanstellung: Wer nicht arbeitslos ist, hat keinen Zugang zu diesem Topf. Eine „künstliche“ Arbeitslosigkeit herbeizuführen (z.B. durch Eigenkündigung), führt in der Regel zu einer Sperrzeit von 12 Wochen und sollte sehr genau kalkuliert werden.

Fazit: Professionalität statt Bürokratie-Frust

Die Gründung aus der Arbeitslosigkeit ist kein bürokratischer Hürdenlauf, sondern eine der sichersten Startrampen, die der Standort Deutschland zu bieten hat. Wer den Staat als ersten Anker-Investor begreift und die Klaviatur aus ALG 1, AVGS und Gründungszuschuss professionell spielt, startet mit einer Liquidität und Ruhe, von der andere Gründer*innen nur träumen können. Es ist kein Geschenk, sondern eine Investition in die wirtschaftliche Tragfähigkeit von morgen.

Der Autor Lars Weber ist Experte für staatlich geförderte Gründungsberatung und Gründer von avgs.digital. Seit mehreren Jahren begleitet er Gründer*innen bei der Beantragung von AVGS-Coachings und Gründungszuschüssen. Sein Fokus liegt auf tragfähigen Geschäftsmodellen und der professionellen Vorbereitung auf die Selbständigkeit, um bürokratische Hürden sicher zu meistern.