Anbieter-Check: Low-Code-Entwicklungs-Plattformen

Autor: Rosalia Pavlakoudis
44 likes

Wer Softwaretools oder Webanwendungen bereitstellen will, ohne die Kosten und Mühen einer traditionellen Entwicklung per Programmiersprachen auf sich zu nehmen, kann dies mithilfe von Low-Code- oder No-Code-Entwicklungsplattformen leisten. Wir stellen sieben leistungsstarke Tools vor.

Ob für Kundenportale, Apps für die Kommunikation zwischen Shareholdern oder Lösungen zur internen Datenverwaltung: Der Bedarf an maßgeschneiderten Apps und Webanwendungen in Unternehmen ist hoch. Viele Unternehmen möchten die Entwicklung dieser Apps gern selbst in die Hand nehmen, doch längst nicht alle haben ein eigenes Entwicklungsteam mit umfassenden Programmierkenntnissen oder die Möglichkeit, Mitarbeitende in diesem Bereich zu schulen.

Hier kommen Low-Code-Entwicklungsplattformen ins Spiel: Sie bieten eine vereinfachte Entwicklungsumgebung, in der die Anwendungserstellung mithilfe visueller Elemente und nicht durch klassische textbasierte Programmiersprachen erfolgt. So kann Software deutlich schneller und auch kostengünstiger entwickelt und bereitgestellt werden, und es ist nicht nötig, Teammitglieder mit Programmierkenntnissen einzustellen oder umfangreiche Schulungen durchzuführen. Üblicherweise bieten diese Plattformen auch umfassende Funktionen zur Verwaltung von Dokumenten, Dateien und Inhalten, sodass Unternehmen mit diesen eine zentrale Informationsquelle für alle Teams erstellen können. Meist können die per Low-Code-Plattform entwickelten Anwendungen in der Cloud bereitgestellt werden, gelegentlich auch On-Premises.

Die von uns ausgewählten Anbieter*innen bieten unter anderem folgende drei Hauptfunktionen von Low-Code-Plattformen: Deployment Management (Einsatzmanagement), Integrations Management (Integrationsmanagement) und Visual Modeling (visuelle Gestaltung). Sämtliche Auswahlkriterien sind am Ende des Beitrags aufgeführt. Die sieben Tools sind in alphabetischer Reihenfolge aufgeführt.

Airtable

Die Low-Code-Entwicklungsplattform Airtable verbindet die vertraute Nutzungsweise von Tabellenkalkulationen mit den Möglichkeiten einer Datenbank. Teams können Daten aus den unterschiedlichsten Quellen automatisch und in Echtzeit synchronisieren und so eine zentrale Informationsquelle für alle Beteiligten schaffen. Diese Daten lassen sich in sogenannten Bases in Tabellenform oder in zahlreichen anderen Ansichten anzeigen, etwa als Gantt-Diagramm, Kanban-Board, Team­kalender, visuelle Galerie oder Zeitleiste. Auch teilbare Formulare zum Erfassen von Daten sind verfügbar. Teams können Prozesse und Abläufe automatisieren, von einfachen auto­matisch versendeten Benachrichtigungen bis hin zu komplexen mehrschrittigen Workflows, und sich dabei die Inte­grationen für Tools wie Google Workspace, Slack oder Twitter zunutze machen. Die Logiken für die Automatisierung lassen sich per Java­Script erweitern.

Mit dem Interface Designer von Airtable können Teams per Drag and Drop und ohne Code eigene Nutzungsoberflächen erstellen und Berechtigungen dafür festlegen, wer worauf Zugriff hat. Für jede Base lassen sich beliebig viele Oberflächen erstellen und für einzelne Teammitglieder oder Stakeholder individuell anpassen. Die cloudbasierte Lösung ist über den Browser sowie als Desktop-App für Mac und Windows und als iOS- oder Android-App nutzbar.

Für Einzelpersonen oder sehr kleine Teams bietet Airtable eine Gratisversion mit unbegrenzt vielen Bases und bis zu 1200 Datensätzen pro Base für bis zu fünf Teammitglieder. In den kostenpflichtigen Versionen Plus, Pro und Enterprise sind unter anderem Erweiterungen verfügbar (drei bzw. zehn pro Base in den Versionen Plus und Pro, unbegrenzt viele in der Enterprise-Version), mit denen sich die Bases beispielsweise um einen JSON-Editor, interaktive Skripts, Suchfunktionen und einen CSV-Import erweitern lassen. Die Enterprise-Ver­sion bietet großen Unternehmen nützliche Funktionen wie einen dreijährigen Revisionsverlauf, Single Sign-On und ein unternehmensweites Admin-Panel.

5 Hauptfunktionen von Airtable

  • Cloudbasiertes Unternehmens-Dashboard als zentrale Informationsquelle.
  • Automatisierungen mit den verschiedensten Auslösern einschließlich Webhooks.
  • Flexibel anpassbare Ansichten und Freigabeeinstellungen.
  • No-Code-/Low-Code Entwicklung von Anwendungen, die als Website bereitgestellt werden können.
  • Integrationen für zahlreiche beliebte Anwendungen wie GitHub, Asana oder Zendesk; Zapier-Integrationen und REST API.

BIC Platform

Die BIC Platform bietet eine Reihe verschiedener Module zur Erreichung der Unternehmensziele: BIC Process Design dient der Modellierung, Analyse und Optimierung von Unternehmensprozessen einschließlich automatisierter Prüf- und Freigabe-Workflows sowie Dokumentenmanagement. BIC Information Security ist ein automatisiertes Informationssicherheitsmanagementsystem nach ISO 27001 mit interak­tiven Dashboards, vordefinierten Berichten und Risikomanagement. BIC Data Protection hilft Unternehmen, die Vorgaben der DSGVO einzuhalten. BIC Business Continuity hilft bei der Überwachung kritischer Geschäftsprozesse und der Reaktion im Notfall, BIC BSI Grundschutz dient der Einhaltung der Anforderungen des BSI (Bundesamt für Sicherheit in der Informationstechnik) und die GRC-Software BIC Custom GRC verwaltet Prozesse zu Governance, Risk und Compliance.

BIC Process Execution bietet zahlreiche Funktionen für die Low-Code-/No-Code-Automatisierung. Per Drag-and-Drop­Modellierung und Formulareditor im Baukastensystem lassen sich ausführbare Workflows, digitale Formulare oder durch Bots automatisierte Aufgaben etwa für Kund*innen oder Mitarbeitende erstellen. Dabei können Drittsysteme wie SAP, Microsoft Dynamics, Sharepoint und Salesforce inte­griert werden und Robotic Process Automation erweitert die Automatisierung.

Der Anbieter hat seinen Hauptsitz in Bochum: Das Tool und der Kundensupport sind somit auf Deutsch verfügbar. Alle Preisinformationen sowie eine kostenfreie Demo oder Testversion gibt es auf Anfrage.

5 Hauptfunktionen von BIC Platform

  • Prozessoptimierung und -automatisierung.
  • Module für Informationssicherheit, Datenschutz, Compliance und mehr.
  • Prozess-Templates für die einfache No-Code-/Low-Code-Automatisierung.
  • Dynamisches Fall- und Aufgabenmanagement.
  • Analysen von Prozessperformance und Fortschritt.

Formaloo

Mit Formaloo können Unternehmen ohne Verwendung von Code Formulare, Datenbanken und benutzerdefinierte Webanwendungen erstellen. Dabei können sie Daten aus Excel-Tabellen importieren, über in Formaloo erstellte Onlineformulare erfassen oder Datensätze neu aufbauen. Der auf die Zusammenarbeit ausgerichtete Arbeitsbereich kann nach verschiedenen Teams, Abteilungen, Kund*innen und Projekten organisiert werden. Im Web App Builder lassen sich Formulare, Links, Tabellen, Diagramme und mehr zusammenführen, um die Daten an einem zentralen Ort zu visualisieren, zu verwalten und mit anderen zu teilen. Per iframe können die so erstellten Web-Apps in Websites eingebettet werden. Auch vorgefertigte Templates für Web-Apps sind verfügbar. Neben zahlreichen Inte­grationen für Apps und Services wie Google, Salesforce, Microsoft oder Shopify gibt es eine SDK, APIs und Webhooks.

Die kostenlose Version von Formaloo richtet sich an Einzelpersonen mit bis zu fünf Datenbanken und Anwendungen. Für KMU eignet sich die Plus-Version mit unbegrenzt vielen Datenbanken und Anwendungen, größere Unternehmen sind mit der Pro- oder Enterprise-Version gut bedient. Ab der Plus-Version sind Workflow-Automatisierung und Logiken verfügbar.

5 Hauptfunktionen von Formaloo

  • Erstellen von Formularen, Datenbanken und Webanwendungen.
  • Anwendungsvorlagen für die verschiedensten Bereiche.
  • Datenerfassung und -analyse, etwa für Kundendaten.
  • Zugriffsbeschränkungen und sichere Zusammenarbeit im Team.
  • WordPress-Plugin zum Erstellen von Formularen und Widgets.

Forms On Fire

Wie der Name schon verrät, liegt ein Fokus von Forms on Fire auf der Erstellung von Formularen. Das Tool richtet sich unter anderem an Unternehmen, die Formulare für ihre internen und externen Mitarbeitenden erstellen möchten, etwa für Inspektionen, Fragen zur Arbeitssicherheit oder Arbeitsaufträge. Doch auch mobile Datenbanken, Referenzdokumente, Aufgabenlisten und Analyseberichte können erstellt werden. Sowohl die Datenerfassung als auch das Ausdrucken von Inhalten sind offline möglich und die No-Code-Designs können in Excel exportiert werden. Zu den nutzbaren Funktionen gehören Barcode- und NFC-Scans, Signaturerfassung, GPS-Standorterfassung und die Integration in andere Systeme.

Das Tool ist in den Versionen Standard, Premium und Enterprise verfügbar. Alle drei Versionen bieten unbegrenzten Speicherplatz und unbegrenzt viele Apps. Die Premium-Version bietet zudem Workflows, unbegrenzt viele Einträge und Premium-Konnektoren. Die Enterprise-Version ermöglicht Single Sign-On und bietet SYNQL für MS SQL oder MySQL.

5 Hauptfunktionen von Forms On Fire

  • Plattformübergreifende Formularerstellung und Excel-App-Designer.
  • Versionskontrollen und Testmodus für mobile Apps.
  • Benutzer*innendefinierte Dashboards für die grafische Aufbereitung von Informationen.
  • Automatisierungen mit flexiblen Workflows, Aufgaben-Templates und Aufgaben-API.
  • Integrationen für Google Sheets, Amazon S3, SharePoint, PowerBI, Zapier und mehr sowie offene API.

Intrexx

Intrexx ist ein skalierbares Low-Code-Baukastensystem für individuell erstellte Businessanwendungen. Per Drag and Drop lassen sich Anwendungen erstellen und Workflows automatisieren, um beliebige Arbeitsabläufe im Unternehmen zu optimieren. Intrexx bietet zahlreiche branchenunabhängige, vorgefertigte Softwarelösungen, die an die individuellen Bedürfnisse eines Unternehmens angepasst werden können, etwa für das Risikomanagement, die Datenanalyse, das Customer Relationship Management, das Qualitätsmanagement oder die Prozessvisualisierung.

Für den Einstieg bietet Intrexx eine Auswahl an Schulungen über die Intrexx Academy, sowohl als On-Demand-Videotrainings als auch als geführte Onlineschulungen zu festen Terminen. Unternehmen können zudem individuelle Onlineschulungen für ihre Teams buchen. Zu den Tools von Intrexx gehören außerdem das DMS-System Dokumentenmanager Pro sowie das Tool für die interne Zusammenarbeit Intrexx Share, das auch Projekt- und Aufgabenmanagementfunktionen bietet.

Das Tool wird in Deutschland entwickelt, ist auf Deutsch verfügbar und bietet eine 90-tägige Testversion sowie ein persönlich begleitetes Onboarding. Preise sowie persönliche telefonische Beratungstermine sind auf Anfrage verfügbar.

5 Hauptfunktionen von Intrexx

  • Anpassbare Businessanwendungen für viele Bereiche.
  • Low-Code-Plattform mit Drag-and-Drop-Editor.
  • Dokumentenmanager und Zusammenarbeitstool.
  • Prozessautomatisierung mit digitalen Workflows.
  • Zentrale Darstellung aller Unternehmensprozesse.

Ninox

Mit der cloudbasierten Datenbankplattform Ninox können Unternehmen Daten und Dokumente an einem zentralen Ort verwalten, über beliebige Geräte zusammenarbeiten und per Drag and Drop Formulare, Berichte und Business-Anwendungen in beliebiger Komplexität erstellen. Daten können in Formularen verwaltet und als Tabelle, Diagramm, Karten, Kanban-Board, Gantt-Diagramm oder Pivot-Diagramm angezeigt werden. Die Automatisierung ist skriptbasiert und über Trigger möglich, ferner es gibt eine breite Auswahl an Vorlagen, etwa für Vertrags- oder Aufgabenverwaltung, Wartungs-, Abnahme- oder Mängelprotokolle, die Arbeitszeiterfassung, das On- und Offboarding, CRM oder Immobilienverwaltung. Für mehr Sicherheit sind rollenbasierte Zugriffsberechtigungen, benutzer*innendefinierte Passwortrichtlinien, Sitzungsmanagement und Single Sign-on verfügbar.

Ninox ist ein deutsches Tool, somit auf Deutsch verfügbar und DSGVO-konform. Wer nur kleine Business-Anwendungen erstellen möchte, kann bereits in der Starter-Version unbegrenzte Arbeitsbereiche, Datenbanken und Tabellen sowie skriptbasierte Automatisierungen nutzen. In der Professional-­Version gibt es Anwender*inrollen, rollenbasierte Zugriffsberechtigungen und zusätzliche Ansichten, in der Enter­prise-Versionen unter anderem SSO, AD DS (Active Directory Domain Services), Personalisierungsoptionen sowie die Möglichkeiten zur Bereitstellung in einer privaten Cloud oder On-Premises statt in einer öffentlichen Cloud. Zudem gibt es Apps für iPhone, iPad, Android und Mac.

5 Hauptfunktionen von Ninox

  • Cloudbasierte Datenverwaltung, Formular- und Berichtserstellung.
  • No-Code-Erstellung von benutzer*innendefinierten Anwendungen.
  • Vordefinierte Feldtypen und Vorlagenbibliothek.
  • HTTP/REST-APIs, Integrationen einschließlich Zapier und Make (ehemals Integromat).
  • Zugriffsberechtigungen und Sitzungsmanagement.

Softr

Softr dient dazu, benutzer*innendefinierte Unternehmensanwendungen wie Kundenportale, Partneranwendungen oder interne Tools auf Basis der Daten aus Airtable-Bases oder Google-Tabellen zu erstellen. Dafür stehen mehr als 100 vordefinierte Blöcke wie etwa Funktionsübersichten, Formulare und CTAs für Websites zur Verfügung und die so entwickelten Full-Stack-Webanwendungen können Mitgliedschaften, Zahlungen und Geschäftslogiken unterstützen sowie für Apple- und Android-Geräte bereitgestellt werden. Die Sichtbarkeit von Seiten und Blöcken ist einzeln einstellbar, etwa abhängig von Bedingungen wie dem Anmeldestatus von Personen, deren Nutzer*innenrolle oder aktuellem Abonnement. Mit Softr entwickelte Websites können auf eigenen Domains gehostet werden und sind SEO-optimiert. Seitenelemente können inter­aktiv hinzugefügt und bearbeitet werden, beispielsweise Profilinformationen. Neben der direkten Airtable-Integration sind Integrationen für Google Analytics, Stripe, Mailchimp und mehr sowie Integrationen per Zapier und Make (Integromat) verfügbar.

Es gibt eine Gratisversion für unbegrenzt viele Anwendungen, eine benutzer*innendefinierte Domain mit Softr-Branding und Airtable-Integration für bis zu 200 Datensätze. Die kostenpflichtigen Versionen Starter, Professional und Business richten sich an unterschiedlich große Unternehmen und bieten je nach Version zusätzliche Funktionen wie benutzer*innendefinierter Code (HTML/CSS/JavaScript), das Aktualisieren von Airtable-Datensätzen sowie die Option, Mitgliedschaften und Paywalls für – je nach Version – bis zu 100.000 Mitglieder einzurichten.

5 Hauptfunktionen von Softr

  • Entwicklung von Unternehmensanwendungen auf Basis von Airtable oder Google-Tabellen.
  • Bereitstellung von Websites mit Mitgliedschaften, Paywalls und Zahlungsfunktionen.
  • Vorgefertigte Blöcke zur Erstellung interaktiver Web­anwendungen.
  • Aktualisieren von Airtable-Datensätzen.
  • Integrierte SEO-Funktionen.

Methodik

Für diese Liste haben wir zunächst Tools ausgewählt, die innerhalb der letzten zwei Jahre mindestens 20 Nutzer*innenbewertungen auf Get App erhalten haben (Stand vom 29.09.2022). Anschließend wurden diese Tools nach der Reihenfolge ihrer Gesamtbewertung (von der höchsten bis zur niedrigsten) sortiert, wobei wir eine Mindestbewertung von 4,5 von 5 Sternen zugrunde gelegt haben. Außerdem mussten die Produkte unserer Definition von Low-Code-Plattformen entsprechen: Low-Code-Entwicklungsplattformen bieten Nutzer*innen eine vereinfachte Entwicklungsumgebung, in der die Anwendungserstellung mithilfe visueller Elemente und nicht durch traditionelle Kodierung erfolgt. Die Softwareprogramme mussten ebenfalls die Hauptfunktion der Kategorie Low-Code-Software bieten: Deployment Management (Einsatzmanagement), Integrations Management (Integrationsmanagement) und Visual Modeling (Visuelle Gestaltung). Die finale Auswahl setzt sich aus den ersten sieben Tools zusammen, die alle oben stehenden Kriterien erfüllen.

Die Autorin Rosalia Pavlakoudis ist Content Analyst für GetApp und Software Advice, zwei unabhängigen Software-Vergleichsplattformen für Business-Software-Käufer*innen. Beide Netzwerke bieten verifizierte Nutzerbewertungen und unabhängige Testberichte in Hunderten von Softwarekategorien.

Diese Artikel könnten Sie auch interessieren:

Glitter Spritz: Popstar trifft Bootstrapping

Warum Bill Kaulitz nicht als Werbegesicht, sondern als Mitgründer beim Aperitif-Start-up Glitter Spritz der Gründer Lupo Porschen und Basti Fischer einsteigt – und was die Gründer*innenszene daraus lernen kann.

Wenn ein internationaler Popstar bei einem deutschen Getränke-Start-up einsteigt, klingeln in der Branche normalerweise die Alarmglocken: Ist das die nächste kurzlebige Influencer-Kampagne? Bei der Berliner Marke Glitter Spritz der Craft Circus GmbH wählt man einen anderen Weg. Tokio-Hotel-Frontmann Bill Kaulitz wird nicht nur Werbegesicht, sondern steigt aktiv als Mitgründer und Gesellschafter in die eigens dafür ausgegründete Glitter Spritz GmbH ein. Ab dem 9. März 2026 startet die begleitende nationale Handelskampagne. Ein Deal, der strategisch wertvoll ist – und auf einem Fundament ruht, das in der Start-up-Welt selten geworden ist.

Vom WG-Zimmer zur Brand-Maschine

Die Historie von Glitter Spritz ist keine klassische VC-finanzierte Start-up-Story. Die Marke entspringt der Craft Circus GmbH, die 2014 von den Studienfreunden Lupo Porschen und Basti Fischer gegründet wurde. Die beiden starteten ihr Unternehmen noch während des Studiums aus einer studentischen Wohngemeinschaft in der Hamburger Sternschanze heraus.

Die Manufaktur hat sich über zehn Jahre hinweg komplett ohne externes Investorenkapital (Bootstrapping) aufgebaut. Eine frühe strategische Entscheidung der Gründer war es, die eigentliche Destillation nicht selbst durchzuführen, sondern an eine Familienbrennerei in Rheinland-Pfalz auszulagern. So konnte sich das Team von Beginn an voll auf seine Kernkompetenzen konzentrieren: Produktentwicklung, Design, Marketing und den eigenständigen Vertrieb.

Erprobte Konzepte: "BIRDS" und "Flaschenpost" ebneten Weg

Für Bill Kaulitz ist das Investment kein Blindflug, denn Glitter Spritz ist keine unerprobte Neuentwicklung. Das Craft-Circus-Team hat in den vergangenen zehn Jahren mehrfach bewiesen, wie man Marken im Regal platziert und im Handel positioniert.

Den Anfang machte 2015 der BIRDS Dry Gin. Inspiriert von einer gemeinsamen Weltreise der Gründer, vereint der Gin 15 Botanicals aus fünf Kontinenten und bediente früh den Wunsch nach "Purpose": Mit jeder verkauften Flasche wird ein nachhaltiges oder soziales Projekt unterstützt.

2017 folgte der massentauglichere Flaschenpost Gin, der gezielt mit dem klassischen Image von Spirituosen brach. Abgefüllt in Apothekerflaschen, setzen die Gründer hier auf humorvolle Sprüche auf den Etiketten und fokussierten sich auf den lukrativen Geschenkemarkt. Bei diesem Produkt experimentierte Craft Circus auch erstmals mit visuellen USPs, die später bei Glitter Spritz weiterentwickelt wurden: Sondereditionen, die durch die Zugabe von Tonic Water ihre Farbe ändern oder bereits einen Glitzereffekt integriert haben.

Der Markt: Alkoholfrei boomt, klassischer Alkohol schwächelt

Mit Glitter Spritz agiert das Start-up in einem dynamischen Marktumfeld. Während der klassische Alkoholmarkt in Deutschland insgesamt rückläufig ist, wächst das Segment für Alternativen spürbar. Um unterschiedliche Zielgruppen zu bedienen, liefert die Marke zwei Varianten: eine Version mit 15 Prozent Alkohol und eine alkoholfreie Alternative.

Letztere trifft den aktuellen Zeitgeist: Laut Unternehmensangaben auf Basis von NielsenIQ-Daten belegte Glitter Spritz im Jahr 2025 Platz 2 der absatzstärksten alkoholfreien Aperitif-Marken im deutschen Lebensmitteleinzelhandel. Das Unternehmen erzielte in diesem Zeitraum einen mittleren sechsstelligen Absatz und verzeichnete ein zweistelliges Wachstum. Geschmacklich setzt das in Deutschland produzierte Getränk auf Bitterorange, Rhabarber und mediterrane Kräuter und positioniert sich fruchtiger und weniger bitter als herkömmliche Aperitifs.

Smartes Creator-Play oder kurzlebiger Hype?

Für Gründerinnen und Gründer bietet der Case "Glitter Spritz x Kaulitz" lehrreiche Ansatzpunkte, birgt aber auch branchenübliche Risiken. Der USP des Getränks ist primär visueller Natur: Ein essbarer Glitzer, basierend auf dem in der EU zugelassenen Lebensmittelfarbstoff Eisenoxid, sorgt im Glas für einen optischen Effekt. Solche "instagrammablen" Produkte generieren schnelle virale Aufmerksamkeit, bergen jedoch die Gefahr der Kurzlebigkeit. Wenn der Neuheitseffekt verfliegt, muss das Produkt zwingend über Geschmack und Markenidentifikation überzeugen, um dauerhafte Wiederkaufraten zu sichern.

Hier greift jedoch der strategische Schachzug: Dass Kaulitz nicht als reines Testimonial, sondern als echter Gesellschafter und Mitgründer einsteigt, ist ein starkes "Creator-Play". Während viele Creator-Brands an der operativen Umsetzung scheitern, trifft hier eine immense Reichweite auf ein krisenerprobtes Gründerteam, das Logistik, Produktion und den Vertrieb in über 5.000 Märkte und mehr als 15 Länder bereits etabliert hat. Die tiefe gesellschaftsrechtliche Bindung in einer gemeinsam gegründeten GmbH minimiert zudem das Risiko, dass der Prominente schnell das Interesse verliert.

Dennoch gleicht das Unterfangen im Einzelhandel einem Kampf David gegen Goliath. Der Aperitif-Markt wird von Konzernen mit massiven Marketingbudgets dominiert, und die Regalmeter im Supermarkt sind teuer und umkämpft. Auch wenn Glitter Spritz laut Daten zu den wachstumsstärksten Marken der Kategorie gehört, erfordert die geplante strategische Expansion im In- und Ausland enorme Ressourcen.

Letztlich zeigt der Fall eindrucksvoll, wie man ein bootstrapped Start-up durch gezieltes Design und iterativen Markenaufbau so weit skaliert, dass es für internationale Prominenz als Investment attraktiv wird. Wenn es dem Team um Fischer, Porschen und nun auch Kaulitz gelingt, den optischen Effekt zu einem festen Lifestyle-Attribut zu etablieren, hat das Unternehmen reales Potenzial, den Branchenriesen langfristig Marktanteile abzunehmen.

Purpose schlägt Profit? Die GmbV & echte Alternativen

Alle reden über die GmbV, die Gesellschaft mit gebundenem Vermögen. Die neue Rechtsform soll Start-ups vor dem Ausverkauf schützen und „Verantwortungseigentum“ zum Standard machen. Während die Politik noch an Details feilt, stehen Gründer*innen vor einem Dilemma: Warten oder handeln? Wir zeigen, warum die GmbV aktuell ein Holzweg sein kann – und mit welchen Legal-Hacks ihr eure Vision schon heute vor dem Exit-Zirkus schützt.

Es klingt nach dem perfekten Setup für die neue Generation von Gründer*innen: Man baut ein Impact-Start-up auf und generiert saftige Umsätze, aber anstatt das Unternehmen nach fünf Jahren an den Meistbietenden zu verhökern, gehört es sich selbst. Genau das soll die GmbV (Gesellschaft mit gebundenem Vermögen, juristisch oft GmgV) leisten. Gewinne bleiben zwingend im Unternehmen, die Kontrolle liegt bei den fähigsten Köpfen, und ein lukrativer Exit ist rechtlich ausgeschlossen.

Für klassische Venture-Capital-Geber (VCs) gleicht dieses Konzept einem Albtraum. Ein Konstrukt, das einen hochprofitablen Exit systematisch blockiert, entzieht dem klassischen VC-Geschäftsmodell schlichtweg die Arbeitsgrundlage. Doch während die GmbV als moralisches Aushängeschild gefeiert wird, offenbart ein genauerer Blick auf die aktuelle Realität: Wer unreflektiert auf die neue Rechtsform wartet, riskiert seine Flexibilität.

Der Realitätscheck: Warum Warten keine Strategie ist

Die GmbV ist ein starkes politisches Signal, aber (noch) kein wirtschaftlicher Befreiungsschlag. Der entscheidende Konstruktionsfehler: Es gibt keine steuerlichen Privilegien. Wer Gewinne im Unternehmen belässt, muss diese voll versteuern. Zudem ziehen sich die gesetzliche Umsetzung und die Detailfragen – etwa zur Veräußerung von Tochtergesellschaften – in die Länge.

Wer jetzt gründet, braucht rechtliche Sicherheit. Die gute Nachricht: Ihr braucht die GmbV gar nicht zwingend. Das Konzept des Verantwortungseigentums lässt sich mit etablierten Strukturen schon heute wasserdicht abbilden.

Das Founder-Playbook: 3 erprobte Alternativen zur GmbV

Vergesst die Warterei auf den Gesetzgeber. Mit diesen drei Modellen könnt ihr eure Purpose-DNA fest im juristischen Fundament verankern:

1. Der Start-up-Liebling: Das Veto-Share-Modell (Golden Share)

Dies ist der eleganteste Hack für junge Teams mit schmalem Budget (bekannt durch Ecosia oder Einhorn). Ihr gründet eine klassische GmbH. 99 Prozent der Anteile bleiben bei den Gründer*innen und wertekompatiblen Investoren. Genau 1 Prozent (der "Golden Share") gebt ihr jedoch an eine unabhängige Instanz ab, beispielsweise die Purpose Stiftung.

  • Der Clou: Im Gesellschaftervertrag wird verankert, dass fundamentale Entscheidungen (wie ein Unternehmensverkauf oder die Änderung des Purpose) nur einstimmig getroffen werden können. Die Stiftung legt ihr Veto ein, sobald jemand Kasse machen will. Ihr bleibt maximal agil, zementiert aber die Vermögensbindung.

2. Das Schwergewicht: Das Doppelstiftungsmodell

Ideal, wenn ihr bereits etabliert seid und hohe Cashflows generiert (das Bosch-Modell). Macht und Geld werden strikt getrennt. Eine Stiftung hält das Kapital (die Gewinne) und schüttet sie für gute Zwecke aus. Eine separate Unternehmensstiftung (oder ein Trust) hält die Stimmrechte und lenkt das operative Geschäft.

  • Der Clou: Ein feindlicher Takeover ist ausgeschlossen. Allerdings ist dieses Modell in der Aufsetzung und im Unterhalt teuer und bürokratisch – für Seed-Start-ups meist noch überdimensioniert.

3. Das Comeback: Die Genossenschaft (eG)

Die ursprünglichste Form des Verantwortungseigentums erlebt ein Revival, besonders bei Community-getriebenen Geschäftsmodellen.

  • Der Clou: Es gilt das demokratische Kopfprinzip. Egal, wie viel Geld ein Investor mitbringt, er hat nur eine Stimme. Die eG ist nahezu immun gegen Exits. Achtung: Die Entscheidungswege können hier länger dauern, was nicht zu jedem hyper-agilen Startup-Modell passt.

Handlungsanweisungen für Gründer*innen

Was bedeutet das für eure Strategie in den nächsten Wochen? Hier ist euer Fahrplan:

  1. Finanzierungsstrategie radikal klären: Beantwortet die "Exit-Frage" im Gründungsteam schonungslos ehrlich. Wollt ihr klassisches, schnelles Wachstumskapital (Tier-1-VCs), ist Verantwortungseigentum der falsche Weg. Stellt ihr Purpose vor Profit, richtet euren Pitch sofort auf Family Offices, Business Angels mit Impact-Fokus und Bankkredite aus.
  2. Mit der Standard-GmbH starten: Wählt für die Gründung die klassische GmbH. Sie ist das bekannteste Vehikel, Banken verstehen sie, und Notare haben die Vorlagen griffbereit.
  3. Den Veto-Share-Vertrag aufsetzen: Nutzt das Veto-Share-Modell, um eure GmbH "Exit-resistent" zu machen. Holt euch einen spezialisierten Anwalt dazu, der den Gesellschaftervertrag anpasst, und sucht euch einen unabhängigen Veto-Partner.
  4. Das "Nein" als Schutzschild nutzen: Kommuniziert eure Struktur offensiv und selbstbewusst nach außen. Begreift die zu erwartende Ablehnung durch klassische VCs nicht als strategischen Nachteil, sondern als euren effektivsten Filter: So sortiert ihr von Tag eins an jene Investoren aus, die bei der ersten Krise auf einen Notverkauf drängen würden.

INFOGRAFIK-KASTEN

Clash of Cultures – Wer finanziert mein Start-up?

  • Klassisches Venture Capital (Shareholder Value):
    • Ziel: Maximale Wertsteigerung und lukrativer "Exit" (Verkauf/IPO) nach 5 bis 7 Jahren.
    • Fokus: Hyper-Wachstum, Skalierung, Marktführerschaft.
    • Kontrolle: VCs fordern Sitze im Board, Vetorechte und Liquidationspräferenzen.
    • Fit für Verantwortungseigentum? Absolutes No-Go.
  • Purpose Funding (Verantwortungseigentum):
    • Ziel: Langfristige Unternehmenssicherung, faire Renditen aus dem Cashflow, Erhalt der Unabhängigkeit.
    • Geldgeber: Family Offices, Purpose-Fonds, Crowdinvesting, Bankkredite, Genussrechte.
    • Kontrolle: Investoren akzeptieren, dass sie Gewinne/Zinsen erhalten, aber nicht die strategische Kontrolle oder einen Unternehmensverkauf erzwingen können.
    • Fit für Verantwortungseigentum? Perfect Match.

Redaktioneller Hinweis: Dieser Artikel dient ausschließlich der journalistischen Information und Einordnung. Er stellt keine verbindliche Handlungsempfehlung dar und ersetzt keinesfalls eine individuelle juristische oder steuerliche Fachberatung.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

Fördermittel: Worauf Gründer*innen von Beginn an achten sollten

Wichtige Dos and Don’ts bei der Fördermittelbeantragung.

Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.

In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.

Die Weichenstellung: Förderung ist eine Managemententscheidung

Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:

1) Aufbauphase: Fokus schaffen (unter anderem exist)

In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.

2) Projektphase: Planbar entwickeln (etwa ZIM)

Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.

3) Förderung in jeder Phase (Forschungszulage)

Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.

Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.

Fazit

Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.

Die Autorinnen

Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.

Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Strategischer Fokus auf Multimorbidität: Oska Health sichert sich 11 Mio. Euro

Das Frankfurter HealthTech-Unternehmen Oska Health hat eine Finanzierungsrunde über 11 Millionen Euro abgeschlossen. Angeführt von Capricorn Partners und SwissHealth Ventures, adressiert das Start-up die Versorgungslücke bei chronisch Kranken. Ein Blick auf das Geschäftsmodell, die personelle Aufstellung und die Herausforderungen im regulierten Gesundheitsmarkt.

In der aktuellen Seed-Runde haben sich neben den Lead-Investoren Capricorn Partners und SwissHealth Ventures auch Revent, Calm Storm, BMH, LBBW Venture Capital, GoHub Ventures und Aurum Impact beteiligt. Mit dem frischen Kapital plant Oska Health, die technologische Infrastruktur auszubauen und das Versorgungsmodell, das bereits mit über 20 Krankenkassen (darunter die KKH) etabliert wurde, in die Breite zu bringen.

Adhärenz als wirtschaftlicher Hebel

Der Fokus des 2022 gegründeten Unternehmens liegt auf sog. multimorbiden Patient*innen – Menschen, die gleichzeitig an mehreren chronischen Leiden wie Nierenerkrankungen (CKD), Diabetes und Bluthochdruck leiden. Ein Kernproblem in diesem Bereich ist die mangelnde Therapietreue im Alltag (Adhärenz). Statistiken des Gesundheitswesens belegen, dass etwa 50 % der chronisch Kranken ihre Medikamente nicht vorschriftsmäßig einnehmen. Oska Health setzt hier auf eine hybride Betreuung: Ein digitaler Begleiter (App) wird durch persönliches Coaching via Video und Chat ergänzt.

Ziel dieses Ansatzes ist die Reduktion von vermeidbaren Komplikationen und teuren Krankenhausaufenthalten. Für die Kostenträger stellt dies ein mathematisches Optimierungsproblem dar: Übersteigen die Kosten für die digitale Betreuung die Einsparungen durch verhinderte Akutereignisse? Oska Health scheint hier erste überzeugende Daten geliefert zu haben, wie die Beteiligung des Venture-Arms der Schweizer CSS Versicherung (SwissHealth Ventures) signalisiert.

Das Gründungsteam: Erfahrung aus der Industrie

Ein wesentliches Merkmal von Oska Health ist der „Founder-Market-Fit“. Die Gründer*innen kommen nicht aus der klassischen Software-Entwicklung, sondern bringen tiefgreifende Branchenerfahrung aus dem Gesundheitssektor mit:

  • Niklas Best (CEO): War zuvor über zehn Jahre in der Branche tätig, unter anderem als Director of Digital Products bei Fresenius Medical Care. Er verfügt über einen Executive MBA der Universität St. Gallen.
  • Dr. Malte Waldeck (CFO/COO): Der promovierte Wirtschaftswissenschaftler (RWTH Aachen) sammelte Erfahrungen im Investmentbanking (Metzler) sowie in Führungspositionen bei DaVita Kidney Care und der D.med Healthcare Group.
  • Claudia Ehmke (CPO): Verantwortet mit langjähriger Erfahrung in der Tech-Szene (u.a. bei der Design-Agentur ustwo in London) die Nutzerschnittstelle und Produktstrategie.

Diese personelle Konstellation dürfte den Zugang zu den oft schwer zugänglichen Entscheidungsträgern der Gesetzlichen Krankenversicherungen (GKV) erleichtert haben.

Strukturelle Herausforderungen und Wettbewerb

Trotz des Kapitalzuflusses steht das Unternehmen vor den typischen Hürden des deutschen Digital-Health-Marktes. Im Gegensatz zu Digitalen Gesundheitsanwendungen (DiGA), die einen standardisierten Zulassungsweg gehen, nutzt Oska Health sog. Selektivverträge. Dieser Weg erfordert einen deutlich höheren individuellen Vertriebsaufwand pro Krankenkasse, ermöglicht aber eine tiefere Integration in bestehende Versorgungspfade.

Ein kritischer Faktor bleibt die Skalierbarkeit. Ein Modell, das auf menschliches Coaching setzt, hat naturgemäß höhere Grenzkosten als eine reine Software-Lösung. Oska Health begegnet dem durch den Einsatz von KI, um administrative Aufgaben der Coaches zu automatisieren. Der Erfolg der nächsten Jahre wird davon abhängen, ob die technologische Unterstützung die Effizienz so weit steigert, dass eine flächendeckende Versorgung bei gleichbleibender Marge möglich ist.

Zudem ist das Marktumfeld für Chronic Care Management zunehmend besetzt. Während spezialisierte Anbieter wie Oviva (Ernährung) oder Mika (Onkologie) einzelne Nischen besetzen, positioniert sich Oska Health durch die Fokussierung auf die komplexere Multimorbidität. Dies vergrößert zwar die Zielgruppe, erhöht jedoch gleichzeitig die regulatorischen Anforderungen an das Produkt als zertifiziertes Medizinprodukt.

Einordnung für den Start-up-Sektor

Die Finanzierung von Oska Health zeigt einen deutlichen Trend im HealthTech-Investment: Kapital fließt verstärkt in Modelle, die nicht nur eine digitale Lösung bieten, sondern eine nachweisbare Integration in die Abrechnungsstrukturen des Gesundheitssystems vorweisen können. Für Gründer*innen im Bereich Medtech verdeutlicht der Fall Oska, dass Branchenexpertise und die Wahl des richtigen Erstattungsweges oft wichtiger sind als die reine technologische Innovation. Ob sich der hybride Ansatz langfristig gegen rein algorithmische Lösungen durchsetzt, wird an den klinischen und ökonomischen Langzeitdaten der Krankenkassen-Partner gemessen werden.

Steuern als Start-up-Wachstumsbremse

Was tun, wenn Steuerpflichten und Papierkram die Vision vom eigenen Business erstickt? Drei Quick Wins für dein Finanz-Setup.

Der Start in die Selbständigkeit ist ein Balanceakt zwischen der eigenen Vision und administrativen Pflichten. Entgegen der landläufigen Meinung, dass fehlendes Kapital oder die erste Kund*innengewinnung die größten Hürden sind, zeigt eine aktuelle Erhebung von sevdesk: Steuerpflichten und Papierkram belasten junge Gründer*innen am stärksten.

Realitätscheck: Was Gründer*innen wirklich nachts wachhält

Eine repräsentative Umfrage unterstreicht, wie stark administrative Themen den Alltag dominieren:

  • 40 Prozent sehen in Steuern und dem damit verbundenen Papierkram den größten Stressfaktor.
  • 38 Prozent nennen finanziellen Druck und unregelmäßiges Einkommen als größte Hürde.
  • 36 Prozent verorten die stärksten Herausforderungen bei der Kundenakquise.

StartingUp-Insight: Warum stressen Steuern mehr als wackelige Einnahmen? Weil hier die Fehlerkultur der Start-up-Welt aufhört. Bei Fehlern in der Buchhaltung drohen schnell Säumniszuschläge oder rechtliche Konsequenzen – diese „Angst vor dem Finanzamt“ lähmt viele. Hinzu kommen die massiven Opportunitätskosten: Jede Stunde, die ein Young Founder mit manueller Zettelwirtschaft oder dem Suchen von Belegen verbringt, fehlt bei der Produktentwicklung oder der Kund*innenakquise. Die Bürokratie bremst das eigentliche Wachstum also aktiv aus.

Paradox: Digitales Business, aber analoge Buchhaltung

Besonders auffällig: Etwa ein Drittel (32 Prozent) der Befragten befindet sich noch im ersten Jahr der Selbständigkeit (0 bis 12 Monate). Der überwiegende Teil dieser jungen Unternehmer*innen agiert in modernen Branchen wie Handel und E-Commerce (13 Prozent) oder IT und Social Media (11 Prozent). Dennoch zeigt sich bei der administrativen Organisation ein überraschend traditionelles Bild:

  • Knapp ein Drittel (29 Prozent) der Microbusiness-Entrepreneurs nutzt für Rechnungserstellung und Buchhaltung keine speziellen Software- oder Cloud-Lösungen.
  • Als Gründe wird zu jeweils 29 Prozent angegeben, dass die Prozesse auch ohne Tools funktionieren würden oder das Unternehmen noch zu klein für digitale Lösungen sei.
  • Weitere 21 Prozent befürchten, dass externe Tools ihre eigenen speziellen Anforderungen nicht abbilden könnten.

Compliance-Falle: Wenn die „Zettelwirtschaft“ zum Risiko wird

Dieser Verzicht auf digitale Unterstützung birgt handfeste Risiken – auch rechtlicher Natur. Die Studie verweist auf die E-Rechnungspflicht, die bereits seit dem 1. Januar 2025 in Deutschland flächendeckend gilt.

StartingUp-Insight: Zur Erinnerung: Seit Jahresbeginn 2025 müssen B2B-Unternehmen in Deutschland in der Lage sein, elektronische Rechnungen in strukturierten Formaten (wie ZUGFeRD oder XRechnung) zu empfangen und zu verarbeiten. Wer die manuelle Verarbeitung von klassischen PDF- oder Papierrechnungen beibehält, tappt unweigerlich in eine Compliance-Falle. Zudem gilt: „Zu klein“ für eine saubere Software-Infrastruktur gibt es heute kaum noch. Ein sauberes digitales Setup von Tag eins an nimmt nicht nur die Angst vor Fehlern, sondern ist auch deutlich günstiger und nervenschonender als der spätere, schmerzhafte Wechsel im laufenden Betrieb.

Raus aus dem Chaos: 3 Quick Wins für dein Finanz-Setup

  1. Trennung ab Tag 1: Eröffne sofort ein separates Geschäftskonto. Private und geschäftliche Ausgaben zu vermischen, ist der Garant für stundenlange Sortierarbeit am Jahresende.
  2. Schnittstellen nutzen: Verknüpfe das Geschäftskonto direkt mit einer gängigen Buchhaltungssoftware. So lassen sich Zahlungseingänge automatisch mit offenen Rechnungen abgleichen.
  3. Steuerrücklagen automatisieren: Lege konsequent ca. 30 Prozent aller Netto-Einnahmen auf ein Tagesgeldkonto. So verlieren Vorauszahlungen für die Einkommen- oder Gewerbesteuer dauerhaft ihren Schrecken.

Über die Daten

Die Umfrage wurde im Juni 2025 vom Marktforschungsunternehmen Appinio im Auftrag von sevdesk durchgeführt. Befragt wurden deutschlandweit 300 Berufstätige ab 18 Jahren.

Qualifizierte Migration darf kein Irrgarten sein

Um die Migration qualifizierter Fachkräfte aus dem Ausland zu erleichtern, haben Studierende der Universität zu Köln im Jahr 2024 VisaFlow ins Leben gerufen. Heute präsentiert sich die App als ultimativer Leitfaden, der dabei hilft, sich im deutschen Einwanderungsprozess zurechtzufinden. CEO Georg Nauheimer erzählt, was es damit auf sich hat und warum das exist-Programm vom Bundesministerium für Wirtschaft und Energie (BMWE) dabei eine doppelt wichtige Rolle spielt.

Was hat Sie und Ihre Mitgründer*innen motiviert, VisaFlow zu starten?

Im Studium erlebten wir – insbesondere am Beispiel unseres Teammitglieds Cheyenne aus den USA – die Herausforderungen, die sich bei der Einwanderung nach Deutschland ergeben. Die Prozesse zur Erteilung eines Visums oder einer Aufenthaltserlaubnis sind bisher überaus komplex und belastend; für Talente, Hochschulen und Unternehmen. Dabei steht fest, dass allein aufgrund der hiesigen demografischen Entwicklung qualifizierte Migration unverzichtbar ist für den Wirtschaftsstandort Deutschland. Unsere Vision ist deshalb die einer Welt, in der die internationale Mobilität geeigneter Fachkräfte nicht durch intransparente und ineffiziente Visumsprozesse eingeschränkt wird.

Was ist bisher die größte Hürde?

Ob als Student, Fachkraft oder mit einer Unternehmensidee: Wer aus dem nicht-europäischen Ausland den Schritt nach Deutschland wagt, sieht sich häufig einem schwer durchschaubaren bürokratischen Prozess gegenüber. Unklare Anforderungen, widersprüchliche Informationen, schwer verständliche Formulare in Amtsdeutsch und lange Wartezeiten machen das Einwanderungsverfahren zu einem regelrechten Irrgarten. Es bleibt immer die Unsicherheit, dass selbst ein kleiner formaler Fehler zu enormen Verzögerungen führen kann. Und bei der Verlängerung von Visa und Aufenthaltstiteln geht alles von vorne los. Genau hier setzt VisaFlow an: Unser Ziel ist es, diese Komplexität zu reduzieren, Transparenz zu schaffen und die Reibung im System für alle Beteiligten nachhaltig zu minimieren.

Inwiefern kann eine App dabei helfen?

Wir haben ein benutzerfreundliches Programm entwickelt, das den gesamten Prozess der Identifizierung, Ausfüllung und Einreichung erforderlicher Unterlagen optimiert. VisaFlow führt Nutzerinnen und Nutzer wie ein persönlicher Guide durch den in verständliche Schritte zerlegten Prozess – von der ersten Frage „Welches Visum brauche ich eigentlich?“ bis zur vollständigen, korrekt eingereichten Bewerbung. Kein Rätselraten mehr, keine unnötigen Umwege. Statt nüchterner Behördenlogik rückt die App die Perspektive der Menschen in den Mittelpunkt. Sie strukturiert Anforderungen, erinnert an Fristen, erklärt Dokumente in einfacher Sprache und sorgt dafür, dass nichts vergessen wird. Alles folgt einem klaren Flow – genau daher der Name.

Welche Rolle spielt exist – from science to business in diesem Kontext?

Exist ist für uns gleich doppelt wichtig! Zunächst als Förderpartner. Als wir 2024 an der Universität zu Köln mit VisaFlow gestartet sind, war schon der Bewerbungsprozess um das exist Gründungsstipendium ein wertvolles Training, die Zusage dann ein entscheidender Meilenstein. Von zentraler Bedeutung war natürlich die finanzielle Absicherung in der frühen Phase. Insgesamt verschaffte uns das Programm den zeitlichen Freiraum, den klaren Fokus und die notwendige Rückendeckung, um unsere Idee konsequent weiterzuentwickeln und zur Marktreife zu führen. Bis heute profitieren wir außerdem von der starken Signalwirkung, die exist als Qualitätssiegel gegenüber potenziellen Kunden, Partnern und Investoren entfaltet. Auch die Netzwerkkontakte sowie die fachliche Begleitung während des Förderzeitraums haben maßgeblich zu unserem Fortschritt beigetragen. Unser Fazit: Für Gründungsteams aus dem wissensbasierten Ökosystem ist exist nicht nur die bewährte erste Anlaufstelle, sondern die zentrale Förderung, die unbedingt genutzt werden sollte.

Um das Tempo von Gründungen aus der Wissenschaft zu beschleunigen, hat das BMWE den Antragsprozess des exist-Programms vereinfacht. Welche Erfahrungen haben Sie diesbezüglich gemacht?

Vor allem die digitale Antragstellung ist ein großer Fortschritt. Bei uns lief bereits fast alles digital, inklusive Unterschriften und Kommunikation. Eine Erleichterung ist auch der reduzierte Umfang der Antragsunterlagen, insbesondere das kürzere Ideenpapier, das dazu zwingt, wirklich auf den Punkt zu kommen. Die Sachmittelpauschalen haben wir noch nicht genutzt, wir sehen diese allerdings auch als weiteren Schritt der Entbürokratisierung im exist-Programm. Positiv hervorzuheben sind außerdem die überarbeiteten Webseiten, die von Anfang an für Klarheit sorgen. Insgesamt kommt hier also genau das Rezept zum Einsatz, das wir uns auch in unserem Thema wünschen: Digitale Abläufe, mehr Transparenz und weniger Aufwand für alle im System!

Sie sagten, das exist-Programm sei für VisaFlow gleich doppelt wichtig. Was meinen Sie damit?

Tatsächlich verbindet uns auch unsere Mission: Mit der Einrichtung des Global Certification and Consulting Centre (GCCC) durch das BMWE im Jahr 2024 als Teil des exist-Programms haben sich inhaltliche Schnittstellen ergeben. Hintergrund ist die Reform des Aufenthaltsgesetzes, die Nicht-EU-Gründer und -Gründerinnen bei exist-Finanzierung den Zugang zu Visa und Aufenthaltstiteln ermöglicht. Dabei fungiert das GCCC als zentrale Schnittstelle zwischen Auslandsvertretungen, Behörden, Hochschulen und internationalen Gründungsteams. Auch prüft und zertifiziert es stipendienbasierte Gründungsprogramme. Daraus ergeben sich mehrere Ansatzpunkte für eine wertstiftende Zusammenarbeit zwischen dem GCCC und VisaFlow.

Wie könnte eine solche Zusammenarbeit aussehen?Um internationale Gründungen in Deutschland nachhaltig zu fördern, wäre die gezielte Bündelung der jeweiligen Kompetenzen denkbar. GCCC bringt spezialisiertes Fachwissen, ein belastbares Netzwerk sowie Sichtbarkeit im exist-Umfeld in den Prozess ein. VisaFlow steuert eine skalierbare Technologielösung und umfassendes Behördenwissen bei, wodurch sich die Qualität von Visums- und Aufenthaltstitelanträgen bereits im Vorfeld deutlich verbessern lässt. Darüber hinaus sind verschiedene gemeinsame Projekte möglich, etwa Trainingseinheiten zur Digitalisierung von Abläufen sowie zur praxisnahen Umsetzung neuer gesetzlicher Regelungen in den Behörden.

Geben Sie uns noch einen Überblick, wo VisaFlow aktuell steht.Sehr gern. Aktuell arbeiten wir bundesweit mit über 60 Hochschulen zusammen. Wir haben bereits mehr als 4.000 Fälle erfolgreich unterstützt, die Nachfrage ist weiter groß. Daneben treiben wir mit unserem Innovationspartner Rewe Group die Entwicklung einer Produktlinie für Unternehmen und deren Personalabteilungen voran. Für uns ist es zentral, Lösungen stets im Co-Development mit den Nutzerinnen und Nutzern zu entwickeln. In diesem speziellen Fall ist es unser Ziel, eine skalierbare End-to-End-Lösung zu entwickeln, die Unternehmen bei internationalen Einstellungen deutlich entlastet und Bewerberinnen und Bewerbern eine signifikant bessere Onboarding-Erfahrung ermöglicht. Der Plan ist, damit Mitte dieses Jahres an den Start zu gehen.

Herr Nauheimer, vielen Dank für das Gespräch!

Infokasten

Was ist exist?

Das exist-Programm des Bundesministeriums für Wirtschaft und Energie (BMWE) fördert wissensbasierte Gründungen aus Hochschulen und Forschungseinrichtungen. Es stärkt den Transfer von Forschung in marktfähige Produkte und Dienstleistungen und eröffnet Wissenschaftlerinnen und Wissenschaftlern eine klare Karriereoption im Unternehmertum.

exist Gründungsstipendium

Für gründungsinteressierte Studierende, Absolventinnen und Absolventen sowie Wissenschaftlerinnen und Wissenschaftler.

exist Women

Entwicklungen und Aktivitäten zur Förderung und Unterstützung von Gründerinnen aus Hochschulen und Forschungseinrichtungen.

exist Forschungstransfer

Für forschungsbasierte Gründungsvorhaben mit aufwendigen, risikoreichen Entwicklungsarbeiten.

exist Startup Factories

Zehn Leuchttürme des deutschen Startup-Ökosystems zur Steigerung von Anzahl und Qualität wissensbasierter Ausgründungen.

Bewerbungen erfolgen über die Hochschule/Forschungseinrichtung an den Projektträger.

Weitere Informationen unter www.exist.de

Distart: Vom Agentur-Frust zum EdTech-Champion

Wie das 2021 von Thomy Roecklin gegründete und seit 2025 zusammen mit Lucia-Miriam Selbert geführte Leipziger EdTech Distart das Bildungssystem „gegen den Strich bürstet“.

Wer in Deutschland über Start-up-Hubs spricht, landet meist schnell in Berlin oder München. Doch in der sächsischen Metropole Leipzig wächst seit einigen Jahren ein Player heran, der beweist, dass Innovation auch abseits der üblichen Verdächtigen gedeiht: Die Distart Education GmbH. Ihr Treibstoff ist der eklatante Mangel an digitaler Kompetenz in der deutschen Wirtschaft – und der Mut, das „System Bildung“ gegen den Strich zu bürsten.

Wenn „Done for You“ nicht mehr reicht

Die Wurzeln des Unternehmens reichen weiter zurück als das offizielle Gründungsjahr 2021. Gründer Thomy Roecklin setzte jahrelang mit seinen Agenturen MNKY lab und TRDIGITAL digitale Kampagnen für Kund*innen um. Doch im Tagesgeschäft bremste das fehlende Digitalverständnis auf Kundenseite die Projekte immer wieder aus. Die Erkenntnis, dass Deutschland weniger neue Agenturen, sondern mehr digitale Mündigkeit braucht, führte schließlich zum Pivot.

Interessanterweise war der Auslöser für diesen Kurswechsel kein konkretes Kundenprojekt. Auf die Frage nach dem „Aha-Moment“ erklärt Roecklin, dass er lediglich versuchte, Lucia-Miriam Selbert einzuarbeiten, und dabei schockiert feststellte, wie wenig praxisnahe digitale Weiterbildungen existierten. Er baute kurzerhand selbst ein Lernprogramm – ohne zu ahnen, dass daraus einmal Distart entstehen würde. Im Januar 2021 fiel der Startschuss für Distart learn. Mitten in der Pandemie setzte Roecklin auf ein Modell, das sich radikal von klassischen Bildungsträgern unterschied: 100 Prozent remote, aber mit enger persönlicher Betreuung und einem klaren Fokus auf die Praxis.

Das Schnellboot zwischen den Tankern

Distart operiert im sogenannten AZAV-Markt (Akkreditierungs- und Zulassungsverordnung Arbeitsförderung). Während etablierte Bildungsriesen oft mit der Trägheit ihrer Größe kämpfen und bis zu 24 Monate für Lehrplananpassungen benötigen, hat sich Distart als agiler „Qualitäts-Vorreiter“ positioniert.

Für Roecklin ist diese Agilität eine Frage des Überlebens, da sich Jobs und Skills heute schneller verändern als jede klassische Bildungslogik. Er betont, dass man ohne permanente Weiterentwicklung der Inhalte zwangsläufig am Markt vorbei ausbilden würde. Diese Flexibilität ist zudem essenziell für die Zielgruppe: Viele Teilnehmende bilden sich neben ihrem 9-to-5-Job weiter, betreuen Kinder oder pflegen Angehörige und benötigen daher flexible statt starrer Strukturen.

Agency-DNA statt Schulbank-Feeling

Der entscheidende Wettbewerbsvorteil liegt in der Herkunft: Distart ist keine klassische Schule, sondern wurde von Marketern für Marketer gebaut. Diese „Agency-DNA“ durchzieht das gesamte Geschäftsmodell. Mit einer modernen Lernumgebung aus Live-Sessions und asynchronen Deep-Dives spricht das Unternehmen alle Altersgruppen gleichermaßen an.

Auch technologisch ist man der Konkurrenz oft einen Schritt voraus: Als ChatGPT Ende 2022 die Arbeitswelt veränderte, reagierte Distart fast in Echtzeit. Auf die kritische Frage, ob KI das vermittelte Wissen nicht bald obsolet mache, findet Roecklin eine klare Antwort: KI ersetzt keine Menschen, sie ersetzt lediglich Mittelmaß. Während KI das Netz mit generischen Inhalten flutet, steige paradoxerweise der Hunger nach echten Stimmen, Ideen und Perspektiven – Marketing werde also menschlicher.

Bootstrapping und gesundes Wachstum

Der Erfolg gibt dem Konzept recht. Im September 2024 erfolgte die Umfirmierung zur Distart Education GmbH, was den Übergang vom Start-up zum etablierten Bildungsinstitut markierte. Während andere Tech-Unternehmen Personal abbauen mussten, verdoppelte Distart seine Belegschaft beinahe auf über 100 Köpfe und bezog im Oktober 2025 neue Räumlichkeiten im NEO Leipzig.

Besonders bemerkenswert: Das Wachstum ist organisch und gebootstrapped – finanziert aus dem eigenen Cashflow ohne externe Risikokapitalgeber. Das macht Distart unabhängig von Exit-Druck. Seit Februar 2025 verstärkt Lucia-Miriam Selbert als Geschäftsführerin die strategische Ausrichtung.

Dennoch birgt die Skalierung Risiken, da das Geschäftsmodell stark von staatlichen Bildungsgutscheinen abhängt. Auf einen möglichen „Plan B“ angesprochen, erklärt das Unternehmen, dass Förderungen zwar beim Beschleunigen helfen, man Distart aber bewusst so aufbaue, dass langfristig strukturelle Unabhängigkeit erreicht wird. Auch die Qualitätssicherung bei über 100 Mitarbeitenden ist eine Herausforderung. Thomy Roecklin gibt offen zu, dass Wachstum kein Wellnessprogramm ist und es im Getriebe zwangsläufig knirscht. Sein Schlüssel: Qualität darf nicht an Einzelpersonen hängen, sondern muss im gesamten System verankert sein, kombiniert mit echtem Vertrauen in das Team statt Kontrolle.

Der Standort als Statement und Vision

Dass Distart in Leipzig verwurzelt bleibt, ist Teil der Identität. Roecklin sieht im Osten Deutschlands ein enormes, oft unterschätztes Potenzial und erlebt dort viel Talent, Pragmatismus und Lernhunger. Distart versteht sich hier auch als Regionalentwickler.

Die Vision der Gründer geht jedoch über reine Kurse hinaus. Unterstrichen durch Auszeichnungen wie „Top Fernschule 2025“ und „2026“, arbeitet das Team nun an der Gründung der Distart University of Applied Sciences. Das Ziel bis 2030 ist ambitioniert: Ein Alumni-Netzwerk von 25.000 Absolvent*innen. Sollte der komplexe Weg zur staatlichen Anerkennung gelingen, wird Distart endgültig zum gewichtigen Faktor für die digitale Wettbewerbsfähigkeit der Bundesrepublik.

Executive Search 2026

Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.

Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Was kann KI leisten – und was nicht?

Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.

Warum der Mensch unverzichtbar bleibt

Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.

Leadership in Zeiten von KI

Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.

Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.

KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung

Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.

Fazit: Executive Search neu denken

Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.

KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.

Agentic AI als Erfolgsgrundlage für Start-ups

KI befeuert den aktuellen Gründungsboom, doch für eine erfolgreiche Skalierung braucht es mehr. Warum Agentic AI auf Basis einer soliden Datenarchitektur zum entscheidenden Erfolgsfaktor für Start-ups wird.

Das Jahr startete für Start-ups mit einer Rekordmeldung: In Deutschland wurden im vergangenen Jahr fast ein Drittel mehr Gründungen verzeichnet. In absoluten Zahlen wurden 2025 insgesamt 3.568 neue Firmen geschaffen – ein neuer Höchststand, wie der Start-up-Verband im Januar verkündete. Dies ist auch der künstlichen Intelligenz (KI) zu verdanken, wie sich beim genauen Hinschauen herausstellt. 853 dieser neuen Unternehmen kommen aus dem Bereich Software. Doch nicht nur sie verwenden KI; bei einer Umfrage gab ein Drittel aller Gründer und Gründerinnen an, dass sie mit KI arbeiten. Dementsprechend sehen die Sprecher des Verbands in der Technologie auch die treibende Kraft hinter dem Start-up-Rekord.

Wirft man einen Blick über den Tellerrand hinaus, so lässt sich feststellen, dass die Start-up-Szene in Europa insgesamt floriert. Der „State of European Tech 2025“-Report im Auftrag von Atomico und anderen schätzt, dass im letzten Jahr Investitionen in Höhe von 44 Milliarden US-Dollar (umgerechnet ca. 38 Mrd. EUR) in diesen Sektor geflossen sind. Geldgeber erwarten inzwischen, dass Start-ups mit KI und Deep Tech arbeiten, so der Report. Demnach flossen auch 36 Prozent der europäischen Start-up-Investitionen in genau diese beiden Felder.

Das Gründungsumfeld könnte also kaum besser sein. Doch ein Rekord an Start-ups und steigende Investitionssummen bedeuten nicht zwangsläufig auch eine einfache Skalierung der Geschäftsmodelle. Viele – zu viele – Start-ups scheitern nach erfolgreichen ersten Jahren an der Weiterentwicklung ihres Geschäfts. Neben einer Reihe üblicher Herausforderungen stehen vor allem Bürokratie, Fragen zur Datenhoheit und ein Betrieb über Landesgrenzen und Wirtschaftszonen hinweg im Vordergrund. Start-ups müssen nachweisen, dass ihre Nutzung von KI auf soliden, regulierten Datenfundamenten basiert und den Compliance-Vorgaben entspricht.

Hier kommt Agentic AI ins Spiel. Die Einbettung von KI-Agenten in den Kern der Betriebsabläufe ist die Antwort auf viele dieser Herausforderungen und wird für das Wachstum im Jahr 2026 von entscheidender Bedeutung sein.

Solide Datenbasis vor KI-Einsatz

Start-ups, die dies erreichen wollen, sollten sich darauf konzentrieren, ihre KI-Nutzung auf einer soliden Datenbasis aufzubauen, deren Fundament eine einheitliche Datenarchitektur ist. Sie tun sich deutlich leichter damit, die dafür nötigen Architekturentscheidungen zu treffen, als etablierte Unternehmen mit entsprechender Legacy-IT. Gründer und Gründerinnen sollten daher von Beginn an darüber nachdenken, wie sie eine starke Datenarchitektur aufsetzen, Silos abbauen und KI als Herzstück ihrer Prozesse einbetten.

Diese Grundlage hilft bei der Einführung von KI-Agenten, damit deren Output auch die Erwartungen erfüllt: Geschäftsprozesse effizienter zu strukturieren und zu optimieren sowie die Entscheidungsfindung zu beschleunigen. Start-ups, die dies umsetzen, werden sich gegen ihre Konkurrenten durchsetzen und letztlich erfolgreich sein.

KI-Agenten als Innovationsbeschleuniger

Indem Start-ups KI-Agenten von Beginn an in den Kern ihrer Geschäftsabläufe integrieren, skalieren sie schneller als mit dem Einsatz von nur einem reinen Large Language Model (LLM). Der Grund dafür liegt in der Standardisierung der Daten, die für KI-Agenten notwendig ist. Auf dieser Grundlage können die Agenten ihre einzigartigen, autonomen Fähigkeiten ausspielen, da sie mit unternehmenseigenen Daten trainiert werden. Vor allem bei Start-ups können Potenziale schnell gehoben werden: Wenn Agenten für bestimmte Aufgaben entwickelt werden, können sie diese auch lösen – egal wie komplex und fachspezifisch sie sein mögen. Stimmt die Datenbasis, lassen sich auch mehrere Agenten miteinander verknüpfen, um sogar noch komplexere Herausforderungen zu bewältigen.

Ein Beispiel dafür ist die mögliche Kooperation zwischen einem Kundensupport-Agenten und einem Prognose-Agenten. Wenn ein Kunde einen Support-Fall auslöst, kann der andere Agent sogleich die Kosten berechnen, was die Kundenzufriedenheit durch eine schnellere Reaktion steigern kann. Für die Skalierung von Start-ups ist ein enges Zusammenspiel der Abteilungen wichtig, um die Geschäftsbeziehungen zu zufriedenen Kunden weiter ausbauen zu können. Der Einsatz von KI-Agenten kann, gepaart mit dem menschlichen Element, begrenzte personelle Ressourcen ausgleichen und eine bessere Serviceleistung ermöglichen, was für ein schnelles Wachstum unabdingbar ist.

Doch nicht nur der Kundenkontakt lässt sich automatisieren, sondern auch eine ganze Reihe von Routinevorgängen in der internen Verwaltung der Firmen selbst. Dies ermöglicht nicht nur dem Management, sondern auch den Investoren, schnell einen fundierten Überblick über Liquidität, Umsatz, Einnahmen und Gewinn zu erhalten. Die Erkenntnisse in Echtzeit führen zu schnellen und datenbasierten Entscheidungen, was für junge Unternehmen Gold wert ist und es ihnen ermöglicht, flexibel zu bleiben.

Die Datenbasis muss stimmen

Für Start-ups sind Probleme beim Datenzugriff ein kritisches Risiko für den Geschäftserfolg. Eine einheitliche, moderne Datenarchitektur ermöglicht die Demokratisierung des Datenzugriffs und löst Datensilos auf. Der Vorteil liegt auf der Hand: Schneller Datenzugriff schafft Transparenz gegenüber Kunden und Aufsichtsbehörden. Darüber hinaus erhöht dies auch das Vertrauen der Mitarbeitenden und schafft ein Gefühl des Zusammenhalts.

Governance ist auch bei der Verwendung von KI-Agenten von entscheidender Bedeutung. Der Druck zur Einhaltung von Vorschriften sollte daher als Vorteil betrachtet werden.

Der Dreiklang aus Datenherkunft, Versionierung und automatisierter Auswertung der Ergebnisse hilft jungen Unternehmen dabei, Governance auf einem soliden Fundament aufzubauen. Die Teams erhalten direkte Transparenz darüber, wie sich die KI-Agenten verhalten, auf welchen Daten sie basieren und wie sie ihre Ergebnisse im Laufe der Zeit verändern. Laufende Bewertungen tragen dazu bei, dass KI-Agenten präziser werden, um genau jene hochwertigen Ergebnisse zu liefern, die Start-ups für die Skalierung ihrer Geschäftsmodelle benötigen. Dies ist besonders wichtig, wenn proprietäre KI-Modelle entwickelt und von der Testphase in die Produktion überführt werden, wobei gesetzliche Vorschriften wie die DSGVO oder der EU AI Act zwingend einzuhalten sind.

Parloa, ein deutsches Start-up-Unternehmen mit einer Bewertung von drei Milliarden US-Dollar, ist ein hervorragendes Beispiel dafür, wie dieser Ansatz in der Praxis aussehen kann: Das Unternehmen hat KI-Agenten zum Kern seines Kundenservice gemacht und gleichzeitig eine einheitliche, kontrollierte Datenbasis aufgebaut, die vollständig mit der DSGVO und dem EU AI Act konform ist. Seine Plattform folgt den Prinzipien des „Privacy by Design“, sodass sensible Kundendaten ohne Kontrollverlust verwendet werden können. Durch die Verwaltung des gesamten Lebenszyklus von KI-Agenten macht Parloa Governance zu etwas Greifbarem und gibt den Teams Klarheit darüber, welche Daten verwendet wurden, wie sich die Agenten verhalten haben und wie sich die Ergebnisse im Laufe der Zeit entwickelt haben. Diese Kombination aus moderner Architektur und starker Governance ermöglicht es den Kunden von Parloa, Zugang zu hochwertigen Daten zu erhalten und die Transparenz für Regulierungsbehörden sowie Endnutzer zu erhöhen – und dennoch KI-gesteuerte Kundeninteraktionen in Umgebungen zu skalieren, in denen Fehler oder Missbrauch inakzeptabel sind.

Fazit

KI-Agenten bieten europäischen Start-ups eine einmalige Gelegenheit, schnell zu wachsen und gleichzeitig Investoren anzuziehen, die bekanntermaßen ihr Geld bevorzugt in Unternehmen investieren, die Wert auf Datenverwaltung, Genauigkeit, Qualität und die Schaffung von echtem Mehrwert durch Technologie legen. Es ist jedoch ein Fehler, sich ohne sorgfältige Überlegungen auf die Einführung von Agenten zu stürzen. Start-ups, die KI-Agenten einsetzen, ohne zuvor eine einheitliche Datenbasis aufzubauen und eine solide Verwaltung sowie Bewertung sicherzustellen, riskieren, mehr Komplexität als Mehrwert zu schaffen. Letztlich werden jene Gründer und Gründerinnen erfolgreich sein, die ihre Geschäftsmodelle branchen- und länderübergreifend skalieren können – hierbei spielt der Einsatz von KI-Agenten bereits jetzt eine entscheidende Rolle.

Der Autor Nico Gaviola ist VP Digital Natives & Emerging Enterprise bei Databricks EMEA.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

Medizinal-Cannabis: Zwischen Wachstumsschub und regulatorischer Neujustierung

Zwischen Boom und strengeren Regeln: Der Markt für Medizinal-Cannabis steht nach einem Rekordjahr am Scheideweg. Investoren und Patienten blicken gespannt auf mögliche Gesetzesänderungen für 2026.

2025 war das erste vollständige Geschäftsjahr nach Inkrafttreten des Medizinal-Cannabisgesetzes im April 2024 – und damit ein echter Praxistest für den deutschen Markt. Mit der Entkopplung von Cannabis aus dem Betäubungsmittelrecht und der Vereinfachung der Verschreibung über Telemedizinplattformen änderten sich die Rahmenbedingungen spürbar. Die Effekte ließen nicht lange auf sich warten und resultierten in steigende Verordnungszahlen, stark wachsende Importmengen und einem beschleunigten Ausbau von Versorgungsstrukturen. Doch wie geht es weiter?

Ein Markt im ersten Jahr nach der Reform

Die Importzahlen verdeutlichen die Dynamik. Während 2023 noch rund 30 Tonnen medizinisches Cannabis nach Deutschland eingeführt wurden, entwickelten sich die Zahlen anschließend immer rasanter. Das Bundesministerium für Gesundheit vermeldete im ersten Halbjahr 2025 einen Anstieg der Importe von mehr als 400 Prozent, von rund 19 auf 80 Tonnen. Hochgerechnet auf das Gesamtjahr dürfte das Volumen jenseits der 140-Tonnen-Marke liegen. Diese Änderungen haben einen aufstrebenden Markt geschaffen, wodurch sich Deutschland zum größten Einzelmarkt für Medizinal-Cannabis in Europa entwickelt hat.

Parallel dazu stieg auch die Zahl der ausgestellten Rezepte deutlich an. Schätzungen gehen inzwischen von mehreren Millionen Patientinnen und Patienten aus, die Cannabis auf ärztliche Verordnung nutzen. Das Marktvolumen wird für 2025 auf bis zu eine Milliarde Euro geschätzt.

Ausbau der Strukturen und steigende Professionalisierung

Für viele Unternehmen der Branche war 2025 ein Jahr des Ausbaus. Investiert wurde in GMP-konforme Prozesse (Good Manufacturing Practice), Lieferkettenstabilität, Qualitätssicherung und digitale Patientensteuerung. Deutschland bleibt stark importabhängig, die inländische Produktion deckt weiterhin nur einen begrenzten Teil des Bedarfs. Internationale Partnerschaften mit Produzenten in Kanada, Portugal oder anderen EU-Staaten sind daher weiterhin zentraler Bestandteil der Marktstruktur.

Politische Reaktionen auf das Wachstum

Mit der steigenden Bedeutung des Marktes wächst auch die politische Aufmerksamkeit, die Debatte rund um die Teillegalisierung polarisiert und spaltet Meinungen. Vertreter der CDU äußerten frühzeitig Bedenken, dass vereinfachte Verschreibungswege zu Fehlentwicklungen führen könnten. Besonders digitale Plattformmodelle bzw. Telemedizinanbieter mit Sitz im Ausland geraten dabei in den Fokus der Kritik.

Im Herbst 2025 wurde von Warken & Co. ein Gesetzeswurf zur Änderung des Medizinal-Cannabisgesetzes vorgestellt. Dieser sieht unter anderem strengere Vorgaben für telemedizinische Verschreibungen vor, genauer gesagt einen verpflichtenden persönlichen Arztkontakt sowie ein Versandverbot über Telemedizinanbieter. Ziel ist es, medizinische Standards zu präzisieren und potenziellen Missbrauch zu verhindern. Die politische Argumentation verweist auf die stark gestiegenen Importzahlen und die zunehmende Zahl digital vermittelter Rezepte. Gleichzeitig wird betont, dass Cannabis als medizinische Therapie klar vom Freizeitkonsum abgegrenzt bleiben müsse und sich dabei viele Freizeitkonsumenten als Patienten ausgeben.

Innerhalb der Branche wird diese Entwicklung differenziert bewertet. Sascha Mielcarek, CEO der Canify AG, ordnet den Gesetzentwurf nüchtern ein: „Der Kabinettsentwurf zur Änderung des MedCanG schießt mit Kanonen auf Spatzen. Wir haben ein wachsendes Problem mit der missbräuchlichen Anwendung von Opioiden, Benzodiazepin und anderen verschreibungspflichtigen Medikamenten. Die Therapie mit Cannabis bietet in vielen Fällen eine nebenwirkungsärmere Alternative und mit dem Gesetzentwurf würde der Zugriff genau darauf erschwert werden. Medizinisches Cannabis eignet sich nicht, einen Präzedenzfall zu schaffen. Der Gesetzentwurf ist kein Beitrag zur Patientensicherheit.“

Unabhängig von der Bewertung einzelner Maßnahmen zeigt sich vor allem, dass der regulatorische Rahmen weiterhin in Bewegung ist. Für Unternehmen bedeutet das eine Phase erhöhter Unsicherheit bei gleichzeitig stabiler Nachfrage. Experten befürchten, dass der Markt um die Hälfte einbrechen könnte, sollte ein physischer, persönlicher Arztkontakt Wirklichkeit werden.

Was bedeutet das für Start-ups und Investoren?

Für Gründer und Kapitalgeber bleibt der Markt grundsätzlich attraktiv. Das Wachstum der vergangenen zwei Jahre zeigt eine robuste Nachfrage. Gleichzeitig sind die Eintrittsbarrieren hoch. Wer im medizinischen Cannabissektor aktiv werden möchte, benötigt regulatorisches Know-how, belastbare Lieferketten, medizinische Anbindung und Kapital für Qualitätssicherung und Compliance.

Gerade diese Anforderungen wirken jedoch auch stabilisierend. Der Markt ist stark reguliert, professionell organisiert und eingebettet in bestehende Gesundheitsstrukturen. Für Investoren stellt sich daher weniger die Frage nach dem Potenzial als nach der Planbarkeit. Politische Anpassungen wirken sich unmittelbar auf Geschäftsmodelle, Bewertungen und Expansionsstrategien aus.

Ausblick auf 2026

Mit Blick auf das neue Jahr zeichnet sich ein Szenario der Neujustierung ab. Möglich ist eine Konsolidierung, bei der sich professionelle Anbieter weiter etablieren und regulatorische Klarstellungen für mehr Stabilität sorgen. Ebenso denkbar sind weitere gesetzliche Anpassungen, die das Wachstum stärker strukturieren. 2026 wird zeigen, unter welchen regulatorischen Bedingungen sich dieser Markt weiterentwickelt – und wie attraktiv er für Gründer und Investoren langfristig bleibt.