Aktuelle Events
Von der Idee zur Umsetzung: Wie Scrum Start-ups bei der Skalierung hilft
Du bist Teil eines aufstrebendes Start-ups und weißt nicht, wie du deine Prozesse organisieren sollst? Wir verstehen, dass es im Alltag eines Start-ups eine Vielzahl von Herausforderungen gibt: Welcher Idee soll man nachgehen, wie kann man sie in ein erfolgreiches Produkt verwandeln und wie kann man seine Arbeit effizient organisieren? In der Welt der Start-ups gibt es bereits bewährte Methoden, die dein Leben vereinfachen und diese Herausforderungen meistern. Eine davon heißt Scrum.
Was ist Scrum?
Scrum ist eine Projektmanagement-Methode, die ihren Ursprung im IT-Bereich hat. Mittlerweile ist sie dank Angeboten zur Scrum Master-Schulung und anderen Projetmanagementtrainings auch in vielen anderen Branchen sehr beliebt.
Das Hauptprinzip besteht darin, eine große Aufgabe in kurze Zyklen - Sprints - zu unterteilen. Jeder Sprint dauert zwischen einer und vier Wochen. Dank dieser Eigenschaft ist Scrum auch bei Startups beliebt. Schließlich arbeiten Start-ups oft unter zeitkritischen Bedingungen. Kurze Sprints ermöglichen es dem Team, flexibler zu bleiben und schnelle Änderungen am Projekt vorzunehmen, am Ende des Zyklus relevantes Feedback von allen Prozessbeteiligten zu erhalten und das Projekt so transparent wie möglich durchzuführen.
Scrum wird eingesetzt, um die Produktqualität zu verbessern und die Kundenzufriedenheit zu erhöhen. Die Steuerung solcher Projekte wird einfacher, die Risiken des Scheiterns werden durch die ständige Analyse der geleisteten Arbeit und die Korrektur von Fehlern verringert, und ständige kleine Erfolge halten das gesamte Team motiviert.
Wie funktioniert Scrum?
Das Team
Bei Scrum gibt es genau drei Projektrollen: den Scrum Master, den Product Owner und die übrigen Teammitglieder. Der Scrum Master ist nicht in die fachlichen Aktivitäten des Teams eingebunden, sondern achtet lediglich darauf, dass das Scrum-Verfahren richtig angewendet wird.
Der Product Owner vertritt die Interessen der Kunden im Projekt und bewertet, ob das zu entwickelnde Produkt alle Anforderungen erfüllt und ob es qualitativ hochwertig ist. Er legt auch fest, welche Aufgaben im Rahmen der Entwicklung in welcher Reihenfolge zu erledigen sind.
Das restliche Team besteht aus den eigentlichen Akteuren, die direkt an der Produktentwicklung mitwirken, z.B. Ingenieure und andere Fachkräfte.
Die Arbeitsschritte
Die Arbeitsschritte sind kurz und so einfach wie möglich:
- In der ersten Phase wird eine vollständige Liste aller Aufgaben erstellt. Auch bekannt als Product Backlog. Diese Liste enthält alle Details und Stufen der Projektentwicklung
- Danach beginnt die Hauptarbeit am Projekt. Das Team kann selbständig die Liste der Aufgaben aus dem Product Backlog auswählen und Fristen für einen bestimmten Sprint zuweisen.
- Während des Sprints werden jeden Morgen Daily Stand-up Meetings abgehalten. Dabei berichtet jeder Teilnehmer des Prozesses, was er gestern getan hat, auf welche Schwierigkeiten er gestoßen ist und was sein Plan für heute ist.
- Das Ergebnis der Sprints sind vorläufige Produktdemos. Diese können mit dem Management, Kunden oder Investoren geteilt werden, und es kann Feedback eingeholt werden.
- Nachdem das Ergebnis der Demo geliefert wurde, hält das Team eine Abschlussbesprechung für diese Phase ab. Es fasst die Ergebnisse zusammen und bespricht, was gut gelaufen ist, was verbessert werden kann und was in Zukunft vermieden werden kann.
Die Vorteile von Scrum im Überblick
Scrum gehört zu den agilen Projektmanagement-Methoden und ist deshalb darauf getrimmt, in sich schnell verändernden Umgebungen leicht an die neuen Anforderungen anzupassen – ideal also für Start-ups z.B. in der Medizintechnik, die ihre Unternehmensprozesse erst noch etablieren müssen. Die wichtigsten Vorteile von Scrum sind:
Leichte Implementierung
Das Regelwerk rund um Scrum kann einfach im Unternehmen eingeführt werden. Es sind keine spezielle Software oder sonstige Hilfsmittel dafür notwendig. Das Team muss lediglich die Regeln und Abläufe verstehen.
Bessere Kommunikation
Da es bei Scrum nur drei Projektrollen gibt, die sehr eindeutig sind, weiß jedes Teammitglied, wo sein Platz im Team ist und was seine Aufgaben sind. Die täglichen Treffen zum Austausch fördern die Kommunikation zwischen den einzelnen Mitgliedern und erhöhen die Transparenz im Projekt.
Kurze Planungszyklen
Da das Scrum-Prinzip auf kurzen Zyklen – den Sprints – beruht, die nicht länger als 4 Wochen sind, ist die Planung verschlankt. Auf Änderungen im Plan, weil sich beispielsweise Anforderungen ändern, kann so sehr zeitnah reagiert werden.
Fazit: Scrum hilft Startups beim Wachstum
Wenn Scrum richtig angewendet wird, hilft es dank seiner einfach zu verstehenden Regeln Teams in Startups effizienter zu arbeiten. Mit Hilfe von Sprints werden Meilensteine in kurzem Abstand nacheinander erreicht, was motivierend für das ganze Team ist.
Kurze tägliche Updates erlauben es dem Team, stets auf dem neuesten Stand zu bleiben und enger mit anderen Teammitgliedern zusammenzuarbeiten. Das steigert die Effizienz und trägt dazu bei, dass das Start-up wachsen kann.
Diese Artikel könnten Sie auch interessieren:
Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab
Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.
Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.
Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.
Aus dem Drucklabor zum DeepTech
Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.
Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.
Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut
Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).
Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.
Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos
Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.
In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.
Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.
Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.
Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen
Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.
Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.
Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.
Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.
Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
Retourendaten als ungenutztes Potenzial
Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!
Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.
Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.
Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.
Wenn Daten ungenutzt verpuffen
Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.
Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.
Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.
Retourendaten als Marketing-Kompass
Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.
Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.
Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.
Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.
Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.
Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams
Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.
Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.
Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.
Daten bringen nachhaltigen Erfolg
Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.
Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.
Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH
StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster
Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?
- [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
- [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
- [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
- [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
- [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
- [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?
Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.
Kultur entsteht nicht später – sie entsteht jetzt
Serie: Führen im Start-up, Teil 3: Warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren.
Montagmorgen, 7.42 Uhr: Das Team steht im offenen Büro. Der Release ist instabil, der Kunde ungeduldig. Der Gründer übernimmt das Gespräch. Die Stimme wird lauter. Der Ton schärfer. Niemand widerspricht.
Am Nachmittag ist wieder Ruhe. Abends posten alle auf LinkedIn über Teamspirit.
So entstehen Kulturen. Nicht im Offsite, nicht im Werte-Workshop, sondern in genau solchen Momenten.
Der größte Irrtum junger Unternehmen
„Um Kultur kümmern wir uns später. Jetzt geht es um Wachstum.“ Dieser Satz fällt häufig. Er klingt pragmatisch. Fast erwachsen. Tatsächlich ist er riskant.
Organisationsforschung beschreibt seit Jahrzehnten, dass sich Normen früh bilden – und erstaunlich schnell verfestigen. Besonders in Stresssituationen. Nicht in stabilen Phasen.
Unter Druck wird nicht nur gearbeitet. Unter Druck wird programmiert.
Stress schreibt Verhalten in die DANN
In der Frühphase herrscht fast permanent Unsicherheit: Finanzierung offen, Produkt iterativ, Rollen unscharf. Genau in diesem Umfeld bilden sich implizite Regeln.
- Wer darf widersprechen?
- Wie wird mit Fehlern umgegangen?
- Wer bekommt Anerkennung – und wofür?
- Wie werden Konflikte gelöst?
Diese Regeln werden selten formuliert. Sie werden beobachtet.
Wenn ein(e) Gründer*in Kritik als Bremse interpretiert, lernt das Team: Widerspruch ist riskant. Wenn Wochenendarbeit als Loyalitätsbeweis gilt, wird Dauerverfügbarkeit zur Norm. Wenn Entscheidungen spontan und intransparent fallen, entsteht operative Unklarheit.
Später spricht man von gewachsener Kultur. Tatsächlich handelt es sich um kumulierte Reaktionen auf frühen Druck.
Warum Geschwindigkeit Differenzierung verdrängt
Start-ups priorisieren Tempo. Verständlich. Märkte warten nicht. Investor*innen auch nicht.
Doch Geschwindigkeit hat Nebenwirkungen. Reflexion rutscht nach hinten. Entscheidungswege bleiben implizit. Rollen werden funktional verteilt, aber nicht sauber geklärt.
Untersuchungen zu Gründungsverläufen zeigen immer wieder ein ähnliches Muster: Unternehmen wachsen schneller als ihre Führungsstrukturen. Entscheidungen bleiben informell an die Gründungsperson gebunden, während Team und Komplexität zunehmen.
Was in der Frühphase Effizienz bedeutet, wird mit zunehmender Größe zur strukturellen Schwäche. Solange das Unternehmen klein ist, funktioniert das. Mit Wachstum wird es fragil.
Die Romantisierung der Anfangszeit
Die Start-up-Erzählung liebt Improvisation. Pizza im Büro. 18-Stunden-Tage. „Wir gegen den Rest der Welt.“ Doch genau in dieser Phase werden kulturelle Maßstäbe gesetzt.
- Was heute als Flexibilität gefeiert wird, kann morgen Willkür bedeuten.
- Was heute als Nähe empfunden wird, kann morgen Intransparenz heißen.
- Was heute als Loyalität gilt, wird morgen als Abhängigkeit erlebt.
Kultur ist kein Stimmungsbild. Sie ist ein System aus Erwartungen.
Warum spätere Kulturprogramme oft Symptome behandeln
Wenn ein Start-up wächst und Fluktuation steigt, Konflikte eskalieren oder Führung inkonsistent wirkt, beginnt häufig die Kulturarbeit. Leitbilder werden formuliert, Werte definiert, Workshops organisiert.
Doch Kultur entsteht nicht durch Deklaration. Sie entsteht durch Wiederholung, durch „ins Leben bringen“. Mitarbeitende orientieren sich nicht an Postern. Sie orientieren sich an erlebter Macht.
Wenn frühe Verhaltensmuster nie hinterfragt wurden, sind sie längst internalisiert. Ein späteres Werte-Set ersetzt keine gelebten Normen.
Der wirtschaftliche Preis
Kulturelle Dysfunktion ist kein weiches Thema.
- Sie beeinflusst Entscheidungsgeschwindigkeit.
- Sie erhöht Konfliktkosten.
- Sie wirkt auf Mitarbeiter*innenbindung.
- Sie prägt Innovationsfähigkeit.
- Sie beeinflusst Reputation am Arbeitsmarkt.
Interne Analysen vieler Investor*innen zeigen: Nicht Marktversagen ist die häufigste Ursache für Start-up-Scheitern, sondern Team- und Führungsprobleme. Und diese entstehen selten im zehnten Jahr. Sie entstehen im ersten.
Ein unbequemer Schluss
Kultur entsteht nicht dann, wenn sie auf der Agenda steht. Sie entsteht dann, wenn niemand hinsieht. Tag für Tag. Die entscheidende Frage lautet daher nicht: Welche Werte wollen wir später haben? Sondern: Was lehren wir unser System gerade – durch unser Verhalten unter Druck?
Denn jedes Start-up hat Kultur. Die einzige Frage ist, ob sie bewusst gestaltet oder sich unbewusst einschleicht.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
Steuern als Start-up-Wachstumsbremse
Was tun, wenn Steuerpflichten und Papierkram die Vision vom eigenen Business erstickt? Drei Quick Wins für dein Finanz-Setup.
Der Start in die Selbständigkeit ist ein Balanceakt zwischen der eigenen Vision und administrativen Pflichten. Entgegen der landläufigen Meinung, dass fehlendes Kapital oder die erste Kund*innengewinnung die größten Hürden sind, zeigt eine aktuelle Erhebung von sevdesk: Steuerpflichten und Papierkram belasten junge Gründer*innen am stärksten.
Realitätscheck: Was Gründer*innen wirklich nachts wachhält
Eine repräsentative Umfrage unterstreicht, wie stark administrative Themen den Alltag dominieren:
- 40 Prozent sehen in Steuern und dem damit verbundenen Papierkram den größten Stressfaktor.
- 38 Prozent nennen finanziellen Druck und unregelmäßiges Einkommen als größte Hürde.
- 36 Prozent verorten die stärksten Herausforderungen bei der Kundenakquise.
StartingUp-Insight: Warum stressen Steuern mehr als wackelige Einnahmen? Weil hier die Fehlerkultur der Start-up-Welt aufhört. Bei Fehlern in der Buchhaltung drohen schnell Säumniszuschläge oder rechtliche Konsequenzen – diese „Angst vor dem Finanzamt“ lähmt viele. Hinzu kommen die massiven Opportunitätskosten: Jede Stunde, die ein Young Founder mit manueller Zettelwirtschaft oder dem Suchen von Belegen verbringt, fehlt bei der Produktentwicklung oder der Kund*innenakquise. Die Bürokratie bremst das eigentliche Wachstum also aktiv aus.
Paradox: Digitales Business, aber analoge Buchhaltung
Besonders auffällig: Etwa ein Drittel (32 Prozent) der Befragten befindet sich noch im ersten Jahr der Selbständigkeit (0 bis 12 Monate). Der überwiegende Teil dieser jungen Unternehmer*innen agiert in modernen Branchen wie Handel und E-Commerce (13 Prozent) oder IT und Social Media (11 Prozent). Dennoch zeigt sich bei der administrativen Organisation ein überraschend traditionelles Bild:
- Knapp ein Drittel (29 Prozent) der Microbusiness-Entrepreneurs nutzt für Rechnungserstellung und Buchhaltung keine speziellen Software- oder Cloud-Lösungen.
- Als Gründe wird zu jeweils 29 Prozent angegeben, dass die Prozesse auch ohne Tools funktionieren würden oder das Unternehmen noch zu klein für digitale Lösungen sei.
- Weitere 21 Prozent befürchten, dass externe Tools ihre eigenen speziellen Anforderungen nicht abbilden könnten.
Compliance-Falle: Wenn die „Zettelwirtschaft“ zum Risiko wird
Dieser Verzicht auf digitale Unterstützung birgt handfeste Risiken – auch rechtlicher Natur. Die Studie verweist auf die E-Rechnungspflicht, die bereits seit dem 1. Januar 2025 in Deutschland flächendeckend gilt.
StartingUp-Insight: Zur Erinnerung: Seit Jahresbeginn 2025 müssen B2B-Unternehmen in Deutschland in der Lage sein, elektronische Rechnungen in strukturierten Formaten (wie ZUGFeRD oder XRechnung) zu empfangen und zu verarbeiten. Wer die manuelle Verarbeitung von klassischen PDF- oder Papierrechnungen beibehält, tappt unweigerlich in eine Compliance-Falle. Zudem gilt: „Zu klein“ für eine saubere Software-Infrastruktur gibt es heute kaum noch. Ein sauberes digitales Setup von Tag eins an nimmt nicht nur die Angst vor Fehlern, sondern ist auch deutlich günstiger und nervenschonender als der spätere, schmerzhafte Wechsel im laufenden Betrieb.
Raus aus dem Chaos: 3 Quick Wins für dein Finanz-Setup
- Trennung ab Tag 1: Eröffne sofort ein separates Geschäftskonto. Private und geschäftliche Ausgaben zu vermischen, ist der Garant für stundenlange Sortierarbeit am Jahresende.
- Schnittstellen nutzen: Verknüpfe das Geschäftskonto direkt mit einer gängigen Buchhaltungssoftware. So lassen sich Zahlungseingänge automatisch mit offenen Rechnungen abgleichen.
- Steuerrücklagen automatisieren: Lege konsequent ca. 30 Prozent aller Netto-Einnahmen auf ein Tagesgeldkonto. So verlieren Vorauszahlungen für die Einkommen- oder Gewerbesteuer dauerhaft ihren Schrecken.
Über die Daten
Die Umfrage wurde im Juni 2025 vom Marktforschungsunternehmen Appinio im Auftrag von sevdesk durchgeführt. Befragt wurden deutschlandweit 300 Berufstätige ab 18 Jahren.
10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI
Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.
Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.
Fokus auf den „Motor“ der B2B-Wirtschaft
Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.
Messbare Ergebnisse bei Industrie-Größen
Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.
Strategische Expansion und massives Team-Wachstum
Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.
Distart: Vom Agentur-Frust zum EdTech-Champion
Wie das 2021 von Thomy Roecklin gegründete und seit 2025 zusammen mit Lucia-Miriam Selbert geführte Leipziger EdTech Distart das Bildungssystem „gegen den Strich bürstet“.
Wer in Deutschland über Start-up-Hubs spricht, landet meist schnell in Berlin oder München. Doch in der sächsischen Metropole Leipzig wächst seit einigen Jahren ein Player heran, der beweist, dass Innovation auch abseits der üblichen Verdächtigen gedeiht: Die Distart Education GmbH. Ihr Treibstoff ist der eklatante Mangel an digitaler Kompetenz in der deutschen Wirtschaft – und der Mut, das „System Bildung“ gegen den Strich zu bürsten.
Wenn „Done for You“ nicht mehr reicht
Die Wurzeln des Unternehmens reichen weiter zurück als das offizielle Gründungsjahr 2021. Gründer Thomy Roecklin setzte jahrelang mit seinen Agenturen MNKY lab und TRDIGITAL digitale Kampagnen für Kund*innen um. Doch im Tagesgeschäft bremste das fehlende Digitalverständnis auf Kundenseite die Projekte immer wieder aus. Die Erkenntnis, dass Deutschland weniger neue Agenturen, sondern mehr digitale Mündigkeit braucht, führte schließlich zum Pivot.
Interessanterweise war der Auslöser für diesen Kurswechsel kein konkretes Kundenprojekt. Auf die Frage nach dem „Aha-Moment“ erklärt Roecklin, dass er lediglich versuchte, Lucia-Miriam Selbert einzuarbeiten, und dabei schockiert feststellte, wie wenig praxisnahe digitale Weiterbildungen existierten. Er baute kurzerhand selbst ein Lernprogramm – ohne zu ahnen, dass daraus einmal Distart entstehen würde. Im Januar 2021 fiel der Startschuss für Distart learn. Mitten in der Pandemie setzte Roecklin auf ein Modell, das sich radikal von klassischen Bildungsträgern unterschied: 100 Prozent remote, aber mit enger persönlicher Betreuung und einem klaren Fokus auf die Praxis.
Das Schnellboot zwischen den Tankern
Distart operiert im sogenannten AZAV-Markt (Akkreditierungs- und Zulassungsverordnung Arbeitsförderung). Während etablierte Bildungsriesen oft mit der Trägheit ihrer Größe kämpfen und bis zu 24 Monate für Lehrplananpassungen benötigen, hat sich Distart als agiler „Qualitäts-Vorreiter“ positioniert.
Für Roecklin ist diese Agilität eine Frage des Überlebens, da sich Jobs und Skills heute schneller verändern als jede klassische Bildungslogik. Er betont, dass man ohne permanente Weiterentwicklung der Inhalte zwangsläufig am Markt vorbei ausbilden würde. Diese Flexibilität ist zudem essenziell für die Zielgruppe: Viele Teilnehmende bilden sich neben ihrem 9-to-5-Job weiter, betreuen Kinder oder pflegen Angehörige und benötigen daher flexible statt starrer Strukturen.
Agency-DNA statt Schulbank-Feeling
Der entscheidende Wettbewerbsvorteil liegt in der Herkunft: Distart ist keine klassische Schule, sondern wurde von Marketern für Marketer gebaut. Diese „Agency-DNA“ durchzieht das gesamte Geschäftsmodell. Mit einer modernen Lernumgebung aus Live-Sessions und asynchronen Deep-Dives spricht das Unternehmen alle Altersgruppen gleichermaßen an.
Auch technologisch ist man der Konkurrenz oft einen Schritt voraus: Als ChatGPT Ende 2022 die Arbeitswelt veränderte, reagierte Distart fast in Echtzeit. Auf die kritische Frage, ob KI das vermittelte Wissen nicht bald obsolet mache, findet Roecklin eine klare Antwort: KI ersetzt keine Menschen, sie ersetzt lediglich Mittelmaß. Während KI das Netz mit generischen Inhalten flutet, steige paradoxerweise der Hunger nach echten Stimmen, Ideen und Perspektiven – Marketing werde also menschlicher.
Bootstrapping und gesundes Wachstum
Der Erfolg gibt dem Konzept recht. Im September 2024 erfolgte die Umfirmierung zur Distart Education GmbH, was den Übergang vom Start-up zum etablierten Bildungsinstitut markierte. Während andere Tech-Unternehmen Personal abbauen mussten, verdoppelte Distart seine Belegschaft beinahe auf über 100 Köpfe und bezog im Oktober 2025 neue Räumlichkeiten im NEO Leipzig.
Besonders bemerkenswert: Das Wachstum ist organisch und gebootstrapped – finanziert aus dem eigenen Cashflow ohne externe Risikokapitalgeber. Das macht Distart unabhängig von Exit-Druck. Seit Februar 2025 verstärkt Lucia-Miriam Selbert als Geschäftsführerin die strategische Ausrichtung.
Dennoch birgt die Skalierung Risiken, da das Geschäftsmodell stark von staatlichen Bildungsgutscheinen abhängt. Auf einen möglichen „Plan B“ angesprochen, erklärt das Unternehmen, dass Förderungen zwar beim Beschleunigen helfen, man Distart aber bewusst so aufbaue, dass langfristig strukturelle Unabhängigkeit erreicht wird. Auch die Qualitätssicherung bei über 100 Mitarbeitenden ist eine Herausforderung. Thomy Roecklin gibt offen zu, dass Wachstum kein Wellnessprogramm ist und es im Getriebe zwangsläufig knirscht. Sein Schlüssel: Qualität darf nicht an Einzelpersonen hängen, sondern muss im gesamten System verankert sein, kombiniert mit echtem Vertrauen in das Team statt Kontrolle.
Der Standort als Statement und Vision
Dass Distart in Leipzig verwurzelt bleibt, ist Teil der Identität. Roecklin sieht im Osten Deutschlands ein enormes, oft unterschätztes Potenzial und erlebt dort viel Talent, Pragmatismus und Lernhunger. Distart versteht sich hier auch als Regionalentwickler.
Die Vision der Gründer geht jedoch über reine Kurse hinaus. Unterstrichen durch Auszeichnungen wie „Top Fernschule 2025“ und „2026“, arbeitet das Team nun an der Gründung der Distart University of Applied Sciences. Das Ziel bis 2030 ist ambitioniert: Ein Alumni-Netzwerk von 25.000 Absolvent*innen. Sollte der komplexe Weg zur staatlichen Anerkennung gelingen, wird Distart endgültig zum gewichtigen Faktor für die digitale Wettbewerbsfähigkeit der Bundesrepublik.
Battle-Tested & German Engineered: Das neue Power-JV der Drohnenwelt
Mit QFI startet die erste vollautomatisierte Produktionslinie für ukrainische Drohnen in Europa. Ein Gamechanger für die „Build with Ukraine“-Initiative und ein Weckruf für das deutsche Tech-Ökosystem. Agilität schlägt Trägheit: Unsere Analyse über die Architekten der neuen europäischen Resilienz und die Rolle von Start-ups.
Während die klassische Rüstungsindustrie oft mit jahrzehntelangen Entwicklungszyklen ringt, zeigt ein deutsch-ukrainisches Joint Venture, wie das „New Defense“-Zeitalter in Lichtgeschwindigkeit skaliert. Nur zwei Monate nach der offiziellen Ankündigung ist das Joint Venture Quantum Frontline Industries (QFI) operative Realität. Ein symbolträchtiger Moment markierte am 13. Februar den Startschuss: Auf seinem Weg zur Münchner Sicherheitskonferenz nahm der ukrainische Präsident Wolodymyr Selenskyj im Werk bei München die erste in Deutschland gefertigte Linza 3.0 entgegen – ein Meilenstein, der unter der Schirmherrschaft von Verteidigungsminister Boris Pistorius als neues „Leuchtturmprojekt“ der europäischen Souveränität gefeiert wird.
Das „German Model“: Wenn Software-Agilität auf automatisierte Masse trifft
QFI ist mehr als eine Fabrik; es ist der Prototyp des sogenannten German Model. Hier verschmilzt die operative Erfahrung von Frontline Robotics aus dem aktivsten Drohnenkrieg der Geschichte mit der industriellen Exzellenz der Münchner Quantum Systems GmbH. Das Ziel ist ambitioniert: Allein 2026 sollen 10.000 Einheiten der Modelle Linza und Zoom vom Band laufen. Diese Systeme sind hochgradig gegen elektronische Kampfführung (EW) gehärtet und finden dank KI-gestützter visueller Navigation auch ohne GPS-Signal ihr Ziel.
Dieser Erfolg strahlt auf das gesamte deutsche Ökosystem aus. Wir erleben derzeit, wie eine neue Generation von Gründern die Grenzen zwischen digitaler und physischer Souveränität neu zieht.
Ein vernetztes Ökosystem: Die Architekten der Resilienz
Hinter dem Erfolg von QFI steht ein Geflecht aus spezialisierten DeepTech-Akteuren, die Deutschland zum führenden Defense-Hub Europas gemacht haben. Während Quantum Systems mit seinem Status als „Triple Unicorn“ (Bewertung > 3 Mrd. €) die industrielle Skalierung im Luftraum beherrscht, liefert das Münchner Decacorn Helsing (bewertet mit 12 Mrd. €) das digitale Rückgrat. Helsing fungiert als der softwareseitige Integrator, dessen KI-Plattformen heute die Koordination zwischen autonomen Schwärmen und bemannten Einheiten übernehmen.
Am Boden setzt ARX Robotics Maßstäbe. Das Start-up hat seine Series-A im Sommer 2025 auf 42 Millionen Euro aufgestockt und Partnerschaften mit Schwergewichten wie Daimler Truck und Renk geschlossen. Ihr Betriebssystem Arx Mithra OS ermöglicht es, bestehende Fahrzeugflotten zu digitalisieren und in autonome „Mensch-Maschine-Teams“ zu verwandeln. Diese physische Präsenz am Boden wird durch die Orbit-Kapazitäten von Reflex Aerospace vervollständigt. Die Berliner liefern jene ISR-Daten (Intelligence, Surveillance, Reconnaissance), die für die Präzision moderner Drohnensysteme unverzichtbar sind.
Um die Abhängigkeit von asiatischen Lieferketten zu brechen, schließt das bayerische Start-up Donaustahl die Lücke in der Basis-Hardware. Mit einer neuen Fertigung in Hutthurm produziert Donaustahl nicht nur die bewährte „Maus“-Drohne, sondern skaliert die Produktion von Drohnenmotoren und Gefechtsköpfen wie dem „Shahed-Killer“. Ziel ist eine vollkommen souveräne Wertschöpfungskette „Made in Bavaria“, die auch bei globalen Handelskrisen handlungsfähig bleibt.
Der Finanz-Turbo: ESG als Enabler
Dass dieses Ökosystem so rasant wächst, liegt an einem fundamentalen Shift in der Finanzwelt. Seit die EU Verteidigungsinvestitionen offiziell als nachhaltigen Beitrag zur Sicherheit eingestuft hat, ist das Stigma verflogen. Investoren wie DTCP mit ihrem 500-Millionen-Euro-Fonds „Project Liberty“ oder die KfW über den „Ukraine Recovery Fund“ treiben die Skalierung voran. DefenseTech ist damit endgültig in den Portfolios institutioneller Anleger angekommen.
Strategie-Checkliste: Der Masterplan für Dual-Use-Gründer*innen
Für Gründer*innen, die in diesen Markt drängen, hat sich das Spielfeld professionalisiert. Wer 2026 erfolgreich sein will, muss diese fünf Punkte erfüllen:
- Dual-Use-DNA: Plane Technologie, die zivil (z.B. Katastrophenschutz) und militärisch nutzbar ist, um den Zugang zu ESG-konformen Kapitalspritzen zu maximieren.
- Compliance-Automatisierung: Nutze die neuen BAFA-Genehmigungen (AGG 45/46) für beschleunigte Exporte innerhalb der NATO und an strategische Partner.
- BSI-Kriterien erfüllen: Militärische Kund*innen akzeptieren nur Hardware, die höchsten Sicherheitsstandards (C5-Kriterien) entspricht.
- Operational Feedback-Loops: Suche Kooperationen für „Battle-Testing“. Echte Einsatzdaten sind 2026 die wichtigste Währung für technologische Überlegenheit.
- Mission-Driven Recruiting: Nutze den „Schutz der Demokratie“ als USP, um Top-KI-Talente von zivilen BigTech-Konzernen abzuwerben.
Fazit: Agilität schlägt Trägheit
Die Gründung von QFI ist der Beweis, dass Europa seine industrielle Trägheit ablegen kann. Durch die Verbindung von Start-up-Mentalität, staatlicher Rückendeckung und automatisierter Fertigung entsteht eine neue Form der technologischen Souveränität. Für das deutsche Ökosystem bedeutet das: Wir bauen nicht mehr nur Apps – wir bauen die Sicherheit der Zukunft.
Vom Check-in zur Patient*innenakte: Wie Travel-Pionier Salim Sahi mit HoloLogix.AI die Health-IT aufmischt
Vom Reisebuchungssystem zur Sicherheits-Uhr für Senior*innen: Serial Entrepreneur Salim Sahi greift mit HoloLogix.AI greift gleich zwei Milliardenmärkte an: Gesundheitswesen und Hotellerie. Doch wie viel Substanz steckt hinter der Vision?
Gründungslegenden klingen oft zu glatt für die Realität – wie Sahis Skateboard-Unfall, der in einer Notaufnahme zur Idee für sein neuestes Venture führte. Wer den Mann kennt, der in den 90ern mit „Traffics“ die Reisebranche digitalisierte, weiß jedoch: Er macht keine halben Sachen. Jetzt, im Februar 2026, steht er mit einer europäischen Aktiengesellschaft (SE) und einem enorm breiten Versprechen wieder auf dem Platz.
Wie Touristik-Know-how in die Klinik kommt
Der Sprung von der Touristik zur Service-Automatisierung im Gesundheitswesen wirkt wie ein harter Bruch. Doch unter der Haube geht es in beiden Welten um hochvolumige Transaktionen, Termin-Slots und Datenabgleich in Echtzeit. Wer Millionen Pauschalreisen fehlerfrei abwickelt, so die Wette von HoloLogix.AI, beherrscht auch das Termin-Management von Kliniken, Hotels und Restaurants.
Für CEO und Gründer Salim Sahi ist das Projekt dennoch ein „kompletter unternehmerischer Neuanfang“. Gegenüber StartingUp räumt er ein, von 25 Jahren Travel-Tech-Erfahrung zu profitieren, doch seine wahre Passion gelte der künstlichen Intelligenz. Das Herzstück bilde dabei die MIA Service KI: „Wir haben eine holistische KI-Plattform geschaffen, also ein Tool, das ganzheitlich agiert und eingesetzt werden kann.“ MIA verstehe Gespräche, erledige parallel Aufgaben und verbinde Systeme – „rund um die Uhr und branchenübergreifend“. Auch wenn der Fokus aktuell auf Gesundheitswesen und Hospitality liege, sei das System laut Sahi letztlich „nahezu überall einsetzbar, wo Kunden- oder Patientenkontakt herrscht.“
Der Angriff auf die Platzhirsche
Der Markt für Conversational AI ist 2026 kein blauer Ozean mehr. Etablierte Player wie Aaron.ai haben sich tief in die Health-Landschaft eingegraben, flankiert von Plattform-Giganten wie Doctolib. HoloLogix.AI reagiert mit aggressiven Preisen ab 99 Euro im Monat und einer massiven technologischen Breite.
Aber warum sollten Klinikverantwortliche das Risiko eines Wechsels eingehen? Salim Sahi sieht den „Killer-USP“ in der Architektur der Interaktion: „Unser Ansatz ist ein anderer: Statt starrer Skripte bieten wir echte Gesprächsintelligenz durch Conversational AI an.“ Das System sei eine KI, die im laufenden Gespräch aktiv Aufgaben erledige, was eine beispiellose Integrationstiefe erfordere. „Hier gehen wir ganz tief rein und verarbeiten Daten in Echtzeit“, so der CEO. Da Aufgaben direkt ausgeführt werden, optimiere sich das Zeitmanagement drastisch – konzipiert als Omnichannel-Ansatz über Telefon, Website, E-Mail, Wearables oder bald sogar über Robotik.
Die schmale Gratwanderung am Handgelenk
HoloLogix.AI belässt es nicht bei Software, sondern bringt mit der MIA Watch eigene Hardware ins Spiel. Die Smartwatch für Senior*innen soll Stürze erkennen und sofort einen aktiven Sprachdialog führen. Eine Gratwanderung: Reines Assistenz-System oder medizinisches Gerät mit komplexer Zertifizierungspflicht (MDR)?
Prof. Dr. Thomas Fuchs, Co-Founder und Aufsichtsrat für den Bereich Health Care, ordnet das rechtlich eindeutig ein: „MIA Protect ist ein Teil der holistischen KI-Plattform, die mit verschiedenen Health Watches wie z.B. auch der Apple Watch kompatibel ist. Sie ist ein Assistenz- und Companion-System.“ Die Hardware erkenne Stürze, ersetze aber „keine ärztliche Untersuchung oder medizinische Entscheidung“. Um Geschwindigkeit und Nutzer*innenfreundlichkeit zu wahren, bewege man sich „bewusst außerhalb der Medizinprodukt-Zertifizierung (MDR), ohne den Sicherheitsrahmen zu verlassen“.
Ein mehrstufiges Sicherheitsnetz aus Sensorik, KI-Algorithmen und menschlichem Service-Team federt Fehlinterpretationen ab. Haftungsfragen sind laut Fuchs über klare Nutzungsbedingungen geregelt. Für den Mediziner steht ohnehin der „Companion Aspekt“ im Vordergrund: Nach einem Sturz, wenn Patient*innen hilflos am Boden liegen, alarmiere MIA in einer Kaskade Notfallkontakte und beruhige das Unfallopfer, bis Hilfe eintrifft. „MIA Protect soll an diesem Punkt Sicherheit und damit Lebensqualität geben, vielleicht sogar die Möglichkeit schaffen für Senioren, länger selbstbestimmt in ihrem Zuhause zu leben“, resümiert Fuchs.
Pflegeheim und Luxushotel: (K)ein operativer Widerspruch?
Das vielleicht Spannendste an HoloLogix.AI ist das Personal: Salim Sahi hat sich politische und ethische Schwergewichte in den Aufsichtsrat geholt. Darunter Dr. Marcel Klinge, ehemaliger FDP-Bundestagsabgeordneter und Tourismus-Experte. Er muss Investor*innen den Spagat erklären, warum ein Start-up gleichzeitig Pflegeheime und Luxushotels digitalisieren will – was oft als Warnsignal für operative Verzettelung gilt.
Dr. Marcel Klinge sieht darin jedoch keinen Widerspruch, sondern die Stärke der technischen Basis: „Der gemeinsame Nenner liegt im Kern: Unsere holistische KI-Infrastruktur kann über das Telefon Gespräche führen, kann aber auch über die Website, Health Watches und Devices und direkt im Gespräch Aufgaben ausführen.“ Das Backend orchestriere lediglich Termin-Slots, Daten und Anfragen in Hochgeschwindigkeit. Dabei spiele es schlichtweg keine Rolle, „ob der Kunde Patient in einem Pflegeheim oder Gast in einem Luxushotel ist.“
Wenn die KI-Vision auf den deutschen Fax-Alltag trifft
Ein Blick auf die Website verrät große Visionen, doch diese müssen sich im harten Alltag deutscher IT-Infrastrukturen und oft veralteter Praxis-Server beweisen. Zudem ist die Frage des Datenschutzes elementar: Nutzt das Unternehmen US-amerikanische Sprachmodelle via API, oder hostet man eigene „Sovereign AI“ in Europa?
Für Prof. Dr. Thomas Fuchs sind Datenschutz und Systemintegration absolute Kernpunkte. Um digitale Souveränität zu wahren, setzt das Unternehmen auf einen hybriden Weg: „Wir orchestrieren auf die gängigen sowie auf eigene Modelle auf deutschen Servern, die in Europa bereits genutzt werden.“ Laut Fuchs verlässt man sich dabei nicht nur auf das Versprechen von Sicherheit, sondern arbeitet seit der ersten Stunde eng mit dem renommierten Fraunhofer-Institut zusammen und lässt die eigene Infrastruktur „regelmäßig durch deren Experten prüfen“. Das bloße Versprechen von Sicherheit reicht HoloLogix.AI dabei nicht.
Mehr als nur ein GPT-Wrapper?
HoloLogix.AI ist eine der vielleicht ambitioniertesten Gründungen des Jahres. Technologisch muss es beweisen, dass es mehr ist als ein „GPT-Wrapper“ mit Smartwatch. Aber die Kombination aus Sahis Exekutiv-Erfahrung, Klinges Netzwerk und Fuchs‘ ethischem Korrektiv macht es zu einem spannenden Herausforderer. Wenn die Uhr im Alltag für Sicherheit sorgt – und die KI den deutschen Datenschutz überlebt – könnte aus Berlin der nächste europäische Champion kommen.
Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen
Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.
Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.
Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?
Agilität als Superkraft – aber Prototypen reichen nicht
Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.
Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.
Das Fundament: Die Systemarchitektur entscheidet
Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.
Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.
Security by Design: Sicherheit lässt sich nicht nachrüsten
Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.
Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.
Interoperabilität als Schlüssel zum Teamplay
Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.
Vom Zulieferer zum echten Systempartner
Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.
Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.
Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.
ewigbyte: Datenspeicher für die Ewigkeit?
Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.
Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.
In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.
Der Markt: Ein schlafender Riese erwacht
Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.
Lasergravur statt magnetischer Ladung: So funktioniert es
Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.
Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.
Vom Hardware-Verkauf zum „Storage-as-a-Service“
Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.
David gegen Goliath: Das Rennen um das Glas
Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.
Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.
Die technologischen Nadelöhre
Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.
Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).
Digitale Souveränität als Verkaufsargument
Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.
Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.
Seed-Runde: Leipziger HRTech clarait erhält über 1,5 Mio. Euro
Das 2023 von Johannes Bellmann, Miriam Amin und Thilo Haase gegründete Start-up clarait digitalisiert einen der letzten analogen Bereiche im Unternehmen: die Zusammenarbeit zwischen Betriebsräten und HR.
Die clarait GmbH hat den Abschluss einer Seed-Finanzierungsrunde bekanntgegeben und sichert sich Kapital in Höhe von über 1,5 Millionen Euro. Lead-Investor der Runde ist der TGFS Technologiegründerfonds Sachsen, der einen siebenstelligen Betrag investiert. Als Co-Investor beteiligt sich der HR Angels Club, ein europaweites Netzwerk aus erfahrenen HR-Führungskräften und Investoren.
Marktlücke: Der „White Spot“ zwischen HR- und Legal-Tech
Während klassische HR-Prozesse wie Payroll oder Recruiting längst digitalisiert sind, gilt der Bereich der „Labour Relations“ (betriebliche Mitbestimmung) als einer der letzten kaum erschlossenen Märkte. In vielen Unternehmen dominiert hier noch der „Status Quo“ – ein Vorgehen, das angesichts strenger Compliance-Vorgaben und der DSGVO zunehmend riskant wird.
Clarait positioniert sich hier mit zwei verknüpften SaaS-Lösungen:
- BRbase unterstützt Betriebsräte bei der strukturierten Organisation von Sitzungen, Beschlüssen und Mitbestimmungsprozessen.
- HRflows liefert der Arbeitgeberseite juristisch geprüfte Workflows für mitbestimmungspflichtige Maßnahmen.
Wettbewerb & USP: Brückenbauer statt Insellösung
Im Wettbewerbsumfeld grenzt sich das Leipziger Start-up deutlich ab. Während etablierte Anbieter oft reine Insellösungen anbieten, verfolgt clarait einen Plattform-Ansatz. Ziel ist es, den Medienbruch zwischen Personalabteilung und Gremium zu beenden und beide Seiten auf einer Infrastruktur zu verbinden.
Das Start-up adressiert damit einen wachsenden Markt, der durch steigende regulatorische Anforderungen und den Trend zu revisionssicheren Workflows getrieben wird. Zu den Kunden zählen bereits DAX-40- und Fortune-500-Unternehmen.
Der „Perfect Fit“: Praxis trifft Prozesslogik
Ein wesentlicher Faktor für das Investment dürfte die Komposition des Gründerteams sein, das die nötige Neutralität für dieses politisch sensible Thema mitbringt:
- Johannes Bellmann (CEO) vereint die Perspektiven beider Verhandlungspartner und versteht das Geschäftsmodell sowie den Markt der betrieblichen Mitbestimmung tiefgehend.
- Thilo Haase (CPO) verantwortet die inhaltliche Ausgestaltung der Plattform.
- Miriam Amin (CTO) vervollständigt das Trio als technische Mitgründerin.
„Smart Money“ und KI-Pläne
Neben dem Kapital des TGFS bringt vor allem der Einstieg des HR Angels Club strategisches Gewicht. Das Netzwerk gilt als „Smart Money“ der HR-Tech-Szene und bietet Zugang zu Entscheidern in Personal- und Organisationsfunktionen. Sören Schuster, Geschäftsführer des TGFS, sieht in der Gremienverwaltung einen „bislang nur unzureichend digitalisierten Bereich“ und bescheinigt dem Team das Potenzial zum Qualitätsführer.
Das frische Kapital soll primär in den Ausbau der Vertriebsorganisation sowie die Weiterentwicklung der Software fließen. Geplant sind unter anderem die Integration von KI-gestützten Assistenzfunktionen sowie die Vorbereitung der Internationalisierung, die zunächst im deutschsprachigen Raum erfolgen soll.
Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht
Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.
Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.
Warum sich Support-ROI 2026 schwerer belegen lässt
Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.
In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.
Das führt dazu, dass Führungsteams häufig Folgendes beobachten:
- steigende Automatisierungsquoten bei stagnierenden Einsparungen,
- verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
- starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.
Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.
Wo sich Customer-Support-ROI tatsächlich zeigt
Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:
- weniger Rückerstattungen,
- geringere Eskalationen,
- einen Rückgang öffentlicher Beschwerden,
- sinkendes Abwanderungsrisiko.
- höheres Vertrauen an entscheidenden Punkten der Customer Journey
Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.
In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:
- Rückerstattungsquote von 40 % auf 4 % gesenkt.
- CSAT-Anstieg von 50 auf 95.
- NPS-Steigerung von 32 auf 80.
- Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
- Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.
Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.
Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.
So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.
Wie hybrider Support die Wirtschaftlichkeit verändert
Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.
Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:
- lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
- liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
- führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.
In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.
Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.
Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.
Warum hybrider ROI klassische Messlogik sprengt
In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.
Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.
Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.
Was Führungskräfte tatsächlich messen sollten
2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:
- Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
- Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
- Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).
Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.
Wie sich Support-Budgets rechnen
Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?
Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:
- Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
- Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
- Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.
In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.
Fazit
2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.
Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.
Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.
Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.
