Aktuelle Events
Sketchnoting statt Powerpoint
Beim Graphic Recording stellt Sketchnoting eine echte Alternative zu allzu oft gesehenen Strategiebilder dar, sofern es nicht zum schnöden Kreativwashing-Tool verkommt.
Den Begriff Greenwashing kennt inzwischen jede(r). Laut Definition werden bei dieser „Weiße-Weste“-Kommunikation Techniken der Öffentlichkeitsarbeit, der Rhetorik und der Manipulation benutzt, um einem Unternehmen, seinen Produkten und Aktivitäten einen grünen Anstrich zu geben.
Genauso, wie „Green“ zu sein, wollen viele Unternehmen heute betont agil, kreativ und innovativ wirken. Das verspricht Modernität, Attraktivität und zieht besonders job- und sinnsuchende junge Mitarbeiter*innen an. Das ist prinzipiell lobens- und erstrebenswert, sofern es keine Mogelpackung bzw. reines „Kreativwashing“ ist. Denn innovative Kreativität ist in Unternehmen zweifelsohne ein wettbewerbsentscheidender Punkt – aber nur, wenn diese Haltung gelebt wird und nicht nur ein Marketinghype ist.
Visualisierungen sind der emotionale Türöffner für den Intellekt
Vor diesem Hintergrund verwundert es nicht, dass in Veranstaltungen immer häufiger Visionen, Ideen oder Strategien in gesketchten Visualisierungen festgehalten werden. Beim sogenannten Sketchnoten bereitet man Inhalte visuell auf und fügt Elemente wie beispielsweise kleine Zeichnungen, Rahmen, Pfeile oder Letterings hinzu. Am Ende erhält man quasi Notizen mit Mehrwert.
Der Mehrwert dieser Art des visuellen Storytellings liegt darin, dass es mehr berührt als trockene Zahlen, Daten und Fakten. Visualisierungen sind der emotionale Türöffner für den Intellekt. Deshalb werden diese inspirierenden, gesketchten Bilder gern angeschaut, bewundert und geteilt. Der Aufmerksamkeitsfaktor ist größer als bei üblichen PowerPoint Slides. Visualisierungen sind nicht nur ein Hingucker bei Veranstaltungen, sondern werden zudem als attraktive Abbildungen in Dokumentationen oder für die Social-Media-Auftritte genutzt.
Worauf es beim Sketchen wirklich ankommt
Künstlerische Qualität vs. gehaltvoller Inhalt
Die künstlerisch-ästhetische Qualität von Visualisierungen ist über die letzten Jahre immer professioneller geworden. Kein Wunder, denn inzwischen haben immer mehr professionelle Illustrator*innen und Graphiker*innen diesen Markt zum Geldverdienen entdeckt. Doch hohes künstlerisches Niveau ist eigentlich nicht das, worauf es beim Sketchen geht. Sketches sind sichtbar gemachte Gedanken, sind clevere, merk-würdige Zusammenfassungen. Also kommt es auf die Qualität der Gedanken an. Auf die Fähigkeit, das Gehörte zu verstehen, zu interpretieren und intelligent auf den Punkt zu bringen.
Je mehr Fachkenntnis der/die Visualisierer*in zum jeweiligen Thema einbringen kann, je wacher sein/ihr Geist ist, desto gehaltvoller wird die Visualisierung werden. Und hier liegen das Problem und die Kritik: Diese Fachkenntnis, bringt ein(e) hervorragende(r) Kreative(r) nicht per se mit.
So könnte das Wandbild von sketchenden Ingenieur*innen oder Personalverantwortlichen weitaus mehr Substanz haben als jenes von begnadeten Profi-Zeichner*innen. Deshalb ist beim Graphic Recording, bei dem das Gesagte in Echtzeit grafisch festgehalten wird, der hübsche Augenschein nicht das einzige Kriterium – genauso wenig, wie das glänzende Geschenkpapier mit Goldschleife oder eine glänzend polierte Karosserie. Es kommt darauf an, was mit dem Geschenkpapier eingewickelt worden ist bzw. unter der Haube steckt.
Visuelle Kommunikationskultur statt bewundernde Konsumhaltung
Warum haben nicht mehr Unternehmen den Mut, die Teilnehmenden eines Events selbst an den Stift zu bringen, statt das übliche Event-Graphic-Recording zu praktizierten? Denn das gelingt mithilfe einer kurzen Anleitung durchaus! So werden aus rein Betrachtenden skizzierende Akteur*innen. Noch besser wäre es, Sketches nicht nur bei einem Event zu nutzen, sondern täglich am Arbeitsplatz.
Unternehmen, die diesen Schritt wagen, erleben, dass die vielen kleinen Sketches im Geschäftsalltag von der Wirkung her durchaus mit den eindrucksvollen Wandbildern der Zeichen-Profis mithalten können – hinsichtlich der Wirkung auf Menschen, um bessere Ergebnisse zu erzielen. Denn gerade die Visualisierungen der Mitarbeiter*innen und Führungskräfte helfen, Gedanken zu entwickeln und zu teilen. Das Beuys’sche „Jeder ist Künstler“ wird so zum „Jede(r) ist Sketchnoter*in“. Dann wird das eindrucksvolle professionelle Wandbild ein Teil der visuellen Kommunikationskultur des Unternehmens – und eine noch viel wertvollere Inspiration.
Vom Kreativwashing zur echten Kreativität
Kreativität ist stets ein Weg von unten nach oben. Sie wird nicht von oben eingekauft, sondern die Teams und Mitarbeitenden müssen entsprechend gefördert werden. Fördern heißt hierbei oftmals, einfach nur zuzulassen, dass nicht nur PowerPoint-Folien nach strengem CI erlaubt sind bzw. reine Textnotizen Teil der Kommunikationskultur sein dürfen. Denn gerade die Kommunikationsform Sketchnoten bringt eine weitere Dimension in den Austausch. Wie schon erwähnt: Das rein Sachliche wird mittels Sketchen emotional oder durch eine Metapher verpackt. Das ist zielführend. Denn was berührt, kann besser gären. Auch das Trainieren der sogenannten doppelten Kodierung einer Botschaft durch Bild und Notiz (SketchNote) hilft beim Merken und Verstehen – dem/der Sketchenden genauso wie seinen/ihren Ansprechpartner*innen.
Ein zu hoher Anspruch hemmt – fang einfach an
Das gilt nicht nur, wenn es um Visualisierungen geht. Zu exzellenten Ergebnissen schaut man bewundernd auf. In dieser Das-kann-ich-nie-Haltung vergleicht man allzu schnell seine Anfänger*in-Ergebnisse mit jenen der Profis. Man vergleicht allzu leicht die Optik und nicht die Substanz einer Visualisierung. Nehmen wir den Vergleich vom Anfang nochmals auf: Der glänzende Lack ist nicht gleichbedeutend mit der Qualität unter der Haube. Wenn man vorankommen möchte, hilft die Motorisierung. Das Blech der Visualisierung ist die reine Optik, die Gewandtheit der Zeichenkünste – die Motorisierung ist die Struktur, der bedeutungsstarke Inhalt und das gelungene Storytelling. Und alles lässt sich auch mit krakeligen einfachen Skizzen ausdrücken.
Gewandtheit im Skizzieren ist vor allem Übung
Dass Visulisierungs-Profis in ihre Fähigkeit schier unzählige Stunden investiert haben, weiß man zwar, wird aber im Vergleichsfrust oft vergessen. Das Gute am Visualisieren bzw. dem Erlernen von Sketchnoting ist aber, dass es um Sprachenlernen geht und nicht darum, Künstler*in zu werden. Darüber hinaus ist Visualisieren eine einfache Sprache, die du als Kind schon einmal perfekt konntest – bis dir vielleicht im Kunstunterricht die Noten den Spaß verdorben haben, dich mit Zeichnungen und Bildern auszudrücken.
Die Grundlagen, Gedanken visuell zu Papier zu bringen, kannst du in wenigen Stunden lernen. Du wirst schon nach wenig Übung erleben, wie nützlich deine Skizzen sind – nicht nur in der Geschäftskommunikation. Fange das Visualisieren ganz einfach an, mit wenigen visuellen Worten. Und trau dich von Anfang an, diese Sprache zu sprechen. Du wirst schnell merken, dass dich dieser Elementarwortschatz täglich weiterbringt. Und übe weiter, fürs Visualisieren gibt es täglich Gelegenheit. Durch das Learning by Doing kannst du dich bald fließend visuell ausdrücken. Und auch hier ist es wie bei einer Fremdsprache: Manches fehlende Wort oder witzige Umschreibungen für fehlende Worte sowie ein Akzent wirken besonders sympathisch.
Der Vergleich mit dem Sprachenlernen hilft dir auch dabei, das Visualisieren effektiver zu erlernen. Es gilt: Gezielte Übungen und Impulse zusätzlich zur täglichen Sprachpraxis bringen dich schneller zum Ziel. Lass dich deshalb von einer guten Anleitung oder durch einen Workshop motivieren und inspirieren. Und wenn es um das Inspirieren geht, taugen die Visualisierungen der Profis. Aber versuche, das demotivierende Vergleichen zu unterlasen.
Noch ein letzter Gedanke zur Motivation
Du kennst es vielleicht vom Musikhören oder Sporttreiben: Oft sind es gerade die Nicht-Profis, die sich besonders aufs Training freuen und mehr Spaß beim Spiel haben. So geht es auch fast allen, die beginnen, den Stift immer öfter in die Hand zu nehmen. Dazu kommen die Quick Wins von Anfang an. Es gilt: Was hilft, wird beibehalten. Was also spricht gegen eine kreativ-visuelle Kommunikationskultur in deinem Unternehmen, statt schnödem Kreativwashing?
Tipp zum Weiterarbeiten: Das Sachbuch des Autors dieses Beitrags – Sigi Bütefisch: Clever visualisieren, ISBN: 978-3-86980-707-2, BusinessVillage 2023, ca. 240 Seiten, 24,95 Euro
Diese Artikel könnten Sie auch interessieren:
Gründer*in der Woche: Picturo – Local Photography, European Scale
Mit der Picturo Photography UG baut Jean Witt eine europaweite Plattform zur einfachen Suche nach lokalen Fotograf*innen auf. Ziel ist es, einen stark fragmentierten Markt zu bündeln, Fotograf*innen sichtbar zu machen und Nutzer*innen eine zentrale Anlaufstelle zu bieten. Mehr dazu im Interview mit dem Gründer.
Picturo klingt nach dem großen Bild. Beschreibe uns deine Idee in wenigen Sätzen – dein Elevator Pitch!
Picturo ist ein internationaler Marktplatz, der die Suche nach lokalen Fotograf*innen weltweit radikal vereinfacht. Statt unübersichtlicher Recherche auf Social Media oder Google bietet Picturo eine zentrale, standortbasierte Plattform. Nutzer*innen finden mit wenigen Klicks die passenden Fotograf*innen für jeden Anlass, während diese wiederum gezielt neue Kund*innen gewinnen. So professionalisiert Picturo einen stark fragmentierten Markt und macht die Suche nach Fotografie-Dienstleistungen so einfach wie die Buchung eines Hotels.
Es gibt bereits viele Plattformen für Fotograf*innen und Bilddatenbanken. Was war der konkrete Auslöser oder gar Pain Point, den du selbst erlebt hast, der dich dazu gebracht hat, Picturo zu gründen?
Der konkrete Auslöser war meine eigene Erfahrung als Reisender. Die Suche nach lokalen Fotografinnen lief fast immer über Direktnachrichten auf Social Media oder über einzelne Webseiten. Dabei musste man jedes Mal Preise, Verfügbarkeiten und Leistungen separat anfragen – oft ohne klare Antworten oder Vergleichsmöglichkeiten. Dieser Prozess ist zeitaufwendig, intransparent und für Nutzer*innen extrem umständlich. Gleichzeitig wurde deutlich, dass es für Fotograf*innen genauso ineffizient ist, jede Anfrage einzeln zu beantworten. Picturo ist aus genau diesem Pain Point entstanden: dem Wunsch nach einer zentralen, einfachen und transparenten Lösung für die Suche nach lokalen Profis.
Ihr sitzt in Esens, also im schönen Ostfriesland, habt aber den Anspruch, Fotograf*innen in „ganz Europa“ zu vernetzen. Wie baut man von einem eher ländlichen Standort aus eine so internationale Community auf?
Unser Standort in Ostfriesland ist für uns kein Nachteil, sondern Teil unserer Geschichte. Picturo ist von Anfang an als digitale Plattform konzipiert worden, bei der der Standort des Teams keine Rolle für die Reichweite spielt. Der Bedarf bei Fotograf*innen in ganz Europa ist so groß, dass Anfragen zur Teilnahme an unserer Plattform bereits heute organisch entstehen. Viele Fotograf*innen suchen gezielt nach Möglichkeiten, international sichtbar zu werden und neue Kund*innen zu erreichen. Durch klare Positionierung, einfache Nutzung und einen starken Fokus auf lokale Sichtbarkeit schaffen wir Vertrauen und Wachstum – unabhängig vom Standort. So bauen wir Schritt für Schritt eine internationale Community auf: digital, skalierbar und nachhaltig.
Euer Portfolio ist breiter als das der Konkurrenz. Wie genau funktioniert das Geschäftsmodell? Zahlt der/die Kund*in pro Bild oder ist es ein Abo-Modell?
Der Kern von Picturo liegt klar auf der Vermittlung und Sichtbarkeit von professionellen Fotografinnen. Unser Geschäftsmodell basiert auf abonnementbasierten Mitgliedschaften für die Fotografinnen. Für Kund*innen ist die Nutzung der Plattform vollständig kosten- und provisionsfrei; ebenso fallen keine Buchungsprovisionen an. Fotograf*innen zahlen eine monatliche Subscription für Sichtbarkeit, Reichweite und den Zugang zu qualifizierten Anfragen. Dieses Modell schafft Transparenz, vermeidet Reibung im Buchungsprozess und ist für beide Seiten fair und planbar.
Ihr bietet auch einen Guide zu lokalen Hotspots (Bars, Cafés) an. Ist das „nur“ ein Content-Marketing-Tool, um Traffic auf die Seite zu bekommen, oder plant ihr Kooperationen mit der Gastronomie als weitere Einnahmequelle?
Der Guide zu lokalen Hotspots ist aktuell in erster Linie als Mehrwert für Nutzer*innen gedacht und unterstützt den organischen Traffic sowie die Sichtbarkeit der Plattform. Gleichzeitig sehen wir darin großes strategisches Potenzial über reines Content-Marketing hinaus. Perspektivisch planen wir, diesen Bereich für Kooperationen mit lokalen Partnern wie Cafés, Bars oder Hotels zu öffnen.
Eine Plattform europaweit zu skalieren, kostet Geld und Ressourcen. Wie habt ihr euch bisher finanziert?
Aktuell ist Picturo vollständig eigenfinanziert und damit komplett gebootstrapped. Die Entwicklung der Plattform sowie der Markteintritt in erste Länder wurden aus eigenen Mitteln realisiert. Nun befinden wir uns an einem Punkt, an dem wir gezielt nach strategischen Partnern und Investor*innen suchen, um die nächste Skalierungsstufe zu erreichen. Ziel ist es, gemeinsam schneller zu wachsen und das internationale Potenzial von Picturo voll auszuschöpfen.
Wenn du auf die Zeit seit der Gründung der UG zurückblickst: Was war bisher der wichtigste Meilenstein, bei dem du wusstest: „Okay, das hier funktioniert wirklich“?
Der wichtigste Meilenstein war die Einführung des Abo-Modells. Trotz der Umstellung auf ein kostenpflichtiges Angebot lief das Onboarding ungebrochen weiter und neue Fotograf*innen traten der Plattform bei. In diesem Moment wurde klar, dass Picturo ein echtes Problem löst und einen echten Mehrwert bietet. Die Bereitschaft, für Sichtbarkeit und Reichweite zu bezahlen, hat bestätigt, dass der Bedarf im Markt vorhanden ist. Ab diesem Punkt war klar: Das Modell funktioniert.
Wo siehst du Picturo in drei Jahren?
In drei Jahren ist Picturo in vielen EU-Ländern aktiv und als internationaler Marktplatz für lokale Fotograf*innen etabliert. Gemeinsam mit starken Partnern ist die Plattform breit ausgerollt und für Nutzer*innen die erste Adresse bei der Fotografensuche.
Und last but not least: Welche Tipps würdest du anderen Gründer*innen geben, die gerade am Anfang stehen – vielleicht auch jenen, die nicht in den großen Hubs wie Berlin oder München sitzen?
Der wichtigste Tipp ist, sich konsequent an einem echten Problem zu orientieren und früh mit Nutzer*innen zu sprechen. Der Standort ist dabei zweitrangig – entscheidend sind Fokus, Umsetzungsstärke und Durchhaltevermögen. Gerade außerhalb großer Startup-Hubs kann man oft ruhiger, effizienter und näher am Markt arbeiten. Wichtig ist, früh zu testen, Feedback ernst zu nehmen und das Produkt Schritt für Schritt zu verbessern. Netzwerke, Partnerschaften und digitale Sichtbarkeit sind heute wichtiger als ein physischer Standort.
Hier geht’s zu Picturo
Das Interview führte StartingUp-Chefredakteur Hans Luthardt
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
Kultur entsteht nicht später – sie entsteht jetzt
Serie: Führen im Start-up, Teil 3: Warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren.
Montagmorgen, 7.42 Uhr: Das Team steht im offenen Büro. Der Release ist instabil, der Kunde ungeduldig. Der Gründer übernimmt das Gespräch. Die Stimme wird lauter. Der Ton schärfer. Niemand widerspricht.
Am Nachmittag ist wieder Ruhe. Abends posten alle auf LinkedIn über Teamspirit.
So entstehen Kulturen. Nicht im Offsite, nicht im Werte-Workshop, sondern in genau solchen Momenten.
Der größte Irrtum junger Unternehmen
„Um Kultur kümmern wir uns später. Jetzt geht es um Wachstum.“ Dieser Satz fällt häufig. Er klingt pragmatisch. Fast erwachsen. Tatsächlich ist er riskant.
Organisationsforschung beschreibt seit Jahrzehnten, dass sich Normen früh bilden – und erstaunlich schnell verfestigen. Besonders in Stresssituationen. Nicht in stabilen Phasen.
Unter Druck wird nicht nur gearbeitet. Unter Druck wird programmiert.
Stress schreibt Verhalten in die DANN
In der Frühphase herrscht fast permanent Unsicherheit: Finanzierung offen, Produkt iterativ, Rollen unscharf. Genau in diesem Umfeld bilden sich implizite Regeln.
- Wer darf widersprechen?
- Wie wird mit Fehlern umgegangen?
- Wer bekommt Anerkennung – und wofür?
- Wie werden Konflikte gelöst?
Diese Regeln werden selten formuliert. Sie werden beobachtet.
Wenn ein(e) Gründer*in Kritik als Bremse interpretiert, lernt das Team: Widerspruch ist riskant. Wenn Wochenendarbeit als Loyalitätsbeweis gilt, wird Dauerverfügbarkeit zur Norm. Wenn Entscheidungen spontan und intransparent fallen, entsteht operative Unklarheit.
Später spricht man von gewachsener Kultur. Tatsächlich handelt es sich um kumulierte Reaktionen auf frühen Druck.
Warum Geschwindigkeit Differenzierung verdrängt
Start-ups priorisieren Tempo. Verständlich. Märkte warten nicht. Investor*innen auch nicht.
Doch Geschwindigkeit hat Nebenwirkungen. Reflexion rutscht nach hinten. Entscheidungswege bleiben implizit. Rollen werden funktional verteilt, aber nicht sauber geklärt.
Untersuchungen zu Gründungsverläufen zeigen immer wieder ein ähnliches Muster: Unternehmen wachsen schneller als ihre Führungsstrukturen. Entscheidungen bleiben informell an die Gründungsperson gebunden, während Team und Komplexität zunehmen.
Was in der Frühphase Effizienz bedeutet, wird mit zunehmender Größe zur strukturellen Schwäche. Solange das Unternehmen klein ist, funktioniert das. Mit Wachstum wird es fragil.
Die Romantisierung der Anfangszeit
Die Start-up-Erzählung liebt Improvisation. Pizza im Büro. 18-Stunden-Tage. „Wir gegen den Rest der Welt.“ Doch genau in dieser Phase werden kulturelle Maßstäbe gesetzt.
- Was heute als Flexibilität gefeiert wird, kann morgen Willkür bedeuten.
- Was heute als Nähe empfunden wird, kann morgen Intransparenz heißen.
- Was heute als Loyalität gilt, wird morgen als Abhängigkeit erlebt.
Kultur ist kein Stimmungsbild. Sie ist ein System aus Erwartungen.
Warum spätere Kulturprogramme oft Symptome behandeln
Wenn ein Start-up wächst und Fluktuation steigt, Konflikte eskalieren oder Führung inkonsistent wirkt, beginnt häufig die Kulturarbeit. Leitbilder werden formuliert, Werte definiert, Workshops organisiert.
Doch Kultur entsteht nicht durch Deklaration. Sie entsteht durch Wiederholung, durch „ins Leben bringen“. Mitarbeitende orientieren sich nicht an Postern. Sie orientieren sich an erlebter Macht.
Wenn frühe Verhaltensmuster nie hinterfragt wurden, sind sie längst internalisiert. Ein späteres Werte-Set ersetzt keine gelebten Normen.
Der wirtschaftliche Preis
Kulturelle Dysfunktion ist kein weiches Thema.
- Sie beeinflusst Entscheidungsgeschwindigkeit.
- Sie erhöht Konfliktkosten.
- Sie wirkt auf Mitarbeiter*innenbindung.
- Sie prägt Innovationsfähigkeit.
- Sie beeinflusst Reputation am Arbeitsmarkt.
Interne Analysen vieler Investor*innen zeigen: Nicht Marktversagen ist die häufigste Ursache für Start-up-Scheitern, sondern Team- und Führungsprobleme. Und diese entstehen selten im zehnten Jahr. Sie entstehen im ersten.
Ein unbequemer Schluss
Kultur entsteht nicht dann, wenn sie auf der Agenda steht. Sie entsteht dann, wenn niemand hinsieht. Tag für Tag. Die entscheidende Frage lautet daher nicht: Welche Werte wollen wir später haben? Sondern: Was lehren wir unser System gerade – durch unser Verhalten unter Druck?
Denn jedes Start-up hat Kultur. Die einzige Frage ist, ob sie bewusst gestaltet oder sich unbewusst einschleicht.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will
Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.
Vom Forschungsprojekt zum DeepTech-Unternehmen
Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).
Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.
Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine
FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.
Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.
Die Produktion als eigentlicher Hebel
Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.
Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.
Die Realität der Skalierung: Verträge statt Prototypen
Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.
Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.
Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.
Qualifizierte Migration darf kein Irrgarten sein
Um die Migration qualifizierter Fachkräfte aus dem Ausland zu erleichtern, haben Studierende der Universität zu Köln im Jahr 2024 VisaFlow ins Leben gerufen. Heute präsentiert sich die App als ultimativer Leitfaden, der dabei hilft, sich im deutschen Einwanderungsprozess zurechtzufinden. CEO Georg Nauheimer erzählt, was es damit auf sich hat und warum das exist-Programm vom Bundesministerium für Wirtschaft und Energie (BMWE) dabei eine doppelt wichtige Rolle spielt.
Was hat Sie und Ihre Mitgründer*innen motiviert, VisaFlow zu starten?
Im Studium erlebten wir – insbesondere am Beispiel unseres Teammitglieds Cheyenne aus den USA – die Herausforderungen, die sich bei der Einwanderung nach Deutschland ergeben. Die Prozesse zur Erteilung eines Visums oder einer Aufenthaltserlaubnis sind bisher überaus komplex und belastend; für Talente, Hochschulen und Unternehmen. Dabei steht fest, dass allein aufgrund der hiesigen demografischen Entwicklung qualifizierte Migration unverzichtbar ist für den Wirtschaftsstandort Deutschland. Unsere Vision ist deshalb die einer Welt, in der die internationale Mobilität geeigneter Fachkräfte nicht durch intransparente und ineffiziente Visumsprozesse eingeschränkt wird.
Was ist bisher die größte Hürde?
Ob als Student, Fachkraft oder mit einer Unternehmensidee: Wer aus dem nicht-europäischen Ausland den Schritt nach Deutschland wagt, sieht sich häufig einem schwer durchschaubaren bürokratischen Prozess gegenüber. Unklare Anforderungen, widersprüchliche Informationen, schwer verständliche Formulare in Amtsdeutsch und lange Wartezeiten machen das Einwanderungsverfahren zu einem regelrechten Irrgarten. Es bleibt immer die Unsicherheit, dass selbst ein kleiner formaler Fehler zu enormen Verzögerungen führen kann. Und bei der Verlängerung von Visa und Aufenthaltstiteln geht alles von vorne los. Genau hier setzt VisaFlow an: Unser Ziel ist es, diese Komplexität zu reduzieren, Transparenz zu schaffen und die Reibung im System für alle Beteiligten nachhaltig zu minimieren.
Inwiefern kann eine App dabei helfen?
Wir haben ein benutzerfreundliches Programm entwickelt, das den gesamten Prozess der Identifizierung, Ausfüllung und Einreichung erforderlicher Unterlagen optimiert. VisaFlow führt Nutzerinnen und Nutzer wie ein persönlicher Guide durch den in verständliche Schritte zerlegten Prozess – von der ersten Frage „Welches Visum brauche ich eigentlich?“ bis zur vollständigen, korrekt eingereichten Bewerbung. Kein Rätselraten mehr, keine unnötigen Umwege. Statt nüchterner Behördenlogik rückt die App die Perspektive der Menschen in den Mittelpunkt. Sie strukturiert Anforderungen, erinnert an Fristen, erklärt Dokumente in einfacher Sprache und sorgt dafür, dass nichts vergessen wird. Alles folgt einem klaren Flow – genau daher der Name.
Welche Rolle spielt exist – from science to business in diesem Kontext?
Exist ist für uns gleich doppelt wichtig! Zunächst als Förderpartner. Als wir 2024 an der Universität zu Köln mit VisaFlow gestartet sind, war schon der Bewerbungsprozess um das exist Gründungsstipendium ein wertvolles Training, die Zusage dann ein entscheidender Meilenstein. Von zentraler Bedeutung war natürlich die finanzielle Absicherung in der frühen Phase. Insgesamt verschaffte uns das Programm den zeitlichen Freiraum, den klaren Fokus und die notwendige Rückendeckung, um unsere Idee konsequent weiterzuentwickeln und zur Marktreife zu führen. Bis heute profitieren wir außerdem von der starken Signalwirkung, die exist als Qualitätssiegel gegenüber potenziellen Kunden, Partnern und Investoren entfaltet. Auch die Netzwerkkontakte sowie die fachliche Begleitung während des Förderzeitraums haben maßgeblich zu unserem Fortschritt beigetragen. Unser Fazit: Für Gründungsteams aus dem wissensbasierten Ökosystem ist exist nicht nur die bewährte erste Anlaufstelle, sondern die zentrale Förderung, die unbedingt genutzt werden sollte.
Um das Tempo von Gründungen aus der Wissenschaft zu beschleunigen, hat das BMWE den Antragsprozess des exist-Programms vereinfacht. Welche Erfahrungen haben Sie diesbezüglich gemacht?
Vor allem die digitale Antragstellung ist ein großer Fortschritt. Bei uns lief bereits fast alles digital, inklusive Unterschriften und Kommunikation. Eine Erleichterung ist auch der reduzierte Umfang der Antragsunterlagen, insbesondere das kürzere Ideenpapier, das dazu zwingt, wirklich auf den Punkt zu kommen. Die Sachmittelpauschalen haben wir noch nicht genutzt, wir sehen diese allerdings auch als weiteren Schritt der Entbürokratisierung im exist-Programm. Positiv hervorzuheben sind außerdem die überarbeiteten Webseiten, die von Anfang an für Klarheit sorgen. Insgesamt kommt hier also genau das Rezept zum Einsatz, das wir uns auch in unserem Thema wünschen: Digitale Abläufe, mehr Transparenz und weniger Aufwand für alle im System!
Sie sagten, das exist-Programm sei für VisaFlow gleich doppelt wichtig. Was meinen Sie damit?
Tatsächlich verbindet uns auch unsere Mission: Mit der Einrichtung des Global Certification and Consulting Centre (GCCC) durch das BMWE im Jahr 2024 als Teil des exist-Programms haben sich inhaltliche Schnittstellen ergeben. Hintergrund ist die Reform des Aufenthaltsgesetzes, die Nicht-EU-Gründer und -Gründerinnen bei exist-Finanzierung den Zugang zu Visa und Aufenthaltstiteln ermöglicht. Dabei fungiert das GCCC als zentrale Schnittstelle zwischen Auslandsvertretungen, Behörden, Hochschulen und internationalen Gründungsteams. Auch prüft und zertifiziert es stipendienbasierte Gründungsprogramme. Daraus ergeben sich mehrere Ansatzpunkte für eine wertstiftende Zusammenarbeit zwischen dem GCCC und VisaFlow.
Wie könnte eine solche Zusammenarbeit aussehen?Um internationale Gründungen in Deutschland nachhaltig zu fördern, wäre die gezielte Bündelung der jeweiligen Kompetenzen denkbar. GCCC bringt spezialisiertes Fachwissen, ein belastbares Netzwerk sowie Sichtbarkeit im exist-Umfeld in den Prozess ein. VisaFlow steuert eine skalierbare Technologielösung und umfassendes Behördenwissen bei, wodurch sich die Qualität von Visums- und Aufenthaltstitelanträgen bereits im Vorfeld deutlich verbessern lässt. Darüber hinaus sind verschiedene gemeinsame Projekte möglich, etwa Trainingseinheiten zur Digitalisierung von Abläufen sowie zur praxisnahen Umsetzung neuer gesetzlicher Regelungen in den Behörden.
Geben Sie uns noch einen Überblick, wo VisaFlow aktuell steht.Sehr gern. Aktuell arbeiten wir bundesweit mit über 60 Hochschulen zusammen. Wir haben bereits mehr als 4.000 Fälle erfolgreich unterstützt, die Nachfrage ist weiter groß. Daneben treiben wir mit unserem Innovationspartner Rewe Group die Entwicklung einer Produktlinie für Unternehmen und deren Personalabteilungen voran. Für uns ist es zentral, Lösungen stets im Co-Development mit den Nutzerinnen und Nutzern zu entwickeln. In diesem speziellen Fall ist es unser Ziel, eine skalierbare End-to-End-Lösung zu entwickeln, die Unternehmen bei internationalen Einstellungen deutlich entlastet und Bewerberinnen und Bewerbern eine signifikant bessere Onboarding-Erfahrung ermöglicht. Der Plan ist, damit Mitte dieses Jahres an den Start zu gehen.
Herr Nauheimer, vielen Dank für das Gespräch!
Infokasten
Was ist exist?
Das exist-Programm des Bundesministeriums für Wirtschaft und Energie (BMWE) fördert wissensbasierte Gründungen aus Hochschulen und Forschungseinrichtungen. Es stärkt den Transfer von Forschung in marktfähige Produkte und Dienstleistungen und eröffnet Wissenschaftlerinnen und Wissenschaftlern eine klare Karriereoption im Unternehmertum.
Für gründungsinteressierte Studierende, Absolventinnen und Absolventen sowie Wissenschaftlerinnen und Wissenschaftler.
Entwicklungen und Aktivitäten zur Förderung und Unterstützung von Gründerinnen aus Hochschulen und Forschungseinrichtungen.
Für forschungsbasierte Gründungsvorhaben mit aufwendigen, risikoreichen Entwicklungsarbeiten.
Zehn Leuchttürme des deutschen Startup-Ökosystems zur Steigerung von Anzahl und Qualität wissensbasierter Ausgründungen.
Bewerbungen erfolgen über die Hochschule/Forschungseinrichtung an den Projektträger.
Weitere Informationen unter www.exist.de
Distart: Vom Agentur-Frust zum EdTech-Champion
Wie das 2021 von Thomy Roecklin gegründete und seit 2025 zusammen mit Lucia-Miriam Selbert geführte Leipziger EdTech Distart das Bildungssystem „gegen den Strich bürstet“.
Wer in Deutschland über Start-up-Hubs spricht, landet meist schnell in Berlin oder München. Doch in der sächsischen Metropole Leipzig wächst seit einigen Jahren ein Player heran, der beweist, dass Innovation auch abseits der üblichen Verdächtigen gedeiht: Die Distart Education GmbH. Ihr Treibstoff ist der eklatante Mangel an digitaler Kompetenz in der deutschen Wirtschaft – und der Mut, das „System Bildung“ gegen den Strich zu bürsten.
Wenn „Done for You“ nicht mehr reicht
Die Wurzeln des Unternehmens reichen weiter zurück als das offizielle Gründungsjahr 2021. Gründer Thomy Roecklin setzte jahrelang mit seinen Agenturen MNKY lab und TRDIGITAL digitale Kampagnen für Kund*innen um. Doch im Tagesgeschäft bremste das fehlende Digitalverständnis auf Kundenseite die Projekte immer wieder aus. Die Erkenntnis, dass Deutschland weniger neue Agenturen, sondern mehr digitale Mündigkeit braucht, führte schließlich zum Pivot.
Interessanterweise war der Auslöser für diesen Kurswechsel kein konkretes Kundenprojekt. Auf die Frage nach dem „Aha-Moment“ erklärt Roecklin, dass er lediglich versuchte, Lucia-Miriam Selbert einzuarbeiten, und dabei schockiert feststellte, wie wenig praxisnahe digitale Weiterbildungen existierten. Er baute kurzerhand selbst ein Lernprogramm – ohne zu ahnen, dass daraus einmal Distart entstehen würde. Im Januar 2021 fiel der Startschuss für Distart learn. Mitten in der Pandemie setzte Roecklin auf ein Modell, das sich radikal von klassischen Bildungsträgern unterschied: 100 Prozent remote, aber mit enger persönlicher Betreuung und einem klaren Fokus auf die Praxis.
Das Schnellboot zwischen den Tankern
Distart operiert im sogenannten AZAV-Markt (Akkreditierungs- und Zulassungsverordnung Arbeitsförderung). Während etablierte Bildungsriesen oft mit der Trägheit ihrer Größe kämpfen und bis zu 24 Monate für Lehrplananpassungen benötigen, hat sich Distart als agiler „Qualitäts-Vorreiter“ positioniert.
Für Roecklin ist diese Agilität eine Frage des Überlebens, da sich Jobs und Skills heute schneller verändern als jede klassische Bildungslogik. Er betont, dass man ohne permanente Weiterentwicklung der Inhalte zwangsläufig am Markt vorbei ausbilden würde. Diese Flexibilität ist zudem essenziell für die Zielgruppe: Viele Teilnehmende bilden sich neben ihrem 9-to-5-Job weiter, betreuen Kinder oder pflegen Angehörige und benötigen daher flexible statt starrer Strukturen.
Agency-DNA statt Schulbank-Feeling
Der entscheidende Wettbewerbsvorteil liegt in der Herkunft: Distart ist keine klassische Schule, sondern wurde von Marketern für Marketer gebaut. Diese „Agency-DNA“ durchzieht das gesamte Geschäftsmodell. Mit einer modernen Lernumgebung aus Live-Sessions und asynchronen Deep-Dives spricht das Unternehmen alle Altersgruppen gleichermaßen an.
Auch technologisch ist man der Konkurrenz oft einen Schritt voraus: Als ChatGPT Ende 2022 die Arbeitswelt veränderte, reagierte Distart fast in Echtzeit. Auf die kritische Frage, ob KI das vermittelte Wissen nicht bald obsolet mache, findet Roecklin eine klare Antwort: KI ersetzt keine Menschen, sie ersetzt lediglich Mittelmaß. Während KI das Netz mit generischen Inhalten flutet, steige paradoxerweise der Hunger nach echten Stimmen, Ideen und Perspektiven – Marketing werde also menschlicher.
Bootstrapping und gesundes Wachstum
Der Erfolg gibt dem Konzept recht. Im September 2024 erfolgte die Umfirmierung zur Distart Education GmbH, was den Übergang vom Start-up zum etablierten Bildungsinstitut markierte. Während andere Tech-Unternehmen Personal abbauen mussten, verdoppelte Distart seine Belegschaft beinahe auf über 100 Köpfe und bezog im Oktober 2025 neue Räumlichkeiten im NEO Leipzig.
Besonders bemerkenswert: Das Wachstum ist organisch und gebootstrapped – finanziert aus dem eigenen Cashflow ohne externe Risikokapitalgeber. Das macht Distart unabhängig von Exit-Druck. Seit Februar 2025 verstärkt Lucia-Miriam Selbert als Geschäftsführerin die strategische Ausrichtung.
Dennoch birgt die Skalierung Risiken, da das Geschäftsmodell stark von staatlichen Bildungsgutscheinen abhängt. Auf einen möglichen „Plan B“ angesprochen, erklärt das Unternehmen, dass Förderungen zwar beim Beschleunigen helfen, man Distart aber bewusst so aufbaue, dass langfristig strukturelle Unabhängigkeit erreicht wird. Auch die Qualitätssicherung bei über 100 Mitarbeitenden ist eine Herausforderung. Thomy Roecklin gibt offen zu, dass Wachstum kein Wellnessprogramm ist und es im Getriebe zwangsläufig knirscht. Sein Schlüssel: Qualität darf nicht an Einzelpersonen hängen, sondern muss im gesamten System verankert sein, kombiniert mit echtem Vertrauen in das Team statt Kontrolle.
Der Standort als Statement und Vision
Dass Distart in Leipzig verwurzelt bleibt, ist Teil der Identität. Roecklin sieht im Osten Deutschlands ein enormes, oft unterschätztes Potenzial und erlebt dort viel Talent, Pragmatismus und Lernhunger. Distart versteht sich hier auch als Regionalentwickler.
Die Vision der Gründer geht jedoch über reine Kurse hinaus. Unterstrichen durch Auszeichnungen wie „Top Fernschule 2025“ und „2026“, arbeitet das Team nun an der Gründung der Distart University of Applied Sciences. Das Ziel bis 2030 ist ambitioniert: Ein Alumni-Netzwerk von 25.000 Absolvent*innen. Sollte der komplexe Weg zur staatlichen Anerkennung gelingen, wird Distart endgültig zum gewichtigen Faktor für die digitale Wettbewerbsfähigkeit der Bundesrepublik.
Executive Search 2026
Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?
Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.
Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?
Was kann KI leisten – und was nicht?
Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.
Warum der Mensch unverzichtbar bleibt
Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.
Leadership in Zeiten von KI
Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.
Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.
KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung
Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.
Fazit: Executive Search neu denken
Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.
KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.
Der Staat als Pre-Seed-Investor
Warum die Gründung aus der Arbeitslosigkeit oft die smarteste Finanzierungsform ist.
Venture Capital ist sexy, Business Angels sind begehrt – doch in der aktuellen Marktphase wird die effektivste Form der Frühphasenfinanzierung oft übersehen: Der Gründungszuschuss der Bundesagentur für Arbeit. Wer strategisch aus der Arbeitslosigkeit gründet, sichert sich nicht nur den Lebensunterhalt, sondern erhält Zugang zu Ressourcen, für die andere Start-ups fünfstellige Summen aufbringen müssen. Das entscheidende Detail: Man muss dafür keine Unternehmensanteile abgeben.
In der Start-up-Szene wird oft über die „Runway“ gesprochen – die Zeitspanne, die einem Unternehmen bleibt, bevor das Geld ausgeht. Gründer*innen verbringen oft Monate damit, Pitch-Decks zu bauen, um Investoren zu überzeugen, ihnen diese Zeit zu erkaufen. In einer Zeit, in der Risikokapitalgeber*innen zurückhaltender agieren und Bewertungen sinken, rückt eine alternative Finanzierungsquelle in den Fokus, die oft fälschlicherweise als reines Sozialinstrument abgetan wird: Die Gründung aus dem Bezug von Arbeitslosengeld I (ALG 1).
Wer dieses System nicht als soziales Auffangnetz, sondern als strategisches Finanzierungsinstrument begreift, verschafft sich einen Wettbewerbsvorteil, der in der freien Wirtschaft kaum zu bezahlen ist. Es handelt sich hierbei um „Non-Dilutive Capital“ – Kapital, das die Anteile der Gründer*innen nicht verwässert.
Der mathematische Vorteil: ALG 1 als Bootstrapping-Hebel
Um die Dimension dieses Vorteils zu verstehen, lohnt sich ein Rechenbeispiel: Ein Gründer, der Anspruch auf den Gründungszuschuss hat, erhält in der ersten Phase (6 Monate) sein volles Arbeitslosengeld plus 300 Euro zur sozialen Absicherung. In der zweiten Phase (9 Monate) folgen weitere 300 Euro monatlich.
Bei einem vorherigen guten Einkommen summieren sich diese Zahlungen schnell auf 20.000 bis 25.000 Euro. Wichtig hierbei: Diese Summe ist steuerfrei (das ALG 1 unterliegt lediglich dem steuerlichen Progressionsvorbehalt) und muss nicht zurückgezahlt werden.
Um den gleichen Liquiditätseffekt über einen Umsatz zu erzielen, müsste ein frisch gegründetes Unternehmen – bei einer angenommenen Umsatzrendite von 20 % – im ersten Jahr bereits über 100.000 Euro Umsatz erwirtschaften. Alternativ müsste ein Business Angel für 25.000 Euro einsteigen. Bei einer frühen Bewertung von 500.000 Euro würde das den Verlust von 5 % der Firmenanteile bedeuten. Der Gründungszuschuss liefert dieselbe Liquidität, ohne dass der Gründer auch nur 0,1 % seines Unternehmens abtreten muss.
Wissen & Technik: Der unterschätzte Faktor AVGS
Neben der reinen Liquidität bietet die Bundesagentur für Arbeit ein zweites Instrument, das für Gründer*innen essenziell ist: den Aktivierungs- und Vermittlungsgutschein (AVGS).
Viele Gründer*innen wissen, dass es Coachings gibt. Wenige realisieren jedoch, dass professionelle AVGS-Maßnahmen heute oft wie private Inkubatoren funktionieren. Der Gutschein ermöglicht es Gründer*innen, externe Expertise einzukaufen, ohne die eigene Liquidität zu belasten.
Der Fokus liegt hierbei auf der Professionalisierung:
- Validierung des Geschäftsmodells: Ein(e) Sparringspartner*in prüft die Idee auf Markttauglichkeit, bevor teure Fehler gemacht werden.
- Finanzplanung: Erstellung einer realistischen Rentabilitätsvorschau, die nicht nur dem Amt, sondern auch Banken standhält.
- Infrastruktur: Hochwertige Programme stellen den Teilnehmer*innen oft auch notwendige technische Ausstattung (z.B. Laptops oder Software-Lizenzen als Leihgeräte) für die Dauer der Maßnahme zur Verfügung, um den Start technisch zu ermöglichen.
Aus der Praxis: Wie der strategische Einsatz funktioniert
Wie dieser Prozess in der Realität aussieht, zeigt das Beispiel von Jonas (Name geändert), einem Marketingmanager, der seinen Job verlor und den Sprung in die Selbständigkeit als digitaler Berater wagte. Anstatt sofort hastig ein Gewerbe anzumelden, nutzte Jonas die strategische Reihenfolge:
- Status klären: Er meldete sich arbeitslos und sicherte seinen Anspruch.
- Professionalisierung: Über einen AVGS-Gutschein buchte er ein intensives Gründungscoaching. Dort feilte er vier Wochen lang an seiner Positionierung und seinem Pricing.
- Businessplan: Gemeinsam mit dem Coach erstellte er einen Businessplan, der die Tragfähigkeit seines Vorhabens klar belegte.
- Antragstellung: Er beantragte den Gründungszuschuss vor der eigentlichen Gründung.
Das Ergebnis: Jonas erhielt die Bewilligung für den vollen Zuschuss. Die sechs Monate „gesicherte Runway“ nutzte er, um hochwertige Referenzkunden zu gewinnen, anstatt aus finanzieller Not heraus schlecht bezahlte Projekte anzunehmen. Heute führt er eine profitable Agentur. Ohne die Förderung wäre der Druck, sofort Umsatz zu generieren, vermutlich zulasten der strategischen Ausrichtung gegangen.
Die Hürden meistern: Vermittlungsvorrang und Ermessensleistung
Der Gründungszuschuss ist seit 2011 eine Ermessensleistung. Es besteht kein Rechtsanspruch. Das führt oft zu der Fehlannahme, die Bewilligung sei reine Glückssache. Doch Verwaltungsentscheidungen folgen einer Logik. Das größte Hindernis ist der gesetzliche Vermittlungsvorrang: Der/die Sachbearbeiter*in muss prüfen, ob nicht doch eine Festanstellung möglich wäre, und prognostizieren, ob die Gründung die Arbeitslosigkeit nachhaltiger beendet.
Die Strategie zur Bewilligung liegt daher in der Qualität der Vorbereitung. Ein exzellenter Businessplan, eine klare Argumentation, warum eine Festanstellung aktuell keine Option ist, und eine positive Tragfähigkeitsbescheinigung durch eine fachkundige Stelle sind die stärksten Argumente. Wenn aus den Unterlagen hervorgeht, dass der/die Gründer*in qualifiziert ist und der Markt das Angebot braucht, reduziert sich das „Ermessen“ der Agentur faktisch drastisch. Eine Ablehnung muss begründet werden – und bei einer wasserdichten Vorbereitung fehlen oft schlicht die Argumente für ein Nein.
Zielgruppen-Check: Für wen ist dieser Weg geeignet?
Nicht für jedes Start-up ist dieser Weg der richtige. Die Förderung ist als Brücke konzipiert, nicht als Großinvestition.
Besonders geeignet ist der Weg für:
- Wissensbasierte Geschäftsmodelle: Berater*innen, Coaches, Agenturen, Freelancer*innen. Hier sind die Anfangsinvestitionen gering, und der Zuschuss deckt die Lebenshaltungskosten perfekt ab.
- Digitale Start-ups & SaaS: Gründer*innen, die Zeit für die Produktentwicklung (Coding, Content) brauchen, bevor der erste Euro fließt.
- Soloselbständige: Die Förderung ist personengebunden und sichert den/die Unternehmer*in direkt ab.
Weniger geeignet ist der Weg für:
- Kapitalintensive Hardware-Gründungen: Wer Maschinen für 500.000 Euro benötigt, für den sind 20.000 Euro Zuschuss nur ein Tropfen auf den heißen Stein. Hier werden Bankdarlehen oder VC-Gelder benötigt (wobei der Zuschuss als private Absicherung natürlich dennoch helfen kann).
- Gründungen aus der Festanstellung: Wer nicht arbeitslos ist, hat keinen Zugang zu diesem Topf. Eine „künstliche“ Arbeitslosigkeit herbeizuführen (z.B. durch Eigenkündigung), führt in der Regel zu einer Sperrzeit von 12 Wochen und sollte sehr genau kalkuliert werden.
Fazit: Professionalität statt Bürokratie-Frust
Die Gründung aus der Arbeitslosigkeit ist kein bürokratischer Hürdenlauf, sondern eine der sichersten Startrampen, die der Standort Deutschland zu bieten hat. Wer den Staat als ersten Anker-Investor begreift und die Klaviatur aus ALG 1, AVGS und Gründungszuschuss professionell spielt, startet mit einer Liquidität und Ruhe, von der andere Gründer*innen nur träumen können. Es ist kein Geschenk, sondern eine Investition in die wirtschaftliche Tragfähigkeit von morgen.
Der Autor Lars Weber ist Experte für staatlich geförderte Gründungsberatung und Gründer von avgs.digital. Seit mehreren Jahren begleitet er Gründer*innen bei der Beantragung von AVGS-Coachings und Gründungszuschüssen. Sein Fokus liegt auf tragfähigen Geschäftsmodellen und der professionellen Vorbereitung auf die Selbständigkeit, um bürokratische Hürden sicher zu meistern.
Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen
Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.
Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.
Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?
Agilität als Superkraft – aber Prototypen reichen nicht
Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.
Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.
Das Fundament: Die Systemarchitektur entscheidet
Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.
Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.
Security by Design: Sicherheit lässt sich nicht nachrüsten
Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.
Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.
Interoperabilität als Schlüssel zum Teamplay
Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.
Vom Zulieferer zum echten Systempartner
Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.
Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.
Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.
ewigbyte: Datenspeicher für die Ewigkeit?
Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.
Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.
In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.
Der Markt: Ein schlafender Riese erwacht
Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.
Lasergravur statt magnetischer Ladung: So funktioniert es
Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.
Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.
Vom Hardware-Verkauf zum „Storage-as-a-Service“
Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.
David gegen Goliath: Das Rennen um das Glas
Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.
Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.
Die technologischen Nadelöhre
Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.
Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).
Digitale Souveränität als Verkaufsargument
Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.
Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.
Medizinal-Cannabis: Zwischen Wachstumsschub und regulatorischer Neujustierung
Zwischen Boom und strengeren Regeln: Der Markt für Medizinal-Cannabis steht nach einem Rekordjahr am Scheideweg. Investoren und Patienten blicken gespannt auf mögliche Gesetzesänderungen für 2026.
2025 war das erste vollständige Geschäftsjahr nach Inkrafttreten des Medizinal-Cannabisgesetzes im April 2024 – und damit ein echter Praxistest für den deutschen Markt. Mit der Entkopplung von Cannabis aus dem Betäubungsmittelrecht und der Vereinfachung der Verschreibung über Telemedizinplattformen änderten sich die Rahmenbedingungen spürbar. Die Effekte ließen nicht lange auf sich warten und resultierten in steigende Verordnungszahlen, stark wachsende Importmengen und einem beschleunigten Ausbau von Versorgungsstrukturen. Doch wie geht es weiter?
Ein Markt im ersten Jahr nach der Reform
Die Importzahlen verdeutlichen die Dynamik. Während 2023 noch rund 30 Tonnen medizinisches Cannabis nach Deutschland eingeführt wurden, entwickelten sich die Zahlen anschließend immer rasanter. Das Bundesministerium für Gesundheit vermeldete im ersten Halbjahr 2025 einen Anstieg der Importe von mehr als 400 Prozent, von rund 19 auf 80 Tonnen. Hochgerechnet auf das Gesamtjahr dürfte das Volumen jenseits der 140-Tonnen-Marke liegen. Diese Änderungen haben einen aufstrebenden Markt geschaffen, wodurch sich Deutschland zum größten Einzelmarkt für Medizinal-Cannabis in Europa entwickelt hat.
Parallel dazu stieg auch die Zahl der ausgestellten Rezepte deutlich an. Schätzungen gehen inzwischen von mehreren Millionen Patientinnen und Patienten aus, die Cannabis auf ärztliche Verordnung nutzen. Das Marktvolumen wird für 2025 auf bis zu eine Milliarde Euro geschätzt.
Ausbau der Strukturen und steigende Professionalisierung
Für viele Unternehmen der Branche war 2025 ein Jahr des Ausbaus. Investiert wurde in GMP-konforme Prozesse (Good Manufacturing Practice), Lieferkettenstabilität, Qualitätssicherung und digitale Patientensteuerung. Deutschland bleibt stark importabhängig, die inländische Produktion deckt weiterhin nur einen begrenzten Teil des Bedarfs. Internationale Partnerschaften mit Produzenten in Kanada, Portugal oder anderen EU-Staaten sind daher weiterhin zentraler Bestandteil der Marktstruktur.
Politische Reaktionen auf das Wachstum
Mit der steigenden Bedeutung des Marktes wächst auch die politische Aufmerksamkeit, die Debatte rund um die Teillegalisierung polarisiert und spaltet Meinungen. Vertreter der CDU äußerten frühzeitig Bedenken, dass vereinfachte Verschreibungswege zu Fehlentwicklungen führen könnten. Besonders digitale Plattformmodelle bzw. Telemedizinanbieter mit Sitz im Ausland geraten dabei in den Fokus der Kritik.
Im Herbst 2025 wurde von Warken & Co. ein Gesetzeswurf zur Änderung des Medizinal-Cannabisgesetzes vorgestellt. Dieser sieht unter anderem strengere Vorgaben für telemedizinische Verschreibungen vor, genauer gesagt einen verpflichtenden persönlichen Arztkontakt sowie ein Versandverbot über Telemedizinanbieter. Ziel ist es, medizinische Standards zu präzisieren und potenziellen Missbrauch zu verhindern. Die politische Argumentation verweist auf die stark gestiegenen Importzahlen und die zunehmende Zahl digital vermittelter Rezepte. Gleichzeitig wird betont, dass Cannabis als medizinische Therapie klar vom Freizeitkonsum abgegrenzt bleiben müsse und sich dabei viele Freizeitkonsumenten als Patienten ausgeben.
Innerhalb der Branche wird diese Entwicklung differenziert bewertet. Sascha Mielcarek, CEO der Canify AG, ordnet den Gesetzentwurf nüchtern ein: „Der Kabinettsentwurf zur Änderung des MedCanG schießt mit Kanonen auf Spatzen. Wir haben ein wachsendes Problem mit der missbräuchlichen Anwendung von Opioiden, Benzodiazepin und anderen verschreibungspflichtigen Medikamenten. Die Therapie mit Cannabis bietet in vielen Fällen eine nebenwirkungsärmere Alternative und mit dem Gesetzentwurf würde der Zugriff genau darauf erschwert werden. Medizinisches Cannabis eignet sich nicht, einen Präzedenzfall zu schaffen. Der Gesetzentwurf ist kein Beitrag zur Patientensicherheit.“
Unabhängig von der Bewertung einzelner Maßnahmen zeigt sich vor allem, dass der regulatorische Rahmen weiterhin in Bewegung ist. Für Unternehmen bedeutet das eine Phase erhöhter Unsicherheit bei gleichzeitig stabiler Nachfrage. Experten befürchten, dass der Markt um die Hälfte einbrechen könnte, sollte ein physischer, persönlicher Arztkontakt Wirklichkeit werden.
Was bedeutet das für Start-ups und Investoren?
Für Gründer und Kapitalgeber bleibt der Markt grundsätzlich attraktiv. Das Wachstum der vergangenen zwei Jahre zeigt eine robuste Nachfrage. Gleichzeitig sind die Eintrittsbarrieren hoch. Wer im medizinischen Cannabissektor aktiv werden möchte, benötigt regulatorisches Know-how, belastbare Lieferketten, medizinische Anbindung und Kapital für Qualitätssicherung und Compliance.
Gerade diese Anforderungen wirken jedoch auch stabilisierend. Der Markt ist stark reguliert, professionell organisiert und eingebettet in bestehende Gesundheitsstrukturen. Für Investoren stellt sich daher weniger die Frage nach dem Potenzial als nach der Planbarkeit. Politische Anpassungen wirken sich unmittelbar auf Geschäftsmodelle, Bewertungen und Expansionsstrategien aus.
Ausblick auf 2026
Mit Blick auf das neue Jahr zeichnet sich ein Szenario der Neujustierung ab. Möglich ist eine Konsolidierung, bei der sich professionelle Anbieter weiter etablieren und regulatorische Klarstellungen für mehr Stabilität sorgen. Ebenso denkbar sind weitere gesetzliche Anpassungen, die das Wachstum stärker strukturieren. 2026 wird zeigen, unter welchen regulatorischen Bedingungen sich dieser Markt weiterentwickelt – und wie attraktiv er für Gründer und Investoren langfristig bleibt.
Regulierte Produkte online verkaufen: Was Gründer zu REACH, Produktsicherheit & Compliance wissen müssen
Wer einen eigenen Online-Shop aufbaut, denkt zuerst an Marketing, Shop-Design und Logistik. Spätestens beim Sortiment taucht jedoch eine Frage auf, die für viele Gründer entscheidend ist: Darf ich dieses Produkt überhaupt verkaufen – und unter welchen Voraussetzungen?
Gerade bei regulierten Produkten entscheidet rechtliche Sorgfalt nicht nur über Abmahnungen oder Rückrufe, sondern auch über das Vertrauen der Kunden. Dieser Leitfaden zeigt verständlich, worauf Gründer beim Online-Verkauf achten müssen – mit Fokus auf REACH, Produktsicherheit und praktische Compliance.
Was gilt überhaupt als „reguliertes Produkt“?
Regulierte Produkte sind Waren, die besonderen gesetzlichen Anforderungen unterliegen. Dazu zählen unter anderem:
- Kosmetische Produkte
- Chemische Gemische und Stoffe
- Lebensmittel und Nahrungsergänzungsmittel
- Medizinprodukte
- Produkte mit Hautkontakt oder bestimmungsgemäßem Körperkontakt
Typisch für diese Produktgruppen ist:
Nicht allein das Produkt an sich ist relevant – sondern auch Inhaltsstoffe, Kennzeichnung, Nachweise und Dokumentation.
REACH – was Gründer wirklich wissen müssen
REACH ist die zentrale EU-Chemikalienverordnung. Sie betrifft nicht nur klassische Chemikalien, sondern auch viele Alltagsprodukte, wenn darin Stoffe enthalten sind.
Für Gründer im E-Commerce bedeutet das:
- Produkte dürfen keine verbotenen Stoffe enthalten
- Grenzwerte für besonders besorgniserregende Stoffe (SVHC) müssen eingehalten werden
- Lieferanten müssen entsprechende Informationen bereitstellen
Wichtig:
Auch Händler tragen Verantwortung – nicht nur Hersteller. Wer Produkte in der EU in Verkehr bringt, muss im Zweifel nachweisen können, dass die gesetzlichen Anforderungen eingehalten werden.
Ein häufiger Fehler von Gründern ist es, sich ausschließlich auf Aussagen des Lieferanten zu verlassen, ohne entsprechende Dokumente anzufordern.
Produktsicherheit ist kein Formalthema
Neben REACH gilt in Deutschland und der EU vor allem das Produktsicherheitsrecht. Grundprinzip:
Ein Produkt darf keine Gefahr für Verbraucher darstellen, wenn es bestimmungsgemäß verwendet wird.
Dazu gehören unter anderem:
- sichere Materialien
- klare Gebrauchshinweise
- Warnhinweise, wenn Risiken nicht ausgeschlossen werden können
- nachvollziehbare Produktinformationen
Für den Onlinehandel bedeutet das zusätzlich:
Alle relevanten Informationen müssen auch im Shop korrekt dargestellt werden – nicht nur auf der Verpackung.
Kennzeichnung und Dokumentation: oft unterschätzt
Viele Gründer unterschätzen den Aufwand rund um Kennzeichnung und Dokumentation. Dazu zählen zum Beispiel:
- vollständige Hersteller- oder Inverkehrbringerangaben
- Chargenkennzeichnung (je nach Produktgruppe)
- Inhaltsstofflisten
- Sicherheitsdatenblätter, sofern relevant
- interne Ablage aller Nachweise
Gerade bei späteren Prüfungen durch Behörden oder Marktplätze ist eine saubere Dokumentation entscheidend.
Praxisbeispiel: Tattoo-Farben als regulierte Nischenkategorie
Ein besonders anschauliches Beispiel für regulierte Produkte im Onlinehandel sind Tattoo-Farben.
Hier greifen gleich mehrere Regelwerke:
- REACH-Verordnung
- zusätzliche nationale Vorgaben
- verschärfte Grenzwerte für Pigmente und Inhaltsstoffe
Für Händler und Gründer bedeutet das:
- nur konforme Produkte dürfen angeboten werden
- Konformitätsnachweise müssen vorliegen
- Kunden erwarten zunehmend transparente Informationen zur Sicherheit
Ein guter Überblick über eine solche regulierte Produktkategorie findet sich zum Beispiel hier: https://www.murostar.com/Tattoo-Farben
Gerade für Gründer ist diese Branche interessant, weil sie zeigt, wie sich ein klar regulierter Markt dennoch erfolgreich und nachhaltig bedienen lässt – sofern die rechtlichen Anforderungen von Beginn an eingeplant werden.
Compliance als Wettbewerbsvorteil nutzen
Viele Start-ups sehen Regulierung zunächst als Hürde. In der Praxis kann Compliance jedoch ein klarer Wettbewerbsvorteil sein.
Denn Kunden achten immer stärker auf:
- Sicherheit
- Transparenz
- nachvollziehbare Produktinformationen
- verantwortungsvollen Umgang mit Materialien
Wer diese Aspekte aktiv kommuniziert – etwa durch klare Produktbeschreibungen, Zertifikate oder erklärende Inhalte – positioniert sich als seriöser Anbieter.
Gerade in sensiblen Produktbereichen (Hautkontakt, Körperanwendung, Gesundheit) ist Vertrauen häufig kaufentscheidend.
Typische Fehler von Gründern – und wie man sie vermeidet
Aus der Praxis lassen sich immer wieder dieselben Fehler beobachten:
1. Unvollständige Lieferantendokumente
Viele Gründer lassen sich keine vollständigen Konformitätsnachweise aushändigen.
2. Falsche Annahme: „Mein Großhändler haftet schon“
Auch Händler können als Inverkehrbringer gelten – insbesondere bei Importen aus Nicht-EU-Ländern.
3. Fehlende Produktinformationen im Shop
Gesetzlich geforderte Angaben fehlen häufig in den Produktbeschreibungen.
4. Keine klare interne Zuständigkeit
Niemand im Unternehmen fühlt sich für regulatorische Themen verantwortlich.
Abhilfe schafft meist ein einfacher, aber konsequenter Prozess:
- feste Checkliste je Produktgruppe
- zentrale Ablage aller Dokumente
- klare Zuständigkeit im Team
Import aus Drittstaaten: besonders kritisch
Wer Ware aus Nicht-EU-Ländern importiert, trägt ein deutlich höheres Risiko. In diesem Fall wird der Händler in vielen Fällen rechtlich zum Inverkehrbringer.
Das bedeutet konkret:
- volle Verantwortung für Konformität
- eigene Prüfpflichten
- ggf. eigene Registrierungspflichten
Gerade Gründer sollten hier sehr vorsichtig kalkulieren und frühzeitig fachlichen Rat einholen.
Wann lohnt sich externe Unterstützung?
Spätestens wenn mehrere regulierte Produktgruppen im Sortiment sind, ist es sinnvoll, externe Fachstellen einzubinden – etwa:
- spezialisierte Rechtsanwälte
- Compliance-Berater
- Prüfinstitute
Das verursacht Kosten, verhindert aber oft deutlich höhere Folgekosten durch Rückrufe, Marktplatzsperren oder Abmahnungen.
Fazit: Rechtssicher starten – und Vertrauen systematisch aufbauen
Regulierte Produkte online zu verkaufen ist für Gründer gut machbar – erfordert jedoch Struktur, Planung und Verantwortungsbewusstsein.
Wer sich frühzeitig mit folgenden Punkten beschäftigt,
- REACH-Anforderungen
- Produktsicherheitsrecht
- Kennzeichnungspflichten
- saubere Lieferantendokumentation
legt nicht nur den Grundstein für rechtssicheren Handel, sondern auch für langfristiges Kundenvertrauen.
Gerade in spezialisierten Nischen zeigt sich: Compliance ist kein Bremsklotz – sondern ein echtes Qualitätsmerkmal im modernen E-Commerce.
Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht
Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.
Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.
Warum sich Support-ROI 2026 schwerer belegen lässt
Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.
In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.
Das führt dazu, dass Führungsteams häufig Folgendes beobachten:
- steigende Automatisierungsquoten bei stagnierenden Einsparungen,
- verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
- starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.
Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.
Wo sich Customer-Support-ROI tatsächlich zeigt
Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:
- weniger Rückerstattungen,
- geringere Eskalationen,
- einen Rückgang öffentlicher Beschwerden,
- sinkendes Abwanderungsrisiko.
- höheres Vertrauen an entscheidenden Punkten der Customer Journey
Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.
In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:
- Rückerstattungsquote von 40 % auf 4 % gesenkt.
- CSAT-Anstieg von 50 auf 95.
- NPS-Steigerung von 32 auf 80.
- Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
- Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.
Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.
Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.
So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.
Wie hybrider Support die Wirtschaftlichkeit verändert
Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.
Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:
- lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
- liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
- führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.
In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.
Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.
Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.
Warum hybrider ROI klassische Messlogik sprengt
In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.
Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.
Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.
Was Führungskräfte tatsächlich messen sollten
2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:
- Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
- Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
- Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).
Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.
Wie sich Support-Budgets rechnen
Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?
Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:
- Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
- Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
- Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.
In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.
Fazit
2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.
Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.
Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.
Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.
