Aktuelle Events
Step-by-Step zum eigenen Podcast
Von der Planung bis zum Publishing deines Unternehmens-Podcasts: Wir zeigen die wichtigsten Erfolgsfaktoren und größten Fallstricke.
Podcasts haben sich in den letzten Jahren zu einem wichtigen Kommunikationsmedium entwickelt und gewinnen auch als Marketinginstrument im Unternehmenskontext immer mehr an Bedeutung. Sie bieten die Möglichkeit, Wissen und Expertise zu teilen, die Markenbekanntheit zu steigern und nicht zuletzt auch eine tiefere Verbindung zur Zielgruppe sowie zu potenziellen Mitarbeitenden aufzubauen.
Anders als viele Unternehmen glauben, eignen sie sich gerade nicht nur für Endkund*innenthemen, sondern sind gerade auch im B2B-Umfeld und in Branchen mit komplexen, nicht so leicht zu erklärenden Produkten und Dienstleistungen ein gutes Mittel der Kund*innenkommunikation. Nicht zuletzt eröffnet ein Unternehmens-Podcast (im Folgenden kurz Podcast) auch Potenzial beim Employer Branding und kann dazu beitragen, dem Fachkräftemangel entgegenzuwirken.
Doch was genau muss vor dem Start der Produktion eines Podcasts bedacht werden? Wie startet man ein solches Format? Und noch viel wichtiger: Wie hält man die Produktion langfristig durch und sorgt mit einer stringenten Vermarktung für organisches Wachstum bei den Hörer*innenzahlen?
Dieser Beitrag gibt einen umfassenden Überblick über die Schritte von der Planung bis zum Publishing und erläutert die Erfolgsfaktoren und Fallstricke.
Konzept und Zielsetzung: Passende Zielgruppenansprache ist entscheidend
Der erste Schritt bei der Erstellung eines Podcasts ist die Konzeptentwicklung und Zielsetzung. Unternehmen müssen in Kooperation mit Marketingleitung und Geschäftsführung festlegen, was sie damit konkret erreichen möchten – sei es die Stärkung der Markenbekanntheit, die Generierung von Leads oder Kund*innenbindung. Und sie sollten, am besten mithilfe entsprechender Personas, definieren, für wen sie das passende Format entwickeln. Eine präzise Zielgruppenanalyse ist hierfür ebenso unerlässlich wie das Verständnis dafür, dass Themen unterschiedlich in Formatwahl, Länge, Tonalität und Zielgruppenansprache angegangen werden können.
Bei der Formatwahl kann eine Mischung aus beispielsweise Interview, Solofolgen und Paneldiskussionen gewählt werden; wichtig ist die jeweils passende Herangehensweise an ein Thema, die das Unternehmen und seine Produkte vorteilhaft und kompetent erscheinen lässt. Nicht zuletzt ist ein einprägsamer und beschreibender Name für den Podcast wichtig, der Einzigartigkeit und Relevanz transportiert und die Marke optimal repräsentiert. Dieser sollte im besten Fall SEO-seitig gut zu bespielen sein.
Gründliche Planung und Vorbereitung sind entscheidend für den Erfolg eines Podcasts, ein Kick-off-Workshop und regelmäßige Themen-Meetings sind hierfür unerlässlich.
Der oder die Verantwortliche sollte eine Aufgabenteilung anstreben, die im Vorfeld Daten für Gästeansprache, Aufnahme, Postproduktion und Marketing sowie Publikation vorsieht – und mit Blick auf Urlaube und andere Abwesenheiten sollte für jedes Gewerk auch ein(e) Vertreter*in benannt sein, der oder die mit den grundlegenden Workflows vertraut ist.
Zunächst sollte eine Themenplanung vorgenommen werden, die mindestens die ersten sechs Monate umfasst, die dann jeweils für drei weitere Monate im Voraus plant und agil angepasst werden kann. Sinnvoll ist es dabei, Unternehmensereignisse wie anstehende Messen und Konferenzen sowie Produktlaunches und Saisonalitäten zu berücksichtigen. Für den Erfolg entscheidend ist aber auch, den Podcast nicht als Zweitverwertung oder Recyclingplattform zu verstehen, sondern „unique“ und exklusive Inhalte primär dafür zu produzieren. Bewährt hat sich in vielen Unternehmen auch die Herangehensweise, ein Thema erst inhaltlich zu entwickeln und in einem zweiten Schritt zu entscheiden, ob es Podcast-tauglich aufbereitet werden kann.
Für jede Podcast-Folge sollte eine klare Struktur und ein zumindest grober Ablauf festgelegt werden, um Konsistenz zu gewährleisten. In diesem Zusammenhang wird sich übrigens schnell herausstellen, ob die angedachte Frequenz sinnvoll und machbar oder zu ambitioniert ist. Klug ist es, mehrere Episoden im Voraus aufzunehmen, um eine kontinuierliche Veröffentlichung sicherzustellen und auf möglichst verlässliche Veröffentlichungstermine (etwa jeden ersten Freitag im Monat) zu setzen. Ein verbindlicher Veröffentlichungsplan ist wichtig, um regelmäßig neuen Content zu liefern – und weil die Hörer*innen im besten Fall schon auf die neue Folge warten.
Produktion und Technik: Einfache Handhabung und gute Qualität überzeugen
Eine hochwertige Ausrüstung, also gute Mikrofone und Kopfhörer, sowie eine geeignete Aufnahmesoftware und gegebenenfalls ein Mehrspurrecorder sind essenziell für eine hohe Audioqualität. Und die ist vor allem deswegen entscheidend, weil Podcasts meist nah am Ohr gehört werden. Professionelles Equipment ist gar nicht so teuer und komplex in der Handhabung. Bei der Auswahl bieten sich große Musikhändler*innen an, die meist über das nötige Know-how und die Beratungskompetenz rund um Aufnahmetechnik verfügen.
Als Software eignet sich unter anderem das seit Jahren bewährte Freeware-Tool Audacity (für Windows) oder die bei Apple kostenfrei erhältliche Garage Band (für Mac). Diese Tools sind intuitiv in der Handhabung und gerade für den Anfang gut geeignet, weil sie alle fürs Podcasting relevanten Features besitzen. Aufwendigere und teure Schnittprogramme wie Adobe Audition und Reaper sind im Hinblick auf den Funktionsumfang und die Filter einen Blick wert; die Programme Ultraschall und Hindenburg Pro sind speziell auf die Bedürfnisse von Pocaster*innen zugeschnitten.
Wer Remote aufzeichnet, also die Gesprächspartner*innen an unterschiedlichen Orten sitzen hat, sollte im Hinblick auf die Tonqualität nicht auf eine Konferenzsoftware wie Zoom oder Teams setzen – auch weil dann lediglich eine Spur produziert wird, was die Postproduktion erschwert. Dienste wie Zencastr, Riverside.fm, Waveroom oder Studio-Link zeichnen hingegen lokal einzelne Spuren auf und führen diese erst im Nachgang in einer Cloud zusammen. Das erleichtert einerseits die Angleichung der Lautstärke zwischen den einzelnen Sprecher*innen und hilft andererseits bei der Qualitätsoptimierung in der Postproduktion.
Doch Professionalität ist nicht nur bei der Tonqualität, sondern auch bei den Sprecher*innen wichtig. Auch wenn man als Host für einen Podcast keine Sprecher*innenausbildung benötigt und (leichte) Dialektfärbung oder Akzent überhaupt nicht schadet, sollten Moderator*innen und Sprecher*innen auf Atemtechnik, Tempo (nicht zu schnell und nicht ablesen) sowie Aussprache und Satzmelodie achten. Sprechen im aufrechten Stehen schafft mehr stimmliches Volumen und wirkt selbst beim Hören souveräner.
Die Aufnahmeumgebung sollte ruhig und frei von Hintergrundgeräuschen sein, also möglichst wenig ablenkende Rauminformationen haben. Hier sollte auf unauffällige Raumakustik geachtet werden, die sich mithilfe von Akustikabsorbern und Noppenschaumstoffelementen optimieren lässt. Die Produktion eines Podcasts sollte im besten Fall „live on tape“ durchgeführt werden, sodass im Nachgang möglichst wenig geschnitten werden muss und die Dialoge dennoch lebendig wirken. Vorab durchgeführte Tests helfen, die optimale Audioqualität sicherzustellen. In der Bearbeitung sollten Füllwörter und Pausen herausgeschnitten sowie gegebenenfalls Musik und Jingles hinzugefügt werden. Ein einheitliches In- und Outro, das die Marke widerspiegelt, begrüßt und verabschiedet die Zuhörer*innen und sorgt für einen professionellen Rahmen für jede Episode.
Branding und Marketing: Konsistentes Konzept mit Wiedererkennungswert
Ein konsistentes audio-visuelles Konzept ist wichtig für den Wiedererkennungswert des Podcasts. Logos und Designelemente sollten ebenso wie Jingles und Musikelemente auf allen Plattformen einheitlich verwendet werden. Dabei macht es im Hinblick auf Kosten und im Interesse der Professionalität oftmals Sinn, solche dedizierten Teilgewerke an einen professionellen Dienstleister auszulagern, der solche SounddesignElemente regelmäßig erstellt und ein gutes Ergebnis in einem Bruchteil der Zeit hinbekommen wird.
Eine durchdachte Marketingstrategie hilft dabei, den Podcast bekannt zu machen und eine Audience aufzubauen. Für das Marketing eignen sich die bestehenden Social-Media-Präsenzen und Newsletter, aber natürlich auch die Unternehmenswebsite und andere Kanäle. Partnerschaften oder Sponsoring können die Reichweite des Podcasts ebenso erhöhen wie gut vernetzte Mitarbeitende des Unternehmens, die zu Markenbotschafter*innen via LinkedIn und Co. werden. Unternehmen sollten zudem prüfen, ob Kooperationen sinnvoll sind und wie sie am besten umgesetzt werden können.
Distribution und Monitoring: Auf die Community kommt es an
Ein Podcast wird entweder auf jeder Distributionsplattform einzeln hochgeladen oder mithilfe einer Podcast-Hosting-Plattform wie Podigee, Podbean, Letscast.fm oder Spotify for Podcasters bereitgestellt. In diesem Fall fungiert die Hosting-Plattform als Basis und die Podcast-Episoden werden über einen RSS-Feed verteilt, der auf verschiedenen Plattformen wie Spotify oder Apple Podcasts mit einer Feed-Adresse registriert wird.
Unternehmen sollten auf die dort mögliche Community-Pflege achten, also entsprechendes Feedback der Hörer*innen berücksichtigen. Denn Zuhörer*innenfeedback ist wertvoll. Unternehmen sollten aktiv um Rückmeldungen bitten und basierend auf diesem Feedback Anpassungen vornehmen. Analyse-Tools der Podcast-Plattformen helfen, Zuhörer*innenzahlen, Downloads und Engagement zu messen. Links sollten mit Link-Shortening-Anbieter*innen verkürzt und mit UTM-Parametern versehen werden, um den Erfolg besser messen zu können.
Basierend auf den gesammelten Daten und dem Feedback sollten Inhalte, Strategie und Veröffentlichungsplan kontinuierlich angepasst werden, um den Erfolg des Podcasts langfristig zu sichern. Auch wenn Podcasts vor allem von Stammhörer*innen gehört werden, kann die Optimierung der Beschreibungen mit relevanten Keywords die Auffindbarkeit verbessern. Auch die Nutzung von Hashtags kann dabei helfen, eine größere Zielgruppe zu erreichen.
Dennoch sind bei einem Podcast die Hörer*innenzahlen nicht ansatzweise mit denen eines populären Comedy-Formats oder „Laber-Podcasts“ vergleichbar – und die Zahlen im deutschsprachigen Raum aufgrund der Sprachbegrenzung auch nicht mit denen anderer Länder. Achte also darauf, dass du nicht Äpfel mit Birnen vergleichst. Umgekehrt heißt das aber, dass man durchaus auf Best Practice Cases aus vergleichbaren Branchen- und Markenumfeldern schauen kann, um sich beim Handwerkszeug einiges abzuschauen – etwa im Hinblick auf Kooperationen oder Brand Influencer*innen. Im Rahmen des Monitorings zeigt sich auch, welche aktuellen saisonalen Inhalte und Branchenthemen gut funktionieren.
Das Potenzial des Unternehmens-Podcasts nutzen und ausbauen
Podcasts bieten Unternehmen eine wertvolle Möglichkeit, ihre Marke nachhaltig mit Content zu stärken, Wissen zu teilen und eine tiefere Verbindung zur Zielgruppe aufzubauen. Mit einer sorgfältigen Planung, qualitativ hochwertiger Produktion und gezieltem Marketing kann ein Podcast zu einem erfolgreichen Kommunikationsinstrument werden. Doch all das erfordert gerade angesichts der wachsenden Konkurrenz einen langen Atem. Durch kontinuierliches Monitoring und Optimierung lässt sich der Erfolg langfristig sichern und ausbauen, wobei ein(e) externe(r) Berater*in wertvolle Insights bringen kann. Ein gut gemachter Podcast ist somit nicht nur ein Trend, sondern ein nachhaltiges Werkzeug in der modernen Unternehmenskommunikation.
Der Autor Eric Hinzpeter ist Content-Marketing-Experte bei Smarketer. Das Unternehmen ist im Bereich Performance Marketing in der DACH-Region tätig und unterstützt Unternehmen bei der Entwicklung professioneller Strategien für Google Ads und Microsoft Advertising Services.
Diese Artikel könnten Sie auch interessieren:
Fördermittel: Worauf Gründer*innen von Beginn an achten sollten
Wichtige Dos and Don’ts bei der Fördermittelbeantragung.
Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.
In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.
Die Weichenstellung: Förderung ist eine Managemententscheidung
Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:
1) Aufbauphase: Fokus schaffen (unter anderem exist)
In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.
2) Projektphase: Planbar entwickeln (etwa ZIM)
Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.
3) Förderung in jeder Phase (Forschungszulage)
Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.
Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.
Fazit
Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.
Die Autorinnen
Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.
Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
Kultur entsteht nicht später – sie entsteht jetzt
Serie: Führen im Start-up, Teil 3: Warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren.
Montagmorgen, 7.42 Uhr: Das Team steht im offenen Büro. Der Release ist instabil, der Kunde ungeduldig. Der Gründer übernimmt das Gespräch. Die Stimme wird lauter. Der Ton schärfer. Niemand widerspricht.
Am Nachmittag ist wieder Ruhe. Abends posten alle auf LinkedIn über Teamspirit.
So entstehen Kulturen. Nicht im Offsite, nicht im Werte-Workshop, sondern in genau solchen Momenten.
Der größte Irrtum junger Unternehmen
„Um Kultur kümmern wir uns später. Jetzt geht es um Wachstum.“ Dieser Satz fällt häufig. Er klingt pragmatisch. Fast erwachsen. Tatsächlich ist er riskant.
Organisationsforschung beschreibt seit Jahrzehnten, dass sich Normen früh bilden – und erstaunlich schnell verfestigen. Besonders in Stresssituationen. Nicht in stabilen Phasen.
Unter Druck wird nicht nur gearbeitet. Unter Druck wird programmiert.
Stress schreibt Verhalten in die DANN
In der Frühphase herrscht fast permanent Unsicherheit: Finanzierung offen, Produkt iterativ, Rollen unscharf. Genau in diesem Umfeld bilden sich implizite Regeln.
- Wer darf widersprechen?
- Wie wird mit Fehlern umgegangen?
- Wer bekommt Anerkennung – und wofür?
- Wie werden Konflikte gelöst?
Diese Regeln werden selten formuliert. Sie werden beobachtet.
Wenn ein(e) Gründer*in Kritik als Bremse interpretiert, lernt das Team: Widerspruch ist riskant. Wenn Wochenendarbeit als Loyalitätsbeweis gilt, wird Dauerverfügbarkeit zur Norm. Wenn Entscheidungen spontan und intransparent fallen, entsteht operative Unklarheit.
Später spricht man von gewachsener Kultur. Tatsächlich handelt es sich um kumulierte Reaktionen auf frühen Druck.
Warum Geschwindigkeit Differenzierung verdrängt
Start-ups priorisieren Tempo. Verständlich. Märkte warten nicht. Investor*innen auch nicht.
Doch Geschwindigkeit hat Nebenwirkungen. Reflexion rutscht nach hinten. Entscheidungswege bleiben implizit. Rollen werden funktional verteilt, aber nicht sauber geklärt.
Untersuchungen zu Gründungsverläufen zeigen immer wieder ein ähnliches Muster: Unternehmen wachsen schneller als ihre Führungsstrukturen. Entscheidungen bleiben informell an die Gründungsperson gebunden, während Team und Komplexität zunehmen.
Was in der Frühphase Effizienz bedeutet, wird mit zunehmender Größe zur strukturellen Schwäche. Solange das Unternehmen klein ist, funktioniert das. Mit Wachstum wird es fragil.
Die Romantisierung der Anfangszeit
Die Start-up-Erzählung liebt Improvisation. Pizza im Büro. 18-Stunden-Tage. „Wir gegen den Rest der Welt.“ Doch genau in dieser Phase werden kulturelle Maßstäbe gesetzt.
- Was heute als Flexibilität gefeiert wird, kann morgen Willkür bedeuten.
- Was heute als Nähe empfunden wird, kann morgen Intransparenz heißen.
- Was heute als Loyalität gilt, wird morgen als Abhängigkeit erlebt.
Kultur ist kein Stimmungsbild. Sie ist ein System aus Erwartungen.
Warum spätere Kulturprogramme oft Symptome behandeln
Wenn ein Start-up wächst und Fluktuation steigt, Konflikte eskalieren oder Führung inkonsistent wirkt, beginnt häufig die Kulturarbeit. Leitbilder werden formuliert, Werte definiert, Workshops organisiert.
Doch Kultur entsteht nicht durch Deklaration. Sie entsteht durch Wiederholung, durch „ins Leben bringen“. Mitarbeitende orientieren sich nicht an Postern. Sie orientieren sich an erlebter Macht.
Wenn frühe Verhaltensmuster nie hinterfragt wurden, sind sie längst internalisiert. Ein späteres Werte-Set ersetzt keine gelebten Normen.
Der wirtschaftliche Preis
Kulturelle Dysfunktion ist kein weiches Thema.
- Sie beeinflusst Entscheidungsgeschwindigkeit.
- Sie erhöht Konfliktkosten.
- Sie wirkt auf Mitarbeiter*innenbindung.
- Sie prägt Innovationsfähigkeit.
- Sie beeinflusst Reputation am Arbeitsmarkt.
Interne Analysen vieler Investor*innen zeigen: Nicht Marktversagen ist die häufigste Ursache für Start-up-Scheitern, sondern Team- und Führungsprobleme. Und diese entstehen selten im zehnten Jahr. Sie entstehen im ersten.
Ein unbequemer Schluss
Kultur entsteht nicht dann, wenn sie auf der Agenda steht. Sie entsteht dann, wenn niemand hinsieht. Tag für Tag. Die entscheidende Frage lautet daher nicht: Welche Werte wollen wir später haben? Sondern: Was lehren wir unser System gerade – durch unser Verhalten unter Druck?
Denn jedes Start-up hat Kultur. Die einzige Frage ist, ob sie bewusst gestaltet oder sich unbewusst einschleicht.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will
Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.
Vom Forschungsprojekt zum DeepTech-Unternehmen
Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).
Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.
Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine
FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.
Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.
Die Produktion als eigentlicher Hebel
Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.
Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.
Die Realität der Skalierung: Verträge statt Prototypen
Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.
Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.
Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.
Qualifizierte Migration darf kein Irrgarten sein
Um die Migration qualifizierter Fachkräfte aus dem Ausland zu erleichtern, haben Studierende der Universität zu Köln im Jahr 2024 VisaFlow ins Leben gerufen. Heute präsentiert sich die App als ultimativer Leitfaden, der dabei hilft, sich im deutschen Einwanderungsprozess zurechtzufinden. CEO Georg Nauheimer erzählt, was es damit auf sich hat und warum das exist-Programm vom Bundesministerium für Wirtschaft und Energie (BMWE) dabei eine doppelt wichtige Rolle spielt.
Was hat Sie und Ihre Mitgründer*innen motiviert, VisaFlow zu starten?
Im Studium erlebten wir – insbesondere am Beispiel unseres Teammitglieds Cheyenne aus den USA – die Herausforderungen, die sich bei der Einwanderung nach Deutschland ergeben. Die Prozesse zur Erteilung eines Visums oder einer Aufenthaltserlaubnis sind bisher überaus komplex und belastend; für Talente, Hochschulen und Unternehmen. Dabei steht fest, dass allein aufgrund der hiesigen demografischen Entwicklung qualifizierte Migration unverzichtbar ist für den Wirtschaftsstandort Deutschland. Unsere Vision ist deshalb die einer Welt, in der die internationale Mobilität geeigneter Fachkräfte nicht durch intransparente und ineffiziente Visumsprozesse eingeschränkt wird.
Was ist bisher die größte Hürde?
Ob als Student, Fachkraft oder mit einer Unternehmensidee: Wer aus dem nicht-europäischen Ausland den Schritt nach Deutschland wagt, sieht sich häufig einem schwer durchschaubaren bürokratischen Prozess gegenüber. Unklare Anforderungen, widersprüchliche Informationen, schwer verständliche Formulare in Amtsdeutsch und lange Wartezeiten machen das Einwanderungsverfahren zu einem regelrechten Irrgarten. Es bleibt immer die Unsicherheit, dass selbst ein kleiner formaler Fehler zu enormen Verzögerungen führen kann. Und bei der Verlängerung von Visa und Aufenthaltstiteln geht alles von vorne los. Genau hier setzt VisaFlow an: Unser Ziel ist es, diese Komplexität zu reduzieren, Transparenz zu schaffen und die Reibung im System für alle Beteiligten nachhaltig zu minimieren.
Inwiefern kann eine App dabei helfen?
Wir haben ein benutzerfreundliches Programm entwickelt, das den gesamten Prozess der Identifizierung, Ausfüllung und Einreichung erforderlicher Unterlagen optimiert. VisaFlow führt Nutzerinnen und Nutzer wie ein persönlicher Guide durch den in verständliche Schritte zerlegten Prozess – von der ersten Frage „Welches Visum brauche ich eigentlich?“ bis zur vollständigen, korrekt eingereichten Bewerbung. Kein Rätselraten mehr, keine unnötigen Umwege. Statt nüchterner Behördenlogik rückt die App die Perspektive der Menschen in den Mittelpunkt. Sie strukturiert Anforderungen, erinnert an Fristen, erklärt Dokumente in einfacher Sprache und sorgt dafür, dass nichts vergessen wird. Alles folgt einem klaren Flow – genau daher der Name.
Welche Rolle spielt exist – from science to business in diesem Kontext?
Exist ist für uns gleich doppelt wichtig! Zunächst als Förderpartner. Als wir 2024 an der Universität zu Köln mit VisaFlow gestartet sind, war schon der Bewerbungsprozess um das exist Gründungsstipendium ein wertvolles Training, die Zusage dann ein entscheidender Meilenstein. Von zentraler Bedeutung war natürlich die finanzielle Absicherung in der frühen Phase. Insgesamt verschaffte uns das Programm den zeitlichen Freiraum, den klaren Fokus und die notwendige Rückendeckung, um unsere Idee konsequent weiterzuentwickeln und zur Marktreife zu führen. Bis heute profitieren wir außerdem von der starken Signalwirkung, die exist als Qualitätssiegel gegenüber potenziellen Kunden, Partnern und Investoren entfaltet. Auch die Netzwerkkontakte sowie die fachliche Begleitung während des Förderzeitraums haben maßgeblich zu unserem Fortschritt beigetragen. Unser Fazit: Für Gründungsteams aus dem wissensbasierten Ökosystem ist exist nicht nur die bewährte erste Anlaufstelle, sondern die zentrale Förderung, die unbedingt genutzt werden sollte.
Um das Tempo von Gründungen aus der Wissenschaft zu beschleunigen, hat das BMWE den Antragsprozess des exist-Programms vereinfacht. Welche Erfahrungen haben Sie diesbezüglich gemacht?
Vor allem die digitale Antragstellung ist ein großer Fortschritt. Bei uns lief bereits fast alles digital, inklusive Unterschriften und Kommunikation. Eine Erleichterung ist auch der reduzierte Umfang der Antragsunterlagen, insbesondere das kürzere Ideenpapier, das dazu zwingt, wirklich auf den Punkt zu kommen. Die Sachmittelpauschalen haben wir noch nicht genutzt, wir sehen diese allerdings auch als weiteren Schritt der Entbürokratisierung im exist-Programm. Positiv hervorzuheben sind außerdem die überarbeiteten Webseiten, die von Anfang an für Klarheit sorgen. Insgesamt kommt hier also genau das Rezept zum Einsatz, das wir uns auch in unserem Thema wünschen: Digitale Abläufe, mehr Transparenz und weniger Aufwand für alle im System!
Sie sagten, das exist-Programm sei für VisaFlow gleich doppelt wichtig. Was meinen Sie damit?
Tatsächlich verbindet uns auch unsere Mission: Mit der Einrichtung des Global Certification and Consulting Centre (GCCC) durch das BMWE im Jahr 2024 als Teil des exist-Programms haben sich inhaltliche Schnittstellen ergeben. Hintergrund ist die Reform des Aufenthaltsgesetzes, die Nicht-EU-Gründer und -Gründerinnen bei exist-Finanzierung den Zugang zu Visa und Aufenthaltstiteln ermöglicht. Dabei fungiert das GCCC als zentrale Schnittstelle zwischen Auslandsvertretungen, Behörden, Hochschulen und internationalen Gründungsteams. Auch prüft und zertifiziert es stipendienbasierte Gründungsprogramme. Daraus ergeben sich mehrere Ansatzpunkte für eine wertstiftende Zusammenarbeit zwischen dem GCCC und VisaFlow.
Wie könnte eine solche Zusammenarbeit aussehen?Um internationale Gründungen in Deutschland nachhaltig zu fördern, wäre die gezielte Bündelung der jeweiligen Kompetenzen denkbar. GCCC bringt spezialisiertes Fachwissen, ein belastbares Netzwerk sowie Sichtbarkeit im exist-Umfeld in den Prozess ein. VisaFlow steuert eine skalierbare Technologielösung und umfassendes Behördenwissen bei, wodurch sich die Qualität von Visums- und Aufenthaltstitelanträgen bereits im Vorfeld deutlich verbessern lässt. Darüber hinaus sind verschiedene gemeinsame Projekte möglich, etwa Trainingseinheiten zur Digitalisierung von Abläufen sowie zur praxisnahen Umsetzung neuer gesetzlicher Regelungen in den Behörden.
Geben Sie uns noch einen Überblick, wo VisaFlow aktuell steht.Sehr gern. Aktuell arbeiten wir bundesweit mit über 60 Hochschulen zusammen. Wir haben bereits mehr als 4.000 Fälle erfolgreich unterstützt, die Nachfrage ist weiter groß. Daneben treiben wir mit unserem Innovationspartner Rewe Group die Entwicklung einer Produktlinie für Unternehmen und deren Personalabteilungen voran. Für uns ist es zentral, Lösungen stets im Co-Development mit den Nutzerinnen und Nutzern zu entwickeln. In diesem speziellen Fall ist es unser Ziel, eine skalierbare End-to-End-Lösung zu entwickeln, die Unternehmen bei internationalen Einstellungen deutlich entlastet und Bewerberinnen und Bewerbern eine signifikant bessere Onboarding-Erfahrung ermöglicht. Der Plan ist, damit Mitte dieses Jahres an den Start zu gehen.
Herr Nauheimer, vielen Dank für das Gespräch!
Infokasten
Was ist exist?
Das exist-Programm des Bundesministeriums für Wirtschaft und Energie (BMWE) fördert wissensbasierte Gründungen aus Hochschulen und Forschungseinrichtungen. Es stärkt den Transfer von Forschung in marktfähige Produkte und Dienstleistungen und eröffnet Wissenschaftlerinnen und Wissenschaftlern eine klare Karriereoption im Unternehmertum.
Für gründungsinteressierte Studierende, Absolventinnen und Absolventen sowie Wissenschaftlerinnen und Wissenschaftler.
Entwicklungen und Aktivitäten zur Förderung und Unterstützung von Gründerinnen aus Hochschulen und Forschungseinrichtungen.
Für forschungsbasierte Gründungsvorhaben mit aufwendigen, risikoreichen Entwicklungsarbeiten.
Zehn Leuchttürme des deutschen Startup-Ökosystems zur Steigerung von Anzahl und Qualität wissensbasierter Ausgründungen.
Bewerbungen erfolgen über die Hochschule/Forschungseinrichtung an den Projektträger.
Weitere Informationen unter www.exist.de
Verantwortung ohne Geländer
Serie: Führen im Start-up, Teil 2: Warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind.
Ein Start-up steht vor einem Richtungswechsel. Das Produkt performt solide, aber nicht stark genug für die nächste Finanzierungsrunde. Der Lead-Investor empfiehlt einen klaren Pivot. Im Team gibt es Widerstand. Einige sehen das Risiko, andere fürchten den Stillstand. Es wird diskutiert. Analysen werden geteilt. Szenarien durchgerechnet. Und doch wissen alle: Am Ende wird eine Person entscheiden.
Genau hier zeigt sich die besondere Qualität von Führung im Start-up – und ihre besondere Belastung.
Einsamkeit ist keine Stimmung – sie ist Struktur
Von außen wirken junge Unternehmen kommunikativ dicht. Slack-Channels laufen permanent. Daily-Stand-ups strukturieren den Tag. Investor*innen, Mentor*innen und Berater*innen sind eingebunden. Und dennoch berichten viele Gründer*innen von einem Gefühl, das sie selbst überrascht: innerer Isolation.
Diese Einsamkeit ist selten sozial. Sie ist strukturell.
In der Frühphase ist Verantwortung extrem konzentriert. Anders als in gewachsenen Organisationen gibt es keine Gremien, die Entscheidungen kollektiv tragen. Keine etablierten Hierarchieebenen, die Verantwortung verteilen. Kein operatives Korrektiv, das Last abfedert.
Es gibt Austausch. Aber es gibt kein Geländer.
Wie Verantwortung Wahrnehmung verschiebt
Forschung zur Entscheidungspsychologie zeigt seit Jahren: Wer sich als allein verantwortlich erlebt, bewertet Risiken anders. Mit wachsender wahrgenommener Verantwortung verschieben sich Maßstäbe – oft unbemerkt.
Risiken werden entweder überhöht oder unterschätzt. Kontrolle nimmt zu. Widerspruch fühlt sich schneller bedrohlich an. Nicht aus Arroganz, sondern aus Schutz.
Der/die Gründer*in weiß: Wenn es schiefgeht, wird nicht das Team zitiert. Sondern er bzw. sie.
Das paradoxe Umfeld des Gründens
Start-ups sind laut, schnell, vernetzt. Und dennoch entsteht häufig ein innerer Rückzug.
Warum? Weil Gründer*innen früh lernen, Unsicherheit dosiert zu zeigen. Zu viel Zweifel kann das Team verunsichern. Zu viel Offenheit gegenüber Investor*innen kann als Führungsschwäche interpretiert werden. Zu viel Zögern wirkt im Markt riskant.
Also wird gefiltert. Man teilt Zahlen, aber nicht immer Ambivalenz. Man diskutiert Optionen, aber nicht immer Unsicherheit.
So entsteht Distanz. Nicht geplant. Aber wirksam.
Wenn fehlende Geländer zu Mustern werden
Ohne echtes Korrektiv entwickeln sich typische Dynamiken. Manche Gründer*innen erhöhen ihre operative Kontrolle. Sie involvieren sich in jede Entscheidung, sichern Details doppelt ab, korrigieren Prozesse selbst. Kurzfristig entsteht Stabilität. Langfristig Abhängigkeit.
Andere beschleunigen Entscheidungen, um Druck zu reduzieren. Schnelligkeit ersetzt Reflexion. Das wirkt entschlossen – kann strategisch jedoch inkonsistent werden.
Wieder andere ziehen sich emotional zurück, um handlungsfähig zu bleiben. Sie funktionieren. Aber sie teilen weniger.
All diese Reaktionen sind nachvollziehbar. Und sie verändern das System.
Widerspruch wird vorsichtiger. Kommunikation strategischer. Nähe funktionaler.
Warum Investor*innen kein Geländer sind
Investor*innen sind zentrale Partner*innen. Ihr Fokus liegt naturgemäß auf Wachstum, Skalierung und Rendite. Das ist kein Vorwurf, sondern ihr Mandat.
Ein Geländer im strukturellen Sinn erfüllt jedoch eine andere Funktion: Es sichert die Qualität von Führung – unabhängig von kurzfristiger Performance.
- Ein unabhängiger Beirat mit klarer Rolle.
- Ein Sparringspartner ohne operative Interessen.
- Ein(e) Co-Founder*in, der/die nicht nur loyal, sondern widerspruchsfähig ist.
Nicht zusätzliche Beratung, sondern echte Resonanz.
Der wirtschaftliche Preis von Isolation
Isolation wirkt nicht laut. Sie wirkt kumulativ. Fehleinschätzungen bleiben länger unentdeckt.
Konflikte werden später adressiert. Entscheidungsprozesse werden intransparenter. Vertrauen verschiebt sich.
Viele Gründungskonflikte und spätere Führungskrisen entstehen nicht aus mangelnder Kompetenz, sondern aus nicht geteiltem Druck.
Einsamkeit in der Führung ist kein persönliches Drama. Sie ist ein betriebswirtschaftlicher Risikofaktor.
Ein Perspektivwechsel
Autonomie ist eine Stärke von Gründer*innen. Sie ermöglicht Geschwindigkeit, Mut und Innovation. Doch Autonomie ohne Korrektiv wird zur Belastung.
Die entscheidende Frage lautet nicht, wie viel Verantwortung ein(e) Gründer*in tragen kann, sondern wie bewusst er/sie sie reflektiert.
Wer dauerhaft ohne Geländer führt, trifft Entscheidungen irgendwann nicht mehr strategisch, sondern aus innerem Überlebensmodus. Und das ist selten eine tragfähige Grundlage für nachhaltiges Wachstum.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
Gründer*in der Woche: syntik – High-Tech im Herzen der Industrie
Wie Mert Erdoğan mit syntik den Mittelstand fit für die Zukunft machen will, indem er Unternehmen ganzheitlich von der KI-Strategie über das Mitarbeitendentraining bis hin zur technischen Umsetzung individueller Softwarelösungen begleitet.
Vom sicheren Management-Sessel in das Wagnis der Selbständigkeit – diesen Weg wählen viele, doch nur wenige tun es mit einem so klaren Fokus auf die Old Economy. Mert Erdoğan, selbst Alumni der Universität Siegen, sah jahrelang eine wachsende Kluft: Auf der einen Seite die rasanten Fortschritte in der KI-Entwicklung, auf der anderen Seite ein deutscher Mittelstand, der oft noch mit Excel-Tabellen und Papierbergen kämpft.
„Ich habe in vielen Projekten gesehen, wie groß das Potenzial von KI ist. Vor allem in Bereichen, in denen heute noch unnötig viele repetitive Aufgaben manuell erledigt werden. Das Frustrierende war, dass diese Use Cases echten Mehrwert schaffen könnten, aber gerade im Mittelstand fehlt oft das Know-how, sie technisch und wirtschaftlich richtig einzuordnen. Genau da wollte ich ansetzen“, sagt Mert. Seine Antwort darauf ist syntik.
Der Dolmetscher zwischen zwei Welten
Das Problem vieler Traditionsunternehmen ist nicht der Unwille zur Innovation, sondern die Überforderung durch die Komplexität. Genau hier setzt das Geschäftsmodell von syntik an. Das 2025 im Siegerland gegründete Start-up versteht sich weniger als klassische IT-Beratung, sondern vielmehr als Übersetzer und Brückenbauer.
„Viele haben Angst vor großen KI-Investitionen ohne entsprechendem ROI und der Intransparenz dahinter. Wir übersetzen das Thema in verständliche, wirtschaftlich greifbare Schritte. Was muss individuell entwickelt werden, wie viel kostet dies, gibt es ggf. Fertige Lösungen. So machen wir aus Unsicherheit konkrete Handlungsmöglichkeiten“, so Mert.
Die Philosophie ist simpel: Technologie muss demokratisiert werden. Syntik holt die Unternehmen dort ab, wo sie stehen. Das Portfolio ruht dabei auf drei Säulen: Einer strategischen Beratung, die echte Anwendungsfälle jenseits von Spielereien identifiziert, einem umfangreichen Trainingsprogramm, das den Mitarbeitenden die Angst vor der "Black Box" KI nimmt, und schließlich der harten technischen Umsetzung individueller Softwarelösungen.
Alltagstauglichkeit statt KI-Schnickschnack
In einer Branche, die oft von Buzzwords und abstrakten Visionen dominiert wird, wirkt der Ansatz der Siegener erfrischend pragmatisch. Während etablierte IT-Riesen und schicke KI-Boutiquen aus den Metropolen sich oft auf DAX-Konzerne stürzen und entsprechende Preisschilder aufrufen, lässt syntik diese Nische bewusst links liegen.
Das Alleinstellungsmerkmal liegt in der kulturellen Passung. Die Macher hinter syntik treten nicht als abgehobene Tech-Evangelisten auf, sondern als Partner auf Augenhöhe. Sie sprechen die Sprache der Ingenieur*innen und Kaufleute im Mittelstand.
„Wir kommen nicht mit besonderen Folien, sondern mit echtem Verständnis für die Herausforderungen im Alltag. Ich kenne den Mittelstand, weil ich selbst aus dieser Welt komme. Mein Vater arbeitet sei über 20 Jahren bei den Deutschen Edelstahlwerke (DEW). Wir reden nicht über Visionen, wir reden über Lösungen, die heute schon etwas besser machen in den kaufmännischen Prozessen“, so Mert.
Dieser „Siegerländer Pragmatismus“ kommt an. Statt theoretischer Powerpoints liefert das Team Lösungen, die funktionieren – sei es die Automatisierung der Angebotserstellung oder die Optimierung der Materialdisposition. Es geht darum, KI vom abstrakten Gespenst zum nützlichen Werkzeug am Fließband oder im Büro zu machen.
„Unsere Kunden sagen oft ‚Das ist kein KI-Schnickschnack, das hilft uns wirklich im Alltag.‘ Und genau das ist unser Anspruch, Lösungen zu liefern, die sofort spürbar etwas verbessern und Kapazitäten für relevante Aufgaben frei werden“, so Mert.
Bootstrapping statt Venture Capital
Auch bei der Finanzierung bleibt Mert Erdoğan seiner Linie treu. Statt sich frühzeitig von Venture-Capital-Gebenden abhängig zu machen und Anteile gegen „schnelles Geld“ zu tauschen, wählte syntik den Weg des Bootstrappings. Das Unternehmen wächst organisch aus dem eigenen Cashflow.
Dieser Weg ist steiniger und erfordert mehr Geduld, signalisiert den Kund*innen aber auch Stabilität: Hier wird kein Geld verbrannt, um künstliche Wachstumsziele zu erreichen. Das Stammkapital der GmbH wurde klassisch eingebracht, das Risiko liegt beim Gründer.
„Wir wollen nur unseren Kunden verpflichtet sein, nicht irgendwelchen Wachstumsverpflichtungen von Investoren. Unabhängigkeit heißt für uns, dass wir selbst entscheiden, was sinnvoll ist. Und wir wachsen nur dort, wo es echten Mehrwert bringt. Wenn wir bestimmte KI-Produkte entsprechend etabliert haben und den Bedarf am stärksten an bestimmten Stellen sehen, können wir ggf. über Investoren sprechen“, betont der CEO.
Dieses Vorgehen schafft Vertrauen gerade beim Mittelstand, der oft skeptisch gegenüber fremdfinanzierten Start-up-Blasen ist.
Der Blick nach vorn: Fokus auf die Schwergewichte
Trotz der jungen Firmengeschichte – die Gründung erfolgte erst im Sommer 2025 – kann das Team bereits auf Referenzen aus über einem Dutzend Branchen verweisen. Im Gespräch mit dem Alumniverbund der Uni Siegen machte Erdoğan deutlich, wohin die Reise gehen soll: Der Fokus verschiebt sich zunehmend auf stark regulierte und dokumentationsintensive Sektoren wie Pharma, Chemie und Automotive.
Gerade in diesen Bereichen, wo Fehler teuer sind und Prozesse strikten Normen unterliegen, sieht der Gründer das größte Potenzial für KI-gestützte Effizienzsteigerung. Damit besetzt das Start-up seinen „Sweet Spot“ im Markt: Syntik agiert agiler und nahbarer als die nicht selten „trägen Tanker der Großberatungen“, ist aber gleichzeitig strategisch weitsichtiger als reine Software-Entwickler, die oft nur Code liefern, ohne die komplexen Prozesse des Mittelstands wirklich zu verstehen.
„Wir geben uns nicht mit Oberflächenlösungen zufrieden. Unser Ziel ist es, KI dort nutzbar zu machen, wo sie bisher scheitert. In kritischen Prozessen, unter realen Bedingungen mit echten Ergebnissen. Beim automatisierten Abgleich von Ausschreibungen, der strukturierten Verarbeitung technischer Anfragen, präzisen Forecasts in der Instandhaltung oder intelligenten Assistenzsystemen in Form von Chatbots für Normen und Richtlinien mit entsprechender Logik, Aktionen in Systemen und Mehrsprachigkeit“, so Mert.
Langfristig will das syntik den Schritt vom reinen Dienstleister zum Produktanbieter vollziehen. Geplant ist die Entwicklung standardisierter KI-Module, die sich wie Bausteine in verschiedene Unternehmenslandschaften integrieren lassen.
Mit syntik beweist Mert Erdoğan einmal mehr, dass Innovation nicht zwangsläufig aus den Metropolen kommen muss. Manchmal entsteht sie genau dort, wo sie am dringendsten gebraucht wird: Mitten im Maschinenraum der deutschen Wirtschaft.
Agentic AI als Erfolgsgrundlage für Start-ups
KI befeuert den aktuellen Gründungsboom, doch für eine erfolgreiche Skalierung braucht es mehr. Warum Agentic AI auf Basis einer soliden Datenarchitektur zum entscheidenden Erfolgsfaktor für Start-ups wird.
Das Jahr startete für Start-ups mit einer Rekordmeldung: In Deutschland wurden im vergangenen Jahr fast ein Drittel mehr Gründungen verzeichnet. In absoluten Zahlen wurden 2025 insgesamt 3.568 neue Firmen geschaffen – ein neuer Höchststand, wie der Start-up-Verband im Januar verkündete. Dies ist auch der künstlichen Intelligenz (KI) zu verdanken, wie sich beim genauen Hinschauen herausstellt. 853 dieser neuen Unternehmen kommen aus dem Bereich Software. Doch nicht nur sie verwenden KI; bei einer Umfrage gab ein Drittel aller Gründer und Gründerinnen an, dass sie mit KI arbeiten. Dementsprechend sehen die Sprecher des Verbands in der Technologie auch die treibende Kraft hinter dem Start-up-Rekord.
Wirft man einen Blick über den Tellerrand hinaus, so lässt sich feststellen, dass die Start-up-Szene in Europa insgesamt floriert. Der „State of European Tech 2025“-Report im Auftrag von Atomico und anderen schätzt, dass im letzten Jahr Investitionen in Höhe von 44 Milliarden US-Dollar (umgerechnet ca. 38 Mrd. EUR) in diesen Sektor geflossen sind. Geldgeber erwarten inzwischen, dass Start-ups mit KI und Deep Tech arbeiten, so der Report. Demnach flossen auch 36 Prozent der europäischen Start-up-Investitionen in genau diese beiden Felder.
Das Gründungsumfeld könnte also kaum besser sein. Doch ein Rekord an Start-ups und steigende Investitionssummen bedeuten nicht zwangsläufig auch eine einfache Skalierung der Geschäftsmodelle. Viele – zu viele – Start-ups scheitern nach erfolgreichen ersten Jahren an der Weiterentwicklung ihres Geschäfts. Neben einer Reihe üblicher Herausforderungen stehen vor allem Bürokratie, Fragen zur Datenhoheit und ein Betrieb über Landesgrenzen und Wirtschaftszonen hinweg im Vordergrund. Start-ups müssen nachweisen, dass ihre Nutzung von KI auf soliden, regulierten Datenfundamenten basiert und den Compliance-Vorgaben entspricht.
Hier kommt Agentic AI ins Spiel. Die Einbettung von KI-Agenten in den Kern der Betriebsabläufe ist die Antwort auf viele dieser Herausforderungen und wird für das Wachstum im Jahr 2026 von entscheidender Bedeutung sein.
Solide Datenbasis vor KI-Einsatz
Start-ups, die dies erreichen wollen, sollten sich darauf konzentrieren, ihre KI-Nutzung auf einer soliden Datenbasis aufzubauen, deren Fundament eine einheitliche Datenarchitektur ist. Sie tun sich deutlich leichter damit, die dafür nötigen Architekturentscheidungen zu treffen, als etablierte Unternehmen mit entsprechender Legacy-IT. Gründer und Gründerinnen sollten daher von Beginn an darüber nachdenken, wie sie eine starke Datenarchitektur aufsetzen, Silos abbauen und KI als Herzstück ihrer Prozesse einbetten.
Diese Grundlage hilft bei der Einführung von KI-Agenten, damit deren Output auch die Erwartungen erfüllt: Geschäftsprozesse effizienter zu strukturieren und zu optimieren sowie die Entscheidungsfindung zu beschleunigen. Start-ups, die dies umsetzen, werden sich gegen ihre Konkurrenten durchsetzen und letztlich erfolgreich sein.
KI-Agenten als Innovationsbeschleuniger
Indem Start-ups KI-Agenten von Beginn an in den Kern ihrer Geschäftsabläufe integrieren, skalieren sie schneller als mit dem Einsatz von nur einem reinen Large Language Model (LLM). Der Grund dafür liegt in der Standardisierung der Daten, die für KI-Agenten notwendig ist. Auf dieser Grundlage können die Agenten ihre einzigartigen, autonomen Fähigkeiten ausspielen, da sie mit unternehmenseigenen Daten trainiert werden. Vor allem bei Start-ups können Potenziale schnell gehoben werden: Wenn Agenten für bestimmte Aufgaben entwickelt werden, können sie diese auch lösen – egal wie komplex und fachspezifisch sie sein mögen. Stimmt die Datenbasis, lassen sich auch mehrere Agenten miteinander verknüpfen, um sogar noch komplexere Herausforderungen zu bewältigen.
Ein Beispiel dafür ist die mögliche Kooperation zwischen einem Kundensupport-Agenten und einem Prognose-Agenten. Wenn ein Kunde einen Support-Fall auslöst, kann der andere Agent sogleich die Kosten berechnen, was die Kundenzufriedenheit durch eine schnellere Reaktion steigern kann. Für die Skalierung von Start-ups ist ein enges Zusammenspiel der Abteilungen wichtig, um die Geschäftsbeziehungen zu zufriedenen Kunden weiter ausbauen zu können. Der Einsatz von KI-Agenten kann, gepaart mit dem menschlichen Element, begrenzte personelle Ressourcen ausgleichen und eine bessere Serviceleistung ermöglichen, was für ein schnelles Wachstum unabdingbar ist.
Doch nicht nur der Kundenkontakt lässt sich automatisieren, sondern auch eine ganze Reihe von Routinevorgängen in der internen Verwaltung der Firmen selbst. Dies ermöglicht nicht nur dem Management, sondern auch den Investoren, schnell einen fundierten Überblick über Liquidität, Umsatz, Einnahmen und Gewinn zu erhalten. Die Erkenntnisse in Echtzeit führen zu schnellen und datenbasierten Entscheidungen, was für junge Unternehmen Gold wert ist und es ihnen ermöglicht, flexibel zu bleiben.
Die Datenbasis muss stimmen
Für Start-ups sind Probleme beim Datenzugriff ein kritisches Risiko für den Geschäftserfolg. Eine einheitliche, moderne Datenarchitektur ermöglicht die Demokratisierung des Datenzugriffs und löst Datensilos auf. Der Vorteil liegt auf der Hand: Schneller Datenzugriff schafft Transparenz gegenüber Kunden und Aufsichtsbehörden. Darüber hinaus erhöht dies auch das Vertrauen der Mitarbeitenden und schafft ein Gefühl des Zusammenhalts.
Governance ist auch bei der Verwendung von KI-Agenten von entscheidender Bedeutung. Der Druck zur Einhaltung von Vorschriften sollte daher als Vorteil betrachtet werden.
Der Dreiklang aus Datenherkunft, Versionierung und automatisierter Auswertung der Ergebnisse hilft jungen Unternehmen dabei, Governance auf einem soliden Fundament aufzubauen. Die Teams erhalten direkte Transparenz darüber, wie sich die KI-Agenten verhalten, auf welchen Daten sie basieren und wie sie ihre Ergebnisse im Laufe der Zeit verändern. Laufende Bewertungen tragen dazu bei, dass KI-Agenten präziser werden, um genau jene hochwertigen Ergebnisse zu liefern, die Start-ups für die Skalierung ihrer Geschäftsmodelle benötigen. Dies ist besonders wichtig, wenn proprietäre KI-Modelle entwickelt und von der Testphase in die Produktion überführt werden, wobei gesetzliche Vorschriften wie die DSGVO oder der EU AI Act zwingend einzuhalten sind.
Parloa, ein deutsches Start-up-Unternehmen mit einer Bewertung von drei Milliarden US-Dollar, ist ein hervorragendes Beispiel dafür, wie dieser Ansatz in der Praxis aussehen kann: Das Unternehmen hat KI-Agenten zum Kern seines Kundenservice gemacht und gleichzeitig eine einheitliche, kontrollierte Datenbasis aufgebaut, die vollständig mit der DSGVO und dem EU AI Act konform ist. Seine Plattform folgt den Prinzipien des „Privacy by Design“, sodass sensible Kundendaten ohne Kontrollverlust verwendet werden können. Durch die Verwaltung des gesamten Lebenszyklus von KI-Agenten macht Parloa Governance zu etwas Greifbarem und gibt den Teams Klarheit darüber, welche Daten verwendet wurden, wie sich die Agenten verhalten haben und wie sich die Ergebnisse im Laufe der Zeit entwickelt haben. Diese Kombination aus moderner Architektur und starker Governance ermöglicht es den Kunden von Parloa, Zugang zu hochwertigen Daten zu erhalten und die Transparenz für Regulierungsbehörden sowie Endnutzer zu erhöhen – und dennoch KI-gesteuerte Kundeninteraktionen in Umgebungen zu skalieren, in denen Fehler oder Missbrauch inakzeptabel sind.
Fazit
KI-Agenten bieten europäischen Start-ups eine einmalige Gelegenheit, schnell zu wachsen und gleichzeitig Investoren anzuziehen, die bekanntermaßen ihr Geld bevorzugt in Unternehmen investieren, die Wert auf Datenverwaltung, Genauigkeit, Qualität und die Schaffung von echtem Mehrwert durch Technologie legen. Es ist jedoch ein Fehler, sich ohne sorgfältige Überlegungen auf die Einführung von Agenten zu stürzen. Start-ups, die KI-Agenten einsetzen, ohne zuvor eine einheitliche Datenbasis aufzubauen und eine solide Verwaltung sowie Bewertung sicherzustellen, riskieren, mehr Komplexität als Mehrwert zu schaffen. Letztlich werden jene Gründer und Gründerinnen erfolgreich sein, die ihre Geschäftsmodelle branchen- und länderübergreifend skalieren können – hierbei spielt der Einsatz von KI-Agenten bereits jetzt eine entscheidende Rolle.
Der Autor Nico Gaviola ist VP Digital Natives & Emerging Enterprise bei Databricks EMEA.
Plato sichert sich 14,5 Mio. USD für das KI-Betriebssystem für den Großhandel
Plato entwickelt KI-native Software, die zentrale Workflows in den Bereichen Vertrieb, Angebotserstellung und ERP-Prozesse für Großhandelsunternehmen automatisiert.
Gegründet wurde Plato 2024 von Benedikt Nolte, Matthias Heinrich Morales und Oliver Birch. Die Plattform entstand ursprünglich aus Noltes familiengeführten Großhandelsunternehmen heraus, das mit veralteter Software und Fachkräftemangel zu kämpfen hatte. Dieser praxisnahe Ursprung prägt bis heute Platos industriegetriebenen Ansatz für KI-Transformation.
Das Unternehmen entwickelt KI-native Software, die zentrale Workflows in den Bereichen Vertrieb, Angebotserstellung und ERP-Prozesse für Großhandelsunternehmen automatisiert. Großhändler bewegen jeden fünften Dollar der globalen Produktionsleistung, sind jedoch bis heute massiv unterversorgt mit moderner Software. Platos Lösung stattet Vertriebsteams mit einem KI-Copiloten aus, steigert Profite und erhöht die Vertriebseffizienz via AI agents.
„Wir haben die Probleme aus erster Hand im Großhandel meiner Familie erlebt und Plato gemeinsam mit Experten entwickelt, um die Arbeitsweise der Branche neu zu denken. Wir bauen das KI-Betriebssystem für den Großhandel, beginnend mit einer intelligenten Automatisierungsplattform im Vertrieb. Mit dieser Finanzierung skalieren wir Plato, um die gesamte Branche zu transformieren und einen Tech-Champion für die Handelsökonomie aufzubauen – aus Deutschland, für die Welt“, sagt Benedikt Nolte, CEO von Plato.
Skalierung des KI-Betriebssystems für den Großhandel
Die Plattform erschließt verborgene ERP-Daten und automatisiert manuelle Aufgaben, sodass Vertriebsteams vom reaktiven ins proaktive Verkaufen kommen. Plato hat bereits mehrere der führenden Großhändler Europas mit sechsstelligen Vertragsvolumina gewonnen. Die 14,5 Mio.-USD-Finanzierung soll es Plato ermöglichen, sein vertikales Produktangebot auf Kundenservice und Einkauf auszuweiten und die internationale Expansion voranzutreiben.
„Besonders überzeugt hat uns an Plato die außergewöhnliche Qualität des Gründerteams. Das Team hat in diesem Bereich ein echtes „Right to winˮ und brennt für den Großhandel. Es vereint tiefgehende Branchenexpertise aus erster Hand mit starker technischer Umsetzung und dem Anspruch, ein branchenprägendes vertikales KI-Unternehmen aufzubauen. Großhändler suchen dringend nach branchenspezifischer KI-Software, um operative Herausforderungen zu lösen – und genau diese Lösung ist Plato“, sagt Andreas Helbig, Partner bei Atomico.
ewigbyte: Datenspeicher für die Ewigkeit?
Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.
Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.
In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.
Der Markt: Ein schlafender Riese erwacht
Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.
Lasergravur statt magnetischer Ladung: So funktioniert es
Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.
Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.
Vom Hardware-Verkauf zum „Storage-as-a-Service“
Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.
David gegen Goliath: Das Rennen um das Glas
Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.
Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.
Die technologischen Nadelöhre
Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.
Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).
Digitale Souveränität als Verkaufsargument
Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.
Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.
ChatGPT schreibt Texte. R3 Robotics zerlegt Batterien
Es gibt Probleme, die man mit Software lösen kann, und es gibt Probleme, für die man sich die Hände schmutzig machen muss – oder besser: Roboterhände nutzt. Antoine Welter und Dr. Xavier Kohll haben mit Circu Li-ion begonnen, um Batterien zu retten. Jetzt, unter dem neuen Namen R3 Robotics und mit 20 Millionen Euro frischem Kapital im Rücken, treten sie an, um den wohl größten Flaschenhals der kommenden Mobilitätswende zu beseitigen. Ihr Ansatz: Keine teuren Spezialmaschinen, sondern intelligente Standard-Roboter, die sehen, verstehen und sicher zupacken.
Wenn in den Vorstandsetagen der Automobilhersteller über die Zukunft gesprochen wird, geht es meist um Reichweiten und Software-Defined Vehicles. Doch am anderen Ende der Wertschöpfungskette braut sich ein Sturm zusammen. Millionen von Elektrofahrzeugen werden in den kommenden Jahren ihr Lebensende erreichen. Die derzeitige Realität in vielen Recyclinghöfen wirkt dagegen fast archaisch: Menschen, die mit Handwerkzeugen komplexe Systeme auseinanderschrauben. Das ist nicht nur teuer und schwer skalierbar, sondern bei Hochvolt-Systemen auch lebensgefährlich.
Genau hier setzen Antoine Welter und Xavier Kohll an. Die Nachricht, die das deutsch-luxemburgische Unternehmen Anfang Februar 2026 verkündete, ist mehr als nur eine Finanzierungsrunde. Die 20 Millionen Euro – aufgeteilt in 14 Millionen Euro Series-A-Kapital und 6 Millionen Euro öffentliche Fördergelder – heben die Gesamtfinanzierung des Unternehmens auf ein neues Level. Angeführt wird die Runde von HG Ventures und Suma Capital, unterstützt von Co-Investoren wie der Oetker Collection und dem EIC Fund.
Doch das Geld ist nur der Treibstoff für eine strategische Evolution. Aus Circu Li-ion wird R3 Robotics. Der neue Name ist Programm: Repair, Reuse, Recycle. Antoine Welter erklärt die Motivation hinter der Umbenennung pragmatisch: „Circu Li-ion hat beschrieben, wo wir angefangen haben. R3 Robotics beschreibt, was wir aufbauen: industrielle Robotik, die Demontage skalierbar, sicher und kosteneffizient macht.“
Wenn der Roboter Augen bekommt
Die größte Hürde im Recycling ist nicht die Chemie, sondern die Variabilität. Kein Batteriepack gleicht dem anderen, E-Motoren sind unterschiedlich verbaut, Schrauben sind korrodiert. Starre Fertigungsstraßen scheitern hier. R3 Robotics löst dies mit einer Plattform, die Computer Vision, künstliche Intelligenz und Robotik verschmilzt.
Das System fungiert dabei fast wie ein „ChatGPT für die physische Welt“: Anstatt Text zu generieren, plant die KI physische Handlungen. Sensoren scannen das Bauteil, die KI erkennt den Zustand und promptet den Roboterarm dynamisch durch den Demontageprozess. Der entscheidende Vorteil: Der Mensch wird aus der Gefahrenzone der Hochspannung genommen, während der Roboter Aufgaben erledigt, die für klassische Automatisierung zu komplex wären.
Angesprochen auf den Vergleich mit Generative AI und die Frage, wie die Roboter tatsächlich „sehen“ und „entscheiden“, bestätigt Welter die Parallele: „Der Vergleich mit Generative AI passt gut: Das Modell bekommt einen Input – keinen Text, sondern einen Scan des Bauteils – und generiert daraus eine Handlungssequenz.“ Es gehe darum zu erkennen, um welches Modell es sich handelt, wie der Zustand ist und wo die Verbindungspunkte liegen. „Das klingt simpel, ist es aber nicht – kein Pack ist identisch“, so Welter. Die eigentliche Herausforderung liege jedoch in der Entscheidung davor: „Welche Reihenfolge ist sicher? Ein falscher Griff an ein Hochvoltsystem kann tödlich sein. Unser System sieht, bewertet und entscheidet.“
Smart Hardware: Warum das Rad neu erfinden?
Ein Detail, das Investor*innen besonders aufhorchen lässt, ist die Kapitaleffizienz der Gründer. Wer an Industrie-Robotik denkt, denkt an teure Hardware-Entwicklung. R3 Robotics geht einen pragmatischen Weg: Ein Großteil der verwendeten Hardware wird „von der Stange“ gekauft.
Die Roboterarme sind Standardprodukte. Die Innovation – und damit das geistige Eigentum – steckt in den spezialisierten „End-Effektoren“ (den Roboterhänden), den Sensorsystemen und vor allem dem Software-Stack, der alles steuert. Das erlaubt eine Skalierung, die mit proprietärer Hardware kaum möglich wäre. Mitgründer Dr. Xavier Kohll betont, dass dies eine bewusste Entscheidung gegen „Over-Engineering“ war: „Der Roboterarm ist Standard und die Intelligenz sitzt in den Endeffektoren, der Sensorik und dem Software-Stack, der alles zusammenbringt. Das ist unser geistiges Eigentum, und genau das lässt sich skalieren.“
David gegen Goliath – oder Partner?
Während große Recycling-Konzerne oft noch auf den Schredder setzen und die manuelle Demontage an ihre Grenzen stößt, positioniert sich R3 Robotics in einer neuen Nische. Es geht nicht darum, die Chemie-Giganten zu ersetzen, sondern ihnen den Rohstoff so rein wie möglich zu liefern – als strategische Quelle für kritische Materialien. Doch der Markt schläft nicht: Weltweit entstehen Initiativen zur Automatisierung.
Trotz des aktuellen „Gegners“ – dem Menschen mit dem Schraubenzieher – und potenzieller Konkurrenz durch Tech-Start-ups oder Autohersteller, bleibt Welter gelassen. „Wir konkurrieren nicht mit den Chemie-Giganten, wir liefern ihnen den reinsten möglichen Stoffstrom“, stellt er klar. Gegenüber potenziellen Nachahmern sieht er einen entscheidenden Vorteil, den „Unfair Advantage“: die Kombination aus Flexibilität und industrieller Automatisierungstiefe. „Wir sind aktuell die einzige Plattform, die sowohl Variabilität managt als auch für kontinuierlichen Industriebetrieb ausgelegt ist.“
Deutschland als Labor, USA als Skalierungsmarkt
Die Wachstumsstrategie von R3 Robotics ruht auf zwei massiven Säulen: technologischer Tiefe in Europa und kommerzieller Breite in den USA.
Deutschland fungiert dabei als das technologische Rückgrat. Mit der Erweiterung der Anlage in Karlsruhe zur Lighthouse Facility demonstriert das Unternehmen industrielle Leistungsfähigkeit direkt vor der Haustür der großen Autobauer. Hier wird die Technologie gehärtet. Das zeigt sich auch im Leuchtturmprojekt ReDriveS, wo R3 Robotics Seite an Seite mit Giganten wie Schaeffler und VW an der Demontage von E-Achsen arbeitet.
Doch für das massive Volumen blickt das Team über den Atlantik. Der für 2026 geplante Markteintritt in den USA ist Kern der neuen Strategie. Die frischen 20 Millionen Euro sollen gezielt in den Aufbau strategischer Partnerschaften vor Ort fließen, um die Technologie dort auszurollen, wo Pragmatismus auf riesige „End-of-Life“-Volumina trifft. Für Welter ist dieser Doppelschlag essenziell: „Deutschland ist unser Beweisstand. Hier zeigen wir Schaeffler, VW und Co., dass unsere Technologie industriellen Maßstäben in Deutschland standhält.“ Die USA seien hingegen der wichtige Skalierungsmarkt, wo pragmatische Entscheider auf gigantische Volumina treffen. „Beides brauchen wir: die Glaubwürdigkeit aus Europa und das Volumen aus Amerika.“
Industrialisierung statt Romantik
Mit Peter Mohnen, dem ehemaligen CEO des Roboter-Riesen KUKA, holte sich das Start-up zudem einen Beirat, der wie kaum ein anderer weiß, was Industriestandard bedeutet. Er beschreibt den Ansatz von R3 als Beweis für die nötige Automatisierungsexpertise, um Variabilität und Sicherheit gleichzeitig zu managen.
Um diese Expertise weiter auszubauen, wächst das Team rasant. Die Belegschaft soll mit der neuen Finanzierung massiv aufgestockt werden, vor allem im Bereich Engineering und KI. R3 Robotics hat den Beweis erbracht, dass Kreislaufwirtschaft kein ökologisches Nischenprojekt sein muss, sondern ein harter industrieller Prozess ist, der sich rechnet.
Denn letztlich, so das Fazit von Antoine Welter, sei Automatisierung der einzige Weg, das Problem wirklich zu lösen – nicht allein aus ökologischen Gründen, sondern weil es wirtschaftlich Sinn ergibt. „Was wir aufbauen, ist am Ende ein harter industrieller Prozess: Er muss zuverlässig funktionieren und sich rechnen.“ Es gehe aber um mehr als ein Geschäftsmodell: „Europa braucht eine Antwort auf die Frage, woher seine kritischen Materialien in Zukunft kommen“, mahnt Welter abschließend. „Wenn Europa diesen Zugang sichern will, braucht es Unternehmen, die genau das industriell umsetzen können. Dafür bauen wir diese Infrastruktur, und mit dem neuen Kapital und Team haben wir jetzt die Mittel dazu.“
Seed-Runde: Leipziger HRTech clarait erhält über 1,5 Mio. Euro
Das 2023 von Johannes Bellmann, Miriam Amin und Thilo Haase gegründete Start-up clarait digitalisiert einen der letzten analogen Bereiche im Unternehmen: die Zusammenarbeit zwischen Betriebsräten und HR.
Die clarait GmbH hat den Abschluss einer Seed-Finanzierungsrunde bekanntgegeben und sichert sich Kapital in Höhe von über 1,5 Millionen Euro. Lead-Investor der Runde ist der TGFS Technologiegründerfonds Sachsen, der einen siebenstelligen Betrag investiert. Als Co-Investor beteiligt sich der HR Angels Club, ein europaweites Netzwerk aus erfahrenen HR-Führungskräften und Investoren.
Marktlücke: Der „White Spot“ zwischen HR- und Legal-Tech
Während klassische HR-Prozesse wie Payroll oder Recruiting längst digitalisiert sind, gilt der Bereich der „Labour Relations“ (betriebliche Mitbestimmung) als einer der letzten kaum erschlossenen Märkte. In vielen Unternehmen dominiert hier noch der „Status Quo“ – ein Vorgehen, das angesichts strenger Compliance-Vorgaben und der DSGVO zunehmend riskant wird.
Clarait positioniert sich hier mit zwei verknüpften SaaS-Lösungen:
- BRbase unterstützt Betriebsräte bei der strukturierten Organisation von Sitzungen, Beschlüssen und Mitbestimmungsprozessen.
- HRflows liefert der Arbeitgeberseite juristisch geprüfte Workflows für mitbestimmungspflichtige Maßnahmen.
Wettbewerb & USP: Brückenbauer statt Insellösung
Im Wettbewerbsumfeld grenzt sich das Leipziger Start-up deutlich ab. Während etablierte Anbieter oft reine Insellösungen anbieten, verfolgt clarait einen Plattform-Ansatz. Ziel ist es, den Medienbruch zwischen Personalabteilung und Gremium zu beenden und beide Seiten auf einer Infrastruktur zu verbinden.
Das Start-up adressiert damit einen wachsenden Markt, der durch steigende regulatorische Anforderungen und den Trend zu revisionssicheren Workflows getrieben wird. Zu den Kunden zählen bereits DAX-40- und Fortune-500-Unternehmen.
Der „Perfect Fit“: Praxis trifft Prozesslogik
Ein wesentlicher Faktor für das Investment dürfte die Komposition des Gründerteams sein, das die nötige Neutralität für dieses politisch sensible Thema mitbringt:
- Johannes Bellmann (CEO) vereint die Perspektiven beider Verhandlungspartner und versteht das Geschäftsmodell sowie den Markt der betrieblichen Mitbestimmung tiefgehend.
- Thilo Haase (CPO) verantwortet die inhaltliche Ausgestaltung der Plattform.
- Miriam Amin (CTO) vervollständigt das Trio als technische Mitgründerin.
„Smart Money“ und KI-Pläne
Neben dem Kapital des TGFS bringt vor allem der Einstieg des HR Angels Club strategisches Gewicht. Das Netzwerk gilt als „Smart Money“ der HR-Tech-Szene und bietet Zugang zu Entscheidern in Personal- und Organisationsfunktionen. Sören Schuster, Geschäftsführer des TGFS, sieht in der Gremienverwaltung einen „bislang nur unzureichend digitalisierten Bereich“ und bescheinigt dem Team das Potenzial zum Qualitätsführer.
Das frische Kapital soll primär in den Ausbau der Vertriebsorganisation sowie die Weiterentwicklung der Software fließen. Geplant sind unter anderem die Integration von KI-gestützten Assistenzfunktionen sowie die Vorbereitung der Internationalisierung, die zunächst im deutschsprachigen Raum erfolgen soll.
Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht
Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.
Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.
Warum sich Support-ROI 2026 schwerer belegen lässt
Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.
In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.
Das führt dazu, dass Führungsteams häufig Folgendes beobachten:
- steigende Automatisierungsquoten bei stagnierenden Einsparungen,
- verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
- starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.
Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.
Wo sich Customer-Support-ROI tatsächlich zeigt
Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:
- weniger Rückerstattungen,
- geringere Eskalationen,
- einen Rückgang öffentlicher Beschwerden,
- sinkendes Abwanderungsrisiko.
- höheres Vertrauen an entscheidenden Punkten der Customer Journey
Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.
In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:
- Rückerstattungsquote von 40 % auf 4 % gesenkt.
- CSAT-Anstieg von 50 auf 95.
- NPS-Steigerung von 32 auf 80.
- Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
- Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.
Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.
Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.
So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.
Wie hybrider Support die Wirtschaftlichkeit verändert
Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.
Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:
- lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
- liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
- führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.
In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.
Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.
Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.
Warum hybrider ROI klassische Messlogik sprengt
In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.
Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.
Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.
Was Führungskräfte tatsächlich messen sollten
2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:
- Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
- Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
- Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).
Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.
Wie sich Support-Budgets rechnen
Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?
Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:
- Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
- Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
- Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.
In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.
Fazit
2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.
Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.
Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.
Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.
