Step-by-Step zum eigenen Podcast

Autor: Eric Hinzpeter
44 likes

Von der Planung bis zum Publishing deines Unternehmens-Podcasts: Wir zeigen die wichtigsten Erfolgsfaktoren und größten Fallstricke.

Podcasts haben sich in den letzten Jahren zu einem wichtigen Kommunikationsmedium entwickelt und gewinnen auch als Marketinginstrument im Unternehmenskontext immer mehr an Bedeutung. Sie bieten die Möglichkeit, Wissen und Expertise zu teilen, die Markenbekanntheit zu steigern und nicht zuletzt auch eine tiefere Verbindung zur Zielgruppe sowie zu potenziellen Mitarbeitenden aufzubauen.

Anders als viele Unternehmen glauben, eignen sie sich gerade nicht nur für Endkund*innenthemen, sondern sind gerade auch im B2B-Umfeld und in Branchen mit komplexen, nicht so leicht zu erklärenden Produkten und Dienstleistungen ein gutes Mittel der Kund*innenkommunikation. Nicht zuletzt eröffnet ein Unternehmens-Podcast (im Folgenden kurz Podcast) auch Potenzial beim Employer Branding und kann dazu beitragen, dem Fachkräftemangel entgegenzuwirken.

Doch was genau muss vor dem Start der Produktion eines Podcasts bedacht werden? Wie startet man ein solches Format? Und noch viel wichtiger: Wie hält man die Produktion langfristig durch und sorgt mit einer stringenten Vermarktung für organisches Wachstum bei den Hörer*innenzahlen?

Dieser Beitrag gibt einen umfassenden Überblick über die Schritte von der Planung bis zum Publishing und erläutert die Erfolgsfaktoren und Fallstricke.

Konzept und Zielsetzung: Passende Zielgruppenansprache ist entscheidend

Der erste Schritt bei der Erstellung eines Podcasts ist die Konzept­entwicklung und Zielsetzung. Unternehmen müssen in Kooperation mit Marketingleitung und Geschäftsführung festlegen, was sie damit konkret erreichen möchten – sei es die Stärkung der Markenbekanntheit, die Generierung von Leads oder Kund*innenbindung. Und sie sollten, am besten mithilfe entsprechender Personas, definieren, für wen sie das passende Format entwickeln. Eine präzise Zielgruppenanalyse ist hierfür ebenso unerlässlich wie das Verständnis dafür, dass Themen unterschiedlich in Formatwahl, Länge, Tonalität und Zielgruppenansprache angegangen werden können.

Bei der Formatwahl kann eine Mischung aus beispielsweise Interview, Solofolgen und Paneldiskussionen gewählt werden; wichtig ist die jeweils passende Herangehensweise an ein Thema, die das Unternehmen und seine Produkte vorteilhaft und kompetent erscheinen lässt. Nicht zuletzt ist ein einprägsamer und beschreibender Name für den Podcast wichtig, der Einzigartigkeit und Relevanz transportiert und die Marke optimal repräsentiert. Dieser sollte im besten Fall SEO-seitig gut zu bespielen sein.

Gründliche Planung und Vorbereitung sind entscheidend für den Erfolg eines Podcasts, ein Kick-off-Workshop und regelmäßige Themen-Meetings sind hierfür unerlässlich.

Der oder die Verantwortliche sollte eine Aufgabenteilung anstreben, die im Vorfeld Daten für Gästeansprache, Aufnahme, Postproduktion und Marketing sowie Publikation vorsieht – und mit Blick auf Urlaube und andere Abwesenheiten sollte für jedes Gewerk auch ein(e) Vertreter*in benannt sein, der oder die mit den grundlegenden Workflows vertraut ist.

Zunächst sollte eine Themenplanung vorgenommen werden, die mindestens die ersten sechs Monate umfasst, die dann jeweils für drei weitere Monate im Voraus plant und agil angepasst werden kann. Sinnvoll ist es dabei, Unternehmensereignisse wie anstehende Messen und Konferenzen sowie Produktlaunches und Saisonalitäten zu berücksichtigen. Für den Erfolg entscheidend ist aber auch, den Podcast nicht als Zweitverwertung oder Recyclingplattform zu verstehen, sondern „unique“ und exklusive Inhalte primär dafür zu produzieren. Bewährt hat sich in vielen Unternehmen auch die Herangehensweise, ein Thema erst inhaltlich zu entwickeln und in einem zweiten Schritt zu entscheiden, ob es Podcast-tauglich aufbereitet werden kann.

Für jede Podcast-Folge sollte eine klare Struktur und ein zumindest grober Ablauf festgelegt werden, um Konsistenz zu gewährleisten. In diesem Zusammenhang wird sich übrigens schnell herausstellen, ob die angedachte Frequenz sinnvoll und machbar oder zu ambitioniert ist. Klug ist es, mehrere Episoden im Voraus aufzunehmen, um eine kontinuierliche Veröffentlichung sicherzustellen und auf möglichst verlässliche Veröffentlichungstermine (etwa jeden ersten Freitag im Monat) zu setzen. Ein verbindlicher Veröffentlichungsplan ist wichtig, um regelmäßig neuen Content zu liefern – und weil die Hörer*innen im besten Fall schon auf die neue Folge warten.

Produktion und Technik: Einfache Handhabung und gute Qualität überzeugen

Eine hochwertige Ausrüstung, also gute Mikrofone und Kopfhörer, sowie eine geeignete Aufnahmesoftware und gegebenenfalls ein Mehrspurrecorder sind essenziell für eine hohe Audioqualität. Und die ist vor allem deswegen entscheidend, weil Podcasts meist nah am Ohr gehört werden. Professionelles Equipment ist gar nicht so teuer und komplex in der Handhabung. Bei der Auswahl bieten sich große Musikhändler*innen an, die meist über das nötige Know-how und die Beratungskompetenz rund um Aufnahmetechnik verfügen.

Als Software eignet sich unter anderem das seit Jahren bewährte Freeware-­Tool Audacity (für Windows) oder die bei Apple kostenfrei erhältliche Garage Band (für Mac). Diese Tools sind intuitiv in der Handhabung und gerade für den Anfang gut geeignet, weil sie alle fürs Podcasting relevanten Features besitzen. Aufwendigere und teure Schnittprogramme wie Adobe Audition und Reaper sind im Hinblick auf den Funktionsumfang und die Filter einen Blick wert; die Programme Ultraschall und Hindenburg Pro sind speziell auf die Bedürfnisse von Pocaster*innen zugeschnitten.

Wer Remote aufzeichnet, also die Gesprächspartner*innen an unterschiedlichen Orten sitzen hat, sollte im Hinblick auf die Tonqualität nicht auf eine Konferenzsoftware wie Zoom oder Teams setzen – auch weil dann lediglich eine Spur produziert wird, was die Postproduktion erschwert. Dienste wie Zencastr, Riverside.fm, Waveroom oder Studio-Link zeichnen hingegen lokal einzelne Spuren auf und führen diese erst im Nachgang in einer Cloud zusammen. Das erleichtert einerseits die Angleichung der Lautstärke zwischen den einzelnen Sprecher*innen und hilft andererseits bei der Qualitätsoptimierung in der Postproduktion.

Doch Professionalität ist nicht nur bei der Tonqualität, sondern auch bei den Sprecher*innen wichtig. Auch wenn man als Host für einen Podcast keine Sprecher*innenausbildung benötigt und (leichte) Dialektfärbung oder Akzent überhaupt nicht schadet, sollten Moderator*innen und Sprecher*innen auf Atemtechnik, Tempo (nicht zu schnell und nicht ablesen) sowie Aussprache und Satzmelodie achten. Sprechen im aufrechten Stehen schafft mehr stimmliches Volumen und wirkt selbst beim Hören souveräner.

Die Aufnahmeumgebung sollte ruhig und frei von Hintergrundgeräuschen sein, also möglichst wenig ablenkende Raum­informationen haben. Hier sollte auf unauffällige Raumakustik geachtet werden, die sich mithilfe von Akustikabsorbern und Noppenschaumstoffelementen optimieren lässt. Die Produktion eines Podcasts sollte im besten Fall „live on tape“ durchgeführt werden, sodass im Nachgang möglichst wenig geschnitten werden muss und die Dialoge dennoch lebendig wirken. Vorab durchgeführte Tests helfen, die optimale Audioqualität sicherzustellen. In der Bearbeitung sollten Füllwörter und Pausen herausgeschnitten sowie gegebenenfalls Musik und Jingles hinzugefügt werden. Ein einheitliches In- und Outro, das die Marke widerspiegelt, begrüßt und verabschiedet die Zuhörer*innen und sorgt für einen professionellen Rahmen für jede Episode.

Branding und Marketing: Konsistentes Konzept mit Wiedererkennungswert

Ein konsistentes audio-visuelles Konzept ist wichtig für den Wiedererkennungswert des Podcasts. Logos und Designelemente sollten ebenso wie Jingles und Musikelemente auf allen Plattformen einheitlich verwendet werden. Dabei macht es im Hinblick auf Kosten und im Interesse der Professionalität oftmals Sinn, solche dedizierten Teilgewerke an einen professionellen Dienstleister auszulagern, der solche Sounddesign­Elemente regelmäßig erstellt und ein gutes Ergebnis in einem Bruchteil der Zeit hinbekommen wird.

Eine durchdachte Marketingstrategie hilft dabei, den Podcast bekannt zu machen und eine Audience aufzubauen. Für das Marketing eignen sich die bestehenden Social-Media-Präsenzen und Newsletter, aber natürlich auch die Unternehmenswebsite und andere Kanäle. Partnerschaften oder Sponsoring können die Reichweite des Podcasts ebenso erhöhen wie gut vernetzte Mitarbeitende des Unternehmens, die zu Markenbotschafter*innen via LinkedIn und Co. werden. Unternehmen sollten zudem prüfen, ob Kooperationen sinnvoll sind und wie sie am besten umgesetzt werden können.

Distribution und Monitoring: Auf die Community kommt es an

Ein Podcast wird entweder auf jeder Distributionsplattform einzeln hochgeladen oder mithilfe einer Podcast-Hosting-­Plattform wie Podigee, Podbean, Letscast.fm oder Spotify for Podcasters bereitgestellt. In diesem Fall fungiert die Hosting-Plattform als Basis und die Podcast-Episoden werden über einen RSS-Feed verteilt, der auf verschiedenen Plattformen wie Spotify oder Apple Podcasts mit einer Feed-Adresse registriert wird.

Unternehmen sollten auf die dort mögliche Community-Pflege achten, also entsprechendes Feedback der Hörer*innen berücksichtigen. Denn Zuhörer*innenfeedback ist wertvoll. Unternehmen sollten aktiv um Rückmeldungen bitten und basierend auf diesem Feedback Anpassungen vornehmen. Analyse-Tools der Podcast-Plattformen helfen, Zuhörer*innenzahlen, Downloads und Engagement zu messen. Links sollten mit Link-Shortening-Anbieter*innen verkürzt und mit UTM-Parametern versehen werden, um den Erfolg besser messen zu können.

Basierend auf den gesammelten Daten und dem Feedback sollten Inhalte, Strategie und Veröffentlichungsplan kontinuierlich angepasst werden, um den Erfolg des Podcasts langfristig zu sichern. Auch wenn Podcasts vor allem von Stammhörer*innen gehört werden, kann die Optimierung der Beschreibungen mit relevanten Keywords die Auffindbarkeit verbessern. Auch die Nutzung von Hashtags kann dabei helfen, eine größere Zielgruppe zu erreichen.

Dennoch sind bei einem Podcast die Hörer*innenzahlen nicht ansatzweise mit denen eines populären Comedy-Formats oder „Laber-Podcasts“ vergleichbar – und die Zahlen im deutschsprachigen Raum aufgrund der Sprachbegrenzung auch nicht mit denen anderer Länder. Achte also darauf, dass du nicht Äpfel mit Birnen vergleichst. Umgekehrt heißt das aber, dass man durchaus auf Best Practice Cases aus vergleichbaren Branchen- und Markenumfeldern schauen kann, um sich beim Handwerkszeug einiges abzuschauen – etwa im Hinblick auf Kooperationen oder Brand Influencer*innen. Im Rahmen des Monitorings zeigt sich auch, welche aktuellen saisonalen Inhalte und Branchenthemen gut funktionieren.

Das Potenzial des Unternehmens-Podcasts nutzen und ausbauen

Podcasts bieten Unternehmen eine wertvolle Möglichkeit, ihre Marke nachhaltig mit Content zu stärken, Wissen zu teilen und eine tiefere Verbindung zur Zielgruppe aufzubauen. Mit einer sorgfältigen Planung, qualitativ hochwertiger Produktion und gezieltem Marketing kann ein Podcast zu einem erfolgreichen Kommunikationsinstrument werden. Doch all das erfordert gerade angesichts der wachsenden Konkurrenz einen langen Atem. Durch kontinuierliches Monitoring und Optimierung lässt sich der Erfolg langfristig sichern und ausbauen, wobei ein(e) externe(r) Berater*in wertvolle Insights bringen kann. Ein gut gemachter Podcast ist somit nicht nur ein Trend, sondern ein nachhaltiges Werkzeug in der modernen Unternehmenskommunikation.

Der Autor Eric Hinzpeter ist Content-Marketing-Experte bei Smarketer. Das Unternehmen ist im Bereich Performance Marketing in der DACH-Region tätig und unterstützt Unternehmen bei der Entwicklung professioneller Strategien für Google Ads und Microsoft Advertising Services.

Diese Artikel könnten Sie auch interessieren:

Purpose schlägt Profit? Die GmbV-Illusion & echte Alternativen

Alle reden über die GmbV. Die neue Rechtsform soll Startups vor dem Ausverkauf schützen und „Verantwortungseigentum“ zum Standard machen. Doch während die Politik noch an Details feilt, stehen Gründer*innen vor einem Dilemma: Warten oder handeln? Wir zeigen, warum die GmbV aktuell ein fataler Holzweg sein kann – und mit welchen Legal-Hacks ihr eure Vision schon heute vor dem Exit-Zirkus schützt.

Es klingt nach dem perfekten Setup für die neue Generation von Gründer*innen: Man baut ein Impact-Start-up auf und generiert saftige Umsätze, aber anstatt das Unternehmen nach fünf Jahren an den Meistbietenden zu verhökern, gehört es sich selbst. Genau das soll die GmbV (Gesellschaft mit gebundenem Vermögen, juristisch oft GmgV) leisten. Gewinne bleiben zwingend im Unternehmen, die Kontrolle liegt bei den fähigsten Köpfen, und ein lukrativer Exit ist rechtlich ausgeschlossen.

Für klassische Venture-Capital-Geber (VCs) gleicht dieses Konzept einem Albtraum. Ein Konstrukt, das einen hochprofitablen Exit systematisch blockiert, entzieht dem klassischen VC-Geschäftsmodell schlichtweg die Arbeitsgrundlage. Doch während die GmbV als moralisches Aushängeschild gefeiert wird, offenbart ein genauerer Blick auf die aktuelle Realität: Wer unreflektiert auf die neue Rechtsform wartet, riskiert seine Flexibilität.

Der Realitätscheck: Warum Warten keine Strategie ist

Die GmbV ist ein starkes politisches Signal, aber (noch) kein wirtschaftlicher Befreiungsschlag. Der entscheidende Konstruktionsfehler: Es gibt keine steuerlichen Privilegien. Wer Gewinne im Unternehmen belässt, muss diese voll versteuern. Zudem ziehen sich die gesetzliche Umsetzung und die Detailfragen – etwa zur Veräußerung von Tochtergesellschaften – in die Länge.

Wer jetzt gründet, braucht rechtliche Sicherheit. Die gute Nachricht: Ihr braucht die GmbV gar nicht zwingend. Das Konzept des Verantwortungseigentums lässt sich mit etablierten Strukturen schon heute wasserdicht abbilden.

Das Founder-Playbook: 3 erprobte Alternativen zur GmbV

Vergesst die Warterei auf den Gesetzgeber. Mit diesen drei Modellen könnt ihr eure Purpose-DNA fest im juristischen Fundament verankern:

1. Der Start-up-Liebling: Das Veto-Share-Modell (Golden Share)

Dies ist der eleganteste Hack für junge Teams mit schmalem Budget (bekannt durch Ecosia oder Einhorn). Ihr gründet eine klassische GmbH. 99 Prozent der Anteile bleiben bei den Gründer*innen und wertekompatiblen Investoren. Genau 1 Prozent (der "Golden Share") gebt ihr jedoch an eine unabhängige Instanz ab, beispielsweise die Purpose Stiftung.

  • Der Clou: Im Gesellschaftervertrag wird verankert, dass fundamentale Entscheidungen (wie ein Unternehmensverkauf oder die Änderung des Purpose) nur einstimmig getroffen werden können. Die Stiftung legt ihr Veto ein, sobald jemand Kasse machen will. Ihr bleibt maximal agil, zementiert aber die Vermögensbindung.

2. Das Schwergewicht: Das Doppelstiftungsmodell

Ideal, wenn ihr bereits etabliert seid und hohe Cashflows generiert (das Bosch-Modell). Macht und Geld werden strikt getrennt. Eine Stiftung hält das Kapital (die Gewinne) und schüttet sie für gute Zwecke aus. Eine separate Unternehmensstiftung (oder ein Trust) hält die Stimmrechte und lenkt das operative Geschäft.

  • Der Clou: Ein feindlicher Takeover ist ausgeschlossen. Allerdings ist dieses Modell in der Aufsetzung und im Unterhalt teuer und bürokratisch – für Seed-Start-ups meist noch überdimensioniert.

3. Das Comeback: Die Genossenschaft (eG)

Die ursprünglichste Form des Verantwortungseigentums erlebt ein Revival, besonders bei Community-getriebenen Geschäftsmodellen.

  • Der Clou: Es gilt das demokratische Kopfprinzip. Egal, wie viel Geld ein Investor mitbringt, er hat nur eine Stimme. Die eG ist nahezu immun gegen Exits. Achtung: Die Entscheidungswege können hier länger dauern, was nicht zu jedem hyper-agilen Startup-Modell passt.

Handlungsanweisungen für Gründer*innen

Was bedeutet das für eure Strategie in den nächsten Wochen? Hier ist euer Fahrplan:

  1. Finanzierungsstrategie radikal klären: Beantwortet die "Exit-Frage" im Gründungsteam schonungslos ehrlich. Wollt ihr klassisches, schnelles Wachstumskapital (Tier-1-VCs), ist Verantwortungseigentum der falsche Weg. Stellt ihr Purpose vor Profit, richtet euren Pitch sofort auf Family Offices, Business Angels mit Impact-Fokus und Bankkredite aus.
  2. Mit der Standard-GmbH starten: Wählt für die Gründung die klassische GmbH. Sie ist das bekannteste Vehikel, Banken verstehen sie, und Notare haben die Vorlagen griffbereit.
  3. Den Veto-Share-Vertrag aufsetzen: Nutzt das Veto-Share-Modell, um eure GmbH "Exit-resistent" zu machen. Holt euch einen spezialisierten Anwalt dazu, der den Gesellschaftervertrag anpasst, und sucht euch einen unabhängigen Veto-Partner.
  4. Das "Nein" als Schutzschild nutzen: Kommuniziert eure Struktur offensiv und selbstbewusst nach außen. Begreift die zu erwartende Ablehnung durch klassische VCs nicht als strategischen Nachteil, sondern als euren effektivsten Filter: So sortiert ihr von Tag eins an jene Investoren aus, die bei der ersten Krise auf einen Notverkauf drängen würden.

INFOGRAFIK-KASTEN

Clash of Cultures – Wer finanziert mein Start-up?

  • Klassisches Venture Capital (Shareholder Value):
    • Ziel: Maximale Wertsteigerung und lukrativer "Exit" (Verkauf/IPO) nach 5 bis 7 Jahren.
    • Fokus: Hyper-Wachstum, Skalierung, Marktführerschaft.
    • Kontrolle: VCs fordern Sitze im Board, Vetorechte und Liquidationspräferenzen.
    • Fit für Verantwortungseigentum? Absolutes No-Go.
  • Purpose Funding (Verantwortungseigentum):
    • Ziel: Langfristige Unternehmenssicherung, faire Renditen aus dem Cashflow, Erhalt der Unabhängigkeit.
    • Geldgeber: Family Offices, Purpose-Fonds, Crowdinvesting, Bankkredite, Genussrechte.
    • Kontrolle: Investoren akzeptieren, dass sie Gewinne/Zinsen erhalten, aber nicht die strategische Kontrolle oder einen Unternehmensverkauf erzwingen können.
    • Fit für Verantwortungseigentum? Perfect Match.

Redaktioneller Hinweis: Dieser Artikel dient ausschließlich der journalistischen Information und Einordnung. Er stellt keine verbindliche Handlungsempfehlung dar und ersetzt keinesfalls eine individuelle juristische oder steuerliche Fachberatung.

Gründer*in der Woche: Picturo – Local Photography, European Scale

Mit der Picturo Photography UG baut Jean Witt eine europaweite Plattform zur einfachen Suche nach lokalen Fotograf*innen auf. Ziel ist es, einen stark fragmentierten Markt zu bündeln, Fotograf*innen sichtbar zu machen und Nutzer*innen eine zentrale Anlaufstelle zu bieten. Mehr dazu im Interview mit dem Gründer.

Picturo klingt nach dem großen Bild. Beschreibe uns deine Idee in wenigen Sätzen – dein Elevator Pitch!

Picturo ist ein internationaler Marktplatz, der die Suche nach lokalen Fotograf*innen weltweit radikal vereinfacht. Statt unübersichtlicher Recherche auf Social Media oder Google bietet Picturo eine zentrale, standortbasierte Plattform. Nutzer*innen finden mit wenigen Klicks die passenden Fotograf*innen für jeden Anlass, während diese wiederum gezielt neue Kund*innen gewinnen. So professionalisiert Picturo einen stark fragmentierten Markt und macht die Suche nach Fotografie-Dienstleistungen so einfach wie die Buchung eines Hotels.

Es gibt bereits viele Plattformen für Fotograf*innen und Bilddatenbanken. Was war der konkrete Auslöser oder gar Pain Point, den du selbst erlebt hast, der dich dazu gebracht hat, Picturo zu gründen?

Der konkrete Auslöser war meine eigene Erfahrung als Reisender. Die Suche nach lokalen Fotografinnen lief fast immer über Direktnachrichten auf Social Media oder über einzelne Webseiten. Dabei musste man jedes Mal Preise, Verfügbarkeiten und Leistungen separat anfragen – oft ohne klare Antworten oder Vergleichsmöglichkeiten. Dieser Prozess ist zeitaufwendig, intransparent und für Nutzer*innen extrem umständlich. Gleichzeitig wurde deutlich, dass es für Fotograf*innen genauso ineffizient ist, jede Anfrage einzeln zu beantworten. Picturo ist aus genau diesem Pain Point entstanden: dem Wunsch nach einer zentralen, einfachen und transparenten Lösung für die Suche nach lokalen Profis.

Ihr sitzt in Esens, also im schönen Ostfriesland, habt aber den Anspruch, Fotograf*innen in „ganz Europa“ zu vernetzen. Wie baut man von einem eher ländlichen Standort aus eine so internationale Community auf?

Unser Standort in Ostfriesland ist für uns kein Nachteil, sondern Teil unserer Geschichte. Picturo ist von Anfang an als digitale Plattform konzipiert worden, bei der der Standort des Teams keine Rolle für die Reichweite spielt. Der Bedarf bei Fotograf*innen in ganz Europa ist so groß, dass Anfragen zur Teilnahme an unserer Plattform bereits heute organisch entstehen. Viele Fotograf*innen suchen gezielt nach Möglichkeiten, international sichtbar zu werden und neue Kund*innen zu erreichen. Durch klare Positionierung, einfache Nutzung und einen starken Fokus auf lokale Sichtbarkeit schaffen wir Vertrauen und Wachstum – unabhängig vom Standort. So bauen wir Schritt für Schritt eine internationale Community auf: digital, skalierbar und nachhaltig.

Euer Portfolio ist breiter als das der Konkurrenz. Wie genau funktioniert das Geschäftsmodell? Zahlt der/die Kund*in pro Bild oder ist es ein Abo-Modell?

Der Kern von Picturo liegt klar auf der Vermittlung und Sichtbarkeit von professionellen Fotografinnen. Unser Geschäftsmodell basiert auf abonnementbasierten Mitgliedschaften für die Fotografinnen. Für Kund*innen ist die Nutzung der Plattform vollständig kosten- und provisionsfrei; ebenso fallen keine Buchungsprovisionen an. Fotograf*innen zahlen eine monatliche Subscription für Sichtbarkeit, Reichweite und den Zugang zu qualifizierten Anfragen. Dieses Modell schafft Transparenz, vermeidet Reibung im Buchungsprozess und ist für beide Seiten fair und planbar.

Ihr bietet auch einen Guide zu lokalen Hotspots (Bars, Cafés) an. Ist das „nur“ ein Content-Marketing-Tool, um Traffic auf die Seite zu bekommen, oder plant ihr Kooperationen mit der Gastronomie als weitere Einnahmequelle?

Der Guide zu lokalen Hotspots ist aktuell in erster Linie als Mehrwert für Nutzer*innen gedacht und unterstützt den organischen Traffic sowie die Sichtbarkeit der Plattform. Gleichzeitig sehen wir darin großes strategisches Potenzial über reines Content-Marketing hinaus. Perspektivisch planen wir, diesen Bereich für Kooperationen mit lokalen Partnern wie Cafés, Bars oder Hotels zu öffnen.

Eine Plattform europaweit zu skalieren, kostet Geld und Ressourcen. Wie habt ihr euch bisher finanziert?

Aktuell ist Picturo vollständig eigenfinanziert und damit komplett gebootstrapped. Die Entwicklung der Plattform sowie der Markteintritt in erste Länder wurden aus eigenen Mitteln realisiert. Nun befinden wir uns an einem Punkt, an dem wir gezielt nach strategischen Partnern und Investor*innen suchen, um die nächste Skalierungsstufe zu erreichen. Ziel ist es, gemeinsam schneller zu wachsen und das internationale Potenzial von Picturo voll auszuschöpfen.

Wenn du auf die Zeit seit der Gründung der UG zurückblickst: Was war bisher der wichtigste Meilenstein, bei dem du wusstest: „Okay, das hier funktioniert wirklich“?

Der wichtigste Meilenstein war die Einführung des Abo-Modells. Trotz der Umstellung auf ein kostenpflichtiges Angebot lief das Onboarding ungebrochen weiter und neue Fotograf*innen traten der Plattform bei. In diesem Moment wurde klar, dass Picturo ein echtes Problem löst und einen echten Mehrwert bietet. Die Bereitschaft, für Sichtbarkeit und Reichweite zu bezahlen, hat bestätigt, dass der Bedarf im Markt vorhanden ist. Ab diesem Punkt war klar: Das Modell funktioniert.

Wo siehst du Picturo in drei Jahren?

In drei Jahren ist Picturo in vielen EU-Ländern aktiv und als internationaler Marktplatz für lokale Fotograf*innen etabliert. Gemeinsam mit starken Partnern ist die Plattform breit ausgerollt und für Nutzer*innen die erste Adresse bei der Fotografensuche.

Und last but not least: Welche Tipps würdest du anderen Gründer*innen geben, die gerade am Anfang stehen – vielleicht auch jenen, die nicht in den großen Hubs wie Berlin oder München sitzen?

Der wichtigste Tipp ist, sich konsequent an einem echten Problem zu orientieren und früh mit Nutzer*innen zu sprechen. Der Standort ist dabei zweitrangig – entscheidend sind Fokus, Umsetzungsstärke und Durchhaltevermögen. Gerade außerhalb großer Startup-Hubs kann man oft ruhiger, effizienter und näher am Markt arbeiten. Wichtig ist, früh zu testen, Feedback ernst zu nehmen und das Produkt Schritt für Schritt zu verbessern. Netzwerke, Partnerschaften und digitale Sichtbarkeit sind heute wichtiger als ein physischer Standort.

Hier geht’s zu Picturo

Das Interview führte StartingUp-Chefredakteur Hans Luthardt

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Strategischer Fokus auf Multimorbidität: Oska Health sichert sich 11 Mio. Euro

Das Frankfurter HealthTech-Unternehmen Oska Health hat eine Finanzierungsrunde über 11 Millionen Euro abgeschlossen. Angeführt von Capricorn Partners und SwissHealth Ventures, adressiert das Start-up die Versorgungslücke bei chronisch Kranken. Ein Blick auf das Geschäftsmodell, die personelle Aufstellung und die Herausforderungen im regulierten Gesundheitsmarkt.

In der aktuellen Seed-Runde haben sich neben den Lead-Investoren Capricorn Partners und SwissHealth Ventures auch Revent, Calm Storm, BMH, LBBW Venture Capital, GoHub Ventures und Aurum Impact beteiligt. Mit dem frischen Kapital plant Oska Health, die technologische Infrastruktur auszubauen und das Versorgungsmodell, das bereits mit über 20 Krankenkassen (darunter die KKH) etabliert wurde, in die Breite zu bringen.

Adhärenz als wirtschaftlicher Hebel

Der Fokus des 2022 gegründeten Unternehmens liegt auf sog. multimorbiden Patient*innen – Menschen, die gleichzeitig an mehreren chronischen Leiden wie Nierenerkrankungen (CKD), Diabetes und Bluthochdruck leiden. Ein Kernproblem in diesem Bereich ist die mangelnde Therapietreue im Alltag (Adhärenz). Statistiken des Gesundheitswesens belegen, dass etwa 50 % der chronisch Kranken ihre Medikamente nicht vorschriftsmäßig einnehmen. Oska Health setzt hier auf eine hybride Betreuung: Ein digitaler Begleiter (App) wird durch persönliches Coaching via Video und Chat ergänzt.

Ziel dieses Ansatzes ist die Reduktion von vermeidbaren Komplikationen und teuren Krankenhausaufenthalten. Für die Kostenträger stellt dies ein mathematisches Optimierungsproblem dar: Übersteigen die Kosten für die digitale Betreuung die Einsparungen durch verhinderte Akutereignisse? Oska Health scheint hier erste überzeugende Daten geliefert zu haben, wie die Beteiligung des Venture-Arms der Schweizer CSS Versicherung (SwissHealth Ventures) signalisiert.

Das Gründungsteam: Erfahrung aus der Industrie

Ein wesentliches Merkmal von Oska Health ist der „Founder-Market-Fit“. Die Gründer*innen kommen nicht aus der klassischen Software-Entwicklung, sondern bringen tiefgreifende Branchenerfahrung aus dem Gesundheitssektor mit:

  • Niklas Best (CEO): War zuvor über zehn Jahre in der Branche tätig, unter anderem als Director of Digital Products bei Fresenius Medical Care. Er verfügt über einen Executive MBA der Universität St. Gallen.
  • Dr. Malte Waldeck (CFO/COO): Der promovierte Wirtschaftswissenschaftler (RWTH Aachen) sammelte Erfahrungen im Investmentbanking (Metzler) sowie in Führungspositionen bei DaVita Kidney Care und der D.med Healthcare Group.
  • Claudia Ehmke (CPO): Verantwortet mit langjähriger Erfahrung in der Tech-Szene (u.a. bei der Design-Agentur ustwo in London) die Nutzerschnittstelle und Produktstrategie.

Diese personelle Konstellation dürfte den Zugang zu den oft schwer zugänglichen Entscheidungsträgern der Gesetzlichen Krankenversicherungen (GKV) erleichtert haben.

Strukturelle Herausforderungen und Wettbewerb

Trotz des Kapitalzuflusses steht das Unternehmen vor den typischen Hürden des deutschen Digital-Health-Marktes. Im Gegensatz zu Digitalen Gesundheitsanwendungen (DiGA), die einen standardisierten Zulassungsweg gehen, nutzt Oska Health sog. Selektivverträge. Dieser Weg erfordert einen deutlich höheren individuellen Vertriebsaufwand pro Krankenkasse, ermöglicht aber eine tiefere Integration in bestehende Versorgungspfade.

Ein kritischer Faktor bleibt die Skalierbarkeit. Ein Modell, das auf menschliches Coaching setzt, hat naturgemäß höhere Grenzkosten als eine reine Software-Lösung. Oska Health begegnet dem durch den Einsatz von KI, um administrative Aufgaben der Coaches zu automatisieren. Der Erfolg der nächsten Jahre wird davon abhängen, ob die technologische Unterstützung die Effizienz so weit steigert, dass eine flächendeckende Versorgung bei gleichbleibender Marge möglich ist.

Zudem ist das Marktumfeld für Chronic Care Management zunehmend besetzt. Während spezialisierte Anbieter wie Oviva (Ernährung) oder Mika (Onkologie) einzelne Nischen besetzen, positioniert sich Oska Health durch die Fokussierung auf die komplexere Multimorbidität. Dies vergrößert zwar die Zielgruppe, erhöht jedoch gleichzeitig die regulatorischen Anforderungen an das Produkt als zertifiziertes Medizinprodukt.

Einordnung für den Start-up-Sektor

Die Finanzierung von Oska Health zeigt einen deutlichen Trend im HealthTech-Investment: Kapital fließt verstärkt in Modelle, die nicht nur eine digitale Lösung bieten, sondern eine nachweisbare Integration in die Abrechnungsstrukturen des Gesundheitssystems vorweisen können. Für Gründer*innen im Bereich Medtech verdeutlicht der Fall Oska, dass Branchenexpertise und die Wahl des richtigen Erstattungsweges oft wichtiger sind als die reine technologische Innovation. Ob sich der hybride Ansatz langfristig gegen rein algorithmische Lösungen durchsetzt, wird an den klinischen und ökonomischen Langzeitdaten der Krankenkassen-Partner gemessen werden.

11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will

Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.

Vom Forschungsprojekt zum DeepTech-Unternehmen

Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).

Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.

Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine

FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.

Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.

Die Produktion als eigentlicher Hebel

Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.

Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.

Die Realität der Skalierung: Verträge statt Prototypen

Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.

Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.

Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.

12 Mio. USD für Secfix: Vom simplen Compliance-Tool zur europäischen Security-Plattform

Die regulatorischen Daumenschrauben für Europas Unternehmen ziehen sich an. Das Münchner Start-up Secfix liefert die passenden Antworten – und sichert sich nun in einer überzeichneten Series-A-Runde 12 Millionen US-Dollar.

Heute verkündet das Münchner Start-up Secfix einen bedeutenden Meilenstein: Das Unternehmen, das sich als eine der führenden End-to-End Security-Compliance-Plattformen in Europa positioniert, hat eine überzeichnete Series-A-Finanzierung in Höhe von 12 Millionen US-Dollar erfolgreich abgeschlossen. Angeführt wird die Kapitalmaßnahme von Alstin Capital. Flankiert wird der Lead-Investor von Bayern Kapital sowie dem Bestandsinvestor neosfer, der Innovationseinheit der Commerzbank-Gruppe.

Von der TU München zur europäischen Expansion

Hinter Secfix stehen die CEO Fabiola Munguia sowie ihre Mitgründer Grigory Emelianov (CTO) und Branko Džakula (CISO). Die Wurzeln des Start-ups reichen an die Technische Universität München (TUM) zurück, wo Munguia und Emelianov studierten. Zunächst startete das Team 2021 mit Requestee, einem Marktplatz für ethische Hacker und Penetrationstests – eine Gründungsgeschichte, über die StartingUp bereits ausführlich in einem Porträt berichtet hat.

Doch im direkten Austausch mit Start-ups und dem Mittelstand erkannten die Gründer*innen durch gutes Zuhören am Markt ein weitaus gravierenderes, strukturelles Problem: Europäische Unternehmen standen vor enormen Hürden, da Security-Zertifizierungen bis zu 18 Monate dauerten und extrem viel manuellen Aufwand erforderten. Dieser langsame und teure Prozess hemmte das Wachstum massiv, denn ohne die passenden Nachweise verzögerten sich wichtige Vertragsabschlüsse, was teilweise zu Millionenverlusten führte. Das Team verinnerlichte eine wichtige unternehmerische Lektion: Compliance ist kein reines IT-Thema, sondern ein entscheidender Wachstumshebel, um Enterprise-Deals überhaupt abschließen zu können. Aus dieser Erkenntnis heraus vollzog das Team einen strategischen Pivot zu Secfix (sie offizielle Umfirmierung und Rechtsformwandlung erfolgte im Januar 2023), um die Prozesse für Standards wie ISO 27001, den EU AI Act, NIS2, DSGVO und SOC 2 grundlegend zu automatisieren.

Vom reinen Tool zum strategischen Partner

Was bei Secfix ursprünglich als reines GRC-Automatisierungstool (Governance, Risk, Compliance) begann, hat sich laut Unternehmensangaben mittlerweile zu einer KI-gestützten End-to-End Security-Compliance-Plattform in Europa weiterentwickelt. Dies ist eine direkte Antwort auf die Marktdynamik: Mit Vorgaben wie ISO 27001, NIS2, DORA und dem EU AI Act steigt der regulatorische Druck auf europäische Firmen derzeit erheblich an. Um in diesem komplexen Umfeld nicht nur bloße Checkbox-Compliance zu betreiben, vereint Secfix heute Compliance-Automatisierung mit einem KI-nativen "CISO-as-a-Service". Das Portfolio deckt dabei weite Teile der Sicherheitsinfrastruktur ab und reicht von kontinuierlichem Monitoring, Incident-Management und Access-Management bis hin zu Cloud-Security-Scanning, Penetrationstests und vollumfänglicher Security-Führung.

Dieser ganzheitliche Ansatz scheint im Markt auf Resonanz zu stoßen: Laut Secfix können Kund*innen die Dauer ihrer Zertifizierungsprozesse durch die Plattform um bis zu 90 Prozent verkürzen. Gleichzeitig verweist das Start-up auf eine Audit-Erfolgsquote von 100 Prozent. Aktuell vertrauen bereits Hunderte von Kund*innen in über 15 europäischen Ländern auf den Service, darunter renommierte Unternehmen wie WorkMotion, Veremark, Orianda und Trafigura sowie Banken und Energieunternehmen.

Die nächsten Schritte: Europa im Visier und „Smart Money“ an Bord

Mit dem frischen Kapital will Secfix nun die Expansion in ganz Europa gezielt vorantreiben. Zudem investiert das Unternehmen in die Weiterentwicklung seiner KI-gestützten Automatisierung und skaliert das CISO-as-a-Service-Angebot für die wachsende Nachfrage im Mid-Market.

Die strategische Neuausrichtung bringt Fabiola Munguia, die CEO des Münchner Unternehmens, wie folgt auf den Punkt: „Wir haben damit begonnen, Unternehmen schnell und unkompliziert zur Zertifizierung zu bringen. Heute werden wir zu ihrem langfristigen Security- und Compliance-Partner für alles, was danach kommt. Unsere Vision ist es, Secfix als führende End-to-End Security-Compliance-Plattform Europas zu etablieren, die Unternehmen von der ersten ISO-27001-Zertifizierung an durch ihre gesamte Security- und Compliance-Reise begleitet.“

Für das weitere Wachstum setzt Secfix dabei ganz bewusst auf "Smart Money". Mit dem Lead-Investor Alstin Capital holt sich das Start-up einen Münchner Fonds an Bord, der stark auf B2B-Software fokussiert ist. Besonders wertvoll dürfte der „All-in“-Ansatz des Investors sein: Neben Kapital unterstützt Alstin die Gründerteams aktiv durch Sales-Coaching, Go-to-Market-Strategien sowie den Zugang zu relevanten Industriekontakten.

10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI

Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.

Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.

Fokus auf den „Motor“ der B2B-Wirtschaft

Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.

Messbare Ergebnisse bei Industrie-Größen

Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.

Strategische Expansion und massives Team-Wachstum

Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.

Das Thermoskannen-Prinzip: Kann V21 die Logistik-Welt revolutionieren?

Das Team des Hamburger DeepTech-Start-up V21 – Roland Wiedenroth, Dr.-Ing. Tom Marr, Kristina Rübenkamp, Dr. Jens Struckmeier und Nicolas Röhrs – entwickelt extrem dünne und robuste Dämmplatten aus Edelstahl, die nach dem Prinzip einer flachen Thermoskanne funktionieren und Container oder Gebäude hocheffizient sowie platzsparend isolieren. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt mit 125.000 Euro.

Ob Impfstoffe, Südfrüchte oder modulare Klassenzimmer: Container sind das Rückgrat der globalen Wirtschaft. Doch sie sind energetische Sorgenkinder. Um Innentemperaturen stabil zu halten, fressen Kühlaggregate (Reefer) enorme Mengen Strom, während herkömmliche Dämmstoffe wie Styropor oder Mineralwolle wertvollen Laderaum rauben. Hier setzt die 2019 gegründete V21 GmbH (kurz V21) an. Die Vision: Eine Dämmung, die so dünn wie effizient ist.

An der Spitze des Unternehmens steht ein Team, das tief in der Industrie verwurzelt ist. CEO Roland Wiedenroth, ein erfahrener Logistik- und Industrieexperte, leitet die Strategie und den Markteintritt. Er weiß um die Schmerzpunkte der Branche und treibt die Vision voran, die „Thermoskanne flach zu machen“. Mitbegründer und CIO Dr. Jens Struckmeier bringt die nötige wissenschaftliche Tiefe ein: Der promovierte Physiker und Mathematiker gilt als Clean-Tech-Pionier und hat bereits mit dem Start-up Cloud&Heat bewiesen, wie man physikalische Prinzipien in nachhaltige Geschäftsmodelle übersetzt. Über die Kerninnovation sagt er: „Wir haben die Thermoskanne flach gemacht und bringen sie an die Wand. Grundlage dafür war ein Patent, in dessen Kern der Verbund vieler kleiner Thermoskannen stand.“

DeepTech gegen das Vakuum-Dilemma

Dass V21 als klassisches DeepTech-Unternehmen gilt, liegt an der Überwindung einer massiven ingenieurtechnischen Hürde. Vakuum ist physikalisch der beste Isolator, doch bisherige Vakuumisolationspaneele (VIP) waren empfindlich wie rohe Eier. Das Produkt „ZeroCoreVac“ von V21 schlägt hier einen technologisch radikalen Weg ein, der sich fundamental von etablierten Lösungen unterscheidet. Während Marktführer wie va-Q-tec oder Panasonic primär auf Paneele setzen, die aus einem silikabasierten Kern bestehen, der von einer metallisierten Kunststoffverbundfolie umschlossen wird, verzichtet V21 komplett auf diese fragile Außenhaut.

Anstelle der Folie nutzt das Start-up eine robuste Kapselung aus hauchdünnem Edelstahl. Verantwortlich für diese Materialinnovation ist CTO Dr.-Ing. Tom Marr. Als Werkstoffingenieur mit einem Fokus auf Automatisierung und Fertigung treibt er die Serienreife der Technologie voran. Wo herkömmliche VIPs einen Stützkern aus Pulver benötigen, ermöglicht die von Marr und Struckmeier entwickelte, patentierte Struktur ein System, das ohne klassische Füllmaterialien auskommt. Diese Konstruktion macht das Paneel nicht nur mechanisch extrem belastbar, sondern löst auch das Thema Brandschutz, da keinerlei brennbare Kunststoffe verbaut sind. Ein weiterer Vorteil ist die vollständige Kreislauffähigkeit: Das Paneel kann am Ende seiner Lebenszeit – die V21 auf über 50 Jahre schätzt – als wertvoller Edelstahlschrott recycelt werden.

Das Geschäftsmodell: Skalierung durch Lizenzen?

V21 verfolgt eine zweistufige Strategie: Zunächst adressiert man B2B-Nischen wie den Modulbau, bevor der globale Container-Markt angegriffen wird. Dabei setzt das Start-up auf ein Lizenzmodell. Unterstützt wird dieser Skalierungskurs durch den Mitbegründer und Chairman Nicolas Röhrs, einen erfahrenen Technologieunternehmer, der auf den Aufbau strategischer Industriepartnerschaften spezialisiert ist. Finanziell wird das Wachstum von CFO Kristina Rübenkamp gesteuert, die ihre Expertise in Planung und Investorenkommunikation einbringt, um die nötige Transparenz für großangelegte Rollouts zu schaffen.

Ein solcher Lizenzansatz verspricht zwar schnelle Skalierung ohne massiven Kapitalaufwand für den eigenen Maschinenpark, doch Vakuumtechnik verzeiht keine Fehler. Die Herausforderung wird sein, sicherzustellen, dass Lizenzpartner weltweit die nötige Präzision beim Verschweißen der Edelstahlhüllen einhalten. Zudem bleibt der Margendruck in der Logistikbranche brutal. Die Rechnung geht für Reedereien nur auf, wenn die versprochene Energieeinsparung von bis zu 50 % und der Raumgewinn (ca. 10 bis 20 % mehr Nutzlast) die Initialkosten zügig amortisieren.

Die Belastungsprobe: Zwischen Theorie und Hochsee-Realität

Trotz technologischer Brillanz muss sich V21 in der Praxis beweisen. In der maritimen Logistik herrschen gnadenlose Bedingungen: Halten die präzisen Schweißnähte den permanenten Vibrationen und der aggressiven Salzwasserbelastung auf einem Containerschiff über Jahrzehnte stand? Ohne diese belastbaren Langzeitnachweise unter Realbedingungen bleibt das Risiko eines schleichenden Vakuumverlusts ein Argument, das gerade konservative Reedereien zögern lässt.

Parallel dazu steht die ökonomische Hürde im Raum. Solange CO-Zertifikate noch verhältnismäßig günstig bepreist sind, bleibt die High-End-Dämmung ein erklärungsbedürftiges Investment mit hohem „Green Premium“. Damit die Technologie den Sprung aus der Nische schafft, müssen die Produktionskosten durch konsequente Automatisierung massiv sinken. Erst wenn der ökologische Vorsprung auch betriebswirtschaftlich zum sofortigen Selbstläufer wird, dürfte das Hamburger Start-up die Branche nachhaltig umkrempeln.

Fazit

V21 hat ein technologisch exzellentes Produkt, das ein reales Problem der Dekarbonisierung löst. Die eigentliche unternehmerische Leistung wird nun darin bestehen, die Skalierung so effizient zu gestalten, dass der Preis für den Massenmarkt akzeptabel wird. Wenn die Hamburger den Beweis der Langlebigkeit unter Realbedingungen antreten, könnten sie zum neuen Standard für temperaturgeführte Logistik aufsteigen. Bis dahin bleibt es ein mutiger Ritt gegen etablierte Chemie-Riesen und die billige Dominanz von Styropor.

Battle-Tested & German Engineered: Das neue Power-JV der Drohnenwelt

Mit QFI startet die erste vollautomatisierte Produktionslinie für ukrainische Drohnen in Europa. Ein Gamechanger für die „Build with Ukraine“-Initiative und ein Weckruf für das deutsche Tech-Ökosystem. Agilität schlägt Trägheit: Unsere Analyse über die Architekten der neuen europäischen Resilienz und die Rolle von Start-ups.

Während die klassische Rüstungsindustrie oft mit jahrzehntelangen Entwicklungszyklen ringt, zeigt ein deutsch-ukrainisches Joint Venture, wie das „New Defense“-Zeitalter in Lichtgeschwindigkeit skaliert. Nur zwei Monate nach der offiziellen Ankündigung ist das Joint Venture Quantum Frontline Industries (QFI) operative Realität. Ein symbolträchtiger Moment markierte am 13. Februar den Startschuss: Auf seinem Weg zur Münchner Sicherheitskonferenz nahm der ukrainische Präsident Wolodymyr Selenskyj im Werk bei München die erste in Deutschland gefertigte Linza 3.0 entgegen – ein Meilenstein, der unter der Schirmherrschaft von Verteidigungsminister Boris Pistorius als neues „Leuchtturmprojekt“ der europäischen Souveränität gefeiert wird.

Das „German Model“: Wenn Software-Agilität auf automatisierte Masse trifft

QFI ist mehr als eine Fabrik; es ist der Prototyp des sogenannten German Model. Hier verschmilzt die operative Erfahrung von Frontline Robotics aus dem aktivsten Drohnenkrieg der Geschichte mit der industriellen Exzellenz der Münchner Quantum Systems GmbH. Das Ziel ist ambitioniert: Allein 2026 sollen 10.000 Einheiten der Modelle Linza und Zoom vom Band laufen. Diese Systeme sind hochgradig gegen elektronische Kampfführung (EW) gehärtet und finden dank KI-gestützter visueller Navigation auch ohne GPS-Signal ihr Ziel.

Dieser Erfolg strahlt auf das gesamte deutsche Ökosystem aus. Wir erleben derzeit, wie eine neue Generation von Gründern die Grenzen zwischen digitaler und physischer Souveränität neu zieht.

Ein vernetztes Ökosystem: Die Architekten der Resilienz

Hinter dem Erfolg von QFI steht ein Geflecht aus spezialisierten DeepTech-Akteuren, die Deutschland zum führenden Defense-Hub Europas gemacht haben. Während Quantum Systems mit seinem Status als „Triple Unicorn“ (Bewertung > 3 Mrd. €) die industrielle Skalierung im Luftraum beherrscht, liefert das Münchner Decacorn Helsing (bewertet mit 12 Mrd. €) das digitale Rückgrat. Helsing fungiert als der softwareseitige Integrator, dessen KI-Plattformen heute die Koordination zwischen autonomen Schwärmen und bemannten Einheiten übernehmen.

Am Boden setzt ARX Robotics Maßstäbe. Das Start-up hat seine Series-A im Sommer 2025 auf 42 Millionen Euro aufgestockt und Partnerschaften mit Schwergewichten wie Daimler Truck und Renk geschlossen. Ihr Betriebssystem Arx Mithra OS ermöglicht es, bestehende Fahrzeugflotten zu digitalisieren und in autonome „Mensch-Maschine-Teams“ zu verwandeln. Diese physische Präsenz am Boden wird durch die Orbit-Kapazitäten von Reflex Aerospace vervollständigt. Die Berliner liefern jene ISR-Daten (Intelligence, Surveillance, Reconnaissance), die für die Präzision moderner Drohnensysteme unverzichtbar sind.

Um die Abhängigkeit von asiatischen Lieferketten zu brechen, schließt das bayerische Start-up Donaustahl die Lücke in der Basis-Hardware. Mit einer neuen Fertigung in Hutthurm produziert Donaustahl nicht nur die bewährte „Maus“-Drohne, sondern skaliert die Produktion von Drohnenmotoren und Gefechtsköpfen wie dem „Shahed-Killer“. Ziel ist eine vollkommen souveräne Wertschöpfungskette „Made in Bavaria“, die auch bei globalen Handelskrisen handlungsfähig bleibt.

Der Finanz-Turbo: ESG als Enabler

Dass dieses Ökosystem so rasant wächst, liegt an einem fundamentalen Shift in der Finanzwelt. Seit die EU Verteidigungsinvestitionen offiziell als nachhaltigen Beitrag zur Sicherheit eingestuft hat, ist das Stigma verflogen. Investoren wie DTCP mit ihrem 500-Millionen-Euro-Fonds „Project Liberty“ oder die KfW über den „Ukraine Recovery Fund“ treiben die Skalierung voran. DefenseTech ist damit endgültig in den Portfolios institutioneller Anleger angekommen.

Strategie-Checkliste: Der Masterplan für Dual-Use-Gründer*innen

Für Gründer*innen, die in diesen Markt drängen, hat sich das Spielfeld professionalisiert. Wer 2026 erfolgreich sein will, muss diese fünf Punkte erfüllen:

  1. Dual-Use-DNA: Plane Technologie, die zivil (z.B. Katastrophenschutz) und militärisch nutzbar ist, um den Zugang zu ESG-konformen Kapitalspritzen zu maximieren.
  2. Compliance-Automatisierung: Nutze die neuen BAFA-Genehmigungen (AGG 45/46) für beschleunigte Exporte innerhalb der NATO und an strategische Partner.
  3. BSI-Kriterien erfüllen: Militärische Kund*innen akzeptieren nur Hardware, die höchsten Sicherheitsstandards (C5-Kriterien) entspricht.
  4. Operational Feedback-Loops: Suche Kooperationen für „Battle-Testing“. Echte Einsatzdaten sind 2026 die wichtigste Währung für technologische Überlegenheit.
  5. Mission-Driven Recruiting: Nutze den „Schutz der Demokratie“ als USP, um Top-KI-Talente von zivilen BigTech-Konzernen abzuwerben.

Fazit: Agilität schlägt Trägheit

Die Gründung von QFI ist der Beweis, dass Europa seine industrielle Trägheit ablegen kann. Durch die Verbindung von Start-up-Mentalität, staatlicher Rückendeckung und automatisierter Fertigung entsteht eine neue Form der technologischen Souveränität. Für das deutsche Ökosystem bedeutet das: Wir bauen nicht mehr nur Apps – wir bauen die Sicherheit der Zukunft.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

ChatGPT schreibt Texte. R3 Robotics zerlegt Batterien

Es gibt Probleme, die man mit Software lösen kann, und es gibt Probleme, für die man sich die Hände schmutzig machen muss – oder besser: Roboterhände nutzt. Antoine Welter und Dr. Xavier Kohll haben mit Circu Li-ion begonnen, um Batterien zu retten. Jetzt, unter dem neuen Namen R3 Robotics und mit 20 Millionen Euro frischem Kapital im Rücken, treten sie an, um den wohl größten Flaschenhals der kommenden Mobilitätswende zu beseitigen. Ihr Ansatz: Keine teuren Spezialmaschinen, sondern intelligente Standard-Roboter, die sehen, verstehen und sicher zupacken.

Wenn in den Vorstandsetagen der Automobilhersteller über die Zukunft gesprochen wird, geht es meist um Reichweiten und Software-Defined Vehicles. Doch am anderen Ende der Wertschöpfungskette braut sich ein Sturm zusammen. Millionen von Elektrofahrzeugen werden in den kommenden Jahren ihr Lebensende erreichen. Die derzeitige Realität in vielen Recyclinghöfen wirkt dagegen fast archaisch: Menschen, die mit Handwerkzeugen komplexe Systeme auseinanderschrauben. Das ist nicht nur teuer und schwer skalierbar, sondern bei Hochvolt-Systemen auch lebensgefährlich.

Genau hier setzen Antoine Welter und Xavier Kohll an. Die Nachricht, die das deutsch-luxemburgische Unternehmen Anfang Februar 2026 verkündete, ist mehr als nur eine Finanzierungsrunde. Die 20 Millionen Euro – aufgeteilt in 14 Millionen Euro Series-A-Kapital und 6 Millionen Euro öffentliche Fördergelder – heben die Gesamtfinanzierung des Unternehmens auf ein neues Level. Angeführt wird die Runde von HG Ventures und Suma Capital, unterstützt von Co-Investoren wie der Oetker Collection und dem EIC Fund.

Doch das Geld ist nur der Treibstoff für eine strategische Evolution. Aus Circu Li-ion wird R3 Robotics. Der neue Name ist Programm: Repair, Reuse, Recycle. Antoine Welter erklärt die Motivation hinter der Umbenennung pragmatisch: „Circu Li-ion hat beschrieben, wo wir angefangen haben. R3 Robotics beschreibt, was wir aufbauen: industrielle Robotik, die Demontage skalierbar, sicher und kosteneffizient macht.“

Wenn der Roboter Augen bekommt

Die größte Hürde im Recycling ist nicht die Chemie, sondern die Variabilität. Kein Batteriepack gleicht dem anderen, E-Motoren sind unterschiedlich verbaut, Schrauben sind korrodiert. Starre Fertigungsstraßen scheitern hier. R3 Robotics löst dies mit einer Plattform, die Computer Vision, künstliche Intelligenz und Robotik verschmilzt.

Das System fungiert dabei fast wie ein „ChatGPT für die physische Welt“: Anstatt Text zu generieren, plant die KI physische Handlungen. Sensoren scannen das Bauteil, die KI erkennt den Zustand und promptet den Roboterarm dynamisch durch den Demontageprozess. Der entscheidende Vorteil: Der Mensch wird aus der Gefahrenzone der Hochspannung genommen, während der Roboter Aufgaben erledigt, die für klassische Automatisierung zu komplex wären.

Angesprochen auf den Vergleich mit Generative AI und die Frage, wie die Roboter tatsächlich „sehen“ und „entscheiden“, bestätigt Welter die Parallele: „Der Vergleich mit Generative AI passt gut: Das Modell bekommt einen Input – keinen Text, sondern einen Scan des Bauteils – und generiert daraus eine Handlungssequenz.“ Es gehe darum zu erkennen, um welches Modell es sich handelt, wie der Zustand ist und wo die Verbindungspunkte liegen. „Das klingt simpel, ist es aber nicht – kein Pack ist identisch“, so Welter. Die eigentliche Herausforderung liege jedoch in der Entscheidung davor: „Welche Reihenfolge ist sicher? Ein falscher Griff an ein Hochvoltsystem kann tödlich sein. Unser System sieht, bewertet und entscheidet.“

Smart Hardware: Warum das Rad neu erfinden?

Ein Detail, das Investor*innen besonders aufhorchen lässt, ist die Kapitaleffizienz der Gründer. Wer an Industrie-Robotik denkt, denkt an teure Hardware-Entwicklung. R3 Robotics geht einen pragmatischen Weg: Ein Großteil der verwendeten Hardware wird „von der Stange“ gekauft.

Die Roboterarme sind Standardprodukte. Die Innovation – und damit das geistige Eigentum – steckt in den spezialisierten „End-Effektoren“ (den Roboterhänden), den Sensorsystemen und vor allem dem Software-Stack, der alles steuert. Das erlaubt eine Skalierung, die mit proprietärer Hardware kaum möglich wäre. Mitgründer Dr. Xavier Kohll betont, dass dies eine bewusste Entscheidung gegen „Over-Engineering“ war: „Der Roboterarm ist Standard und die Intelligenz sitzt in den Endeffektoren, der Sensorik und dem Software-Stack, der alles zusammenbringt. Das ist unser geistiges Eigentum, und genau das lässt sich skalieren.“

David gegen Goliath – oder Partner?

Während große Recycling-Konzerne oft noch auf den Schredder setzen und die manuelle Demontage an ihre Grenzen stößt, positioniert sich R3 Robotics in einer neuen Nische. Es geht nicht darum, die Chemie-Giganten zu ersetzen, sondern ihnen den Rohstoff so rein wie möglich zu liefern – als strategische Quelle für kritische Materialien. Doch der Markt schläft nicht: Weltweit entstehen Initiativen zur Automatisierung.

Trotz des aktuellen „Gegners“ – dem Menschen mit dem Schraubenzieher – und potenzieller Konkurrenz durch Tech-Start-ups oder Autohersteller, bleibt Welter gelassen. „Wir konkurrieren nicht mit den Chemie-Giganten, wir liefern ihnen den reinsten möglichen Stoffstrom“, stellt er klar. Gegenüber potenziellen Nachahmern sieht er einen entscheidenden Vorteil, den „Unfair Advantage“: die Kombination aus Flexibilität und industrieller Automatisierungstiefe. „Wir sind aktuell die einzige Plattform, die sowohl Variabilität managt als auch für kontinuierlichen Industriebetrieb ausgelegt ist.“

Deutschland als Labor, USA als Skalierungsmarkt

Die Wachstumsstrategie von R3 Robotics ruht auf zwei massiven Säulen: technologischer Tiefe in Europa und kommerzieller Breite in den USA.

Deutschland fungiert dabei als das technologische Rückgrat. Mit der Erweiterung der Anlage in Karlsruhe zur Lighthouse Facility demonstriert das Unternehmen industrielle Leistungsfähigkeit direkt vor der Haustür der großen Autobauer. Hier wird die Technologie gehärtet. Das zeigt sich auch im Leuchtturmprojekt ReDriveS, wo R3 Robotics Seite an Seite mit Giganten wie Schaeffler und VW an der Demontage von E-Achsen arbeitet.

Doch für das massive Volumen blickt das Team über den Atlantik. Der für 2026 geplante Markteintritt in den USA ist Kern der neuen Strategie. Die frischen 20 Millionen Euro sollen gezielt in den Aufbau strategischer Partnerschaften vor Ort fließen, um die Technologie dort auszurollen, wo Pragmatismus auf riesige „End-of-Life“-Volumina trifft. Für Welter ist dieser Doppelschlag essenziell: „Deutschland ist unser Beweisstand. Hier zeigen wir Schaeffler, VW und Co., dass unsere Technologie industriellen Maßstäben in Deutschland standhält.“ Die USA seien hingegen der wichtige Skalierungsmarkt, wo pragmatische Entscheider auf gigantische Volumina treffen. „Beides brauchen wir: die Glaubwürdigkeit aus Europa und das Volumen aus Amerika.“

Industrialisierung statt Romantik

Mit Peter Mohnen, dem ehemaligen CEO des Roboter-Riesen KUKA, holte sich das Start-up zudem einen Beirat, der wie kaum ein anderer weiß, was Industriestandard bedeutet. Er beschreibt den Ansatz von R3 als Beweis für die nötige Automatisierungsexpertise, um Variabilität und Sicherheit gleichzeitig zu managen.

Um diese Expertise weiter auszubauen, wächst das Team rasant. Die Belegschaft soll mit der neuen Finanzierung massiv aufgestockt werden, vor allem im Bereich Engineering und KI. R3 Robotics hat den Beweis erbracht, dass Kreislaufwirtschaft kein ökologisches Nischenprojekt sein muss, sondern ein harter industrieller Prozess ist, der sich rechnet.

Denn letztlich, so das Fazit von Antoine Welter, sei Automatisierung der einzige Weg, das Problem wirklich zu lösen – nicht allein aus ökologischen Gründen, sondern weil es wirtschaftlich Sinn ergibt. „Was wir aufbauen, ist am Ende ein harter industrieller Prozess: Er muss zuverlässig funktionieren und sich rechnen.“ Es gehe aber um mehr als ein Geschäftsmodell: „Europa braucht eine Antwort auf die Frage, woher seine kritischen Materialien in Zukunft kommen“, mahnt Welter abschließend. „Wenn Europa diesen Zugang sichern will, braucht es Unternehmen, die genau das industriell umsetzen können. Dafür bauen wir diese Infrastruktur, und mit dem neuen Kapital und Team haben wir jetzt die Mittel dazu.“

Seed-Runde: Leipziger HRTech clarait erhält über 1,5 Mio. Euro

Das 2023 von Johannes Bellmann, Miriam Amin und Thilo Haase gegründete Start-up clarait digitalisiert einen der letzten analogen Bereiche im Unternehmen: die Zusammenarbeit zwischen Betriebsräten und HR.

Die clarait GmbH hat den Abschluss einer Seed-Finanzierungsrunde bekanntgegeben und sichert sich Kapital in Höhe von über 1,5 Millionen Euro. Lead-Investor der Runde ist der TGFS Technologiegründerfonds Sachsen, der einen siebenstelligen Betrag investiert. Als Co-Investor beteiligt sich der HR Angels Club, ein europaweites Netzwerk aus erfahrenen HR-Führungskräften und Investoren.

Marktlücke: Der „White Spot“ zwischen HR- und Legal-Tech

Während klassische HR-Prozesse wie Payroll oder Recruiting längst digitalisiert sind, gilt der Bereich der „Labour Relations“ (betriebliche Mitbestimmung) als einer der letzten kaum erschlossenen Märkte. In vielen Unternehmen dominiert hier noch der „Status Quo“ – ein Vorgehen, das angesichts strenger Compliance-Vorgaben und der DSGVO zunehmend riskant wird.

Clarait positioniert sich hier mit zwei verknüpften SaaS-Lösungen:

  • BRbase unterstützt Betriebsräte bei der strukturierten Organisation von Sitzungen, Beschlüssen und Mitbestimmungsprozessen.
  • HRflows liefert der Arbeitgeberseite juristisch geprüfte Workflows für mitbestimmungspflichtige Maßnahmen.

Wettbewerb & USP: Brückenbauer statt Insellösung

Im Wettbewerbsumfeld grenzt sich das Leipziger Start-up deutlich ab. Während etablierte Anbieter oft reine Insellösungen anbieten, verfolgt clarait einen Plattform-Ansatz. Ziel ist es, den Medienbruch zwischen Personalabteilung und Gremium zu beenden und beide Seiten auf einer Infrastruktur zu verbinden.

Das Start-up adressiert damit einen wachsenden Markt, der durch steigende regulatorische Anforderungen und den Trend zu revisionssicheren Workflows getrieben wird. Zu den Kunden zählen bereits DAX-40- und Fortune-500-Unternehmen.

Der „Perfect Fit“: Praxis trifft Prozesslogik

Ein wesentlicher Faktor für das Investment dürfte die Komposition des Gründerteams sein, das die nötige Neutralität für dieses politisch sensible Thema mitbringt:

  • Johannes Bellmann (CEO) vereint die Perspektiven beider Verhandlungspartner und versteht das Geschäftsmodell sowie den Markt der betrieblichen Mitbestimmung tiefgehend.
  • Thilo Haase (CPO) verantwortet die inhaltliche Ausgestaltung der Plattform.
  • Miriam Amin (CTO) vervollständigt das Trio als technische Mitgründerin.

„Smart Money“ und KI-Pläne

Neben dem Kapital des TGFS bringt vor allem der Einstieg des HR Angels Club strategisches Gewicht. Das Netzwerk gilt als „Smart Money“ der HR-Tech-Szene und bietet Zugang zu Entscheidern in Personal- und Organisationsfunktionen. Sören Schuster, Geschäftsführer des TGFS, sieht in der Gremienverwaltung einen „bislang nur unzureichend digitalisierten Bereich“ und bescheinigt dem Team das Potenzial zum Qualitätsführer.

Das frische Kapital soll primär in den Ausbau der Vertriebsorganisation sowie die Weiterentwicklung der Software fließen. Geplant sind unter anderem die Integration von KI-gestützten Assistenzfunktionen sowie die Vorbereitung der Internationalisierung, die zunächst im deutschsprachigen Raum erfolgen soll.

Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht

Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.

Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.

Warum sich Support-ROI 2026 schwerer belegen lässt

Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.

In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.

Das führt dazu, dass Führungsteams häufig Folgendes beobachten:

  • steigende Automatisierungsquoten bei stagnierenden Einsparungen,
  • verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
  • starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.

Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.

Wo sich Customer-Support-ROI tatsächlich zeigt

Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:

  • weniger Rückerstattungen,
  • geringere Eskalationen,
  • einen Rückgang öffentlicher Beschwerden,
  • sinkendes Abwanderungsrisiko.
  • höheres Vertrauen an entscheidenden Punkten der Customer Journey

Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.

In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:

  • Rückerstattungsquote von 40 % auf 4 % gesenkt.
  • CSAT-Anstieg von 50 auf 95.
  • NPS-Steigerung von 32 auf 80.
  • Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
  • Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.

Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.

Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.

So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.

Wie hybrider Support die Wirtschaftlichkeit verändert

Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.

Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:

  • lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
  • liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
  • führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.

In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.

Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.

Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.

Warum hybrider ROI klassische Messlogik sprengt

In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.

Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.

Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.

Was Führungskräfte tatsächlich messen sollten

2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:

  1. Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
  2. Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
  3. Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).

Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.

Wie sich Support-Budgets rechnen

Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?

Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:

  1. Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
  2. Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
  3. Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.

In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.

Fazit

2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.

Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.

Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.

Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.