PR-Tool Videodreh - so geht's

Autor: Christina Haslbeck
44 likes

Entspanntes Auftreten und Professionalität anstelle von Angstschweiß und Sprachkatastrophen – mit der richtigen Vorbereitung werden Videodrehs für die Unternehmens-PR zum Selbstläufer.

It’s showtime! Gerade in Zeiten von YouTube, Social Media und Co. gehören bewegte Bilder zum Daily Business in der Unternehmenskommunikation – etwa in Form von Interviews, die auf LinkedIn, der Website oder im Fernsehen veröffentlicht werden. Doch egal ob es sich um Auftritte in Talkshows, Firmenporträts oder Produktvorstellungen handelt: Nicht jeder ist ein langjähriger TV-Experte, der entspannt und professionell vor die Kamera tritt. Umso wichtiger ist deshalb eine strukturierte und klare Vorbereitung, die die Angst vor dem Unbekannten nimmt. Wir zeigen, wie Verantwortliche in fünf Schritten einen professionellen Auftritt abliefern.

Schritt 1: Die Idee

Am Anfang eines jeden Videodrehs müssen sich alle Beteiligten klar darüber sein, welchem Zweck das Projekt eigentlich dient: Will ein TV-Sender zu Besuch in den laufenden Betrieb kommen? Soll der CEO in einer Talkshow sprechen? Benötigt die HR-Abteilung ein Statement für die neue LinkedIn-Kampagne? Diese Beispiele zeigen, wie unterschiedlich das Ziel eines Videodrehs sein kann. Steht es fest, können Verantwortliche eine Projektübersicht erstellen, die allen Beteiligten einen groben Überblick über das Thema, das Budget, das Format und die Timeline gibt.

Schritt 2: Das Projektteam

Um die organisatorische sowie inhaltliche Arbeit zu starten, alle internen Freigaben zu organisieren und den Projektablauf zu begleiten, braucht jedes Videoprojekt ein verantwortliches Team. Es hält die Fäden zusammen und holt sich dort Unterstützung, wo es nötig ist. Auch die Abstimmung mit allen internen wie externen Stakeholdern sowie das kreative Konzept werden vom zuständigen Projektteam verantwortet.

Schritt 3: Die Checkliste

Im nächsten Schritt geht es an die Checkliste mit allen To-do-Punkten für die Vorbereitung, Durchführung und Nachbereitung des Projekts. Das Team muss die Rahmenbedingungen für den Dreh definieren – beispielsweise den Drehort, die Sprecher*innen sowie den Zeitraum. Hierbei gibt es viele Stolpersteine, die man vorab aus dem Weg räumen sollte: Darf am gewünschten Ort überhaupt gedreht werden? Sind der Hintergrund und die Beleuchtung geeignet? Welche internen Freigaben sind erforderlich? Sobald der Ablaufplan mit Zahlen und Fakten steht, muss das Projekt intern vom Verantwortlichen freigegeben werden, der meist in der Unternehmenskommunikation oder dem Marketing sitzt.

Schritt 4: Die Inhalte

Sprecher*innen, die ohne Vorbereitung oder Skript zum Jim Carrey des Drehs mutieren, sind äußerst selten. Auf die grobe Ideenskizze muss deshalb vorab die Entwicklung eines Storyboards und Drehplans folgen. Sie leben von guten Kernaussagen und einer Dramaturgie, die den Zuschauer wirklich mitnimmt. Auch alle Hard Facts und Szenenanweisungen finden sich darin wieder: Welche(r) Sprecher*in spricht wann welche Inhalte? Welche Kameraeinstellung wird genutzt? Was sollen und dürfen Detailaufnahmen zeigen? Welche Bilder können für etwas Drive und Dynamik sorgen? Anschließend brieft das Team die Sprecher*innen mit inhaltlichen Anweisungen und Textvorschlägen. Mit ein einigen Trockenübungen kann man übrigens die Textsicherheit deutlich steigern und so für authentische O-Töne sorgen.

Schritt 5: Der/die Sprecher*in

Für viele Sprecher*innen ist der Tag X ein rotes Ausrufezeichen im Kalender. Um die Nervosität so klein wie möglich zu halten, sollte das Team vorab alle Detailfragen klären. Das beginnt bei der Kleiderwahl, die dezent und niemals kleinkariert sein sollte, geht über Übungstakes und die genaue Abstimmung der Botschaften bis hin zu Anweisungen für die Körperhaltung und das Styling am Drehtag. Kleiner Hinweis: Wer an einem/einer professionellen Stylist*in und Maske spart, tut dies meist an der falschen Stelle. Denn am Tag X zählt jedes Detail, das die Qualität der Takes verbessert. Je wohler sich ein(e) Sprecher*in fühlt, umso authentischer und lockerer wird er/sie sprechen. Und das merkt der/die Zuschauende bekanntlich sofort.

Fazit

Mit Videos kann man Emotionen wecken und eine persönliche Kommunikationsebene erreichen, die Texten oft verwehrt bleibt. Gerade bei wichtigen und aussagekräftigen Botschaften sind Videos deshalb ein zentraler Teil der Unternehmenskommunikation. Mit einem guten Konzept und einer guten Vorbereitung lassen sich auch Mitarbeitende mit wenig Interviewerfahrung erfolgreich einbinden. Das sorgt gerade auf Social Media für spannenden Content, der durch persönliche Botschaften überzeugt und Außenstehende hinter die Unternehmensfassade blicken lässt.

Die Autorin Christina Haslbeck ist Senior Account Manager und stellvertretende Teamleiterin bei PR-COM. Die Münchner Agentur für PR, Social Media und Kommunikation fokussiert auf die Hightech- und IT-Industrie im B2B-Umfeld.

Diese Artikel könnten Sie auch interessieren:

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Retourendaten als ungenutztes Potenzial

Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!

Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.

Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.

Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.

Wenn Daten ungenutzt verpuffen

Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.

Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.

Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.

Retourendaten als Marketing-Kompass

Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.

Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.

Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.

Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.

Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.

Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams

Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.

Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.

Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.

Daten bringen nachhaltigen Erfolg

Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.

Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.

Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH


StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster

Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?

  • [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
  • [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
  • [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
  • [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
  • [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
  • [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?

Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.

Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung

Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.

Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.

Von der regionalen Machbarkeitsstudie zur internationalen Skalierung

Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.

Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle

Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.

Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.

Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.

Marktumfeld: Spezialisierung als Abgrenzungsmerkmal

Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.

Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.

Herausforderungen in der Skalierung: Legacy-Systeme und Change Management

Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.

Steuern als Start-up-Wachstumsbremse

Was tun, wenn Steuerpflichten und Papierkram die Vision vom eigenen Business erstickt? Drei Quick Wins für dein Finanz-Setup.

Der Start in die Selbständigkeit ist ein Balanceakt zwischen der eigenen Vision und administrativen Pflichten. Entgegen der landläufigen Meinung, dass fehlendes Kapital oder die erste Kund*innengewinnung die größten Hürden sind, zeigt eine aktuelle Erhebung von sevdesk: Steuerpflichten und Papierkram belasten junge Gründer*innen am stärksten.

Realitätscheck: Was Gründer*innen wirklich nachts wachhält

Eine repräsentative Umfrage unterstreicht, wie stark administrative Themen den Alltag dominieren:

  • 40 Prozent sehen in Steuern und dem damit verbundenen Papierkram den größten Stressfaktor.
  • 38 Prozent nennen finanziellen Druck und unregelmäßiges Einkommen als größte Hürde.
  • 36 Prozent verorten die stärksten Herausforderungen bei der Kundenakquise.

StartingUp-Insight: Warum stressen Steuern mehr als wackelige Einnahmen? Weil hier die Fehlerkultur der Start-up-Welt aufhört. Bei Fehlern in der Buchhaltung drohen schnell Säumniszuschläge oder rechtliche Konsequenzen – diese „Angst vor dem Finanzamt“ lähmt viele. Hinzu kommen die massiven Opportunitätskosten: Jede Stunde, die ein Young Founder mit manueller Zettelwirtschaft oder dem Suchen von Belegen verbringt, fehlt bei der Produktentwicklung oder der Kund*innenakquise. Die Bürokratie bremst das eigentliche Wachstum also aktiv aus.

Paradox: Digitales Business, aber analoge Buchhaltung

Besonders auffällig: Etwa ein Drittel (32 Prozent) der Befragten befindet sich noch im ersten Jahr der Selbständigkeit (0 bis 12 Monate). Der überwiegende Teil dieser jungen Unternehmer*innen agiert in modernen Branchen wie Handel und E-Commerce (13 Prozent) oder IT und Social Media (11 Prozent). Dennoch zeigt sich bei der administrativen Organisation ein überraschend traditionelles Bild:

  • Knapp ein Drittel (29 Prozent) der Microbusiness-Entrepreneurs nutzt für Rechnungserstellung und Buchhaltung keine speziellen Software- oder Cloud-Lösungen.
  • Als Gründe wird zu jeweils 29 Prozent angegeben, dass die Prozesse auch ohne Tools funktionieren würden oder das Unternehmen noch zu klein für digitale Lösungen sei.
  • Weitere 21 Prozent befürchten, dass externe Tools ihre eigenen speziellen Anforderungen nicht abbilden könnten.

Compliance-Falle: Wenn die „Zettelwirtschaft“ zum Risiko wird

Dieser Verzicht auf digitale Unterstützung birgt handfeste Risiken – auch rechtlicher Natur. Die Studie verweist auf die E-Rechnungspflicht, die bereits seit dem 1. Januar 2025 in Deutschland flächendeckend gilt.

StartingUp-Insight: Zur Erinnerung: Seit Jahresbeginn 2025 müssen B2B-Unternehmen in Deutschland in der Lage sein, elektronische Rechnungen in strukturierten Formaten (wie ZUGFeRD oder XRechnung) zu empfangen und zu verarbeiten. Wer die manuelle Verarbeitung von klassischen PDF- oder Papierrechnungen beibehält, tappt unweigerlich in eine Compliance-Falle. Zudem gilt: „Zu klein“ für eine saubere Software-Infrastruktur gibt es heute kaum noch. Ein sauberes digitales Setup von Tag eins an nimmt nicht nur die Angst vor Fehlern, sondern ist auch deutlich günstiger und nervenschonender als der spätere, schmerzhafte Wechsel im laufenden Betrieb.

Raus aus dem Chaos: 3 Quick Wins für dein Finanz-Setup

  1. Trennung ab Tag 1: Eröffne sofort ein separates Geschäftskonto. Private und geschäftliche Ausgaben zu vermischen, ist der Garant für stundenlange Sortierarbeit am Jahresende.
  2. Schnittstellen nutzen: Verknüpfe das Geschäftskonto direkt mit einer gängigen Buchhaltungssoftware. So lassen sich Zahlungseingänge automatisch mit offenen Rechnungen abgleichen.
  3. Steuerrücklagen automatisieren: Lege konsequent ca. 30 Prozent aller Netto-Einnahmen auf ein Tagesgeldkonto. So verlieren Vorauszahlungen für die Einkommen- oder Gewerbesteuer dauerhaft ihren Schrecken.

Über die Daten

Die Umfrage wurde im Juni 2025 vom Marktforschungsunternehmen Appinio im Auftrag von sevdesk durchgeführt. Befragt wurden deutschlandweit 300 Berufstätige ab 18 Jahren.

GameChanger des Monats: Gwen Thomas - Vom Background-Gesang zum SOMA SPACE

Das Business mit der inneren Stimme: Wie Gwen Thomas Stimmtherapie zum Gamechanger macht.

Einst stand Natascha Gweneth (Gwen) Thomas als Backgroundsängerin für Größen wie Sido und Cro auf der Bühne. Heute ist sie Unternehmerin, Stimmtherapeutin und Autorin. Mit ihrer digitalen Plattform, einer eigenen Ausbildungsmethode und dem Hamburger Studio SOMA SPACE hat sie eine Nische für körperbasierte Bewusstseinsarbeit besetzt.

Dabei schien ihre Karriere zunächst ganz anders vorgezeichnet: Nach einem Stipendium an der Stage School und Jahren im professionellen Musikbusiness tourte sie intensiv und schrieb Songs in den Hansa Studios. Doch der Erfolg in dieser stark männlich geprägten und druckvollen Zeit hatte seinen Preis. „Ich habe funktioniert, aber mich selbst immer weiter verloren“, erinnert sie sich heute. Ein schwerer biografischer Einschnitt zog schließlich den endgültigen Schlussstrich unter ihre Musikkarriere: Im siebten Monat verlor sie ihren ersten Sohn. Sie brach alle Engagements ab, begann eine Therapie und zog sich vollständig zurück. Aus diesem schmerzhaften Nullpunkt heraus entstand das Fundament für ihr heutiges Unternehmen.

Aus eigener Heilung wird ein Business Case

Anstatt auf die Bühne zurückzukehren, verwebte Gwen ihre Erfahrungen aus Musik, Schauspiel, somatischer Arbeit und Klangtherapie zu einem neuen Konzept. Ende 2020 launchte sie die Website www.deinestimmedeinraum.de. Hieraus entwickelte sie rechtlich geschützte Methoden wie das Holistisch Stimmtherapeutische Coaching® sowie den Vocal-Energetic Release™. Ihr Ansatz ist dabei stets körperorientiert. „Die Stimme weiß oft früher als der Verstand, dass etwas nicht stimmt“, erklärt sie. Es gehe nicht um bloßes Schreien, sondern um die Wahrnehmung von Blockaden im Nervensystem. Die Stimme fungiere dabei als Antenne, die zeigt, wo jemand nicht in seiner Wahrheit lebt.

Heute ist ihr Geschäftsmodell breit aufgestellt und umfasst Workshops, Retreats sowie ein spezialisiertes Mentoring. Dass ihre Arbeit oft exklusiv und hochpreisig ist, sieht Gwen nicht als Widerspruch zu ihrem feministischen Anspruch. Für sie ist es ein Akt der Selbstfürsorge, den eigenen finanziellen Wert zu kennen. Sie betont: „Wenn Frauen in meine Ausbildung oder in ein Mentoring investieren, ermöglichen sie ein System, in dem ich Frauen anstellen kann, sie fair bezahle und wirtschaftliche Unabhängigkeit fördere.“

Feminismus und wirtschaftliche Klarheit gehören für Gwen untrennbar zusammen, da das Unter-Wert-Verkaufen lediglich alte patriarchale Systeme reproduzieren würde. Sie möchte, dass Frauen – die oft jahrelang unbezahlte Care-Arbeit geleistet haben – endlich in finanzieller Fülle stehen dürfen.

Embodiment als politischer Akt

Für Gwen ist diese Arbeit weit mehr als individuelles Coaching; sie ist zutiefst politisch. Sie ist überzeugt, dass die Wahrnehmung der Frau über Generationen vom Patriarchat abgespalten wurde. „Gerade wir Frauen haben gelernt, uns zurückzunehmen – nicht nur in unserem Ausdruck, sondern auch in dem, was wir vom Leben wollen“, sagt sie. In ihrem Mentoring arbeitet sie daher gezielt mit Frauen in Führungspositionen, wie etwa Chefärztinnen oder Tech-Expertinnen, die gelernt haben, auf eine männliche Weise zu performen, sich dabei aber selbst verlieren.

Ihre Marke The Vulva Voice ist in diesem Kontext ein klares Statement. Gwen erklärt, dass dieses Branding keine kalkulierte Marketingstrategie war, sondern aus einer verkörperten Haltung entstand. Sie fordert eine Erweiterung des Marktes und eine neue Offenheit in klassischen Unternehmensräumen: „Wir dürfen aufhören so zu tun, als seien Körper, Zyklus, Trauma oder emotionale Intelligenz ‚private Themen‘. Sie betreffen jede Frau – und damit jede Organisation.“

Qualitätssicherung und die Grenzen des Coachings

Um dieses politische Ziel mit fachlicher Exzellenz zu untermauern, nutzt Gwen ihr Buch Vulva Voice als Filter für Qualität. Ihr Fundament bilden Zertifizierungen in traumasensibler Begleitung, Body-Mind-Centering und MediAkupresseur.

Angesprochen auf die Abgrenzung zur klassischen Therapie stellt sie klar, dass ihre Angebote reine „Erfahrungsräume“ sind. Sie versteht sich nicht als Heilerin, sondern als Raumhalterin. Durch ihren traumasensiblen Hintergrund arbeitet sie strikt ressourcenorientiert: „Wir aktivieren zunächst die Fähigkeit zur Selbstregulation [...], bevor wir mit intensiveren Themen arbeiten.“ Sie diagnostiziert nicht und ersetzt keine Therapie. Sollte eine Teilnehmerin therapeutische Hilfe benötigen, kommuniziert Gwen dies transparent. Ihre Arbeit dient der Kapazitätsbildung im Umgang mit biografischen Prägungen, nicht deren „Wegmachen“.

Skalierung und Vision

Obwohl das Unternehmen stark mit Gwens persönlicher Geschichte verwoben ist, plant sie bereits die Skalierung über ausgebildete Trainerinnen im Soma Space. Diese sollen keine Kopien ihrer selbst sein, sondern ihre eigene Geschichte und Stimme nutzen. Für Gwen bedeutet unternehmerisches Wachstum vor allem Multiplikation: „Skalierung bedeutet für mich nicht Entpersonalisierung, sondern Verkörperung in vielen Körpern.“

Die Ergebnisse sind oft lebensverändernd. Viele Frauen erkennen, dass ihre Dysregulation kein individuelles Versagen ist, sondern eine Reaktion auf nicht geachtete Ressourcen. Das führt oft zu radikaler Klarheit – bis hin zu Trennungen, wenn Klientinnen plötzlich ihre eigene Wahrheit spüren.

Gwen Thomas selbst blickt heute mit großer Klarheit auf ihren Weg. Sie hat ihren Schmerz und ihr Trauma in ihre Arbeit transformiert. „Ich weiß heute, dass ich den Schmerz [...] nicht mehr brauche“, sagt sie. „Das hat mir geholfen, hier anzukommen.“

Das Thermoskannen-Prinzip: Kann V21 die Logistik-Welt revolutionieren?

Das Team des Hamburger DeepTech-Start-up V21 – Roland Wiedenroth, Dr.-Ing. Tom Marr, Kristina Rübenkamp, Dr. Jens Struckmeier und Nicolas Röhrs – entwickelt extrem dünne und robuste Dämmplatten aus Edelstahl, die nach dem Prinzip einer flachen Thermoskanne funktionieren und Container oder Gebäude hocheffizient sowie platzsparend isolieren. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt mit 125.000 Euro.

Ob Impfstoffe, Südfrüchte oder modulare Klassenzimmer: Container sind das Rückgrat der globalen Wirtschaft. Doch sie sind energetische Sorgenkinder. Um Innentemperaturen stabil zu halten, fressen Kühlaggregate (Reefer) enorme Mengen Strom, während herkömmliche Dämmstoffe wie Styropor oder Mineralwolle wertvollen Laderaum rauben. Hier setzt die 2019 gegründete V21 GmbH (kurz V21) an. Die Vision: Eine Dämmung, die so dünn wie effizient ist.

An der Spitze des Unternehmens steht ein Team, das tief in der Industrie verwurzelt ist. CEO Roland Wiedenroth, ein erfahrener Logistik- und Industrieexperte, leitet die Strategie und den Markteintritt. Er weiß um die Schmerzpunkte der Branche und treibt die Vision voran, die „Thermoskanne flach zu machen“. Mitbegründer und CIO Dr. Jens Struckmeier bringt die nötige wissenschaftliche Tiefe ein: Der promovierte Physiker und Mathematiker gilt als Clean-Tech-Pionier und hat bereits mit dem Start-up Cloud&Heat bewiesen, wie man physikalische Prinzipien in nachhaltige Geschäftsmodelle übersetzt. Über die Kerninnovation sagt er: „Wir haben die Thermoskanne flach gemacht und bringen sie an die Wand. Grundlage dafür war ein Patent, in dessen Kern der Verbund vieler kleiner Thermoskannen stand.“

DeepTech gegen das Vakuum-Dilemma

Dass V21 als klassisches DeepTech-Unternehmen gilt, liegt an der Überwindung einer massiven ingenieurtechnischen Hürde. Vakuum ist physikalisch der beste Isolator, doch bisherige Vakuumisolationspaneele (VIP) waren empfindlich wie rohe Eier. Das Produkt „ZeroCoreVac“ von V21 schlägt hier einen technologisch radikalen Weg ein, der sich fundamental von etablierten Lösungen unterscheidet. Während Marktführer wie va-Q-tec oder Panasonic primär auf Paneele setzen, die aus einem silikabasierten Kern bestehen, der von einer metallisierten Kunststoffverbundfolie umschlossen wird, verzichtet V21 komplett auf diese fragile Außenhaut.

Anstelle der Folie nutzt das Start-up eine robuste Kapselung aus hauchdünnem Edelstahl. Verantwortlich für diese Materialinnovation ist CTO Dr.-Ing. Tom Marr. Als Werkstoffingenieur mit einem Fokus auf Automatisierung und Fertigung treibt er die Serienreife der Technologie voran. Wo herkömmliche VIPs einen Stützkern aus Pulver benötigen, ermöglicht die von Marr und Struckmeier entwickelte, patentierte Struktur ein System, das ohne klassische Füllmaterialien auskommt. Diese Konstruktion macht das Paneel nicht nur mechanisch extrem belastbar, sondern löst auch das Thema Brandschutz, da keinerlei brennbare Kunststoffe verbaut sind. Ein weiterer Vorteil ist die vollständige Kreislauffähigkeit: Das Paneel kann am Ende seiner Lebenszeit – die V21 auf über 50 Jahre schätzt – als wertvoller Edelstahlschrott recycelt werden.

Das Geschäftsmodell: Skalierung durch Lizenzen?

V21 verfolgt eine zweistufige Strategie: Zunächst adressiert man B2B-Nischen wie den Modulbau, bevor der globale Container-Markt angegriffen wird. Dabei setzt das Start-up auf ein Lizenzmodell. Unterstützt wird dieser Skalierungskurs durch den Mitbegründer und Chairman Nicolas Röhrs, einen erfahrenen Technologieunternehmer, der auf den Aufbau strategischer Industriepartnerschaften spezialisiert ist. Finanziell wird das Wachstum von CFO Kristina Rübenkamp gesteuert, die ihre Expertise in Planung und Investorenkommunikation einbringt, um die nötige Transparenz für großangelegte Rollouts zu schaffen.

Ein solcher Lizenzansatz verspricht zwar schnelle Skalierung ohne massiven Kapitalaufwand für den eigenen Maschinenpark, doch Vakuumtechnik verzeiht keine Fehler. Die Herausforderung wird sein, sicherzustellen, dass Lizenzpartner weltweit die nötige Präzision beim Verschweißen der Edelstahlhüllen einhalten. Zudem bleibt der Margendruck in der Logistikbranche brutal. Die Rechnung geht für Reedereien nur auf, wenn die versprochene Energieeinsparung von bis zu 50 % und der Raumgewinn (ca. 10 bis 20 % mehr Nutzlast) die Initialkosten zügig amortisieren.

Die Belastungsprobe: Zwischen Theorie und Hochsee-Realität

Trotz technologischer Brillanz muss sich V21 in der Praxis beweisen. In der maritimen Logistik herrschen gnadenlose Bedingungen: Halten die präzisen Schweißnähte den permanenten Vibrationen und der aggressiven Salzwasserbelastung auf einem Containerschiff über Jahrzehnte stand? Ohne diese belastbaren Langzeitnachweise unter Realbedingungen bleibt das Risiko eines schleichenden Vakuumverlusts ein Argument, das gerade konservative Reedereien zögern lässt.

Parallel dazu steht die ökonomische Hürde im Raum. Solange CO-Zertifikate noch verhältnismäßig günstig bepreist sind, bleibt die High-End-Dämmung ein erklärungsbedürftiges Investment mit hohem „Green Premium“. Damit die Technologie den Sprung aus der Nische schafft, müssen die Produktionskosten durch konsequente Automatisierung massiv sinken. Erst wenn der ökologische Vorsprung auch betriebswirtschaftlich zum sofortigen Selbstläufer wird, dürfte das Hamburger Start-up die Branche nachhaltig umkrempeln.

Fazit

V21 hat ein technologisch exzellentes Produkt, das ein reales Problem der Dekarbonisierung löst. Die eigentliche unternehmerische Leistung wird nun darin bestehen, die Skalierung so effizient zu gestalten, dass der Preis für den Massenmarkt akzeptabel wird. Wenn die Hamburger den Beweis der Langlebigkeit unter Realbedingungen antreten, könnten sie zum neuen Standard für temperaturgeführte Logistik aufsteigen. Bis dahin bleibt es ein mutiger Ritt gegen etablierte Chemie-Riesen und die billige Dominanz von Styropor.

Executive Search 2026

Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.

Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Was kann KI leisten – und was nicht?

Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.

Warum der Mensch unverzichtbar bleibt

Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.

Leadership in Zeiten von KI

Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.

Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.

KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung

Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.

Fazit: Executive Search neu denken

Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.

KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.

Vom Check-in zur Patient*innenakte: Wie Travel-Pionier Salim Sahi mit HoloLogix.AI die Health-IT aufmischt

Vom Reisebuchungssystem zur Sicherheits-Uhr für Senior*innen: Serial Entrepreneur Salim Sahi greift mit HoloLogix.AI greift gleich zwei Milliardenmärkte an: Gesundheitswesen und Hotellerie. Doch wie viel Substanz steckt hinter der Vision?

Gründungslegenden klingen oft zu glatt für die Realität – wie Sahis Skateboard-Unfall, der in einer Notaufnahme zur Idee für sein neuestes Venture führte. Wer den Mann kennt, der in den 90ern mit „Traffics“ die Reisebranche digitalisierte, weiß jedoch: Er macht keine halben Sachen. Jetzt, im Februar 2026, steht er mit einer europäischen Aktiengesellschaft (SE) und einem enorm breiten Versprechen wieder auf dem Platz.

Wie Touristik-Know-how in die Klinik kommt

Der Sprung von der Touristik zur Service-Automatisierung im Gesundheitswesen wirkt wie ein harter Bruch. Doch unter der Haube geht es in beiden Welten um hochvolumige Transaktionen, Termin-Slots und Datenabgleich in Echtzeit. Wer Millionen Pauschalreisen fehlerfrei abwickelt, so die Wette von HoloLogix.AI, beherrscht auch das Termin-Management von Kliniken, Hotels und Restaurants.

Für CEO und Gründer Salim Sahi ist das Projekt dennoch ein „kompletter unternehmerischer Neuanfang“. Gegenüber StartingUp räumt er ein, von 25 Jahren Travel-Tech-Erfahrung zu profitieren, doch seine wahre Passion gelte der künstlichen Intelligenz. Das Herzstück bilde dabei die MIA Service KI: „Wir haben eine holistische KI-Plattform geschaffen, also ein Tool, das ganzheitlich agiert und eingesetzt werden kann.“ MIA verstehe Gespräche, erledige parallel Aufgaben und verbinde Systeme – „rund um die Uhr und branchenübergreifend“. Auch wenn der Fokus aktuell auf Gesundheitswesen und Hospitality liege, sei das System laut Sahi letztlich „nahezu überall einsetzbar, wo Kunden- oder Patientenkontakt herrscht.“

Der Angriff auf die Platzhirsche

Der Markt für Conversational AI ist 2026 kein blauer Ozean mehr. Etablierte Player wie Aaron.ai haben sich tief in die Health-Landschaft eingegraben, flankiert von Plattform-Giganten wie Doctolib. HoloLogix.AI reagiert mit aggressiven Preisen ab 99 Euro im Monat und einer massiven technologischen Breite.

Aber warum sollten Klinikverantwortliche das Risiko eines Wechsels eingehen? Salim Sahi sieht den „Killer-USP“ in der Architektur der Interaktion: „Unser Ansatz ist ein anderer: Statt starrer Skripte bieten wir echte Gesprächsintelligenz durch Conversational AI an.“ Das System sei eine KI, die im laufenden Gespräch aktiv Aufgaben erledige, was eine beispiellose Integrationstiefe erfordere. „Hier gehen wir ganz tief rein und verarbeiten Daten in Echtzeit“, so der CEO. Da Aufgaben direkt ausgeführt werden, optimiere sich das Zeitmanagement drastisch – konzipiert als Omnichannel-Ansatz über Telefon, Website, E-Mail, Wearables oder bald sogar über Robotik.

Die schmale Gratwanderung am Handgelenk

HoloLogix.AI belässt es nicht bei Software, sondern bringt mit der MIA Watch eigene Hardware ins Spiel. Die Smartwatch für Senior*innen soll Stürze erkennen und sofort einen aktiven Sprachdialog führen. Eine Gratwanderung: Reines Assistenz-System oder medizinisches Gerät mit komplexer Zertifizierungspflicht (MDR)?

Prof. Dr. Thomas Fuchs, Co-Founder und Aufsichtsrat für den Bereich Health Care, ordnet das rechtlich eindeutig ein: „MIA Protect ist ein Teil der holistischen KI-Plattform, die mit verschiedenen Health Watches wie z.B. auch der Apple Watch kompatibel ist. Sie ist ein Assistenz- und Companion-System.“ Die Hardware erkenne Stürze, ersetze aber „keine ärztliche Untersuchung oder medizinische Entscheidung“. Um Geschwindigkeit und Nutzer*innenfreundlichkeit zu wahren, bewege man sich „bewusst außerhalb der Medizinprodukt-Zertifizierung (MDR), ohne den Sicherheitsrahmen zu verlassen“.

Ein mehrstufiges Sicherheitsnetz aus Sensorik, KI-Algorithmen und menschlichem Service-Team federt Fehlinterpretationen ab. Haftungsfragen sind laut Fuchs über klare Nutzungsbedingungen geregelt. Für den Mediziner steht ohnehin der „Companion Aspekt“ im Vordergrund: Nach einem Sturz, wenn Patient*innen hilflos am Boden liegen, alarmiere MIA in einer Kaskade Notfallkontakte und beruhige das Unfallopfer, bis Hilfe eintrifft. „MIA Protect soll an diesem Punkt Sicherheit und damit Lebensqualität geben, vielleicht sogar die Möglichkeit schaffen für Senioren, länger selbstbestimmt in ihrem Zuhause zu leben“, resümiert Fuchs.

Pflegeheim und Luxushotel: (K)ein operativer Widerspruch?

Das vielleicht Spannendste an HoloLogix.AI ist das Personal: Salim Sahi hat sich politische und ethische Schwergewichte in den Aufsichtsrat geholt. Darunter Dr. Marcel Klinge, ehemaliger FDP-Bundestagsabgeordneter und Tourismus-Experte. Er muss Investor*innen den Spagat erklären, warum ein Start-up gleichzeitig Pflegeheime und Luxushotels digitalisieren will – was oft als Warnsignal für operative Verzettelung gilt.

Dr. Marcel Klinge sieht darin jedoch keinen Widerspruch, sondern die Stärke der technischen Basis: „Der gemeinsame Nenner liegt im Kern: Unsere holistische KI-Infrastruktur kann über das Telefon Gespräche führen, kann aber auch über die Website, Health Watches und Devices und direkt im Gespräch Aufgaben ausführen.“ Das Backend orchestriere lediglich Termin-Slots, Daten und Anfragen in Hochgeschwindigkeit. Dabei spiele es schlichtweg keine Rolle, „ob der Kunde Patient in einem Pflegeheim oder Gast in einem Luxushotel ist.“

Wenn die KI-Vision auf den deutschen Fax-Alltag trifft

Ein Blick auf die Website verrät große Visionen, doch diese müssen sich im harten Alltag deutscher IT-Infrastrukturen und oft veralteter Praxis-Server beweisen. Zudem ist die Frage des Datenschutzes elementar: Nutzt das Unternehmen US-amerikanische Sprachmodelle via API, oder hostet man eigene „Sovereign AI“ in Europa?

Für Prof. Dr. Thomas Fuchs sind Datenschutz und Systemintegration absolute Kernpunkte. Um digitale Souveränität zu wahren, setzt das Unternehmen auf einen hybriden Weg: „Wir orchestrieren auf die gängigen sowie auf eigene Modelle auf deutschen Servern, die in Europa bereits genutzt werden.“ Laut Fuchs verlässt man sich dabei nicht nur auf das Versprechen von Sicherheit, sondern arbeitet seit der ersten Stunde eng mit dem renommierten Fraunhofer-Institut zusammen und lässt die eigene Infrastruktur „regelmäßig durch deren Experten prüfen“. Das bloße Versprechen von Sicherheit reicht HoloLogix.AI dabei nicht.

Mehr als nur ein GPT-Wrapper?

HoloLogix.AI ist eine der vielleicht ambitioniertesten Gründungen des Jahres. Technologisch muss es beweisen, dass es mehr ist als ein „GPT-Wrapper“ mit Smartwatch. Aber die Kombination aus Sahis Exekutiv-Erfahrung, Klinges Netzwerk und Fuchs‘ ethischem Korrektiv macht es zu einem spannenden Herausforderer. Wenn die Uhr im Alltag für Sicherheit sorgt – und die KI den deutschen Datenschutz überlebt – könnte aus Berlin der nächste europäische Champion kommen.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

ChatGPT schreibt Texte. R3 Robotics zerlegt Batterien

Es gibt Probleme, die man mit Software lösen kann, und es gibt Probleme, für die man sich die Hände schmutzig machen muss – oder besser: Roboterhände nutzt. Antoine Welter und Dr. Xavier Kohll haben mit Circu Li-ion begonnen, um Batterien zu retten. Jetzt, unter dem neuen Namen R3 Robotics und mit 20 Millionen Euro frischem Kapital im Rücken, treten sie an, um den wohl größten Flaschenhals der kommenden Mobilitätswende zu beseitigen. Ihr Ansatz: Keine teuren Spezialmaschinen, sondern intelligente Standard-Roboter, die sehen, verstehen und sicher zupacken.

Wenn in den Vorstandsetagen der Automobilhersteller über die Zukunft gesprochen wird, geht es meist um Reichweiten und Software-Defined Vehicles. Doch am anderen Ende der Wertschöpfungskette braut sich ein Sturm zusammen. Millionen von Elektrofahrzeugen werden in den kommenden Jahren ihr Lebensende erreichen. Die derzeitige Realität in vielen Recyclinghöfen wirkt dagegen fast archaisch: Menschen, die mit Handwerkzeugen komplexe Systeme auseinanderschrauben. Das ist nicht nur teuer und schwer skalierbar, sondern bei Hochvolt-Systemen auch lebensgefährlich.

Genau hier setzen Antoine Welter und Xavier Kohll an. Die Nachricht, die das deutsch-luxemburgische Unternehmen Anfang Februar 2026 verkündete, ist mehr als nur eine Finanzierungsrunde. Die 20 Millionen Euro – aufgeteilt in 14 Millionen Euro Series-A-Kapital und 6 Millionen Euro öffentliche Fördergelder – heben die Gesamtfinanzierung des Unternehmens auf ein neues Level. Angeführt wird die Runde von HG Ventures und Suma Capital, unterstützt von Co-Investoren wie der Oetker Collection und dem EIC Fund.

Doch das Geld ist nur der Treibstoff für eine strategische Evolution. Aus Circu Li-ion wird R3 Robotics. Der neue Name ist Programm: Repair, Reuse, Recycle. Antoine Welter erklärt die Motivation hinter der Umbenennung pragmatisch: „Circu Li-ion hat beschrieben, wo wir angefangen haben. R3 Robotics beschreibt, was wir aufbauen: industrielle Robotik, die Demontage skalierbar, sicher und kosteneffizient macht.“

Wenn der Roboter Augen bekommt

Die größte Hürde im Recycling ist nicht die Chemie, sondern die Variabilität. Kein Batteriepack gleicht dem anderen, E-Motoren sind unterschiedlich verbaut, Schrauben sind korrodiert. Starre Fertigungsstraßen scheitern hier. R3 Robotics löst dies mit einer Plattform, die Computer Vision, künstliche Intelligenz und Robotik verschmilzt.

Das System fungiert dabei fast wie ein „ChatGPT für die physische Welt“: Anstatt Text zu generieren, plant die KI physische Handlungen. Sensoren scannen das Bauteil, die KI erkennt den Zustand und promptet den Roboterarm dynamisch durch den Demontageprozess. Der entscheidende Vorteil: Der Mensch wird aus der Gefahrenzone der Hochspannung genommen, während der Roboter Aufgaben erledigt, die für klassische Automatisierung zu komplex wären.

Angesprochen auf den Vergleich mit Generative AI und die Frage, wie die Roboter tatsächlich „sehen“ und „entscheiden“, bestätigt Welter die Parallele: „Der Vergleich mit Generative AI passt gut: Das Modell bekommt einen Input – keinen Text, sondern einen Scan des Bauteils – und generiert daraus eine Handlungssequenz.“ Es gehe darum zu erkennen, um welches Modell es sich handelt, wie der Zustand ist und wo die Verbindungspunkte liegen. „Das klingt simpel, ist es aber nicht – kein Pack ist identisch“, so Welter. Die eigentliche Herausforderung liege jedoch in der Entscheidung davor: „Welche Reihenfolge ist sicher? Ein falscher Griff an ein Hochvoltsystem kann tödlich sein. Unser System sieht, bewertet und entscheidet.“

Smart Hardware: Warum das Rad neu erfinden?

Ein Detail, das Investor*innen besonders aufhorchen lässt, ist die Kapitaleffizienz der Gründer. Wer an Industrie-Robotik denkt, denkt an teure Hardware-Entwicklung. R3 Robotics geht einen pragmatischen Weg: Ein Großteil der verwendeten Hardware wird „von der Stange“ gekauft.

Die Roboterarme sind Standardprodukte. Die Innovation – und damit das geistige Eigentum – steckt in den spezialisierten „End-Effektoren“ (den Roboterhänden), den Sensorsystemen und vor allem dem Software-Stack, der alles steuert. Das erlaubt eine Skalierung, die mit proprietärer Hardware kaum möglich wäre. Mitgründer Dr. Xavier Kohll betont, dass dies eine bewusste Entscheidung gegen „Over-Engineering“ war: „Der Roboterarm ist Standard und die Intelligenz sitzt in den Endeffektoren, der Sensorik und dem Software-Stack, der alles zusammenbringt. Das ist unser geistiges Eigentum, und genau das lässt sich skalieren.“

David gegen Goliath – oder Partner?

Während große Recycling-Konzerne oft noch auf den Schredder setzen und die manuelle Demontage an ihre Grenzen stößt, positioniert sich R3 Robotics in einer neuen Nische. Es geht nicht darum, die Chemie-Giganten zu ersetzen, sondern ihnen den Rohstoff so rein wie möglich zu liefern – als strategische Quelle für kritische Materialien. Doch der Markt schläft nicht: Weltweit entstehen Initiativen zur Automatisierung.

Trotz des aktuellen „Gegners“ – dem Menschen mit dem Schraubenzieher – und potenzieller Konkurrenz durch Tech-Start-ups oder Autohersteller, bleibt Welter gelassen. „Wir konkurrieren nicht mit den Chemie-Giganten, wir liefern ihnen den reinsten möglichen Stoffstrom“, stellt er klar. Gegenüber potenziellen Nachahmern sieht er einen entscheidenden Vorteil, den „Unfair Advantage“: die Kombination aus Flexibilität und industrieller Automatisierungstiefe. „Wir sind aktuell die einzige Plattform, die sowohl Variabilität managt als auch für kontinuierlichen Industriebetrieb ausgelegt ist.“

Deutschland als Labor, USA als Skalierungsmarkt

Die Wachstumsstrategie von R3 Robotics ruht auf zwei massiven Säulen: technologischer Tiefe in Europa und kommerzieller Breite in den USA.

Deutschland fungiert dabei als das technologische Rückgrat. Mit der Erweiterung der Anlage in Karlsruhe zur Lighthouse Facility demonstriert das Unternehmen industrielle Leistungsfähigkeit direkt vor der Haustür der großen Autobauer. Hier wird die Technologie gehärtet. Das zeigt sich auch im Leuchtturmprojekt ReDriveS, wo R3 Robotics Seite an Seite mit Giganten wie Schaeffler und VW an der Demontage von E-Achsen arbeitet.

Doch für das massive Volumen blickt das Team über den Atlantik. Der für 2026 geplante Markteintritt in den USA ist Kern der neuen Strategie. Die frischen 20 Millionen Euro sollen gezielt in den Aufbau strategischer Partnerschaften vor Ort fließen, um die Technologie dort auszurollen, wo Pragmatismus auf riesige „End-of-Life“-Volumina trifft. Für Welter ist dieser Doppelschlag essenziell: „Deutschland ist unser Beweisstand. Hier zeigen wir Schaeffler, VW und Co., dass unsere Technologie industriellen Maßstäben in Deutschland standhält.“ Die USA seien hingegen der wichtige Skalierungsmarkt, wo pragmatische Entscheider auf gigantische Volumina treffen. „Beides brauchen wir: die Glaubwürdigkeit aus Europa und das Volumen aus Amerika.“

Industrialisierung statt Romantik

Mit Peter Mohnen, dem ehemaligen CEO des Roboter-Riesen KUKA, holte sich das Start-up zudem einen Beirat, der wie kaum ein anderer weiß, was Industriestandard bedeutet. Er beschreibt den Ansatz von R3 als Beweis für die nötige Automatisierungsexpertise, um Variabilität und Sicherheit gleichzeitig zu managen.

Um diese Expertise weiter auszubauen, wächst das Team rasant. Die Belegschaft soll mit der neuen Finanzierung massiv aufgestockt werden, vor allem im Bereich Engineering und KI. R3 Robotics hat den Beweis erbracht, dass Kreislaufwirtschaft kein ökologisches Nischenprojekt sein muss, sondern ein harter industrieller Prozess ist, der sich rechnet.

Denn letztlich, so das Fazit von Antoine Welter, sei Automatisierung der einzige Weg, das Problem wirklich zu lösen – nicht allein aus ökologischen Gründen, sondern weil es wirtschaftlich Sinn ergibt. „Was wir aufbauen, ist am Ende ein harter industrieller Prozess: Er muss zuverlässig funktionieren und sich rechnen.“ Es gehe aber um mehr als ein Geschäftsmodell: „Europa braucht eine Antwort auf die Frage, woher seine kritischen Materialien in Zukunft kommen“, mahnt Welter abschließend. „Wenn Europa diesen Zugang sichern will, braucht es Unternehmen, die genau das industriell umsetzen können. Dafür bauen wir diese Infrastruktur, und mit dem neuen Kapital und Team haben wir jetzt die Mittel dazu.“

Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht

Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.

Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.

Warum sich Support-ROI 2026 schwerer belegen lässt

Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.

In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.

Das führt dazu, dass Führungsteams häufig Folgendes beobachten:

  • steigende Automatisierungsquoten bei stagnierenden Einsparungen,
  • verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
  • starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.

Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.

Wo sich Customer-Support-ROI tatsächlich zeigt

Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:

  • weniger Rückerstattungen,
  • geringere Eskalationen,
  • einen Rückgang öffentlicher Beschwerden,
  • sinkendes Abwanderungsrisiko.
  • höheres Vertrauen an entscheidenden Punkten der Customer Journey

Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.

In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:

  • Rückerstattungsquote von 40 % auf 4 % gesenkt.
  • CSAT-Anstieg von 50 auf 95.
  • NPS-Steigerung von 32 auf 80.
  • Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
  • Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.

Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.

Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.

So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.

Wie hybrider Support die Wirtschaftlichkeit verändert

Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.

Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:

  • lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
  • liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
  • führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.

In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.

Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.

Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.

Warum hybrider ROI klassische Messlogik sprengt

In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.

Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.

Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.

Was Führungskräfte tatsächlich messen sollten

2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:

  1. Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
  2. Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
  3. Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).

Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.

Wie sich Support-Budgets rechnen

Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?

Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:

  1. Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
  2. Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
  3. Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.

In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.

Fazit

2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.

Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.

Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.

Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.

Münchner Robotik-Start-up Sitegeist holt 4 Mio. Euro Pre-Seed

Das 2025 von Dr. Lena-Marie Pätzmann, Julian Hoffmann, Nicola Kolb und Claus Carste gegründete Sitegeist entwickelt modulare, KI-gesteuerte Roboter, die autonom die Sanierung maroder Beton-Infrastruktur übernehmen.

Die Instandhaltung der öffentlichen Infrastruktur entwickelt sich zunehmend zum Nadelöhr der Bauindustrie. Allein in Deutschland beziffert die KfW den Sanierungsstau auf mehrere hundert Milliarden Euro. In diesem Marktumfeld konnte Sitegeist nun die Investoren überzeugen: Angeführt wird die Runde von den VCs b2venture und OpenOcean. Zudem beteiligten sich UnternehmerTUM Funding for Innovators sowie renommierte Business Angels, darunter Alexander Schwörer, Verena Pausder und Lea-Sophie Cramer.

Der Markt: Skandinavische Dominanz trifft auf Münchner KI

Sitegeist betritt mit seiner Lösung für die Betonsanierung keinen unbesetzten Markt. Der Bereich der Abbruch- und Sanierungsroboter wird traditionell von starken skandinavischen Herstellern wie Brokk, Aquajet oder Conjet (alle Schweden) dominiert. Diese Anbieter haben sich mit robusten Maschinen für den selektiven Betonabtrag weltweit etabliert.

Doch Sitegeist setzt technologisch an einem anderen Punkt an: Während die Systeme der etablierten Wettbewerber in der Regel tele-operiert sind – also permanent von Fachkräften ferngesteuert werden müssen –, zielen die Münchner auf echte Autonomie. Mitgründer Claus Carste (CPO), der an der TUM ursprünglich selbst an Teleoperation forschte, entwickelte den Ansatz bewusst weiter: Weg von der Fernsteuerung, hin zur eigenständigen Problemlösung durch die Maschine.

„Golden Pretzel“- und „Munich Startup Special Prize“-Gewinner mit autonomem Ansatz

Der technologische Sprung soll vor allem den Fachkräftemangel abfedern: Wo bei herkömmlichen Systemen ein(e) Bediener*in pro Maschine gebunden ist, ermöglicht der autonome Ansatz von Sitegeist perspektivisch, dass eine Fachkraft mehrere Roboter gleichzeitig überwacht.

„Die spannendsten KI-Roboter von heute haben keine Finger und Daumen“, kommentiert Sam Hields, Partner bei OpenOcean. Die Roboter nutzen Sensorik und KI, um ihre Umgebung eigenständig zu erfassen. Sie erkennen Unebenheiten im Beton und passen ihre Arbeitsweise in Echtzeit an. Ein digitales 3D-Modell (BIM) des Bestandsgebäudes ist dafür nicht notwendig.

Dass dieser Ansatz Potenzial hat, bewies das Team bereits im Vorjahr: 2025 gewann Sitegeist (damals teils noch unter dem Projektnamen Aiina Robotics bekannt) den renommierten Pitch-Wettbewerb der Bits & Pretzels Konferenz und sicherte sich die „Golden Pretzel“ sowie den „Munich Startup Special Prize“.

Philosophie trifft Deep Tech

Hinter der Technologie steht ein vierköpfiges Gründerteam, das interdisziplinäre Expertise vereint und tief im Münchner Ökosystem verwurzelt ist. CEO Dr. Lena-Marie Pätzmann bringt dabei eine ungewöhnliche Perspektive ein: Die Absolventin der Universität St. Gallen hält auch einen Bachelor in Philosophie – eine Kombination, die bei der ethischen und gesellschaftlichen Einordnung von KI-Arbeitskräften zunehmend an Bedeutung gewinnt.

Zusammen mit Julian Hoffmann (CTO), Nicola Kolb (COO, ehemalige Stipendiatin der Bayerischen EliteAkademie) und Claus Carste (CPO) gründete sie das Unternehmen im Jahr 2025 als Spin-off der Technischen Universität München (TUM). Es entstammt dem Robotik-Lehrstuhl von Prof. Matthias Althoff, der bereits Erfolge wie RobCo hervorbrachte.

Florian Schweitzer, Partner bei b2venture, sieht in dieser Konstellation einen entscheidenden Vorteil: „Das Team ist bereit, buchstäblich durch Wände zu gehen, um Robotik auf realen Baustellen nutzbar zu machen.“ Mit dem frischen Kapital plant Sitegeist nun, das Team am Standort München weiter auszubauen und die Einführung der Systeme auf realen Baustellen zu beschleunigen.

Key Facts: Sitegeist

  • Gründung: 2025 (Spin-off der TU München, Projektname „Aiina Robotics“)
  • Sektor: Construction Tech / Robotik
  • Finanzierung: 4 Mio. € Pre-Seed (Februar 2026)
  • Investoren: b2venture, OpenOcean, UnternehmerTUM Funding for Innovators
  • Angels: u.a. Verena Pausder, Lea-Sophie Cramer, Alexander Schwörer
  • Awards: Gewinner „Golden Pretzel“ (Bits & Pretzels 2025), Munich Startup Special Prize
  • USP: Autonome, KI-gesteuerte Anpassung an komplexe Oberflächen (vs. klassische Fernsteuerung/Tele-Operation bei Wettbewerbern wie Brokk oder Aquajet)
  • Management: Dr. Lena-Marie Pätzmann (CEO), Julian Hoffmann (CTO), Nicola Kolb (COO), Claus Carste (CPO)