Mit Visual Content auf der Überholspur

Autor: Friederike Marx-Kohlstädt
44 likes

Wofür und wie du automatische Bildgenerierung in deinem Start-up gewinnbringend einsetzen kannst.

Ansprechende visuelle Inhalte zu gestalten, ist für Entrepreneur*innen eine Aufgabe, die täglich viel Zeit kosten kann. Doch gerade für Start-ups ist sie besonders wichtig, da Gründer*innen ihre Marke erst noch aufbauen müssen. Automatische Bildgenerierung ermöglicht es dir, die Gestaltung von Bannern, Social-Media-Beiträgen oder Newsletter-Coupons innerhalb von Minuten zu realisieren. Ist die Bildvorlage einmal fertig, können Textelemente und Bilder schnell und hundertfach automatisch ausgetauscht werden. Wer auf diese Weise repetitive Aufgaben im Marketing digitalisiert, spart seine Ressourcen und verschafft sich einen Vorteil im Wettbewerb.

Was Bildgenerierung bedeutet und wie du sie nutzt

In diesem Artikel ist die Definition von Bild weit gefasst und beinhaltet Banner, Grafiken oder Fotos mit Beschriftung. Die ersten Programme für die automatische Generierung von Bildern kamen 2021 auf den Markt; die Entwicklung ist also noch relativ neu. Alternativ spricht man auch von automatischer Bilderzeugung oder Bildautomatisierung. Im Internet findest du die Tools unter dem Stichwort Automated Image Generation oder Image Generation Api. Doch Achtung: Die automatische Bildgenerierung ist nicht zu verwechseln mit der sogenannten Text-to-Image-AI, bei der anhand von schriftlichen Anweisungen reine KI-Bilder erzeugt werden.

Beispiel: Erzeugung von Bannern im E-Mail-Marketing

Am besten lässt sich die Technik anhand eines Beispiels erklären. Möchtest du etwa eine E-Mail-Kampagne für alle Abonnent*innen deines Newsletters starten, wäre dies ein idealer Anwendungsfall. Jede(r) Abonnent*in soll ein individuelles Banner bekommen. Fotos, Text, namentliche Ansprache des/der Kund*in – alles soll maßgeschneidert sein. Egal, ob du nun als ersten Schritt eine Vorlage aus der Vorlagenbibliothek verwendest oder selbst eine gestaltest, wie du es vielleicht von Programmen wie Canva oder Crello kennst: Jedes Bild besteht aus Schichten (Layers), wie zum Beispiel Text, Bildern oder Hintergrund. Du definierst nun diese Schichten, legst das Layout fest und kannst dann die Vorlage automatisieren.

Im Prozess der Automatisierung kann das System die Schichten dynamisch in der Vorlage „ersetzen“ und so ein neues Bild erstellen. Im Idealfall importierst du noch eine Liste mit den Namen deiner Kund*innen in das Programm, um dir die Eingabe der einzelnen Namen zu ersparen. Es wäre auch möglich, jedem Kund*innenbanner noch ein individuelles Bild zuzuordnen. So kann das System dann in Sekunden hunderte oder tausende personalisierte Banner produzieren. Du könntest also deine Kampagne noch am gleichen Tag beginnen.

Je nach Programm gibt es verschiedene Möglichkeiten der Automatisierung, die nachfolgend näher erläutert werden sollen.

Bildgenerierung über die Website

Der simple Weg ohne großen Firlefanz: Du gibst die Daten der einzelnen Schichten in ein Formular oder, wenn es viele Banner auf einmal werden sollen, in eine Tabelle ein und lädst dort die Bilder hoch. Du kannst auch vorhandene Tabellen aus Google Sheets oder Microsoft Office importieren.

Bildgenerierung über No-Code-Tools

Wer über No-Code-Tools wie Zapier oder Integrately automatisiert, braucht keine Programmiersprache zu beherrschen. Personalisierte Bilder werden direkt in No-Code-Workflows generiert.

REST-API (Programmierschnittstellen)

Wenn du Vorkenntnisse in IT hast und das entsprechende Tool flexibel in dein System integrieren willst, ist diese Art der Automatisierung die richtige Wahl. Denn wer über REST-API automatisiert, also über Schnittstellen, muss programmieren können.

URL-Parameter

Auch hier brauchst du Kenntnisse im Programmieren. Dynamische Bilder entstehen, indem du Parameter im Bildlink veränderst (Bild, Text, Farbe etc.). Der Vorteil bei dieser Methode ist, dass Verknüpfungen gut erstellt werden können. So entsteht ein automatisierter Workflow. Im Fall des Kampagnenbeispiels könntest du die Banner gleich an deine Kund*innen verschicken, indem du den Bildgenerator mit deiner E-Mail-Automatisierung verknüpfst.

Die Vorteile der Bildgenerierung für Gründer*innen

Effizienz wird durch Marketing Automatisierung gesteigert. Gerade in Early-Stage-Start-ups fehlt die Zeit für die Gestaltung von visuellem Content, weil sich viele Aufgaben auf wenige Schultern verteilen. Besonders in den sozialen Medien sind jedoch regelmäßige Beiträge unerlässlich. Weil die Tools Bilder innerhalb von Minuten variieren können und nervige repetitive Aufgaben übernehmen, werden Ressourcen freigesetzt und die Effizienz erhöht. Wer erfolgreich sein will, darf die Wirksamkeit in den Arbeitsprozessen nie aus den Augen verlieren. Automatische Bildgenerierung ist ein Mittel, um kreative, finanzielle und zeitliche Ressourcen zu schonen.

Die Handhabung ist einfach

Die Programme sind komplex, allerdings bleibt dies in der Technik verborgen. Die Nutzeroberflächen hingegen sind intuitiv, übersichtlich und leicht zu bedienen. Je nach Vorkenntnissen können die Nutzer*innen in der Regel zwischen verschiedenen Wegen der Automatisierung wählen. Die Programme verfügen außerdem über Vorlagen-Bibliotheken, sodass Designerfahrung keine Voraussetzung ist.

Fehler werden vermieden

Wer hunderte Banner nacheinander von Hand anpasst, wird früher oder später Fehler machen. Hier schlägt der Algorithmus den Menschen. Fehler, die wiederum zeitraubend sein können, entstehen erst gar nicht.

Die Automatisierung hilft der SEO

Mit den Programmen können Nutzer*innen große Mengen an Bannern generieren. Es ist also möglich, für jeden Suchbegriff das passende Bild zu erzeugen. Und was nicht unterschätzt werden darf: Einzigartige Bilder, Unique Visual Content, finden die Suchmaschinen großartig. Wenn du deine Banner und Grafiken optimal für mehr Reichweite nutzen willst, kannst du das Thema Bilder-SEO mithilfe der Lektüre des Fachartikels von Melissa Fach vertiefen. Die Autorin erklärt, wie du Alt-Tags nutzt oder Bilder für Websites so optimierst, dass bei der Ladegeschwindigkeit noch ordentlich was geht.

Bildgenerierung als Einstieg in die Automatisierung

Programme zur Bildautomatisierung lassen sich gut mit anderer Software verknüpfen, etwa mit E-Mail-Automatisierungen. Sie sind niedrigschwellig und kosten nicht viel, sodass sie einen guten Ausgangspunkt darstellen, um in die Automatisierung einzusteigen. Wer gleich mit einem „Big Bang“ alles auf einmal automatisieren will, muss viel Geld und Ressourcen in die Hand nehmen. Ein agiler Ansatz ist hier oft vorteilhafter. In der Regel kann man die Tools einen begrenzten Zeitraum testen, bevor man ein Abo abschließt. In dieser Zeit hat man dann meist ein Recht auf 25 bis 30 generierte Bilder.

Automatische Bildgenerierung kann dir einen Vorteil im Wettbewerb bringen

Auch wenn die Tools seit 2021 langsam und stetig bekannter werden, gilt: Wer jetzt einsteigt, hat immer noch die Nase vorn. Doch der Nutzen liegt nicht allein darin, anderen voraus zu sein. Start-ups können sich ihren Wettbewerbsvorteil auch dadurch verschaffen, dass sie durch die Automatisierung visuellen Content ohne Grafik- und IT-Abteilung ganz nach Bedarf gestalten.

Anwendungsbereiche der Bildautomatisierung

E-Commerce

Wer seinen Kund*innen eine große Auswahl an Produkten bietet, weiß, wie viel Arbeit die ständige Aktualisierung des Online-Katalogs bedeutet. Für Rabattaktionen wie etwa einen ­Season Sale müssen viele Produktbilder ausgetauscht und Preise verändert werden. Wer dieses Ersetzen von Daten manuell erledigt, braucht viel Zeit und Nerven. Das Austauschen der einzelnen „Schichten“ in den Bildern (in dem Fall zum Beispiel Preise und Produktfotos) können Unternehmer*innen der Automatisierung überlassen und gewinnen so Zeit, um sich bereits mit der neuen Kollektion zu befassen oder Kund*innen noch intensiver zu betreuen.

E-Mail-Marketing

Bildgeneratoren ermöglichen dir, personalisierte E-Cards an deine Kund*innen zu verschicken, etwa bei Abschluss eines Vertrags. Auch Coupons können damit hundertfach produziert werden, ebenso wie Header, die schnell die verstärkte Aufmerksamkeit wecken können, damit Kund*innen den Text der E-Mail auch lesen. Wenn du dem Ganzen noch die Krone aufsetzen willst, verknüpfst du die Bildautomatisierung mit einer E-Mail-Automatisierung.

Unternehmensblog

Visueller Inhalt als Wiedererkennungseffekt ist hier das Schlagwort. Viele Blogger*innen teasern ihre Texte mit Grafiken, die passend zum Thema variiert werden. Da das Schreiben allein schon viel Arbeit macht, kann es eine Entlastung sein, wenn die Teaser-Bilder dank Bildgenerierung keinen Aufwand mehr darstellen.

Soziale Medien

Die sozialen Miedien ist einer der wichtigsten Bereiche für die Anwendung automatischer Bildgenerierung. Wer auf Instagram, Twitter oder Facebook Produkte vermarkten will, muss reaktionsschnell und stets aktiv sein. Das ist in Start-ups gar nicht so leicht, wo sich die Aufgaben türmen und das Team meist noch überschaubar ist. Aber auch in größeren Unternehmen fehlt für die sozialen Medien oft die Zeit. Lassen die Kommentare jedoch nach, vergessen die Nutzer*innen möglicherweise die Marken und verlieren diese mehr und mehr ihre Sichtbarkeit im Netz. Bildautomatisierung kann Unternehmer*innen helfen, durch regelmäßige Banner-Produktion Schritt zu halten und in gleicher Zeit mehr zu posten.

Social Commerce

Laut Studien kaufen bereits zwei Milliarden Menschen weltweit über soziale Netzwerke ein, Tendenz steigend. Instagram wird das Einkaufen voraussichtlich auch in Deutschland bald noch leichter machen. In den USA läuft der sogenannte In-App-Checkout, bei dem Nutzer*innen die Plattform zum Kaufen gar nicht mehr verlassen müssen, bereits erfolgreich. Um im Wettbewerb mitzuhalten, müssen Unternehmen demnach den Social Commerce ernst nehmen. Da kommen schnell viele Banner zusammen, die an das entsprechende Format der Plattform angeglichen werden müssen. Da jedes soziale Netzwerk seine eigene Zielgruppe hat, ist auch hier die Anpassung der Banner zu berücksichtigen. Mit der Automatisierung geht das schnell und einfach.

Datenschutz und Anbieterauswahl

Bei der Auswahl des/der Entwickler*in deiner Automatisierungssoftware hast du die Wahl zwischen Firmen, deren Server auf europäischem oder auf amerikanischem Boden stehen. Je nach Sicherheitsbedürfnis entscheidest du dich also für die strengere deutsche DSGVO oder den lockereren Datenschutz in den USA. Da es um Daten deines Unternehmens und deiner Kund*innen geht, solltest du dir darüber Gedanken machen. Vielleicht entscheidet auch die Sprache des Tools darüber, welches du letztendlich auswählst. Bisher gibt es Bildgeneratoren in englischer, deutscher und französischer Sprache.

Fazit

Der Nutzen automatischer Bildgenerierung ist groß, der zeitliche und finanzielle Aufwand gering. Deshalb sollten gerade Gründer*innen hellhörig werden, denn mit Personal, Zeit und Geld müssen Start-ups gut haushalten. Vielleicht winkt schon der nächste Auftrag, für den man diese Ressourcen besser brauchen könnte. Bildautomatisierung kann daher ein niedrigschwelliger Einstieg in die Digitalisierung sein, an der heute kein Unternehmen mehr vorbeikommt. Die Tools sind einfach zu handhaben und eignen sich daher auch für jene, die mit Technik allgemein auf Kriegsfuß stehen. Andererseits kommen dank der Wahlmöglichkeiten bei der Art der Automatisierung auch Tech-Freaks auf ihre Kosten. Für die Zukunft wird es eine spannende Frage sein, inwieweit die Entwickler*innen die Programme noch mit Elementen künstlicher Intelligenz aufrüsten werden und ob dann die Qualität der Ergebnisse befriedigend sein wird.

Die Autorin Friederike Marx-Kohlstädt ist Journalistin und verantwortet die Presse- und Öffentlichkeitsarbeit beim Freiburger Softwareentwickler DynaPictures, https://dynapictures.de

Diese Artikel könnten Sie auch interessieren:

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Kultur entsteht nicht später – sie entsteht jetzt

Serie: Führen im Start-up, Teil 3: Warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren.

Montagmorgen, 7.42 Uhr: Das Team steht im offenen Büro. Der Release ist instabil, der Kunde ungeduldig. Der Gründer übernimmt das Gespräch. Die Stimme wird lauter. Der Ton schärfer. Niemand widerspricht.

Am Nachmittag ist wieder Ruhe. Abends posten alle auf LinkedIn über Teamspirit.

So entstehen Kulturen. Nicht im Offsite, nicht im Werte-Workshop, sondern in genau solchen Momenten.

Der größte Irrtum junger Unternehmen

„Um Kultur kümmern wir uns später. Jetzt geht es um Wachstum.“ Dieser Satz fällt häufig. Er klingt pragmatisch. Fast erwachsen. Tatsächlich ist er riskant.

Organisationsforschung beschreibt seit Jahrzehnten, dass sich Normen früh bilden – und erstaunlich schnell verfestigen. Besonders in Stresssituationen. Nicht in stabilen Phasen.

Unter Druck wird nicht nur gearbeitet. Unter Druck wird programmiert.

Stress schreibt Verhalten in die DANN

In der Frühphase herrscht fast permanent Unsicherheit: Finanzierung offen, Produkt iterativ, Rollen unscharf. Genau in diesem Umfeld bilden sich implizite Regeln.

  • Wer darf widersprechen?
  • Wie wird mit Fehlern umgegangen?
  • Wer bekommt Anerkennung – und wofür?
  • Wie werden Konflikte gelöst?

Diese Regeln werden selten formuliert. Sie werden beobachtet.

Wenn ein(e) Gründer*in Kritik als Bremse interpretiert, lernt das Team: Widerspruch ist riskant. Wenn Wochenendarbeit als Loyalitätsbeweis gilt, wird Dauerverfügbarkeit zur Norm. Wenn Entscheidungen spontan und intransparent fallen, entsteht operative Unklarheit.

Später spricht man von gewachsener Kultur. Tatsächlich handelt es sich um kumulierte Reaktionen auf frühen Druck.

Warum Geschwindigkeit Differenzierung verdrängt

Start-ups priorisieren Tempo. Verständlich. Märkte warten nicht. Investor*innen auch nicht.

Doch Geschwindigkeit hat Nebenwirkungen. Reflexion rutscht nach hinten. Entscheidungswege bleiben implizit. Rollen werden funktional verteilt, aber nicht sauber geklärt.

Untersuchungen zu Gründungsverläufen zeigen immer wieder ein ähnliches Muster: Unternehmen wachsen schneller als ihre Führungsstrukturen. Entscheidungen bleiben informell an die Gründungsperson gebunden, während Team und Komplexität zunehmen.

Was in der Frühphase Effizienz bedeutet, wird mit zunehmender Größe zur strukturellen Schwäche. Solange das Unternehmen klein ist, funktioniert das. Mit Wachstum wird es fragil.

Die Romantisierung der Anfangszeit

Die Start-up-Erzählung liebt Improvisation. Pizza im Büro. 18-Stunden-Tage. „Wir gegen den Rest der Welt.“ Doch genau in dieser Phase werden kulturelle Maßstäbe gesetzt.

  • Was heute als Flexibilität gefeiert wird, kann morgen Willkür bedeuten.
  • Was heute als Nähe empfunden wird, kann morgen Intransparenz heißen.
  • Was heute als Loyalität gilt, wird morgen als Abhängigkeit erlebt.

Kultur ist kein Stimmungsbild. Sie ist ein System aus Erwartungen.

Warum spätere Kulturprogramme oft Symptome behandeln

Wenn ein Start-up wächst und Fluktuation steigt, Konflikte eskalieren oder Führung inkonsistent wirkt, beginnt häufig die Kulturarbeit. Leitbilder werden formuliert, Werte definiert, Workshops organisiert.

Doch Kultur entsteht nicht durch Deklaration. Sie entsteht durch Wiederholung, durch „ins Leben bringen“. Mitarbeitende orientieren sich nicht an Postern. Sie orientieren sich an erlebter Macht.

Wenn frühe Verhaltensmuster nie hinterfragt wurden, sind sie längst internalisiert. Ein späteres Werte-Set ersetzt keine gelebten Normen.

Der wirtschaftliche Preis

Kulturelle Dysfunktion ist kein weiches Thema.

  • Sie beeinflusst Entscheidungsgeschwindigkeit.
  • Sie erhöht Konfliktkosten.
  • Sie wirkt auf Mitarbeiter*innenbindung.
  • Sie prägt Innovationsfähigkeit.
  • Sie beeinflusst Reputation am Arbeitsmarkt.

Interne Analysen vieler Investor*innen zeigen: Nicht Marktversagen ist die häufigste Ursache für Start-up-Scheitern, sondern Team- und Führungsprobleme. Und diese entstehen selten im zehnten Jahr. Sie entstehen im ersten.

Ein unbequemer Schluss

Kultur entsteht nicht dann, wenn sie auf der Agenda steht. Sie entsteht dann, wenn niemand hinsieht. Tag für Tag. Die entscheidende Frage lautet daher nicht: Welche Werte wollen wir später haben? Sondern: Was lehren wir unser System gerade – durch unser Verhalten unter Druck?

Denn jedes Start-up hat Kultur. Die einzige Frage ist, ob sie bewusst gestaltet oder sich unbewusst einschleicht.

Tipp zum Weiterlesen

Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e

Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5

Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.

11 Mio. Euro für Physical AI: Wie FLEXOO Hardware zum Sprechen bringen will

Das Heidelberger Sensorik-Start-up FLEXOO hat eine Series-A-Finanzierungsrunde über 11 Mio. Euro erfolgreich abgeschlossen. Mit dem Kapital plant FLEXOO die internationale Skalierung seiner Sensorplattform für Batterie-Speichersysteme und die Automobilindustrie.

Vom Forschungsprojekt zum DeepTech-Unternehmen

Hinter dem ambitionierten Vorhaben steht ein fünfköpfiges Gründerteam, das akademisches Know-how mit industriellem Anspruch verbinden will. Geführt wird das Heidelberger Unternehmen von Founding CEO und Managing Director Dr. Michael Kröger. Zum Gründungsteam gehören zudem Sieer Angar (Chairman of the Board), Dr. Mathieu Turbiez (Chief Revenue Officer), Dr. Jean-Charles Flores (Director Market Development North America) und Dr. Janusz Schinke (Managing Director).

Diese starke akademische Prägung ist typisch für DeepTech-Ausgründungen. Das Start-up hat seine technologischen Wurzeln im hochspezialisierten Umfeld der gedruckten Elektronik. Um diese Expertise zu kommerzialisieren, wurde die FLEXOO GmbH im Jahr 2024 offiziell als eigenständiges Spin-off des renommierten Heidelberger InnovationLab gegründet. Die Bündelung dieser Kompetenzen in einer eigenständigen Gesellschaft war der strategische Schritt, um eine Technologiearchitektur, die laut Investorenangaben von der Forschung bis zur Markteinführung validiert wurde, nun auf die globale industrielle Skalierung zu trimmen.

Das Versprechen: Hochauflösende Daten aus dem Inneren der Maschine

FLEXOO adressiert eine reale Schwachstelle aktueller KI-Systeme: KI-Algorithmen benötigen hochauflösende Echtzeit-Daten über den physikalischen Zustand von Hardware. Das Gründerteam hat dafür eine Sensorplattform entwickelt, die ultradünne, flexibel formbare Sensoren mit Edge-AI kombiniert.

Die Kerninnovation liegt laut Unternehmensangaben im Formfaktor: Die Sensoren sind unter 200 Mikrometer dünn und sollen sich nahtlos in nahezu jede Oberfläche oder Struktur integrieren lassen. Im Bereich der Batterietechnologie liefert dies auf dem Papier messbare Mehrwerte: FLEXOO gibt an, dass Validierungen mit führenden Batterieherstellern Kapazitätsgewinne von bis zu 5 Prozent zeigen. Dies soll komplett ohne Änderungen am Batteriezell-Design oder der bestehenden Zellchemie gelingen. Zudem sollen durch die direkten Daten auf Zellebene Frühwarnsysteme etabliert werden, die drohende Batterieausfälle proaktiv verhindern. Solche „bis zu“-Werte sind in frühen Validierungsphasen stets mit Vorsicht zu genießen, bis sie sich in der industriellen Massenanwendung verlässlich reproduzieren lassen.

Die Produktion als eigentlicher Hebel

Der entscheidende Überlebensfaktor für ein Hardware-Start-up ist die Skalierbarkeit der Produktion. FLEXOO setzt hier auf eine hochvolumige Druckfertigung, die nahezu jede Geometrie ermöglichen soll. Die Sensoren werden nicht aufwendig einzeln zusammengebaut, sondern gedruckt. Das ermöglicht laut Aussage der Investoren eine Kostenstruktur, die den breiten industriellen Einsatz erst realistisch macht und ein überzeugendes Preis-Leistungs-Verhältnis liefert.

Das Start-up reklamiert dabei selbstbewusst für sich, den weltweit präzisesten taktilen Sensor zu produzieren. Ob das patentierte Verfahren und die Fertigung „Made in Germany“ diesen technologischen Vorsprung gegen die immense Konkurrenz langfristig verteidigen können, wird sich letztlich in den harten Preisverhandlungen der Zulieferer-Industrie zeigen.

Die Realität der Skalierung: Verträge statt Prototypen

Trotz des starken technologischen Fundaments steht FLEXOO nun vor der klassischen Herkulesaufgabe für Hardware-Start-ups: Die Überführung von vielversprechenden Prototypen in ein profitables Seriengeschäft. Mit dem Abschluss der Series-A-Runde fokussiert sich das Unternehmen 2026 richtigerweise auf den Ausbau des internationalen Vertriebs und die Sicherung strategisch relevanter Lieferverträge. Zudem ist die Bereitstellung von Prototypen der Physical-AI-Plattform an Entwicklungspartner fest eingeplant.

Die Zusammensetzung der Investoren ist hierbei ein strategischer Vorteil: eCAPITAL bringt Erfahrung bei Deep-Tech-Unternehmen und einen klaren Fokus auf ClimateTech sowie IoT mit. AUMOVIO wiederum kann über seine Start-up-Einheit co-pace direkten Zugang zur globalen Automobil- und Mobilitätsindustrie bieten.

Dass FLEXOO parallel Einsatzfelder in stark wachsenden Zukunftsbereichen wie der humanoiden Robotik ins Auge fasst, deutet das enorme Potenzial der Sensor-Plattform an. Ob aus diesem Versprechen jedoch wirklich ein globaler Standard für Physical AI wird, müssen erst die harten Serien-Validierungen der nächsten Jahre zeigen. "Hardware is hard" – das gilt auch für smarte, gedruckte Sensoren aus Heidelberg.

Qualifizierte Migration darf kein Irrgarten sein

Um die Migration qualifizierter Fachkräfte aus dem Ausland zu erleichtern, haben Studierende der Universität zu Köln im Jahr 2024 VisaFlow ins Leben gerufen. Heute präsentiert sich die App als ultimativer Leitfaden, der dabei hilft, sich im deutschen Einwanderungsprozess zurechtzufinden. CEO Georg Nauheimer erzählt, was es damit auf sich hat und warum das exist-Programm vom Bundesministerium für Wirtschaft und Energie (BMWE) dabei eine doppelt wichtige Rolle spielt.

Was hat Sie und Ihre Mitgründer*innen motiviert, VisaFlow zu starten?

Im Studium erlebten wir – insbesondere am Beispiel unseres Teammitglieds Cheyenne aus den USA – die Herausforderungen, die sich bei der Einwanderung nach Deutschland ergeben. Die Prozesse zur Erteilung eines Visums oder einer Aufenthaltserlaubnis sind bisher überaus komplex und belastend; für Talente, Hochschulen und Unternehmen. Dabei steht fest, dass allein aufgrund der hiesigen demografischen Entwicklung qualifizierte Migration unverzichtbar ist für den Wirtschaftsstandort Deutschland. Unsere Vision ist deshalb die einer Welt, in der die internationale Mobilität geeigneter Fachkräfte nicht durch intransparente und ineffiziente Visumsprozesse eingeschränkt wird.

Was ist bisher die größte Hürde?

Ob als Student, Fachkraft oder mit einer Unternehmensidee: Wer aus dem nicht-europäischen Ausland den Schritt nach Deutschland wagt, sieht sich häufig einem schwer durchschaubaren bürokratischen Prozess gegenüber. Unklare Anforderungen, widersprüchliche Informationen, schwer verständliche Formulare in Amtsdeutsch und lange Wartezeiten machen das Einwanderungsverfahren zu einem regelrechten Irrgarten. Es bleibt immer die Unsicherheit, dass selbst ein kleiner formaler Fehler zu enormen Verzögerungen führen kann. Und bei der Verlängerung von Visa und Aufenthaltstiteln geht alles von vorne los. Genau hier setzt VisaFlow an: Unser Ziel ist es, diese Komplexität zu reduzieren, Transparenz zu schaffen und die Reibung im System für alle Beteiligten nachhaltig zu minimieren.

Inwiefern kann eine App dabei helfen?

Wir haben ein benutzerfreundliches Programm entwickelt, das den gesamten Prozess der Identifizierung, Ausfüllung und Einreichung erforderlicher Unterlagen optimiert. VisaFlow führt Nutzerinnen und Nutzer wie ein persönlicher Guide durch den in verständliche Schritte zerlegten Prozess – von der ersten Frage „Welches Visum brauche ich eigentlich?“ bis zur vollständigen, korrekt eingereichten Bewerbung. Kein Rätselraten mehr, keine unnötigen Umwege. Statt nüchterner Behördenlogik rückt die App die Perspektive der Menschen in den Mittelpunkt. Sie strukturiert Anforderungen, erinnert an Fristen, erklärt Dokumente in einfacher Sprache und sorgt dafür, dass nichts vergessen wird. Alles folgt einem klaren Flow – genau daher der Name.

Welche Rolle spielt exist – from science to business in diesem Kontext?

Exist ist für uns gleich doppelt wichtig! Zunächst als Förderpartner. Als wir 2024 an der Universität zu Köln mit VisaFlow gestartet sind, war schon der Bewerbungsprozess um das exist Gründungsstipendium ein wertvolles Training, die Zusage dann ein entscheidender Meilenstein. Von zentraler Bedeutung war natürlich die finanzielle Absicherung in der frühen Phase. Insgesamt verschaffte uns das Programm den zeitlichen Freiraum, den klaren Fokus und die notwendige Rückendeckung, um unsere Idee konsequent weiterzuentwickeln und zur Marktreife zu führen. Bis heute profitieren wir außerdem von der starken Signalwirkung, die exist als Qualitätssiegel gegenüber potenziellen Kunden, Partnern und Investoren entfaltet. Auch die Netzwerkkontakte sowie die fachliche Begleitung während des Förderzeitraums haben maßgeblich zu unserem Fortschritt beigetragen. Unser Fazit: Für Gründungsteams aus dem wissensbasierten Ökosystem ist exist nicht nur die bewährte erste Anlaufstelle, sondern die zentrale Förderung, die unbedingt genutzt werden sollte.

Um das Tempo von Gründungen aus der Wissenschaft zu beschleunigen, hat das BMWE den Antragsprozess des exist-Programms vereinfacht. Welche Erfahrungen haben Sie diesbezüglich gemacht?

Vor allem die digitale Antragstellung ist ein großer Fortschritt. Bei uns lief bereits fast alles digital, inklusive Unterschriften und Kommunikation. Eine Erleichterung ist auch der reduzierte Umfang der Antragsunterlagen, insbesondere das kürzere Ideenpapier, das dazu zwingt, wirklich auf den Punkt zu kommen. Die Sachmittelpauschalen haben wir noch nicht genutzt, wir sehen diese allerdings auch als weiteren Schritt der Entbürokratisierung im exist-Programm. Positiv hervorzuheben sind außerdem die überarbeiteten Webseiten, die von Anfang an für Klarheit sorgen. Insgesamt kommt hier also genau das Rezept zum Einsatz, das wir uns auch in unserem Thema wünschen: Digitale Abläufe, mehr Transparenz und weniger Aufwand für alle im System!

Sie sagten, das exist-Programm sei für VisaFlow gleich doppelt wichtig. Was meinen Sie damit?

Tatsächlich verbindet uns auch unsere Mission: Mit der Einrichtung des Global Certification and Consulting Centre (GCCC) durch das BMWE im Jahr 2024 als Teil des exist-Programms haben sich inhaltliche Schnittstellen ergeben. Hintergrund ist die Reform des Aufenthaltsgesetzes, die Nicht-EU-Gründer und -Gründerinnen bei exist-Finanzierung den Zugang zu Visa und Aufenthaltstiteln ermöglicht. Dabei fungiert das GCCC als zentrale Schnittstelle zwischen Auslandsvertretungen, Behörden, Hochschulen und internationalen Gründungsteams. Auch prüft und zertifiziert es stipendienbasierte Gründungsprogramme. Daraus ergeben sich mehrere Ansatzpunkte für eine wertstiftende Zusammenarbeit zwischen dem GCCC und VisaFlow.

Wie könnte eine solche Zusammenarbeit aussehen?Um internationale Gründungen in Deutschland nachhaltig zu fördern, wäre die gezielte Bündelung der jeweiligen Kompetenzen denkbar. GCCC bringt spezialisiertes Fachwissen, ein belastbares Netzwerk sowie Sichtbarkeit im exist-Umfeld in den Prozess ein. VisaFlow steuert eine skalierbare Technologielösung und umfassendes Behördenwissen bei, wodurch sich die Qualität von Visums- und Aufenthaltstitelanträgen bereits im Vorfeld deutlich verbessern lässt. Darüber hinaus sind verschiedene gemeinsame Projekte möglich, etwa Trainingseinheiten zur Digitalisierung von Abläufen sowie zur praxisnahen Umsetzung neuer gesetzlicher Regelungen in den Behörden.

Geben Sie uns noch einen Überblick, wo VisaFlow aktuell steht.Sehr gern. Aktuell arbeiten wir bundesweit mit über 60 Hochschulen zusammen. Wir haben bereits mehr als 4.000 Fälle erfolgreich unterstützt, die Nachfrage ist weiter groß. Daneben treiben wir mit unserem Innovationspartner Rewe Group die Entwicklung einer Produktlinie für Unternehmen und deren Personalabteilungen voran. Für uns ist es zentral, Lösungen stets im Co-Development mit den Nutzerinnen und Nutzern zu entwickeln. In diesem speziellen Fall ist es unser Ziel, eine skalierbare End-to-End-Lösung zu entwickeln, die Unternehmen bei internationalen Einstellungen deutlich entlastet und Bewerberinnen und Bewerbern eine signifikant bessere Onboarding-Erfahrung ermöglicht. Der Plan ist, damit Mitte dieses Jahres an den Start zu gehen.

Herr Nauheimer, vielen Dank für das Gespräch!

Infokasten

Was ist exist?

Das exist-Programm des Bundesministeriums für Wirtschaft und Energie (BMWE) fördert wissensbasierte Gründungen aus Hochschulen und Forschungseinrichtungen. Es stärkt den Transfer von Forschung in marktfähige Produkte und Dienstleistungen und eröffnet Wissenschaftlerinnen und Wissenschaftlern eine klare Karriereoption im Unternehmertum.

exist Gründungsstipendium

Für gründungsinteressierte Studierende, Absolventinnen und Absolventen sowie Wissenschaftlerinnen und Wissenschaftler.

exist Women

Entwicklungen und Aktivitäten zur Förderung und Unterstützung von Gründerinnen aus Hochschulen und Forschungseinrichtungen.

exist Forschungstransfer

Für forschungsbasierte Gründungsvorhaben mit aufwendigen, risikoreichen Entwicklungsarbeiten.

exist Startup Factories

Zehn Leuchttürme des deutschen Startup-Ökosystems zur Steigerung von Anzahl und Qualität wissensbasierter Ausgründungen.

Bewerbungen erfolgen über die Hochschule/Forschungseinrichtung an den Projektträger.

Weitere Informationen unter www.exist.de

Verantwortung ohne Geländer

Serie: Führen im Start-up, Teil 2: Warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind.

Ein Start-up steht vor einem Richtungswechsel. Das Produkt performt solide, aber nicht stark genug für die nächste Finanzierungsrunde. Der Lead-Investor empfiehlt einen klaren Pivot. Im Team gibt es Widerstand. Einige sehen das Risiko, andere fürchten den Stillstand. Es wird diskutiert. Analysen werden geteilt. Szenarien durchgerechnet. Und doch wissen alle: Am Ende wird eine Person entscheiden.

Genau hier zeigt sich die besondere Qualität von Führung im Start-up – und ihre besondere Belastung.

Einsamkeit ist keine Stimmung – sie ist Struktur

Von außen wirken junge Unternehmen kommunikativ dicht. Slack-Channels laufen permanent. Daily-Stand-ups strukturieren den Tag. Investor*innen, Mentor*innen und Berater*innen sind eingebunden. Und dennoch berichten viele Gründer*innen von einem Gefühl, das sie selbst überrascht: innerer Isolation.

Diese Einsamkeit ist selten sozial. Sie ist strukturell.

In der Frühphase ist Verantwortung extrem konzentriert. Anders als in gewachsenen Organisationen gibt es keine Gremien, die Entscheidungen kollektiv tragen. Keine etablierten Hierarchieebenen, die Verantwortung verteilen. Kein operatives Korrektiv, das Last abfedert.

Es gibt Austausch. Aber es gibt kein Geländer.

Wie Verantwortung Wahrnehmung verschiebt

Forschung zur Entscheidungspsychologie zeigt seit Jahren: Wer sich als allein verantwortlich erlebt, bewertet Risiken anders. Mit wachsender wahrgenommener Verantwortung verschieben sich Maßstäbe – oft unbemerkt.

Risiken werden entweder überhöht oder unterschätzt. Kontrolle nimmt zu. Widerspruch fühlt sich schneller bedrohlich an. Nicht aus Arroganz, sondern aus Schutz.

Der/die Gründer*in weiß: Wenn es schiefgeht, wird nicht das Team zitiert. Sondern er bzw. sie.

Das paradoxe Umfeld des Gründens

Start-ups sind laut, schnell, vernetzt. Und dennoch entsteht häufig ein innerer Rückzug.

Warum? Weil Gründer*innen früh lernen, Unsicherheit dosiert zu zeigen. Zu viel Zweifel kann das Team verunsichern. Zu viel Offenheit gegenüber Investor*innen kann als Führungsschwäche interpretiert werden. Zu viel Zögern wirkt im Markt riskant.

Also wird gefiltert. Man teilt Zahlen, aber nicht immer Ambivalenz. Man diskutiert Optionen, aber nicht immer Unsicherheit.

So entsteht Distanz. Nicht geplant. Aber wirksam.

Wenn fehlende Geländer zu Mustern werden

Ohne echtes Korrektiv entwickeln sich typische Dynamiken. Manche Gründer*innen erhöhen ihre operative Kontrolle. Sie involvieren sich in jede Entscheidung, sichern Details doppelt ab, korrigieren Prozesse selbst. Kurzfristig entsteht Stabilität. Langfristig Abhängigkeit.

Andere beschleunigen Entscheidungen, um Druck zu reduzieren. Schnelligkeit ersetzt Reflexion. Das wirkt entschlossen – kann strategisch jedoch inkonsistent werden.

Wieder andere ziehen sich emotional zurück, um handlungsfähig zu bleiben. Sie funktionieren. Aber sie teilen weniger.

All diese Reaktionen sind nachvollziehbar. Und sie verändern das System.

Widerspruch wird vorsichtiger. Kommunikation strategischer. Nähe funktionaler.

Warum Investor*innen kein Geländer sind

Investor*innen sind zentrale Partner*innen. Ihr Fokus liegt naturgemäß auf Wachstum, Skalierung und Rendite. Das ist kein Vorwurf, sondern ihr Mandat.

Ein Geländer im strukturellen Sinn erfüllt jedoch eine andere Funktion: Es sichert die Qualität von Führung – unabhängig von kurzfristiger Performance.

  • Ein unabhängiger Beirat mit klarer Rolle.
  • Ein Sparringspartner ohne operative Interessen.
  • Ein(e) Co-Founder*in, der/die nicht nur loyal, sondern widerspruchsfähig ist.

Nicht zusätzliche Beratung, sondern echte Resonanz.

Der wirtschaftliche Preis von Isolation

Isolation wirkt nicht laut. Sie wirkt kumulativ. Fehleinschätzungen bleiben länger unentdeckt.
Konflikte werden später adressiert. Entscheidungsprozesse werden intransparenter. Vertrauen verschiebt sich.

Viele Gründungskonflikte und spätere Führungskrisen entstehen nicht aus mangelnder Kompetenz, sondern aus nicht geteiltem Druck.

Einsamkeit in der Führung ist kein persönliches Drama. Sie ist ein betriebswirtschaftlicher Risikofaktor.

Ein Perspektivwechsel

Autonomie ist eine Stärke von Gründer*innen. Sie ermöglicht Geschwindigkeit, Mut und Innovation. Doch Autonomie ohne Korrektiv wird zur Belastung.

Die entscheidende Frage lautet nicht, wie viel Verantwortung ein(e) Gründer*in tragen kann, sondern wie bewusst er/sie sie reflektiert.

Wer dauerhaft ohne Geländer führt, trifft Entscheidungen irgendwann nicht mehr strategisch, sondern aus innerem Überlebensmodus. Und das ist selten eine tragfähige Grundlage für nachhaltiges Wachstum.

Tipp zum Weiterlesen

Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e

Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.

Das Thermoskannen-Prinzip: Kann V21 die Logistik-Welt revolutionieren?

Das Team des Hamburger DeepTech-Start-up V21 – Roland Wiedenroth, Dr.-Ing. Tom Marr, Kristina Rübenkamp, Dr. Jens Struckmeier und Nicolas Röhrs – entwickelt extrem dünne und robuste Dämmplatten aus Edelstahl, die nach dem Prinzip einer flachen Thermoskanne funktionieren und Container oder Gebäude hocheffizient sowie platzsparend isolieren. Die Deutsche Bundesstiftung Umwelt (DBU) fördert das Projekt mit 125.000 Euro.

Ob Impfstoffe, Südfrüchte oder modulare Klassenzimmer: Container sind das Rückgrat der globalen Wirtschaft. Doch sie sind energetische Sorgenkinder. Um Innentemperaturen stabil zu halten, fressen Kühlaggregate (Reefer) enorme Mengen Strom, während herkömmliche Dämmstoffe wie Styropor oder Mineralwolle wertvollen Laderaum rauben. Hier setzt die 2019 gegründete V21 GmbH (kurz V21) an. Die Vision: Eine Dämmung, die so dünn wie effizient ist.

An der Spitze des Unternehmens steht ein Team, das tief in der Industrie verwurzelt ist. CEO Roland Wiedenroth, ein erfahrener Logistik- und Industrieexperte, leitet die Strategie und den Markteintritt. Er weiß um die Schmerzpunkte der Branche und treibt die Vision voran, die „Thermoskanne flach zu machen“. Mitbegründer und CIO Dr. Jens Struckmeier bringt die nötige wissenschaftliche Tiefe ein: Der promovierte Physiker und Mathematiker gilt als Clean-Tech-Pionier und hat bereits mit dem Start-up Cloud&Heat bewiesen, wie man physikalische Prinzipien in nachhaltige Geschäftsmodelle übersetzt. Über die Kerninnovation sagt er: „Wir haben die Thermoskanne flach gemacht und bringen sie an die Wand. Grundlage dafür war ein Patent, in dessen Kern der Verbund vieler kleiner Thermoskannen stand.“

DeepTech gegen das Vakuum-Dilemma

Dass V21 als klassisches DeepTech-Unternehmen gilt, liegt an der Überwindung einer massiven ingenieurtechnischen Hürde. Vakuum ist physikalisch der beste Isolator, doch bisherige Vakuumisolationspaneele (VIP) waren empfindlich wie rohe Eier. Das Produkt „ZeroCoreVac“ von V21 schlägt hier einen technologisch radikalen Weg ein, der sich fundamental von etablierten Lösungen unterscheidet. Während Marktführer wie va-Q-tec oder Panasonic primär auf Paneele setzen, die aus einem silikabasierten Kern bestehen, der von einer metallisierten Kunststoffverbundfolie umschlossen wird, verzichtet V21 komplett auf diese fragile Außenhaut.

Anstelle der Folie nutzt das Start-up eine robuste Kapselung aus hauchdünnem Edelstahl. Verantwortlich für diese Materialinnovation ist CTO Dr.-Ing. Tom Marr. Als Werkstoffingenieur mit einem Fokus auf Automatisierung und Fertigung treibt er die Serienreife der Technologie voran. Wo herkömmliche VIPs einen Stützkern aus Pulver benötigen, ermöglicht die von Marr und Struckmeier entwickelte, patentierte Struktur ein System, das ohne klassische Füllmaterialien auskommt. Diese Konstruktion macht das Paneel nicht nur mechanisch extrem belastbar, sondern löst auch das Thema Brandschutz, da keinerlei brennbare Kunststoffe verbaut sind. Ein weiterer Vorteil ist die vollständige Kreislauffähigkeit: Das Paneel kann am Ende seiner Lebenszeit – die V21 auf über 50 Jahre schätzt – als wertvoller Edelstahlschrott recycelt werden.

Das Geschäftsmodell: Skalierung durch Lizenzen?

V21 verfolgt eine zweistufige Strategie: Zunächst adressiert man B2B-Nischen wie den Modulbau, bevor der globale Container-Markt angegriffen wird. Dabei setzt das Start-up auf ein Lizenzmodell. Unterstützt wird dieser Skalierungskurs durch den Mitbegründer und Chairman Nicolas Röhrs, einen erfahrenen Technologieunternehmer, der auf den Aufbau strategischer Industriepartnerschaften spezialisiert ist. Finanziell wird das Wachstum von CFO Kristina Rübenkamp gesteuert, die ihre Expertise in Planung und Investorenkommunikation einbringt, um die nötige Transparenz für großangelegte Rollouts zu schaffen.

Ein solcher Lizenzansatz verspricht zwar schnelle Skalierung ohne massiven Kapitalaufwand für den eigenen Maschinenpark, doch Vakuumtechnik verzeiht keine Fehler. Die Herausforderung wird sein, sicherzustellen, dass Lizenzpartner weltweit die nötige Präzision beim Verschweißen der Edelstahlhüllen einhalten. Zudem bleibt der Margendruck in der Logistikbranche brutal. Die Rechnung geht für Reedereien nur auf, wenn die versprochene Energieeinsparung von bis zu 50 % und der Raumgewinn (ca. 10 bis 20 % mehr Nutzlast) die Initialkosten zügig amortisieren.

Die Belastungsprobe: Zwischen Theorie und Hochsee-Realität

Trotz technologischer Brillanz muss sich V21 in der Praxis beweisen. In der maritimen Logistik herrschen gnadenlose Bedingungen: Halten die präzisen Schweißnähte den permanenten Vibrationen und der aggressiven Salzwasserbelastung auf einem Containerschiff über Jahrzehnte stand? Ohne diese belastbaren Langzeitnachweise unter Realbedingungen bleibt das Risiko eines schleichenden Vakuumverlusts ein Argument, das gerade konservative Reedereien zögern lässt.

Parallel dazu steht die ökonomische Hürde im Raum. Solange CO-Zertifikate noch verhältnismäßig günstig bepreist sind, bleibt die High-End-Dämmung ein erklärungsbedürftiges Investment mit hohem „Green Premium“. Damit die Technologie den Sprung aus der Nische schafft, müssen die Produktionskosten durch konsequente Automatisierung massiv sinken. Erst wenn der ökologische Vorsprung auch betriebswirtschaftlich zum sofortigen Selbstläufer wird, dürfte das Hamburger Start-up die Branche nachhaltig umkrempeln.

Fazit

V21 hat ein technologisch exzellentes Produkt, das ein reales Problem der Dekarbonisierung löst. Die eigentliche unternehmerische Leistung wird nun darin bestehen, die Skalierung so effizient zu gestalten, dass der Preis für den Massenmarkt akzeptabel wird. Wenn die Hamburger den Beweis der Langlebigkeit unter Realbedingungen antreten, könnten sie zum neuen Standard für temperaturgeführte Logistik aufsteigen. Bis dahin bleibt es ein mutiger Ritt gegen etablierte Chemie-Riesen und die billige Dominanz von Styropor.

Gründer*in der Woche: syntik – High-Tech im Herzen der Industrie

Wie Mert Erdoğan mit syntik den Mittelstand fit für die Zukunft machen will, indem er Unternehmen ganzheitlich von der KI-Strategie über das Mitarbeitendentraining bis hin zur technischen Umsetzung individueller Softwarelösungen begleitet.

Vom sicheren Management-Sessel in das Wagnis der Selbständigkeit – diesen Weg wählen viele, doch nur wenige tun es mit einem so klaren Fokus auf die Old Economy. Mert Erdoğan, selbst Alumni der Universität Siegen, sah jahrelang eine wachsende Kluft: Auf der einen Seite die rasanten Fortschritte in der KI-Entwicklung, auf der anderen Seite ein deutscher Mittelstand, der oft noch mit Excel-Tabellen und Papierbergen kämpft.

„Ich habe in vielen Projekten gesehen, wie groß das Potenzial von KI ist. Vor allem in Bereichen, in denen heute noch unnötig viele repetitive Aufgaben manuell erledigt werden. Das Frustrierende war, dass diese Use Cases echten Mehrwert schaffen könnten, aber gerade im Mittelstand fehlt oft das Know-how, sie technisch und wirtschaftlich richtig einzuordnen. Genau da wollte ich ansetzen“, sagt Mert. Seine Antwort darauf ist syntik.

Der Dolmetscher zwischen zwei Welten

Das Problem vieler Traditionsunternehmen ist nicht der Unwille zur Innovation, sondern die Überforderung durch die Komplexität. Genau hier setzt das Geschäftsmodell von syntik an. Das 2025 im Siegerland gegründete Start-up versteht sich weniger als klassische IT-Beratung, sondern vielmehr als Übersetzer und Brückenbauer.

„Viele haben Angst vor großen KI-Investitionen ohne entsprechendem ROI und der Intransparenz dahinter. Wir übersetzen das Thema in verständliche, wirtschaftlich greifbare Schritte. Was muss individuell entwickelt werden, wie viel kostet dies, gibt es ggf. Fertige Lösungen. So machen wir aus Unsicherheit konkrete Handlungsmöglichkeiten“, so Mert.

Die Philosophie ist simpel: Technologie muss demokratisiert werden. Syntik holt die Unternehmen dort ab, wo sie stehen. Das Portfolio ruht dabei auf drei Säulen: Einer strategischen Beratung, die echte Anwendungsfälle jenseits von Spielereien identifiziert, einem umfangreichen Trainingsprogramm, das den Mitarbeitenden die Angst vor der "Black Box" KI nimmt, und schließlich der harten technischen Umsetzung individueller Softwarelösungen.

Alltagstauglichkeit statt KI-Schnickschnack

In einer Branche, die oft von Buzzwords und abstrakten Visionen dominiert wird, wirkt der Ansatz der Siegener erfrischend pragmatisch. Während etablierte IT-Riesen und schicke KI-Boutiquen aus den Metropolen sich oft auf DAX-Konzerne stürzen und entsprechende Preisschilder aufrufen, lässt syntik diese Nische bewusst links liegen.

Das Alleinstellungsmerkmal liegt in der kulturellen Passung. Die Macher hinter syntik treten nicht als abgehobene Tech-Evangelisten auf, sondern als Partner auf Augenhöhe. Sie sprechen die Sprache der Ingenieur*innen und Kaufleute im Mittelstand.

„Wir kommen nicht mit besonderen Folien, sondern mit echtem Verständnis für die Herausforderungen im Alltag. Ich kenne den Mittelstand, weil ich selbst aus dieser Welt komme. Mein Vater arbeitet sei über 20 Jahren bei den Deutschen Edelstahlwerke (DEW).  Wir reden nicht über Visionen, wir reden über Lösungen, die heute schon etwas besser machen in den kaufmännischen Prozessen“, so Mert.

Dieser „Siegerländer Pragmatismus“ kommt an. Statt theoretischer Powerpoints liefert das Team Lösungen, die funktionieren – sei es die Automatisierung der Angebotserstellung oder die Optimierung der Materialdisposition. Es geht darum, KI vom abstrakten Gespenst zum nützlichen Werkzeug am Fließband oder im Büro zu machen.

„Unsere Kunden sagen oft ‚Das ist kein KI-Schnickschnack, das hilft uns wirklich im Alltag.‘ Und genau das ist unser Anspruch, Lösungen zu liefern, die sofort spürbar etwas verbessern und Kapazitäten für relevante Aufgaben frei werden“, so Mert.

Bootstrapping statt Venture Capital

Auch bei der Finanzierung bleibt Mert Erdoğan seiner Linie treu. Statt sich frühzeitig von Venture-Capital-Gebenden abhängig zu machen und Anteile gegen „schnelles Geld“ zu tauschen, wählte syntik den Weg des Bootstrappings. Das Unternehmen wächst organisch aus dem eigenen Cashflow.

Dieser Weg ist steiniger und erfordert mehr Geduld, signalisiert den Kund*innen aber auch Stabilität: Hier wird kein Geld verbrannt, um künstliche Wachstumsziele zu erreichen. Das Stammkapital der GmbH wurde klassisch eingebracht, das Risiko liegt beim Gründer.

 „Wir wollen nur unseren Kunden verpflichtet sein, nicht irgendwelchen Wachstumsverpflichtungen von Investoren. Unabhängigkeit heißt für uns, dass wir selbst entscheiden, was sinnvoll ist. Und wir wachsen nur dort, wo es echten Mehrwert bringt. Wenn wir bestimmte KI-Produkte entsprechend etabliert haben und den Bedarf am stärksten an bestimmten Stellen sehen, können wir ggf. über Investoren sprechen“, betont der CEO.

Dieses Vorgehen schafft Vertrauen gerade beim Mittelstand, der oft skeptisch gegenüber fremdfinanzierten Start-up-Blasen ist.

Der Blick nach vorn: Fokus auf die Schwergewichte

Trotz der jungen Firmengeschichte – die Gründung erfolgte erst im Sommer 2025 – kann das Team bereits auf Referenzen aus über einem Dutzend Branchen verweisen. Im Gespräch mit dem Alumniverbund der Uni Siegen machte Erdoğan deutlich, wohin die Reise gehen soll: Der Fokus verschiebt sich zunehmend auf stark regulierte und dokumentationsintensive Sektoren wie Pharma, Chemie und Automotive.

Gerade in diesen Bereichen, wo Fehler teuer sind und Prozesse strikten Normen unterliegen, sieht der Gründer das größte Potenzial für KI-gestützte Effizienzsteigerung. Damit besetzt das Start-up seinen „Sweet Spot“ im Markt: Syntik agiert agiler und nahbarer als die nicht selten „trägen Tanker der Großberatungen“, ist aber gleichzeitig strategisch weitsichtiger als reine Software-Entwickler, die oft nur Code liefern, ohne die komplexen Prozesse des Mittelstands wirklich zu verstehen.

„Wir geben uns nicht mit Oberflächenlösungen zufrieden. Unser Ziel ist es, KI dort nutzbar zu machen, wo sie bisher scheitert. In kritischen Prozessen, unter realen Bedingungen mit echten Ergebnissen. Beim automatisierten Abgleich von Ausschreibungen, der strukturierten Verarbeitung technischer Anfragen, präzisen Forecasts in der Instandhaltung oder intelligenten Assistenzsystemen in Form von Chatbots für Normen und Richtlinien mit entsprechender Logik, Aktionen in Systemen und Mehrsprachigkeit“, so Mert.

Langfristig will das syntik den Schritt vom reinen Dienstleister zum Produktanbieter vollziehen. Geplant ist die Entwicklung standardisierter KI-Module, die sich wie Bausteine in verschiedene Unternehmenslandschaften integrieren lassen.

Mit syntik beweist Mert Erdoğan einmal mehr, dass Innovation nicht zwangsläufig aus den Metropolen kommen muss. Manchmal entsteht sie genau dort, wo sie am dringendsten gebraucht wird: Mitten im Maschinenraum der deutschen Wirtschaft.

Mission Defense: Wie Start-ups im rüstungstechnischen Markt Fuß fassen

Immer mehr Start-ups drängen mit agilen Innovationen in die hochregulierte Verteidigungs- und Luftfahrtindustrie. Daher gut zu wissen: Wie junge Unternehmen durch die richtige Systemarchitektur die strengen Auflagen meistern und vom Zulieferer zum echten Systempartner aufsteigen.

Die Luft- und Raumfahrt sowie die Verteidigungsindustrie zählen zu den am stärksten regulierten und technologisch anspruchsvollsten Märkten der Welt. Lange galt: Wer hier mitspielen will, braucht jahrzehntelange Erfahrung, Milliardenbudgets und stabile Regierungsbeziehungen. Doch genau dieses Bild verschiebt sich.

Neue Player treten auf den Plan: Start-ups entwickeln Trägersysteme, Drohnenplattformen, Kommunikationslösungen oder Sensorik, und tun das in einer Geschwindigkeit, die vielen etablierten Anbietern Kopfzerbrechen bereitet. Die zentrale Frage lautet deshalb: Wie können junge Unternehmen in einer hochregulierten Branche nicht nur überleben, sondern mitgestalten?

Agilität als Superkraft – aber Prototypen reichen nicht

Ob neue unbemannte Plattformen, Software-Defined Defense Systeme oder taktische Kommunikation – überall gilt: Was heute entwickelt wird, muss morgen schon einsatzbereit sein. Der Bedarf an schneller Innovation ist nicht theoretisch, sondern operativ. Start-ups sind in der Lage, auf diesen Druck zu reagieren, mit kurzen Entscheidungswegen, agilen Teams und digitaler DNA.

Allerdings reichen gute Ideen und schnelles Prototyping nicht aus. Wer Systeme für den operativen Einsatz liefern will, muss Anforderungen erfüllen, die weit über funktionierende Technik hinausgehen: Cybersicherheit, regulatorische Nachvollziehbarkeit, Zertifizierungsfähigkeit und Interoperabilität mit internationalen Partnern.

Das Fundament: Die Systemarchitektur entscheidet

Von Anfang an auf die richtigen technischen Grundlagen zu setzen, ist entscheidend. Das betrifft vor allem drei Bereiche: Skalierbarkeit, Nachvollziehbarkeit und Interoperabilität. Systeme müssen so gebaut sein, dass sie modular erweitert, in komplexe Systemlandschaften integriert und nach internationalen Standards auditiert werden können.

Ein durchgängiger digitaler Entwicklungs- und Betriebsfaden, ein sogenannter Digital Thread oder auch Intelligent Product Lifecycle, ermöglicht es, Produktdaten, Softwarestände und Konfigurationsänderungen über den gesamten Lebenszyklus hinweg zu verfolgen. Für die Zulassung softwaredefinierter, sicherheitskritischer Systeme ist das ebenso essenziell wie für die spätere Wartung, Upgrades oder die Einbindung in multinationale Operationen.

Security by Design: Sicherheit lässt sich nicht nachrüsten

Verteidigungsnahe Produkte unterliegen Exportkontrollen, Sicherheitsauflagen und branchenspezifischen Normen, darunter etwa ISO 15288 für Systems Engineering, ISO 27001 für Informationssicherheit oder die europäischen Anforderungen für Luftfahrt und Raumfahrt. Diese Vorgaben lassen sich nicht einfach „nachrüsten“. Sie müssen von Beginn an ein integraler Bestandteil der Systemarchitektur und Prozessführung sein.

Gerade in sicherheitskritischen Bereichen ist die Fähigkeit, regulatorische Anforderungen nachweislich zu erfüllen, ein entscheidender Wettbewerbsvorteil. Sie entscheidet darüber, ob ein Produkt zugelassen, in Serie gefertigt und in multinationale Programme integriert werden kann.

Interoperabilität als Schlüssel zum Teamplay

Ein weiterer kritischer Faktor ist die Fähigkeit zur Kooperation. In den meisten großen Programmen arbeiten unterschiedliche Unternehmen, oft aus verschiedenen Ländern, mit unterschiedlichen Systemen zusammen. Wer hier bestehen will, muss in der Lage sein, mit standardisierten Schnittstellen, interoperablen Plattformarchitekturen und harmonisierten Datenmodellen zu arbeiten. Interoperabilität ist dafür die technische Grundlage. Ohne sie lassen sich Systeme weder integrieren noch gemeinsam weiterentwickeln.

Vom Zulieferer zum echten Systempartner

Start-ups, die sich diesen Anforderungen stellen, können mehr sein als Zulieferer. Sie haben das Potenzial, Systempartner zu werden: mit eigener Wertschöpfung, eigenem IP und eigenem Einfluss auf die technologische Entwicklung. Der Weg dorthin ist anspruchsvoll, aber offen. Er erfordert keine hundertjährige Firmengeschichte, sondern eine klare Architekturstrategie, ein tiefes Verständnis für regulatorische Anforderungen und den Willen, komplexe Systeme systematisch zu entwickeln.

Der Verteidigungs- und Luftfahrtsektor steht an einem Wendepunkt. Wer heute die richtigen Grundlagen legt, kann morgen zu denjenigen gehören, die nicht nur mitlaufen, sondern die Spielregeln neu definieren.

Der Autor Jens Stephan, Director Aerospace & Defence bei PTC, bringt über 20 Jahre Erfahrung im Bereich komplexer Software-/SaaS-Lösungen und IT-Infrastruktur mit.

ewigbyte: Datenspeicher für die Ewigkeit?

Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.

Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.

In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.

Der Markt: Ein schlafender Riese erwacht

Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.

Lasergravur statt magnetischer Ladung: So funktioniert es

Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.

Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.

Vom Hardware-Verkauf zum „Storage-as-a-Service“

Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.

David gegen Goliath: Das Rennen um das Glas

Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.

Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.

Die technologischen Nadelöhre

Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.

Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).

Digitale Souveränität als Verkaufsargument

Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.

Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.

Milliarden-Coup für Dresdner BioTech: Seamless Therapeutics gewinnt Pharma-Riese Eli Lilly als Partner

Das 2022 gegründete TU-Dresden-Spin-off Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen. Jetzt hat das BioTech eine Forschungskooperation mit dem US-Pharmakonzern Eli Lilly vereinbart. Das Gesamtvolumen des Deals beläuft sich auf bis zu 1,12 Milliarden US-Dollar – wir erklären, was hinter der Summe und der Technologie steckt.

Dass universitäre Spitzenforschung der Treibstoff für wirtschaftlichen Erfolg sein kann, beweist aktuell eine Meldung aus Dresden. Die Seamless Therapeutics GmbH, eine erst 2022 gegründete Ausgründung der Technischen Universität Dresden (TUD), spielt ab sofort in der Champions League der Biotechnologie mit. Mit Eli Lilly konnte eines der weltweit forschungsstärksten Pharmaunternehmen – bekannt u.a. für Durchbrüche in der Diabetes- und Adipositas-Behandlung – als strategischer Partner gewonnen werden.

Der Deal: Mehr als nur eine Schlagzeile

Die Dimensionen der Vereinbarung lassen aufhorchen: Der Kooperationsvertrag beziffert sich auf einen Wert von bis zu 1,12 Milliarden US-Dollar. Doch wie ist eine solche Summe für ein junges Start-up einzuordnen?

In der BioTech-Branche sind solche Verträge oft als sogenannte Bio-Bucks strukturiert. Das bedeutet: Die Milliarde liegt nicht sofort als Koffer voller Geld auf dem Tisch. Der Deal setzt sich in der Regel aus einer substanziellen Sofortzahlung (Upfront Payment) zum Start der Forschung und weiteren, weitaus größeren Teilzahlungen zusammen. Diese fließen erfolgsabhängig, sobald das Startup definierte Meilensteine erreicht – etwa den erfolgreichen Abschluss klinischer Studienphasen oder die Marktzulassung.

Die Technik: Warum Lilly so früh einsteigt

Dass ein Gigant wie Eli Lilly so früh in ein Start-up investiert, liegt an der disruptiven Technologie der Dresdner. Seamless Therapeutics hat eine Plattform entwickelt, um das „Genome Editing“ auf einpräzises und flexibles Niveau zu bringen, um die Technologie für eine Vielzahl von Indikationen anwendbar zu machen.

Während bekannte Verfahren wie die „Genschere“ CRISPR-Cas oft darauf basieren, die DNA-Stränge komplett zu durchtrennen (Doppelstrangbruch) – was zu ungewollten Fehlern bei der zelleigenen Reparatur führen kann –, gehen die Dresdner einen anderen Weg. Sie nutzen sogenannte Designer-Rekombinasen.

Vereinfacht gesagt arbeitet ihre Technologie nicht wie eine grobe Schere, sondern wie ein präzises „Suchen & Ersetzen“-Werkzeug. Sie können genetische „Schreibfehler“ direkt im Erbgut korrigieren, ohne die riskanten Brüche in der Doppelhelix zu erzeugen. Dieser Ansatz ist namensgebend („Seamless“ = nahtlos) und gilt als deutlich sicherer für die Anwendung am Menschen. Ein erstes konkretes Ziel der Kooperation ist die Bekämpfung von genetisch bedingtem Hörverlust.

Die Köpfe: Ein Team auf Expansionskurs

Hinter diesem technologischen Durchbruch steht kein anonymes Labor, sondern ein jahrelang eingespieltes Gründerteam aus der TUD. Den wissenschaftlichen Nukleus bildete die Forschungsgruppe von Prof. Frank Buchholz (Professor für Medizinische Systembiologie). Zusammen mit ihm trieben vor allem Dr. Felix Lansing, der heute als Chief Scientific Officer (CSO) die technologische Vision verantwortet, und Dr. Anne-Kristin Heninger (Head of Operations) die Entwicklung zur Marktreife voran. Komplettiert wurde das Gründungsteam durch Dr. Teresa Rojo Romanos und Dr. Maciej Paszkowski-Rogacz.

Dass Seamless Therapeutics den globalen Durchbruch ernst meint, zeigt auch eine strategische Personalie aus dem April 2024: Um die Brücke in den entscheidenden US-Markt zu schlagen, holte man den Branchenveteranen Dr. Albert Seymour als neuen CEO an Bord. Während Seymour die internationale Skalierung vorantreibt, sichern die Gründer weiterhin die technologische DNA des Unternehmens. „Die Zusammenarbeit mit Eli Lilly ist eine Bestätigung für unsere Gen-Editierungsplattform und ihr krankheitsmodifizierendes Potenzial“, erklärt Prof. Buchholz.

Der Standort: Wie aus Forschung Business wird

Der Erfolg fällt nicht vom Himmel, sondern ist das Ergebnis eines funktionierenden Transfer-Ökosystems. Das Startup wurde seit den frühen Phasen intensiv unterstützt durch TUD|excite, das Excellence Center for Innovation der TU Dresden, sowie durch SaxoCell, das sächsische Zukunftscluster für Präzisionstherapie. Prof. Ursula M. Staudinger, Rektorin der TUD, sieht in dem Deal eine Blaupause für den deutschen Innovationsstandort: „Das Investitionsvolumen unterstreicht eindrucksvoll das Potenzial dieser Technologie [...] Zugleich zeigt dieser Meilenstein, wie konsequent und erfolgreich die TUD den Transfergedanken lebt.“

Für Seamless Therapeutics beginnt nun die Arbeit, die rekombinase-basierte Technologie gemeinsam mit Eli Lilly durch die anspruchsvollen Phasen der Medikamentenentwicklung zu bringen – mit einem Team, das wissenschaftliche Exzellenz nun mit internationaler Management-Erfahrung verbindet.

4,3 Mio. Euro Seed-Finanzierung für nuuEnergy

Das Münchner EnergyTech nuuEnergy sichert sich erneut frisches Kapital, um seine regionalen Installations-Hubs auszubauen. Das Start-up setzt auf eine Kombination aus eigenen Handwerksbetrieben und digitalen Prozessen – ein Ansatz, über den StartingUp bereits früh berichtete.

Das Ende 2023 gegründete Start-up nuuEnergy hat eine Seed-Finanzierungsrunde in Höhe von 4,3 Millionen Euro abgeschlossen. Bereits im vergangenen Jahr hatten wir über den ersten großen Finanzierungserfolg der Münchner berichtet. Angeführt wird die aktuelle Runde nun von Amberra, dem Corporate-Venture-Arm der Genossenschaftlichen FinanzGruppe Volksbanken Raiffeisenbanken. Zu den weiteren Geldgebern gehören EnjoyVenture sowie die Bestandsinvestoren High-Tech Gründerfonds (HTGF), Vireo Ventures, better ventures und Bynd Venture Capital.

Marktlücke zwischen Konzern und Handwerk
Trotz einer spürbaren Delle im Absatzmarkt für Wärmepumpen im Jahr 2024 wächst der Sektor langfristig zweistellig. Die Herausforderung liegt oft nicht mehr in der Technologie selbst, sondern in der Umsetzung: Fachkräftemangel und ineffiziente Abläufe bremsen die Installation. Genau hier positioniert sich nuuEnergy als Bindeglied zwischen traditionellen Handwerksbetrieben und rein digitalen „Neo-Installern“.

Das Geschäftsmodell basiert auf dem Aufbau eigener regionaler Fachhandwerksbetriebe, sogenannter „Hubs“. Diese sind derzeit in den Großräumen München, Hamburg und Köln aktiv und decken einen Radius von rund 1,5 Stunden ab. Ergänzend arbeitet das Start-up in einigen Regionen mit Partnerbetrieben zusammen.

Digitalisierung trifft auf Meisterpflicht

Während die Installation vor Ort durch festangestellte Meister und Monteure erfolgt, setzt nuuEnergy im Hintergrund auf die vollständige Digitalisierung der Planungsprozesse. Spezialisierte Systemplaner erstellen individuelle technische Konzepte, um die Effizienz der Heizsysteme zu maximieren. Neben der Planung und Installation generiert das Unternehmen Umsätze durch langfristige Wartungsverträge sowie Zusatzangebote wie Wasserenthärtungsanlagen oder Energieberatung.

Nach Angaben des Unternehmens konnte der Umsatz von 2024 auf 2025 verfünffacht werden. Für das Jahr 2026 plant das Gründerteam um Tobias Klug und Julia Rafschneider die Umsetzung von Projekten im hohen dreistelligen Bereich.

Strategische Investoren an Bord

Mit dem frischen Kapital soll die Expansion der regionalen Betriebe vorangetrieben und die Prozesskette weiter digitalisiert werden. Der Einstieg von Amberra ist dabei strategisch relevant: Durch die Nähe zur Genossenschaftlichen FinanzGruppe erhält das Start-up potenziellen Zugang zu einem riesigen Kundennetzwerk der Volks- und Raiffeisenbanken, die Immobilienbesitzer oft auch bei Finanzierungsfragen zur energetischen Sanierung begleiten.

„Dem Team geht es nicht um digitalen Vertrieb, sondern um echte, langfristige Innovation bei Handwerk und Technik“, kommentiert Gerrit Gnisa, Investment Manager bei EnjoyVenture, die Entscheidung für das Investment. Auch der HTGF sieht in dem hybriden Ansatz aus skalierbarer Tech-Plattform und lokalem Handwerk einen entscheidenden Hebel, um den Wärmepumpen-Hochlauf trotz Fachkräftemangel zu bewältigen.

Customer-Support-ROI 2026: Warum Ticket-Automatisierung allein nicht ausreicht

Im Jahr 2026 stehen viele Führungskräfte vor einem echten Paradox: Die klassischen Kennzahlen im Customer Support erreichen Höchststände – und dennoch bleibt der Zusammenhang mit messbarem wirtschaftlichem Nutzen oft unklar.

Das Problem liegt nicht darin, dass gängige Automatisierungsansätze grundsätzlich nicht funktionieren. Vielmehr reicht es nicht aus, lediglich Tickets zu automatisieren, wenn Customer Support tatsächlich einen belastbaren ROI liefern soll. Der wahre Wert von Support liegt heute nicht mehr in der massenhaften Bearbeitung von Anfragen, sondern darin, Probleme frühzeitig zu verhindern, bevor sie sich zu messbaren wirtschaftlichen Verlusten entwickeln.

Warum sich Support-ROI 2026 schwerer belegen lässt

Moderne Support-Organisationen entwickeln sich zunehmend hin zu hybriden Modellen, in denen KI und menschliche Agents zusammenarbeiten. Eine Gartner-Umfrage zeigt: 95 % der Customer-Service-Verantwortlichen planen, auch künftig menschliche Agents parallel zu KI einzusetzen. Hybride Setups sind damit längst auf dem Weg zum Standard.

In der Praxis übernehmen KI-Systeme heute Routineanfragen, während Menschen komplexe oder kritische Fälle bearbeiten. Mit dieser veränderten Arbeitslogik verlieren klassische Kennzahlen wie Kosten pro Ticket, durchschnittliche Bearbeitungszeit oder Automatisierungsquote an Aussagekraft. In manchen Fällen verschleiern sie den tatsächlichen Wert von Support sogar.

Das führt dazu, dass Führungsteams häufig Folgendes beobachten:

  • steigende Automatisierungsquoten bei stagnierenden Einsparungen,
  • verbesserte CSAT-Werte ohne klaren finanziellen Effekt,
  • starke CX- und Effizienzkennzahlen, die sich dennoch nicht in unternehmerische Ergebnisse übersetzen lassen.

Support ist nicht weniger wertvoll geworden. Doch durch den Einsatz von KI sind die Erwartungen gestiegen – und lineares Denken in einzelnen Metriken reicht nicht mehr aus, um den tatsächlichen Beitrag von Support zu bewerten.

Wo sich Customer-Support-ROI tatsächlich zeigt

Der ROI von Customer Support zeigt sich nur selten als „direkt generierter Umsatz“. Stattdessen wird er sichtbar in vermiedenen Verlusten und reduzierten Risiken. Konkret äußert sich das in Veränderungen im Kundenverhalten, etwa durch:

  • weniger Rückerstattungen,
  • geringere Eskalationen,
  • einen Rückgang öffentlicher Beschwerden,
  • sinkendes Abwanderungsrisiko.
  • höheres Vertrauen an entscheidenden Punkten der Customer Journey

Diese Signale entstehen nicht über Nacht. Sie bauen sich über Zeit auf – und werden deshalb in Budgetdiskussionen häufig unterschätzt.

In einem unserer Kundenprojekte (Details aufgrund einer NDA anonymisiert) wurde der Customer Support über einen Zeitraum von zwölf Monaten vollständig neu aufgebaut. Ziel war nicht allein eine schnellere Reaktionszeit, sondern eine frühere und konsistentere Problemlösung entlang der gesamten Customer Journey. Die Ergebnisse waren eindeutig:

  • Rückerstattungsquote von 40 % auf 4 % gesenkt.
  • CSAT-Anstieg von 50 auf 95.
  • NPS-Steigerung von 32 auf 80.
  • Verbesserung der Trustpilot-Bewertung von 3,0 auf 4,7.
  • Erhöhung der Chargeback-Erfolgsquote von 5 % auf 90 % durch ein dediziertes Billing-Team im Support.

Keine dieser Kennzahlen für sich genommen „beweist“ ROI. In ihrer Gesamtheit zeigen sie jedoch, wie Support begann, Ergebnisse zu beeinflussen, die in klassischen CX-Dashboards kaum sichtbar sind: Rückerstattungen gingen zurück, weil Probleme frühzeitig gelöst wurden; öffentliche Bewertungen verbesserten sich, weil weniger Kunden an ihre Belastungsgrenze kamen; Loyalität wuchs, weil Support von Schadensbegrenzung zu echter Bedürfnislösung überging.

Darüber hinaus begann das Team, Kundenanfragen systematisch zu analysieren, um Muster und frühe Reibungspunkte zu identifizieren. Dadurch wurden Abweichungen zwischen angenommener Customer Journey und tatsächlichem Kundenerlebnis sichtbar. Für das Management entstand so eine deutlich belastbarere Grundlage für strategische Entscheidungen. Diese Erkenntnisse führten zu neuen Services, die sich am realen Kundenverhalten orientierten – und damit Wachstum und Umsatz beschleunigten.

So zeigt sich Support-ROI in der Praxis: nicht als einzelne Kennzahl, sondern als Zusammenspiel aus vermiedenen Verlusten, gestärktem Vertrauen und datenbasierten Entscheidungen.

Wie hybrider Support die Wirtschaftlichkeit verändert

Über Jahre hinweg galt Automatisierung als vermeintliche „Wunderlösung“ zur Kostensenkung. Die Logik war simpel: geringere Supportkosten führen automatisch zu höherem ROI. In der Realität ist der Zusammenhang komplexer. Niedrigere Kosten bedeuten nicht automatisch höhere Erträge – insbesondere dann nicht, wenn Automatisierung genau die Mechanismen entfernt, die Verluste verhindern.

Wird Support ausschließlich auf Effizienz optimiert, verschwinden ungelöste Probleme nicht. Sie verlagern sich: in Rückerstattungen, Chargebacks, Abwanderung und öffentliche Beschwerden. Einsparungen tauchen in einer Zeile der GuV auf, während sich der Schaden still im restlichen Unternehmen summiert. Hybrider Support kann diese Gleichung verändern – aber nur, wenn er bewusst gestaltet wird.
Wenn KI im Support richtig eingesetzt wird:

  • lassen sich bis zu 85 % der Anfragen automatisiert bearbeiten,
  • liegt der CSAT rund 15 % höher als in nicht-hybriden Setups,
  • führt KI echte Aktionen aus (Rückerstattungen, Kündigungen, Account-Änderungen) statt nur standardisierte Antworten zu versenden.

In abonnementbasierten Geschäftsmodellen beginnen wir beispielsweise stets mit einer Analyse eingehender Anfragen, um zu verstehen, welche Aktionen sich sicher vollständig automatisieren lassen. Rund 50 % der Kündigungsanfragen sind in der Regel unkompliziert und risikoarm – und damit gut für eine End-to-End-Automatisierung geeignet.

Die verbleibenden Fälle unterscheiden sich deutlich. Etwa ein Viertel der Kündigungsanfragen stammt von frustrierten oder emotional belasteten Kunden. Diese Interaktionen bergen das höchste Risiko für Abwanderung. In gut konzipierten hybriden Setups übernimmt Automatisierung hier die Rolle eines Co-Piloten: Sie kennzeichnet risikoreiche Fälle, eskaliert sie an menschliche Agents und liefert Kontext – während Tonfall, Urteilsvermögen und finale Entscheidungen bewusst beim Menschen bleiben.

Der wirtschaftliche Effekt entsteht dabei nicht durch den Ersatz von Menschen, sondern durch den gezielten Einsatz menschlicher Aufmerksamkeit genau in den Momenten, die Vertrauen und Loyalität tatsächlich entscheiden.

Warum hybrider ROI klassische Messlogik sprengt

In Projekten, in denen First-Level-KI sinnvoll eingeführt wird, sinken die Supportkosten innerhalb eines Jahres typischerweise um 15–25 %, abhängig vom Geschäftsmodell. Gleichzeitig verbessern sich häufig die Erlebniskennzahlen. Diese Kombination ist jedoch kein Selbstläufer – sie entsteht nur dann, wenn Automatisierung Probleme wirklich löst und nicht lediglich verlagert.

Der Haken: Hybrider Support macht ROI schwerer messbar. Klassische ROI-Modelle gehen davon aus, dass Wertschöpfung klar getrennt erfolgt. In Wirklichkeit entsteht der größte Effekt genau dort, wo KI und Menschen zusammenarbeiten: Probleme werden verhindert, Kundenbeziehungen stabilisiert und Loyalität geschützt.

Finanzteams sehen deshalb oft Verbesserungen, können sie aber in bestehenden Scorecards nicht abbilden. Während sich das operative Modell weiterentwickelt hat, ist die Logik der Messung stehen geblieben.

Was Führungskräfte tatsächlich messen sollten

2026 müssen Unternehmen von Aktivitätsmetriken zu Wirkungssignalen wechseln. Ein praxisnaher Ansatz besteht darin, Ergebnisse auf drei Ebenen zu verfolgen:

  1. Finanzielle Risiken und Leckagen: Rückerstattungsquoten, Chargeback-Erfolgsraten, Dispute-Volumen, wiederkehrende Zahlungsprobleme.
  2. Vertrauens- und Reibungssignale: öffentliche Bewertungen, Eskalationstrends, Wiederholungskontakte, Kundenstimmung.
  3. Bindungsindikatoren: Abwanderungsrisikosegmente, Kündigungsmuster und Retention-Ergebnisse (auch wenn die exakte Umsatzzuordnung später erfolgt).

Diese Signale machen Wert früher sichtbar als klassische Umsatzberichte. Sie zeigen, ob Support Verluste verhindert – und genau dort beginnt ROI in der Regel.

Wie sich Support-Budgets rechnen

Support-Budgets scheitern, wenn sie ausschließlich an Ticketvolumen und Headcount ausgerichtet sind. Ein gesünderer Ansatz beginnt mit einer anderen Frage: Wo kostet schlechter Support unser Unternehmen am meisten Geld?

Teams, die echten ROI aus Support erzielen, investieren typischerweise in drei Bereiche:

  1. Präventionsfähigkeit: Support übernimmt Zahlungs- und Abrechnungsthemen, steuert risikoreiche Fälle und etabliert Feedback-Loops zur Ursachenanalyse.
  2. Automatisierung mit Fokus auf Lösung: First-Level-KI erledigt risikoarme Aufgaben vollständig, statt Anfragen lediglich weiterzureichen.
  3. Menschliches Urteilsvermögen dort, wo es zählt: Menschen bearbeiten Hochrisiko-Kündigungen, Eskalationen, emotional sensible Fälle und betreuen besonders wertvolle Kunden.

In diesem Moment hört Support auf, ein Kostenpunkt zu sein, und wird zu einem strategischen Hebel, der Umsatz schützt, Risiken reduziert und mit dem Unternehmen skaliert.

Fazit

2026 entsteht der tatsächliche ROI von Customer Support vor allem dadurch, dass vermeidbare Probleme gar nicht erst zu Umsatzverlusten werden.

Automatisierung ist entscheidend – aber nur dann, wenn sie Probleme tatsächlich löst. Und menschliches Urteilsvermögen sollte gezielt dort eingesetzt werden, wo es Retention, Loyalität und Vertrauen wirklich beeinflusst.

Für Führungskräfte, die sich auf Ergebnisse statt auf Aktivitätskennzahlen konzentrieren, ist Support kein Cost Center mehr. Er ist das, was er schon heute sein sollte: ein Hebel zum Schutz von Umsatz, zur Reduktion von Risiken und zur Nutzung von Kundenverhalten als Grundlage für fundierte unternehmerische Entscheidungen.

Die Autorin Nataliia Onyshkevych ist CEO von EverHelp. Sie arbeitet mit wachsenden Unternehmen aus unterschiedlichen Branchen daran, Customer Support in KI-gestützten Umgebungen skalierbar und wirkungsvoll zu gestalten.

Wachstum um jeden Preis ist vorbei

Im Juni geht die Hinterland of Things 2026 an den Start – mit klarem Fokus auf Umsetzung statt Debatte. Dominik Gross, Mitgründer und Geschäftsführer der Founders Foundation, spricht über den Schulterschluss von Mittelstand, Start-ups und Kapital, B2B-Tech-Trends sowie NRW als Hotspot für B2B-Gründungen.

Im Juni findet die nächste Hinterland of Things statt. Können Sie bereits von ersten Highlights berichten, auf die sich die Teilnehmer*innen freuen dürfen?

Die Hinterland of Things Conference 2026 steht unter dem Motto „and Action“, denn Deutschland hat kein Erkenntnisproblem – Deutschland hat ein Umsetzungsproblem. Das Motto steht für den gemeinsamen Nenner, wie Unternehmer die Industrie neu denken, Kapital zu Wachstum und Wissen zu Wertschöpfung machen, die nächste Generation von Gründern stärken und Politik wieder handlungsfähig wird: Wir wissen genug – wir müssen handeln. Ein zentrales Highlight ist der klare Schulterschluss zwischen Mittelstand, Start-ups und Kapital. Ein einzigartiger USP in der deutschen Konferenzlandschaft, muss man ehrlich sagen. Wir bringen nicht nur die Tech-Szene mit Gründern und Investoren zusammen, sondern eben auch die Inhaber, Familienmitglieder und Entscheider aus dem deutschen Mittelstand. Dieser Dreiklang ist einmalig. Darüber hinaus setzen wir wieder starke Akzente bei Kapitalthemen – von (Corporate) Venture Capital und Venture Clienting über Börsengänge bis hin zur Frage, wie Deutschland vom Land der Sparer zum Land der Builder wird. Auch der Transfer von Wissenschaft in markt- und investitionsfähige Unternehmen spielt für uns als Forschungsland eine zentrale Rolle. Kurz gesagt: weniger Debatte, mehr Entscheidung; weniger Diagnose, mehr Action.

Der Fokus liegt auf B2B-Tech-Start-ups. Welche B2B-Trends sehen Sie aktuell, welche Erwartungen haben Sie für die Branche dieses Jahr?

Wir sehen aktuell eine klare Verschiebung von Vision hin zu Verwertbarkeit. B2B-Tech-Start--ups müssen nicht mehr erklären, was sie technologisch können, sondern welches konkrete Problem sie für Unternehmen lösen. Effizienz, Produktivität und Kostensenkung stehen klar im Vordergrund. Zugleich ermöglicht Technologie Sprunginnovationen für die Industrie. Beispielsweise im Bereich Robotik: Humanoide Roboter auf zwei Beinen brauchen vielleicht noch etwas, aber überall dort, wo Roboter Prozesse, Abläufe und Arbeitsschritte automatisieren oder assistieren können, werden wir schon in wenigen Jahren neue Produkte und Geschäftsmodelle erleben. Und darüber hinaus gilt geradezu „natürlich“, dass sämtliche Geschäftsmodelle künstliche Intelligenz in ihrer DNA verankert haben werden. Unternehmen und Kapitalgeber investieren gezielter, erwarten schnelleren Impact und belastbare Business Cases. Wachstum um jeden Preis ist vorbei – gefragt sind robuste Geschäftsmodelle mit klarer Skalierungsperspektive. Für die Branche bedeutet das: weniger Hype, mehr Substanz. Start-ups, die echte industrielle Probleme adressieren und eng mit ihrer Kundschaft entwickeln, werden sich durchsetzen. Genau dort entsteht aktuell die spannendste Dynamik im B2B-Bereich.

NRW zählt zu den Start-up-Hotspot-Bundesländern in Deutschland, zeigte sich im aktuellen Startup Next Generation Report unter den Top-Plätzen. Was zeichnet NRW und speziell Bielefeld Ihrer Meinung nach als Start-up-Standort für B2B besonders aus?

NRW verbindet etwas, das für B2B-Start-ups entscheidend ist: industrielle Substanz und unternehmerische Nähe. Hier sitzen viele mittelständische Weltmarktführer, die offen für Kooperationen sind und Start-ups von Tag null an reale Anwendungsfälle bieten. Genau das brauchen B2B-Start-ups, um Produkte marktfähig zu entwickeln und schnell zu skalieren. Bielefeld steht exemplarisch dafür. Die Region ist geprägt von Industrie, Hidden Champions und kurzen Entscheidungswegen. Gleichzeitig gibt es ein wachsendes Start-up-Ökosystem, das eng mit Unternehmen, Hochschulen und Investoren vernetzt ist. Diese Kombination aus Praxisnähe, Kooperationsbereitschaft und einem klaren Fokus auf Umsetzung macht NRW – und Bielefeld im Besonderen – zu einem sehr starken Standort für B2B!

Inwiefern unterstützt die Founders Foundation neben der großen Konferenz B2B-Start-ups, was bieten Sie Jungunternehmen?

Die Konferenz ist nur ein sichtbarer Teil unserer Arbeit – quasi unser Leuchtturm, mit dem wir alle Augen auf die Region und ihr Potenzial lenken. Als Founders Foundation begleiten wir B2B-Start-ups entlang der gesamten frühen Wachstumsphase – von der ersten Idee bis zur Skalierung – und das als gemeinnützige Organisation, ohne Anteile zu nehmen. Unser Fokus liegt darauf, unternehmerische Fähigkeiten aufzubauen und Gründung als ernsthafte Karriereoption zu etablieren. Dafür bieten wir – je nach Reifegrad von Idee und Team – verschiedene Programme, ein über zehn Jahre gewachsenes Netzwerk aus den erfahrensten Serial Entrepreneurs der deutschen Start-up-Szene, etablierten Unternehmern und Industriepartnern sowie ein großes Investorennetzwerk. Hinzu kommen konkrete Anwendungsfälle aus dem Mittelstand. Für Start-ups ist das entscheidend, weil sie früh Feedback aus dem Markt bekommen und ihre Lösungen unter realen Bedingungen testen können. Unser Anspruch ist es, Gründer nicht nur zu inspirieren, sondern sie in die Umsetzung zu bringen. Genau da schließt sich der Kreis: and Action.

Dominik Gross, vielen Dank für das Gespräch

Dies ist ein Beitrag aus der StartingUp 01/26 – hier geht's zum E-Shop.

Neues Venture Studio und 30-Mio.-Fonds für Europas Sicherheitstechnologien

Ein Konsortium aus Beratung, Venture Building und Kapitalmanagement startet eine neue Initiative für Technologien im Bereich „Resilience & Defence“. PwC Deutschland, Bridgemaker und Segenia Capital haben am 12. Februar den Launch eines gemeinsamen Venture Studios bekannt gegeben. Die Allianz positioniert sich als „System-Integrator“, um die Lücke zwischen universitärer Forschung und marktfähigen Produkten im Sicherheitssektor zu schließen.

Der Markt für Sicherheitstechnologie und den Schutz kritischer Infrastrukturen (KRITIS) wandelt sich von einer Nische zum zentralen Fokus der europäischen Innovationspolitik. Mit dem neuen Venture Studio reagieren die Initiatoren auf die geopolitische Notwendigkeit, technologische Souveränität in Europa zu stärken.

Für Gründer*innen im DeepTech-Bereich eröffnet sich damit eine Alternative zum klassischen Venture Capital (VC). Während normale VCs oft erst investieren, wenn ein Produkt Marktumsätze zeigt („Product-Market-Fit“), setzt diese Initiative früher an. Sie adressiert spezifisch die hohen Hürden im Defence-Sektor – wie langwierige staatliche Beschaffungsprozesse und komplexe Regulierung.

Smart Money statt nur Kapital: Der „System-Integrator“-Ansatz

Das Kernproblem vieler europäischer DeepTech-Start-ups ist die Skalierung von der reinen Forschung (Technology Readiness Level 1) hin zur industriellen Anwendung (Level 6+). Während Milliarden-Töpfe wie der NATO Innovation Fund oft erst in Wachstumsphasen greifen, fehlt es häufig an Kapital für die „schmutzige Phase“ des Prototypenbaus („Valley of Death“).

Das Konsortium tritt hier nicht als reiner Geldgeber auf, sondern bündelt drei Disziplinen, um Dual-Use-Technologien (zivile und militärische Nutzbarkeit) schneller zur Marktreife zu bringen:

  1. Regulatorik & Marktzugang (PwC Deutschland): Unterstützung bei der Navigation durch behördliche Anforderungen („Vergaberechts-Compliance“).
  2. Company Building (Bridgemaker): Operative „Execution Power“ beim Aufbau der Ventures – von der Hardware bis zur Software.
  3. Kapital (Segenia Capital): Professionelles Fondsmanagement für die Frühphase.

Für Gründer*innen wirkt dieses Setup wie ein Qualitäts-Filter: Wer das Studio durchläuft, gilt für spätere Series-A-Investoren als „vorgeprüft“ und regulatorisch abgesichert.

Bekannte Gesichter aus dem Ökosystem

Die Personalien hinter der Initiative signalisieren Branchenkennern, dass hier operatives Verständnis auf politisches Netzwerk trifft.

Federführend bei PwC agiert Florian Nöll. Als ehemaliger langjähriger Vorsitzender des Bundesverbands Deutsche Startups gilt er als einer der wichtigsten Brückenbauer zwischen der Berliner Politik und der Gründerszene. Seine Erfahrung ist essenziell, um junge Tech-Firmen durch die oft starren Beschaffungsprozesse der öffentlichen Hand zu navigieren.

Auf der operativen Seite bringt Henrike Luszick (CEO Bridgemaker) einen Track Record ein, der über reine Software-Modelle hinausgeht. Mit Ventures wie Nestor (einem Joint Venture für mobile Überwachungssysteme mit KI-Analyse) hat der Company Builder bereits bewiesen, dass er Hardware-Themen im Sicherheitsbereich erfolgreich am Markt platzieren kann.

30-Millionen-Euro-Fonds & der „Dual-Use“-Hebel

Parallel zum operativen Studio-Betrieb wird ein Venture Fonds mit einem Zielvolumen von 30 Millionen Euro aufgelegt. Segenia Capital, als bei der BaFin registrierter AIFM-Manager, übernimmt die Verwaltung. Die im Vergleich zu Mega-Fonds überschaubare Summe unterstreicht den Fokus auf die Pre-Seed- und Seed-Phase (Tickets ca. 500k – 1,5 Mio. EUR). Der Fonds operiert nach einem „Dual-Track-Ansatz“: Er finanziert sowohl interne Ausgründungen des Studios als auch externe Startups, die strategisch ins Portfolio passen.

Dass München als einer der zentralen Standorte gewählt wurde, ist strategisch kein Zufall. Die bayerische Landeshauptstadt hat sich – getrieben durch die TU München und Einhörner wie Quantum Systems – zum europäischen Hub für DefenceTech entwickelt.

Für Gründer*innen ist zudem der strategische Fokus auf Dual-Use entscheidend. Technologien, die primär für Resilienz und den Schutz kritischer Infrastrukturen entwickelt werden, aber auch militärisch nutzbar sind, umschiffen die strengen ESG-Hürden vieler institutioneller Investoren. Dies öffnet Kapitalquellen, die reinen Rüstungs-Start-ups oft verschlossen bleiben.

Einordnung: Reality Check – Hürden bleiben bestehen

Trotz der prominenten Unterstützung und der Marktlogik müssen interessierte Gründer*innen genau hinsehen. Venture-Studio-Modelle stehen oft in der Kritik, durch hohe Service-Anteile für das operative „Building“ die „Cap Table“ (Gesellschafterstruktur) frühzeitig zu verwässern. Wenn Studio und Fonds signifikante Anteile halten, bleibt Gründer*innen oft weniger Equity, was Folgerunden mit externen VCs erschweren kann („Skin in the Game“-Debatte).

Zudem sind 30 Millionen Euro im kapitalintensiven Hardware-Sektor schnell aufgebraucht – das Risiko einer Finanzierungslücke nach der Seed-Phase bleibt. Die größte Unbekannte ist jedoch der Kunde Staat: Auch mit PwC im Rücken gelten für Start-ups weiterhin die strengen Vergaberechte der öffentlichen Hand. Ob das Studio diese „Paperwork Barrier“ tatsächlich signifikant verkürzen kann, muss die Praxis erst noch zeigen.

Key Facts

  • Initiatoren: PwC Deutschland, Bridgemaker, Segenia Capital
  • Marktpositionierung: Early-Stage „System-Integrator“ (Kapital + Regulatorik + Building)
  • Fokus: Resilience, Defence Technology, KRITIS, Dual-Use
  • Finanzierung: Fonds mit 30 Mio. EUR Zielvolumen (Pre-Seed/Seed Fokus)
  • Investitionsstrategie: Neugründungen (Inkubation) und externe Direktinvestments
  • Standorte: Berlin, Frankfurt am Main, München