Step-by-Step zum eigenen Podcast

Autor: Eric Hinzpeter
44 likes

Von der Planung bis zum Publishing deines Unternehmens-Podcasts: Wir zeigen die wichtigsten Erfolgsfaktoren und größten Fallstricke.

Podcasts haben sich in den letzten Jahren zu einem wichtigen Kommunikationsmedium entwickelt und gewinnen auch als Marketinginstrument im Unternehmenskontext immer mehr an Bedeutung. Sie bieten die Möglichkeit, Wissen und Expertise zu teilen, die Markenbekanntheit zu steigern und nicht zuletzt auch eine tiefere Verbindung zur Zielgruppe sowie zu potenziellen Mitarbeitenden aufzubauen.

Anders als viele Unternehmen glauben, eignen sie sich gerade nicht nur für Endkund*innenthemen, sondern sind gerade auch im B2B-Umfeld und in Branchen mit komplexen, nicht so leicht zu erklärenden Produkten und Dienstleistungen ein gutes Mittel der Kund*innenkommunikation. Nicht zuletzt eröffnet ein Unternehmens-Podcast (im Folgenden kurz Podcast) auch Potenzial beim Employer Branding und kann dazu beitragen, dem Fachkräftemangel entgegenzuwirken.

Doch was genau muss vor dem Start der Produktion eines Podcasts bedacht werden? Wie startet man ein solches Format? Und noch viel wichtiger: Wie hält man die Produktion langfristig durch und sorgt mit einer stringenten Vermarktung für organisches Wachstum bei den Hörer*innenzahlen?

Dieser Beitrag gibt einen umfassenden Überblick über die Schritte von der Planung bis zum Publishing und erläutert die Erfolgsfaktoren und Fallstricke.

Konzept und Zielsetzung: Passende Zielgruppenansprache ist entscheidend

Der erste Schritt bei der Erstellung eines Podcasts ist die Konzept­entwicklung und Zielsetzung. Unternehmen müssen in Kooperation mit Marketingleitung und Geschäftsführung festlegen, was sie damit konkret erreichen möchten – sei es die Stärkung der Markenbekanntheit, die Generierung von Leads oder Kund*innenbindung. Und sie sollten, am besten mithilfe entsprechender Personas, definieren, für wen sie das passende Format entwickeln. Eine präzise Zielgruppenanalyse ist hierfür ebenso unerlässlich wie das Verständnis dafür, dass Themen unterschiedlich in Formatwahl, Länge, Tonalität und Zielgruppenansprache angegangen werden können.

Bei der Formatwahl kann eine Mischung aus beispielsweise Interview, Solofolgen und Paneldiskussionen gewählt werden; wichtig ist die jeweils passende Herangehensweise an ein Thema, die das Unternehmen und seine Produkte vorteilhaft und kompetent erscheinen lässt. Nicht zuletzt ist ein einprägsamer und beschreibender Name für den Podcast wichtig, der Einzigartigkeit und Relevanz transportiert und die Marke optimal repräsentiert. Dieser sollte im besten Fall SEO-seitig gut zu bespielen sein.

Gründliche Planung und Vorbereitung sind entscheidend für den Erfolg eines Podcasts, ein Kick-off-Workshop und regelmäßige Themen-Meetings sind hierfür unerlässlich.

Der oder die Verantwortliche sollte eine Aufgabenteilung anstreben, die im Vorfeld Daten für Gästeansprache, Aufnahme, Postproduktion und Marketing sowie Publikation vorsieht – und mit Blick auf Urlaube und andere Abwesenheiten sollte für jedes Gewerk auch ein(e) Vertreter*in benannt sein, der oder die mit den grundlegenden Workflows vertraut ist.

Zunächst sollte eine Themenplanung vorgenommen werden, die mindestens die ersten sechs Monate umfasst, die dann jeweils für drei weitere Monate im Voraus plant und agil angepasst werden kann. Sinnvoll ist es dabei, Unternehmensereignisse wie anstehende Messen und Konferenzen sowie Produktlaunches und Saisonalitäten zu berücksichtigen. Für den Erfolg entscheidend ist aber auch, den Podcast nicht als Zweitverwertung oder Recyclingplattform zu verstehen, sondern „unique“ und exklusive Inhalte primär dafür zu produzieren. Bewährt hat sich in vielen Unternehmen auch die Herangehensweise, ein Thema erst inhaltlich zu entwickeln und in einem zweiten Schritt zu entscheiden, ob es Podcast-tauglich aufbereitet werden kann.

Für jede Podcast-Folge sollte eine klare Struktur und ein zumindest grober Ablauf festgelegt werden, um Konsistenz zu gewährleisten. In diesem Zusammenhang wird sich übrigens schnell herausstellen, ob die angedachte Frequenz sinnvoll und machbar oder zu ambitioniert ist. Klug ist es, mehrere Episoden im Voraus aufzunehmen, um eine kontinuierliche Veröffentlichung sicherzustellen und auf möglichst verlässliche Veröffentlichungstermine (etwa jeden ersten Freitag im Monat) zu setzen. Ein verbindlicher Veröffentlichungsplan ist wichtig, um regelmäßig neuen Content zu liefern – und weil die Hörer*innen im besten Fall schon auf die neue Folge warten.

Produktion und Technik: Einfache Handhabung und gute Qualität überzeugen

Eine hochwertige Ausrüstung, also gute Mikrofone und Kopfhörer, sowie eine geeignete Aufnahmesoftware und gegebenenfalls ein Mehrspurrecorder sind essenziell für eine hohe Audioqualität. Und die ist vor allem deswegen entscheidend, weil Podcasts meist nah am Ohr gehört werden. Professionelles Equipment ist gar nicht so teuer und komplex in der Handhabung. Bei der Auswahl bieten sich große Musikhändler*innen an, die meist über das nötige Know-how und die Beratungskompetenz rund um Aufnahmetechnik verfügen.

Als Software eignet sich unter anderem das seit Jahren bewährte Freeware-­Tool Audacity (für Windows) oder die bei Apple kostenfrei erhältliche Garage Band (für Mac). Diese Tools sind intuitiv in der Handhabung und gerade für den Anfang gut geeignet, weil sie alle fürs Podcasting relevanten Features besitzen. Aufwendigere und teure Schnittprogramme wie Adobe Audition und Reaper sind im Hinblick auf den Funktionsumfang und die Filter einen Blick wert; die Programme Ultraschall und Hindenburg Pro sind speziell auf die Bedürfnisse von Pocaster*innen zugeschnitten.

Wer Remote aufzeichnet, also die Gesprächspartner*innen an unterschiedlichen Orten sitzen hat, sollte im Hinblick auf die Tonqualität nicht auf eine Konferenzsoftware wie Zoom oder Teams setzen – auch weil dann lediglich eine Spur produziert wird, was die Postproduktion erschwert. Dienste wie Zencastr, Riverside.fm, Waveroom oder Studio-Link zeichnen hingegen lokal einzelne Spuren auf und führen diese erst im Nachgang in einer Cloud zusammen. Das erleichtert einerseits die Angleichung der Lautstärke zwischen den einzelnen Sprecher*innen und hilft andererseits bei der Qualitätsoptimierung in der Postproduktion.

Doch Professionalität ist nicht nur bei der Tonqualität, sondern auch bei den Sprecher*innen wichtig. Auch wenn man als Host für einen Podcast keine Sprecher*innenausbildung benötigt und (leichte) Dialektfärbung oder Akzent überhaupt nicht schadet, sollten Moderator*innen und Sprecher*innen auf Atemtechnik, Tempo (nicht zu schnell und nicht ablesen) sowie Aussprache und Satzmelodie achten. Sprechen im aufrechten Stehen schafft mehr stimmliches Volumen und wirkt selbst beim Hören souveräner.

Die Aufnahmeumgebung sollte ruhig und frei von Hintergrundgeräuschen sein, also möglichst wenig ablenkende Raum­informationen haben. Hier sollte auf unauffällige Raumakustik geachtet werden, die sich mithilfe von Akustikabsorbern und Noppenschaumstoffelementen optimieren lässt. Die Produktion eines Podcasts sollte im besten Fall „live on tape“ durchgeführt werden, sodass im Nachgang möglichst wenig geschnitten werden muss und die Dialoge dennoch lebendig wirken. Vorab durchgeführte Tests helfen, die optimale Audioqualität sicherzustellen. In der Bearbeitung sollten Füllwörter und Pausen herausgeschnitten sowie gegebenenfalls Musik und Jingles hinzugefügt werden. Ein einheitliches In- und Outro, das die Marke widerspiegelt, begrüßt und verabschiedet die Zuhörer*innen und sorgt für einen professionellen Rahmen für jede Episode.

Branding und Marketing: Konsistentes Konzept mit Wiedererkennungswert

Ein konsistentes audio-visuelles Konzept ist wichtig für den Wiedererkennungswert des Podcasts. Logos und Designelemente sollten ebenso wie Jingles und Musikelemente auf allen Plattformen einheitlich verwendet werden. Dabei macht es im Hinblick auf Kosten und im Interesse der Professionalität oftmals Sinn, solche dedizierten Teilgewerke an einen professionellen Dienstleister auszulagern, der solche Sounddesign­Elemente regelmäßig erstellt und ein gutes Ergebnis in einem Bruchteil der Zeit hinbekommen wird.

Eine durchdachte Marketingstrategie hilft dabei, den Podcast bekannt zu machen und eine Audience aufzubauen. Für das Marketing eignen sich die bestehenden Social-Media-Präsenzen und Newsletter, aber natürlich auch die Unternehmenswebsite und andere Kanäle. Partnerschaften oder Sponsoring können die Reichweite des Podcasts ebenso erhöhen wie gut vernetzte Mitarbeitende des Unternehmens, die zu Markenbotschafter*innen via LinkedIn und Co. werden. Unternehmen sollten zudem prüfen, ob Kooperationen sinnvoll sind und wie sie am besten umgesetzt werden können.

Distribution und Monitoring: Auf die Community kommt es an

Ein Podcast wird entweder auf jeder Distributionsplattform einzeln hochgeladen oder mithilfe einer Podcast-Hosting-­Plattform wie Podigee, Podbean, Letscast.fm oder Spotify for Podcasters bereitgestellt. In diesem Fall fungiert die Hosting-Plattform als Basis und die Podcast-Episoden werden über einen RSS-Feed verteilt, der auf verschiedenen Plattformen wie Spotify oder Apple Podcasts mit einer Feed-Adresse registriert wird.

Unternehmen sollten auf die dort mögliche Community-Pflege achten, also entsprechendes Feedback der Hörer*innen berücksichtigen. Denn Zuhörer*innenfeedback ist wertvoll. Unternehmen sollten aktiv um Rückmeldungen bitten und basierend auf diesem Feedback Anpassungen vornehmen. Analyse-Tools der Podcast-Plattformen helfen, Zuhörer*innenzahlen, Downloads und Engagement zu messen. Links sollten mit Link-Shortening-Anbieter*innen verkürzt und mit UTM-Parametern versehen werden, um den Erfolg besser messen zu können.

Basierend auf den gesammelten Daten und dem Feedback sollten Inhalte, Strategie und Veröffentlichungsplan kontinuierlich angepasst werden, um den Erfolg des Podcasts langfristig zu sichern. Auch wenn Podcasts vor allem von Stammhörer*innen gehört werden, kann die Optimierung der Beschreibungen mit relevanten Keywords die Auffindbarkeit verbessern. Auch die Nutzung von Hashtags kann dabei helfen, eine größere Zielgruppe zu erreichen.

Dennoch sind bei einem Podcast die Hörer*innenzahlen nicht ansatzweise mit denen eines populären Comedy-Formats oder „Laber-Podcasts“ vergleichbar – und die Zahlen im deutschsprachigen Raum aufgrund der Sprachbegrenzung auch nicht mit denen anderer Länder. Achte also darauf, dass du nicht Äpfel mit Birnen vergleichst. Umgekehrt heißt das aber, dass man durchaus auf Best Practice Cases aus vergleichbaren Branchen- und Markenumfeldern schauen kann, um sich beim Handwerkszeug einiges abzuschauen – etwa im Hinblick auf Kooperationen oder Brand Influencer*innen. Im Rahmen des Monitorings zeigt sich auch, welche aktuellen saisonalen Inhalte und Branchenthemen gut funktionieren.

Das Potenzial des Unternehmens-Podcasts nutzen und ausbauen

Podcasts bieten Unternehmen eine wertvolle Möglichkeit, ihre Marke nachhaltig mit Content zu stärken, Wissen zu teilen und eine tiefere Verbindung zur Zielgruppe aufzubauen. Mit einer sorgfältigen Planung, qualitativ hochwertiger Produktion und gezieltem Marketing kann ein Podcast zu einem erfolgreichen Kommunikationsinstrument werden. Doch all das erfordert gerade angesichts der wachsenden Konkurrenz einen langen Atem. Durch kontinuierliches Monitoring und Optimierung lässt sich der Erfolg langfristig sichern und ausbauen, wobei ein(e) externe(r) Berater*in wertvolle Insights bringen kann. Ein gut gemachter Podcast ist somit nicht nur ein Trend, sondern ein nachhaltiges Werkzeug in der modernen Unternehmenskommunikation.

Der Autor Eric Hinzpeter ist Content-Marketing-Experte bei Smarketer. Das Unternehmen ist im Bereich Performance Marketing in der DACH-Region tätig und unterstützt Unternehmen bei der Entwicklung professioneller Strategien für Google Ads und Microsoft Advertising Services.

Diese Artikel könnten Sie auch interessieren:

Die digitalen Erntehelfer: Deutschlands AgrarTech-Start-up-Szene 2026

Vom Nischentrend zum Rückgrat der Versorgung: Wie Start-ups die Landwirtschaft mit ihren Innovationen prägen.

Vor Jahren war „Grüne Agrartechnologie“ ein Schlagwort für Visionäre. Heute ist AgTech das Fundament einer krisenfesten Lebensmittelversorgung. In einer Welt geprägt von Extremwetter und strengen ESG-Regulierungen sind Start-ups längst keine experimentellen Ideenlieferanten mehr. Sie fungieren als systemrelevante Partner, die den Landwirt*innen helfen, den Spagat zwischen ökologischer Notwendigkeit und ökonomischem Überleben zu meistern.

Die Intelligenz kommt aufs Feld: Der Markt 2026

Der deutsche AgrarTech-Markt hat in den letzten zwei Jahren seine erste Reifephase abgeschlossen. Während man Anfang des Jahrzehnts noch über einfache Vernetzung sprach, ist künstliche Intelligenz heute der „Standard-Erntehelfer“. Eine aktuelle Analyse des Digitalverbands Bitkom und der DLG zeigt, dass fast die Hälfte aller deutschen Höfe bereits intensiv mit KI-Lösungen arbeitet – bei den Großbetrieben ist es sogar mehr als jeder zweite. Diese Entwicklung spiegelt sich auch in den Finanzströmen wider: KfW Research bezifferte das Investitionsvolumen in deutsche ClimateTech-Start-ups für das vergangene Jahr auf beeindruckende 1,3 Milliarden Euro. Besonders die Automatisierung und das Carbon Farming haben sich dabei von Trendthemen zu echten Geschäftsmodellen entwickelt, die den Landwirt*innen neue, CO2-basierte Einkommensquellen eröffnen.

Jenseits der Robotik: Die neuen Treiber der Agrarwende

Doch die Innovationen gehen 2026 weit über autonome Traktoren hinaus. Im Bereich Agri-BioTech entstehen biologische Pflanzenschutzmittel auf Basis von Mikroben (Biomineralisierung), die chemische Pestizide verdrängen – ein Feld, das von Pionieren wie Bind-X geebnet wurde. Parallel dazu hat die Agri-Photovoltaik den klassischen Flächenkonflikt zwischen Energie und Nahrung gelöst. Dank vertikaler Solarsysteme, wie sie Next2Sun marktreif gemacht hat, wächst das Getreide heute unter dem Schutz von Modulen, die gleichzeitig Strom produzieren. Auch im Stall sorgt LivestockTech für eine stille Revolution: KI-Kameras überwachen das Tierwohl in Echtzeit und senken den Antibiotikaeinsatz drastisch. Gleichzeitig hat sich Vertical Farming gesundgeschrumpft: Die neue Generation fokussiert sich profitabel auf Premium-Nischen wie Erdbeeren oder Medizinalpflanzen.

Lehrgeld und Lerneffekte: Der Reality Check

Dieser Boom war jedoch nicht ohne Opfer. Der Crash von Vertical-Farming-Pionieren wie Infarm dient heute als mahnendes Beispiel für eine ganze Branche. Diese Firmen scheiterten an explodierenden Energiekosten und einer zu komplexen Logistik für margenschwache Massenprodukte. Für Gründerinnen resultieren daraus klare Lektionen: Reine Software-Mentalität scheitert am Acker, wenn die Hardware nicht „landwirtschaftstauglich“ und extrem robust ist. Wer 2026 erfolgreich sein will, muss den „Schmutz-Faktor“ einplanen und Technologien entwickeln, die den Landwirtinnen einen sofortigen, messbaren ROI bieten. AgTech ist kein Lifestyle-Gadget mehr, sondern ein Werkzeug, das im Matsch, bei extremen Witterungen und trotz chronischer Funklöcher durch Edge-Intelligence bestehen muss.

Das deutsche Netzwerk: Hotspots mit Profil

Deutschland hat seine Stärke 2026 in einer einzigartigen Cluster-Struktur gefunden. In Osnabrück verschmilzt die Landtechnik-Industrie mit der KI-Forschung des DFKI zum „AgTech Valley“. München und Freising nutzen die Strahlkraft der TUM für DeepTech und Weltraum-Sensorik, während das Rheinland rund um Jülich zum Zentrum der Bioökonomie aufgestiegen ist. In Berlin schlägt das Herz der ESG-Finanzierung, während Stuttgart durch die Universität Hohenheim die wissenschaftliche Exzellenz bei der Sensorik hält. Die Achse Hannover-Göttingen wiederum nutzt die Messe-Macht der Agritechnica und Inkubatoren wie das RootCamp, um besonders im Bereich LivestockTech neue Maßstäbe zu setzen.

Wer sind die Investor*innen?

Die Finanzierung dieser Transformation ruht auf vier stabilen Säulen, wobei sich die Landschaft der Kapitalgeber massiv professionalisiert hat. Spezialisierte VCs wie Amathaon Capital oder der Green Generation Fund bringen das nötige Branchenwissen mit, während institutionelle Schwergewichte wie Point Nine, HV Capital oder Lakestar die technologische Skalierung finanzieren. Hinzu kommen Corporate VCs von Konzernen wie der BayWa oder KWS Saat, die den Start-ups den direkten Marktzugang zur Landwirtschaft ermöglichen.

Hinter den großen Fondskonstruktionen bewegen sich zudem die Business Angels als unverzichtbares Schmiermittel der frühen Phasen. Hier treffen Impact-Pionierinnen wie Christian Vollmann oder Verena Pausder auf eine neue Generation von „Founder-Angels“, die ihr Kapital nun in die planetare Gesundheit reinvestieren. Besonders spannend ist 2026 das Aufkommen von „Agri-Insider-Syndikaten“: Zusammenschlüsse erfahrener Landwirtinnen und mittelständischer Zulieferer, die über Netzwerke wie die Business Angels Region Stuttgart (BARS) oder Plattformen wie Companisto agieren.

Den Boden bereiten schließlich weiterhin Frühphasen-Motoren wie der HTGF und spezialisierte Acceleratoren wie das RootCamp, die das erste Risiko auf dem Weg vom Labor zum Feld tragen.

Zehn AgTech-Start-ups, die von sich reden machen

Die AgrarTech-Landschaft 2026 ist dynamischer denn je. Für unseren Report haben wir über 50 aktive deutsche Start-ups analysiert. Die Auswahl erfolgte nach einer gewichteten Matrix aus Marktrelevanz, technologischem Reifegrad, Sektor-Diversität und dem Vertrauen namhafter Investor*innen. Die folgende Liste bildet einen Mix aus etablierten „Leuchtturm-Projekten“ und hochspannenden Newcomern ab.

Klim (Berlin) – Die Pioniere des Carbon Farming

Gegründet im Jahr 2020 von Dr. Robert Gerlach, Nina Mannheimer und Adiv Maimon, hat sich Klim zum führenden Insetting-Marktplatz entwickelt. Das Geschäftsmodell basiert auf einer B2B-Plattform, über die Lebensmittelkonzerne für die Dekarbonisierung ihrer Lieferketten bezahlen. Klim nutzt diese Gelder als Prämie für Landwirte und macht regenerative Landwirtschaft so zertifizierbar. Mit einer kürzlich abgeschlossenen, gewaltigen Series-A-Finanzierung von 22 Millionen US-Dollar – angeführt von BNP Paribas – gilt das Team als absoluter Vorreiter für grüne Lieferketten in Europa.

Constellr (Freiburg) – Der Fiebermesser der Erde

Dieses Spin-off des Fraunhofer EMI wurde 2020 von Dr. Max Gulde, Marius Bierdel und Christian Mittermaier ins Leben gerufen. Constellr bietet „Data-as-a-Service“ an: Agrarkonzerne und Versicherer abonnieren hochpräzise Daten thermaler Infrarot-Mikrosatelliten. Der USP liegt in der weltweit einzigartigen Temperaturmessung der Erdoberfläche, die Trockenstress bei Pflanzen identifiziert, bevor er sichtbar wird. Dank einer massiven Series-A-Runde im Februar 2026 beläuft sich die Gesamtfinanzierung des Teams mittlerweile auf rund 75 Millionen Euro. Mit dem frischen Kapital von Lead-Investoren wie Lakestar und Alpine Space Ventures (sowie frühen Unterstützern wie Amathaon Capital) skaliert das Start-up seine Satellitendaten nun neben der Landwirtschaft auch hochprofitabel in den europäischen Verteidigungs- und Sicherheitssektor.

feld.energy (München) – Agri-PV neu gedacht

Das von Dr. Adrian Renner und Lukas Zels im Jahr 2022 gestartete Start-up feld.energy fungiert als Full-Service-Projektentwickler für Agri-Photovoltaik. Das Geschäftsmodell kombiniert für Landwirte eine risikofreie Flächen-Doppelnutzung mit einem lukrativen Pachtmodell: feld.energy plant, baut und betreibt die Anlagen, während die Höfe garantierte Pachteinnahmen erzielen. Landwirt*innen erhalten so einen unkomplizierten Zugang zu Systemen, die Strom und Ernte auf derselben Fläche ermöglichen. Im September 2025 sicherte sich das Team eine Seed-Runde von über 10 Mio. Euro unter der Führung von HV Capital, um den Rollout dieses Modells in Deutschland massiv zu beschleunigen.

Nature Robots (Osnabrück) – Autonomie ohne GPS

Dr. Sebastian Pütz, Sven Lake und Gerrit Woeckner gründeten Nature Robots 2022 als Spin-off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), um die Feldrobotik zu revolutionieren. Ihr Modell setzt auf Softwarelizenzierung: Die smarte KI-Navigation wird an Landmaschinenherstellerinnen lizenziert oder als Abo-Modell für Endkund*innen angeboten. Der technologische Durchbruch liegt in der 3D-Navigation für komplexe Umgebungen wie den Weinbau oder Agroforstsysteme, die komplett ohne GPS-Signal funktioniert. 2025 erhielt das Start-up eine gewaltige Förderung in Höhe von 6,5 Millionen Euro durch den EU EIC Accelerator.

Twogee Biotech (München/Martinsried) – Zirkuläre Biomasse

Als einer der jüngsten Player in der Liste starteten Frank Wallrapp und Helge Jochens 2024 Twogee Biotech. Ihr B2B-Modell umfasst die Produktion und Lizenzierung maßgeschneiderter Enzymlösungen zur Aufbereitung agrarischer Reststoffe. Sie industrialisieren zirkuläre Systeme, um aus Abfällen nachhaltige 2G-Rohstoffe (insbesondere Zucker) für die chemische Industrie zu generieren. Im Januar 2026 schloss das Team eine Seed-Finanzierung über 2,16 Mio. Euro ab, an der unter anderem der HTGF und Bayern Kapital beteiligt sind.

VetVise (Hannover) – KI für das Tierwohl

Das von Johannes Schmidt-Mosig, Jakob Wendt und Norman Caspari im Jahr 2020 gegründete Start-up nutzt Deep Learning zur Stall-Überwachung. Über ein „Hardware-enabled SaaS“-Modell zahlen Betriebe eine monatliche Abo-Gebühr für die KI-Auswertung installierter Kameras. VetVise  erkennt Krankheiten und Stress bei Schweinen und Geflügel rund um die Uhr, oft mehrere Tage bevor Symptome für den Menschen sichtbar sind. Das Start-up wird strategisch durch ein Millionen-Investment von LV digital (Landwirtschaftsverlag) unterstützt, um die internationale Skalierung voranzutreiben.

hexafarms (Berlin) – KI für Gewächshäuser

Gegründet 2021 von David Ahmed und Ilias Attici, optimiert hexafarms die Indoor-Produktion. Über ein B2B-SaaS-Modell abonnieren Gewächshausbetreiber*innen eine Software, die das Pflanzenwachstum exakt vorhersagt. Der USP liegt in der drastischen Reduktion von Ernteverlusten und einer Ertragssteigerung von bis zu 30 % durch präzise Algorithmen. Das Team konnte nach einer ersten Pre-Seed-Runde Ende 2025 eine signifikante Seed-Finanzierung über 6 Mio. Euro einsammeln, angeführt von Speedinvest, um die KI-gestützte Ernteprognose global zu skalieren.

Root Global (Berlin) – Das Betriebssystem für grüne Lieferketten

Eric Oancea und Maurice Hensl entwickelten 2022 das „RootOS“, ein B2B-SaaS-Modell für die Lebensmittelindustrie. Die Software berechnet den Product Carbon Footprint (PCF) vollautomatisiert und in Echtzeit – ein entscheidender Faktor, um die komplexen Scope-3-Emissionen vom Bauernhof bis zum Verkaufsregal transparent zu machen. Mit einer Seed-Runde von 8 Mio. Euro durch Point Nine Capital im August 2024 gilt Root Global heute als technisches Rückgrat für die ESG-Compliance großer Molkereien und Lebensmittelkonzerne.

vGreens (Essen) – Vertical Farming 2.0

Das Team um Dr. Maximilian Hartmann, Claas Ahrens, Dr. Stefan Hey und Dr. Caspar Krampe beweist seit 2022, dass Indoor-Farming technologisch und wirtschaftlich profitabel ist. Ursprünglich als Premium-Produzent gestartet, basiert das heutige B2B-Modell auf der Lizenzierung ihrer „vGreensLab“-Software und dem Verkauf automatisierter Industriemodule. Dank hocheffizienter KI-Klimamodelle und Hyperspektralkameras identifiziert das System den Bedarf jeder einzelnen Pflanze in Echtzeit. vGreens ist mehrfach ausgezeichnet, unter anderem mit dem NEXT GEN UNICORN Award, und skaliert seine Technologie aktuell über eine Tochtergesellschaft in Singapur auf den asiatischen Markt.

Hula Earth (München) – Biodiversität messbar machen

Florian Geiser und David Schmider starteten 2023 mit dem Ziel, Artenvielfalt quantifizierbar zu machen. Als „Data-as-a-Service“ bieten sie Unternehmen rechtssichere Biodiversitäts-Daten für das ESG-Reporting an. Ihr USP ist die Kombination aus eigenen „BioT“-IoT-Sensoren, Bioakustik zur Tierstimmen-Erkennung und Satellitendaten, um verifizierbare Biodiversitäts-Zertifikate zu ermöglichen. Ende 2024 sammelte Hula Earth eine Pre-Seed-Runde von 1,6 Mio. Euro unter der Führung von Point Nine Capital ein, um die weltweit erste Echtzeit-Plattform für Natur-Investments zu skalieren.

Der Blick über den Tellerrand

Abschließend zeigt der Blick ins Ausland, was uns morgen erwartet. In Israel und Kalifornien wird WaterTech durch KI-gesteuerte Smart-Irrigation zur Präzisionsdisziplin erhoben, während in den USA die Genschere CRISPR nach der neuen EU-NGT-Regulierung nun auch in Europa für einen Milliardenmarkt bei klimaresilientem Saatgut sorgt. In Indien boomen Smart-Contract-basierte parametrische Versicherungen, die bei Dürre-Ereignissen automatisiert via Satellitendaten auszahlen, und Singapur treibt die Precision Fermentation voran, um hochwertige Proteine und Fette ressourcenschonend in Bioreaktoren zu brauen.

Fazit: AgTech ist erwachsen geworden

Der Agrar-Sektor ist 2026 das Epizentrum der Climate-Tech-Bewegung. Die Gewinner*innen sind jene, die robuste Hardware mit intelligenter Software und tiefer Biotechnologie kreuzen. Die „Grüne Agrartechnologie“ ist kein bloßes Versprechen mehr – sie ist die hocheffiziente, datengetriebene Realität unserer Ernährungssicherung.

Angriff auf die Portal-Giganten: PropTech Mietz steigt in den Immo-Verkauf ein

Pünktlich zum bevorstehenden fünfjährigen Jubiläum wagt das Berliner Start-up Mietz den nächsten großen Schritt. Die PropTech-Plattform von Gründerin Lena Tuckermann erweitert ihr Geschäftsmodell und bietet ab sofort neben der digitalen Vermietung auch den Immobilienverkauf über eine End-to-End-Plattform an.

Damit positioniert sich das Unternehmen künftig als umfassende digitale Lösung für Vermietung und Verkauf von Wohnimmobilien in Deutschland. Was als nutzerinnenfreundliche App-Alternative für die Wohnungssuche begann, soll sich nun zu einer umfassenden Infrastruktur entwickeln, die nahezu den gesamten Verkaufsprozess digital organisieren soll.

Das Bemerkenswerte daran: Laut Gründerin Lena Tuckermann hat ein dreiköpfiges Kernteam das neue Segment in nur 14 Tagen mithilfe von KI aus dem Boden gestampft – eine klare Kampfansage an die etablierten Marktgiganten.

Vom eigenen Wohnungs-Frust zum PropTech-Challenger

Die Mietz GmbH ist eine 2021 gegründete SaaS-Plattform für digitale Immobilienvermarktung mit Sitz in Berlin. Entstanden aus der eigenen Frustration bei der Wohnungssuche, startete Tuckermann mit der Mission, Vermietende und Mietende von Mailfluten zu befreien und den gesamten Prozess der Wohnraumvermietung zu digitalisieren. Das reicht von der Inseratserstellung über das Bewerbermanagement bis hin zur rechtssicheren Vertragsunterzeichnung.

+++ Tipp der Redaktion: 2023 was Lena Tuckermann bereits unsere „Gründerin der Woche“ – hier das Interview zum Nachlesen. +++

Das Konzept ging auf: Inzwischen wird die Plattform nach Unternehmensangaben deutschlandweit von über 150.000 Nutzerinnen verwendet. Flankiert wird das aktuelle Wachstum durch strategische Verstärkung im Management: Der Münchner Unternehmer Lukas Schwaiger ist als neuer Partner an Bord. Er schließe laut Tuckermann vor allem eine inhaltliche Lücke im Team. „Lukas teilt unsere Vision und Ambition und ist damit eine große Bereicherung für Mietz“, freut sich die Gründerin. Und schiebt den strategischen Mehrwert gleich hinterher: „Zudem bringt er viel operative Expertise aus dem Verkaufssegment ein – dieses Wissen ist wertvoll für die Weiterentwicklung unserer Software Prozesse.“

KI-Tempo vs. Konzernstrukturen

Besonders aufsehenerregend ist die Geschwindigkeit der Produktentwicklung. Dass das neue Marktsegment des Immobilienverkaufs dank des massiven Einsatzes künstlicher Intelligenz von nur drei Personen innerhalb von zwei Wochen aufgebaut wurde, ist eine Kampfansage. Mietz positioniert sich bewusst als schnelle, technologiegetriebene Alternative zu einem Monopol mit 1049 Mitarbeitenden – ein unverhohlener Seitenhieb auf die dominierenden Immobilienportale. In einer traditionell stark von Männern dominierten Immobilienbranche setzt Tuckermann als Female Founder damit ein echtes Ausrufezeichen für agile Softwareentwicklung.

Doch wie viel an den 14 Tagen Entwicklungszeit ist reines KI-Prompting und wie viel echte Programmierarbeit? „Das war ein ambitionierter Plan, aber ich war mir sicher, mit dem aktuellen Tech-Setup schaffen wir das“, blickt Tuckermann zurück. Sie ordnet die Euphorie jedoch realistisch ein: „Der Großteil ist nach wie vor klassisches Coding, die Einzelprozesse werden jedoch durch K-Produkte in einer wesentlich höheren Geschwindigkeit abgewickelt, als vorher.“ Dennoch sei der Sprung gewaltig: „Vor einem Jahr beispielsweise hätten wir mit Coding allein noch viel länger für so ein Produkt gebraucht. Das ist eine riesige Chance für Start-ups in der aktuellen Zeit.“

Diese neuen technischen Möglichkeiten will Mietz nutzen, um gezielt die Schwächen des großen Goliaths anzugreifen. Dieser habe laut der Gründerin in den letzten Jahren durch eine sehr aggressive Preispolitik im Markt viele Teilnehmer verärgert. Zudem liefen viele Prozesse immer noch arbeitsintensiv, intransparent und vor allem ineffizient ab. „Kein Mensch braucht 1.000+ E-Mails pro Vermietung“, kontert Tuckermann scharf. Ihre Kampfansage lautet daher: „Wir sehen die Chance darin, diese Probleme zu lösen und einen Prozess zur Verfügung zu stellen, der fair, kosteneffizient und schnell funktioniert. Ohne eine einzige E-Mail.“

Tinder-Prinzip trifft auf KI und B2B-Effizienz

Der Verkaufsbereich richtet sich wie auch die Vermietung sowohl an Privatpersonen als auch an professionelle Anbieter*innen. Die Plattform digitalisiert sämtliche Schritte der Immobilienvermarktung und soll dadurch Kosten und administrativen Aufwand erheblich reduzieren. Das System basiert auf mehreren technologischen Säulen, die nun auch den Verkauf skalierbar machen sollen.

Um das zu erreichen, setzt Mietz auf eine radikale Vereinfachung der User Experience: Für Suchende adaptiert die Plattform das gelernte Tinder-Prinzip. Nach der einmaligen Anlage einer digitalen Bewerbungsmappe reicht ein simpler Swipe nach rechts, um sich auf passende Objekte zu bewerben. Auf Anbieterseite verspricht die Software dank KI-gestützter Automatisierung eine massive Arbeitserleichterung. So soll die Künstliche Intelligenz selbständig Exposé-Texte basierend auf hochgeladenen Bildern verfassen und diese eigenständig um Mikro- sowie Makrolage-Daten ergänzen.

Flankiert wird dies vom sogenannten Mietz Score: Ein eigens entwickelter Algorithmus wertet Bewerberinnendokumente vollautomatisch aus und zeigt den Anbieterinnen sofort die Passgenauigkeit und Bonität der Interessenten an. Doch Mietz zielt nicht nur auf private Eigentümerinnen ab: Mit einem klaren B2B-Fokus unterstützt die Plattform auch Massenimporte sowie Schnittstellen zu ERP-Systemen, wodurch sich die Lösung ebenso nahtlos für Wohnungsunternehmen, Projektentwicklerinnen und Maklerinnen eignet.

Laut Tuckermann reduziert die digitale End-to-End-Lösung die Kosten um bis zu 80 Prozent und wickelt den Vermietungsprozess im Schnitt doppelt so schnell ab wie übliche Immobilienplattformen.

Zwischen Convenience und Notariat

Der Kauf einer Immobilie ist jedoch eine hochvolumige, oft lebensverändernde Entscheidung. Ob eine schnelle, auf Bequemlichkeit getrimmte UX dem enormen Informations- und Sicherheitsbedürfnis beim Immobilienkauf gerecht wird, muss sich erst noch zeigen. Auf die Nachfrage, wie sie diesem Anspruch gerecht werden wolle, betont die Gründerin: „Gerade bei einer solchen Kauf-Entscheidung geht es um Verlässlichkeit, Sicherheit und Transparenz.“ Man verstehe sich nicht nur als Plattform, sondern als Unterstützer für die Nutzer*innen. Das setze man um, indem nur geprüfte Angebote von seriösen Anbieter*innen gelistet und auch Informationen rund um den Prozess zur Verfügung gestellt werden.

Ein weiteres Nadelöhr ist der in Deutschland zwingend erforderliche Gang zum Notariat. Tuckermann räumt ein, dass die Software in diesem streng regulierten analogen Schritt aktuell noch an juristische Grenzen stößt. „Im Verkauf ist das Vertrauen in der Anbahnung und die Verbindung der richtigen Vertragsparteien ein sehr wesentlicher Prozess. Hierauf konzentrieren wir uns für den Start in diesem Jahr“, erklärt sie die aktuelle Roadmap. Langfristig wolle man die Grenzen aber verschieben: „Im Anschluss geht es darum, den Prozess möglichst weit für den Notar vorzubereiten – etwa durch Features, die den Datenraum automatisch aufbereiten.“

Wo Mietz angreift – und was zum Überleben nötig ist

Der Blick auf die Konkurrenz zeigt, dass Mietz sich auf ein hart umkämpftes Schlachtfeld begibt. Das von Lena Tuckermann erwähnte Monopol mit 1049 Mitarbeitenden ist ein kaum verhüllter Fingerzeig auf den Branchenriesen ImmoScout24. Flankiert von Playern wie Immowelt dominiert dieser das klassische Classifieds-Geschäft. Gleichzeitig tummeln sich im PropTech-Sektor bereits etablierte Start-ups wie McMakler, die den Verkaufsprozess als hybride Makler digitalisieren wollen.

Wie kann und muss sich Mietz in diesem Sandwich aus Milliardenkonzernen und Unicorn-Hoffnungen absetzen? Die Strategie der Berliner ruht dabei auf drei tragenden Säulen. Anstatt wie klassische Immobilienportale überwiegend auf kostenintensive Anzeigenmodelle zu setzen – und damit viel Frustration im Markt zu verursachen –, verfolgt Mietz einen technologiegetriebenen Ansatz. Das Ziel ist es, Immobilientransaktionen und das gesamte Ökosystem rund um die Immobilie als digitales Home Ecosystem völlig neu zu denken.

Um sich zudem die KI-gestützte Preisführerschaft zu sichern, greift das Start-up die teuren Verkaufs-Inserate der klassischen Portale sowie die kostenintensiven Vertriebsteams der Hybrid-Makler an. Mietz setzt als SaaS-Modell stattdessen voll auf KI und Automatisierung, um die Kosten für Anbieter*innen drastisch zu senken. Der dritte entscheidende Hebel gegen die großen Portale ist ein gezielter B2B-Lock-in-Effekt: Durch eine tiefe Integration in die Arbeitsabläufe der Immobilienprofis mittels ERP-Schnittstellen will Mietz für Wohnungsunternehmen langfristig unverzichtbar werden.

Bei der Monetarisierung des Verkaufssegments weicht Tuckermann von reinen Abo-Modellen ab: „Es wird eine Kombination geben“, verspricht sie. „Wir überlassen unseren Nutzern die Wahl, ob sie Mietz in einem pay-per-use Modell nutzen möchten oder als SaaS Abo.“

Der Lackmustest

Lukas Schwaiger ist überzeugt, dass klassische Plattformmodelle in den kommenden Jahren durch technologische Entwicklungen und KI zunehmend an Bedeutung verlieren werden. Dennoch bleibt der Immobilienmarkt ein „Winner-takes-all-Spielfeld“. Platzhirsche verfügen über gewaltige Netzwerkeffekte und Millionen von Seitenbesucher*innen. Eine End-to-End-Lösung muss zwingend genügend Käuferinnen und Verkäuferinnen vereinen, um echte Liquidität im Markt zu schaffen.

Wie will Mietz ohne gigantisches Marketingbudget diese Netzwerkeffekte erzielen? Tuckermann gibt sich hier überaus selbstbewusst: „Beide Parteien sind schon da und kommen aktuell aus dem Markt proaktiv auf uns zu.“ Sie verweist auf die Vorarbeit der letzten Jahre: „Wir haben in den vergangenen Jahren ein starkes Immobiliennetzwerk aufgebaut. Die Produktwünsche hat der Markt klar formuliert.“ Für ihr agiles Team sei die Mission nun simpel: „Für uns geht es jetzt vor allem um deren Umsetzung in hoher, technischer Geschwindigkeit.“

Dass ein 3-Personen-Team nach eigenen Angaben in 14 Tagen ein Verkaufs-Tool baut, beweist beispiellose Agilität. Ob das ausreicht, um hochvolumige Transaktionen von den etablierten Playern abzuziehen, wird die Zukunft zeigen.

KI-Müdigkeit im Team? Warum Friction-Maxxing jetzt die Antwort ist

Nach all der Euphorie über KI-Tools macht sich bei immer mehr Menschen eine gewisse KI-Müdigkeit breit. Die Technologie hat die Arbeitswelt im Sturm erobert – doch in Unternehmen wachsen die Zweifel: Macht KI wirklich alles einfacher oder trägt sie sogar zu sinkendem Engagement bei? Dr. Arne Sjöström von Culture Amp erklärt, warum Unternehmen jetzt auf Friction-Maxxing setzen sollten.

Friction-Maxxing ist ein Trend aus dem Lifestyle-Bereich, der jedoch auch großes Potenzial für die Arbeitswelt und den strategischen Einsatz von KI in Unternehmen hat. Gemeint ist damit ein Verhalten, bei dem man bewusst mehr kleine Hindernisse und Hürden in Arbeitsprozessen akzeptiert.

Der große Vorteil: Durch eine bewusste Verzögerung wird das Urteilsvermögen geschärft, das Engagement vertieft und die mentale Resilienz der Mitarbeitenden gestärkt.

Friction-Maxxing als Gegengewicht zur KI-Dominanz

Insbesondere für Führungskräfte und das mittlere Management bietet Friction-Maxxing die Möglichkeit, produktive Reibung in Entscheidungsprozesse zurückzubringen. Durch die Rückkehr zu mehr persönlichen Begegnungen und analogen Arbeitsabläufen entstehen Dinge, die in digitalen Formaten schlicht verloren gehen:

  • Konzentrierte Aufmerksamkeit.
  • Psychologische Sicherheit.
  • Wichtige nonverbale Signale.

Persönliche Begegnungen ermöglichen einen konstruktiven Austausch und helfen Teams dabei, ein gemeinsames Verständnis von Qualität zu entwickeln. Am Ende geht es nicht darum, unnötige Hürden aufzubauen, sondern das richtige Maß an „Reibung“ zu gestalten: Analoges für einen besseren Umgang mit Ambiguität, Kreativität und richtungsweisenden Entscheidungen – Digitales für die Umsetzung.

Fokus und Sinnhaftigkeit zurückerobern

Positive Reibung kann als dringend benötigtes Gegengewicht zur KI-getriebenen Beschleunigung in der Arbeitswelt fungieren und den Fokus wiederherstellen. Sei es durch das gründliche, manuelle Überdenken eines Briefings oder den bewussten Wunsch nach persönlichem Austausch anstelle eines asynchronen Chats. Wer sich Zeit zum Denken, Begegnen und Gestalten zurückerobert, ermöglicht es Teams, sich wieder mit ihrem eigentlichen Auftrag und ihren Ansprüchen zu verbinden – Qualitäten, die KI-Automatisierung allein niemals erreichen kann.

Dieses geänderte Verhalten führt zu mehr Präsenz, weniger Angst und einem gestärkten Gefühl der Kontrolle. Der bewusst gewählte, nur scheinbar umständlichere Weg kann somit zu mehr Autonomie und tieferer Zufriedenheit am Arbeitsplatz beitragen.

Ein Plädoyer für intentionale Reibung

Die Aufgabe moderner Führungskräfte ist es daher, bei menschenzentrierten Tätigkeiten ganz bewusst sogenannte intentionale Reibung herbeizuführen und KI parallel dazu zu nutzen, den täglichen administrativen Arbeitsaufwand zu minimieren.

Unternehmen müssen klar benennen, wo KI ihre Stärken hat und eingesetzt werden soll – und wo menschliche Fähigkeiten wie Empathie, Urteilsvermögen und kritisches Denken absolut unersetzlich sind. So gibt man Mitarbeitenden die Möglichkeit, sich auf die Arbeit zu konzentrieren, die wirklich zählt und echten Mehrwert schafft.

Friction-Maxxing ist somit weniger ein Plädoyer gegen die Technologie, sondern vielmehr ein Aufruf zur Intentionalität: Dem bewussten Abwägen darüber, wann Prozesse automatisiert werden sollten und wann gerade der Widerstand den entscheidenden Unterschied machen kann.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp. Sein Schwerpunkt liegt in der Organisationspsychologie und der angewandten Forschung.

Aiconiq.io: Das KI-Gehirn für den Mittelstand – Brillante Vision oder teure Manufaktur?

Autonome Agenten, halbierte Prozesskosten und sicheres Daten-Hosting: Mit Aiconiq.io tritt ein Start-up an, um das KI-Gehirn für den Mittelstand zu bauen. Wir wollten wissen, wie das „Corporate Brain“ funktioniert und wo die Herausforderungen bei der Skalierung liegen.

Hinter der Aiconiq GmbH stehen zwei ausgewiesene Branchenexperten. Gegründet wurde das Start-up 2025 von Prof. Dr. Peter Gentsch, einem bekannten KI-Pionier und Seriengründer, sowie dem KI-DeepTech-Experten Dr. Michael Patrushev. Gemeinsam bringen sie jahrzehntelange Erfahrung aus der KI-Forschung, im internationalen Engineering und beim Skalieren technologiegetriebener Unternehmen in ihr neues Projekt ein.

Mehr als nur ein Chatbot

Dass hier DeepTech-Experten am Werk sind, zeigt sich am technologischen Anspruch: Während viele Firmen mit generischen Chatbots experimentieren, integriert Aiconiqs Corporate Brain laut Unternehmensangaben nicht nur explizites, sondern gezielt das implizite Wissen (Tacit Knowledge) der Belegschaft. Erfasst wird dies durch KI-gesteuerte Interviews. Um Halluzinationen und subjektiven Fehleinschätzungen vorzubeugen, setzt Co-Gründer Michael Patrushev auf harte Validierung: „Die KI stellt keine offenen, spekulativen Fragen, sondern kontextualisierte, prozessbezogene Fragen entlang realer Use Cases.“

Nach einem Abgleich mit ERP-Logs und Experten-Kreuzvergleichen speichere das System keine absoluten Wahrheiten, so Patrushev, sondern „gewichtete Wissenselemente mit Vertrauens-Score und Quellenreferenz“. Gerade dieses subjektive Erfahrungswissen sei im Unternehmensalltag entscheidend, müsse aber umsichtig geprüft werden.

David gegen die Tech-Goliaths

Im hart umkämpften Markt stellt sich die Frage, wie lange das Start-up gegen die Milliarden-Budgets von Microsoft oder OpenAI bestehen kann. Prof. Peter Gentsch gibt sich pragmatisch: „Wir kämpfen nicht gegen die Hyperscaler wie OpenAI, Google oder Anthropic – wir nutzen sie.“ Das eigene System setze horizontal auf den bekannten Modellen auf. Der Burggraben entstehe durch branchenspezifische Use Cases in einer sicheren, DSGVO-konformen Umgebung, wahlweise on-premises oder in einer europäischen Cloud.

Gentsch pointiert: „Wir wollen nicht das größte Gehirn bauen; wir bauen das relevanteste Brain für ein Unternehmen. Die Tech-Giganten optimieren Skalierung – wir optimieren den Unternehmens-Kontext.“

Skalierung: Softwareprodukt oder Manufaktur?

Die schnelle Entwicklung der eigenen Modelle sichert Aiconiq durch die interne „Aiconiq Factory“ ab, die auf radikale Automatisierung setzt. Kontrollverlust fürchtet Patrushev dabei nicht: „Geschwindigkeit ersetzt bei uns nicht Qualität – sie wird durch Qualitätssicherungssysteme ermöglicht.“ Jeder KI-generierte Code durchlaufe strenge Security-Checks und Test-Pipelines.

Doch lässt sich das aufwendige Einfangen von Unternehmenswissen beim Kunden ebenso reibungslos skalieren, oder droht Aiconiq in einem beratungsintensiven Manufaktur-Modell steckenzubleiben? Gentsch wehrt ab: Man nutze KI, um KI im Unternehmen aufzubauen. Algorithmen deckten Inkonsistenzen im Wissen automatisch auf und lösten sie teils selbständig. Ganz ohne menschliches Zutun gehe es aber nicht, räumt der Gründer ein: „Damit bleibt immer ein wenig Manufaktur bzw. ‚Human in the loop‘.“

Ausblick

Mit einer aktuellen Bewertung von 10 Millionen Euro und der Aufnahme ins „German Accelerator USA-Programm“ hat Aiconiq.io nach eigenen Angaben bereits namhafte DAX-Konzerne überzeugt. Gelingt es den Frankfurtern nun, die komplexe Wissensextraktion weiter zu standardisieren, könnte sich ihr „Corporate Brain“ als eine treibende Kraft der „industriellen KI-Revolution“ aus Deutschland etablieren.

Unchained Robotics auf dem Sprung in die „Champions League“ der Industrielogistik

Der Logistikkonzern Arvato beteiligt sich an Unchained Robotics und ebnet dem Paderborner Start-up den direkten Weg in die internationale Industrielogistik. Wir analysieren, wie dieser Deal den Markt aufmischt und welche strategischen Skalierungs-Learnings B2B-Gründer*innen daraus ziehen können.

Für Gründer*innen im Hardware- und Robotik-Bereich ist der Sprung von der Technologieentwicklung in den industriellen Masseneinsatz oft die größte Hürde. Bisher adressierte Unchained Robotics mit seiner Plattform vor allem kleine und mittelständische Betriebe in Europa. Durch die enge Verzahnung mit der Bertelsmann-Tochter Arvato validiert das Start-up seine Technologie nun im industriellen Großmaßstab.

Arvato plant, in den kommenden Jahren eine dreistellige Anzahl von Robotern in unterschiedlichen operativen Umgebungen zu implementieren. Dieses Volumen schafft Erfahrungswerte und Standards, die Unchained Robotics gegenüber Mitbewerbern einen deutlichen Skalierungsvorteil verschaffen dürften. Neue Lösungen können fortan direkt entlang konkreter Use Cases im echten Betrieb erprobt und für den breiten operativen Rollout vorbereitet werden.

Plattform-Strategie und strategische Einordnung im Wettbewerb

Der deutsche Robotik-Markt ist stark umkämpft und von unterschiedlichen Lösungsansätzen geprägt. Während einige Start-ups auf die Entwicklung eigener Hardware setzen, fokussiert sich Unchained Robotics auf die softwareseitige Integration, insbesondere durch ihr Betriebssystem. So setzt beispielsweise das Münchener Start-up RobCo auf eigene, physische und modulare Hardware-Roboterarme, wohingegen Unchained strikt modular und herstellerunabhängig agiert.

Auch im Vergleich zu WAKU Robotics aus Berlin, die mit einem Marktplatz und eigener Software einen starken Fokus auf mobile Logistikroboter (AMR/AGV) legen, decken die Paderborner breitere Pick-and-Place-Anwendungen ab. Gegenüber Unternehmen wie Magazino (gehört zu Jungheinrich), die auf spezialisierte autonome Logistik-Roboter und Eigenentwicklungen für spezifische Prozesse fokussiert sind, grenzt sich Unchained durch seinen offenen, plattformbasierten Ansatz ab.

Diese strategische Positionierung erweist sich nun als maßgeblicher Hebel. Für einen globalen 3PL-Dienstleister wie Arvato wäre die Bindung an nur einen Hardware-Hersteller zu starr. Durch die Unabhängigkeit von Unchained Robotics lassen sich Lösungen flexibel für reale Logistik- und Fulfillment-Prozesse maßschneidern.

Der „Huckepack“-Vorteil bei der US-Expansion

Ein weiterer kritischer Faktor für die künftige Marktstellung des Start-ups ist die Internationalisierung. Üblicherweise erfordert der Sprung über den Atlantik für deutsche Tech-Gründer enorme Summen und den langwierigen Aufbau eigener Vertriebsstrukturen.

Unchained Robotics wählt eine effizientere Route: Neben europäischen Standorten eröffnet die Partnerschaft den direkten Zugang in internationale Märkte, insbesondere in die USA. Das Start-up expandiert quasi „huckepack“ über die bestehenden, hochkomplexen Logistik-Setups von Arvato. Gerade in den USA, wo hohe Automatisierungsanforderungen auf dynamische E-Commerce-Strukturen treffen, sichert dies einen schnellen und praxisnahen Markteintritt.

Automatisierung ohne „Raketenwissenschaft“

Für den Logistikkonzern steht bei dem Deal vor allem die rasche operative Umsetzung im Vordergrund: Automatisierung müsse heute in erster Linie schnell wirken, so Arvato-CEO Frank Schirrmeister.

Dies zahlt direkt auf die ursprüngliche Vision von Unchained Robotics ein: Die Paderborner sind angetreten, um zu beweisen, dass industrielle Automatisierung längst keine „Raketenwissenschaft“ mehr ist. Durch den Arvato-Deal erhält das Start-up nun die Möglichkeit, diesen Anspruch von der Konzeption bis zur Inbetriebnahme im globalen Großmaßstab unter Beweis zu stellen.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem Deal zwischen Unchained Robotics und Arvato lassen sich drei handfeste strategische Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Orchestrierung schlägt Vendor-Lock-in

Gerade im Hardware- und Maschinenbau neigen Start-ups dazu, eigene proprietäre Systeme zu entwickeln. Unchained Robotics zeigt den Wert des Plattform-Gedankens: Corporates hassen den „Vendor-Lock-in“ (die Abhängigkeit von einem einzigen Hersteller).
Learning: Wer sich als herstellerunabhängige, modulare Software- oder Integrationsschicht positioniert, macht sich für Konzerne, die flexibel bleiben müssen, weitaus attraktiver als der Anbieter einer isolierten Einzellösung.

2. Die „Huckepack“-Expansion (Piggybacking)

Der teuerste und riskanteste Schritt für deutsche B2B-Start-ups ist oft die Internationalisierung – insbesondere in die USA. Anstatt Millionen an VC-Geldern in den Aufbau eigener US-Vertriebs- und Servicestrukturen zu verbrennen, nutzt Unchained Robotics die bestehende Infrastruktur seines strategischen Partners.
Learning: Sucht gezielt nach Kund*innen oder Investor*innen, deren eigene globale Logistik oder Infrastruktur ihr als direktes Sprungbrett für neue Märkte nutzen könnt.

3. Volumen-Commitment als unfairen Wettbewerbsvorteil (Moat) aufbauen

Ein Corporate-Investment ist gut, ein garantiertes operatives Testfeld ist besser. Arvato hat sich nicht nur an dem Start-up beteiligt, sondern ein klares Commitment zum Rollout einer dreistelligen Anzahl von Robotern abgegeben.
Learning: Verhandelt bei strategischen Beteiligungen immer auch den operativen Einsatz mit hinein. Das garantierte Volumen generiert reale Use Cases und Datenmengen, die für neue Wettbewerber einen fast unüberwindbaren Burggraben („Moat“) darstellen.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

Prämierter Gründungsgeist an der Uni

Elf Mainzer Studierende wurden für ihren Beitrag bzw. ihr Engagement zum regionalen Technologietransfer als treibende Kraft des Rhein-Main-Ökosystems geehrt.

Um ein dynamisches Start-up-Ökosystem aufzubauen, braucht es nicht nur Kapital und Forschung, sondern vor allem eine aktive Basis an den Hochschulen. Für ihren Beitrag zum regionalen Technologietransfer wurden am 5. März 2026 an der Johannes Gutenberg-Universität Mainz (JGU) elf Studierende ausgezeichnet. Die rheinland-pfälzische Wirtschaftsministerin Daniela Schmitt überreichte die Ehrung gemeinsam mit Prof. Dr. Stefan Müller-Stach, Vizepräsident der JGU, und Charlie Müller, Founder & Managing Director von Futury.

Struktureller Aufbau statt reiner Theorie

Die prämierten Studierenden engagieren sich primär im Umfeld des Entrepreneurs Club Mainz (ECM) sowie der studentischen Gründungsinitiative LAUNCH Rhein-Main, die heute hochschulübergreifend in Mainz, Frankfurt und Darmstadt aktiv ist. Sie wurden dafür geehrt, Start-up-Strukturen auf dem Campus nachhaltig zu institutionalisieren und das regionale Ökosystem entscheidend voranzubringen. Zu den wesentlichen, von den Studierenden mitgestalteten Meilensteinen des vergangenen Jahres zählen:

  • Akademische Integration: Erstmals können sich Studierende an der JGU ihr Engagement über das Zertifikatsprogramm Entrepreneurship mit ECTS-Punkten auf das Studium anrechnen lassen.
  • Sichtbarkeit: Die Durchführung zweier Demo Days bot eine Bühne für 24 Startup-Pitches vor mehr als 350 Teilnehmenden.
  • Ökosystem-Finanzierung: Beim „Tag der Metropolregion“ sicherten sich die Initiativen 10.000 Euro Preisgeld für den weiteren Ausbau des studentischen Gründungsnetzwerks.
  • Talententwicklung: Mit der „LAUNCH Talent Forge“ wurde ein neues Leadership-Programm für die nächste Generation studentischer Führungskräfte etabliert.
  • Praxis-Validierung: Der Start der „Venture Labs“ ermöglichte Teams in der Frühphase die Teilnahme an Hackathons und einem fünfwöchigen Validation Track.

Zentraler Baustein einer bundesweiten Strategie

Die Relevanz dieser studentischen Basisarbeit zeigt sich im größeren wirtschaftspolitischen Kontext der Region. Das in Frankfurt am Main ansässige Innovationsnetzwerk Futury, einer der Initiatoren der Auszeichnung, gilt als Europas führendes industriegetriebenes Startup-Ökosystem. Getragen wird Futury von einer Allianz aus 33 Partnern aus Unternehmen und Stiftungen sowie vier Hochschulen: der Frankfurt School of Finance & Management, der Goethe-Universität Frankfurt, der TU Darmstadt und der JGU.

Das erklärte Ziel des Ökosystems ist es, den Transfer wissenschaftlicher Exzellenz in den Markt zu strukturieren, sodass daraus bis zum Jahr 2030 rund 1.000 neue Startups entstehen. Dafür wird Futury als eine von bundesweit zehn Startup Factories mit bis zu 10 Millionen Euro aus dem Bundeshaushalt gefördert.

In diesem Zusammenhang betonte Wirtschaftsministerin Schmitt, dass die Gründungskultur an den Hochschulen beginnen müsse. Eine frühe Berührung mit unternehmerischem Handeln sei essenziell, um Innovationen in Zukunftsfeldern wie Life Sciences, künstlicher Intelligenz und DeepTech zu fördern. Auch JGU-Vizepräsident Müller-Stach ordnete die Auszeichnung in die übergeordnete Transferstrategie der Universität ein: Es bedürfe eines Kulturwandels, um wissenschaftliche Erkenntnisse gezielt in gesellschaftlichen Impact und unternehmerische Lösungen – etwa für die Gesundheitsversorgung oder mehr Nachhaltigkeit – zu übersetzen.

Infokasten: Die exist-Programme des Bundes

Das Programm exist ist die zentrale Initiative des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) zur Förderung von Existenzgründungen aus der Wissenschaft. Es wird teilweise durch den Europäischen Sozialfonds (ESF) kofinanziert und zielt darauf ab, das Gründungsklima an Hochschulen und außeruniversitären Forschungseinrichtungen zu verbessern.

Die wichtigsten exist-Fördersäulen im Überblick:

  • exist-Gründungsstipendium: Richtet sich an Studierende, Absolventen und Wissenschaftler. Es unterstützt die Vorbereitungsphase der Unternehmensgründung für maximal ein Jahr, um einen tragfähigen Businessplan auszuarbeiten und das Produkt oder die Dienstleistung zur Marktreife zu bringen. Neben der Sicherung des Lebensunterhalts werden Sach- und Coachingmittel bereitgestellt.
  • exist-Forschungstransfer: Fördert besonders anspruchsvolle, forschungsbasierte Gründungsvorhaben (DeepTech), die mit aufwändigen und risikoreichen Entwicklungsarbeiten verbunden sind. Das Programm ist in zwei Phasen unterteilt: Phase I (Nachweis der technischen Machbarkeit und Businessplan-Erstellung) und Phase II (Unternehmensgründung und Vorbereitung einer externen Unternehmensfinanzierung).
  • exist-Women: Eine spezifische Förderlinie, die gezielt darauf ausgerichtet ist, gründungsinteressierte Frauen an Hochschulen zu unterstützen und den Anteil von weiblichen Gründerinnen im Start-up-Ökosystem nachhaltig zu erhöhen.
  • exist Startup Factories: Im Rahmen dieses Leuchtturmwettbewerbs fördert der Bund überregionale, hochprofessionelle Gründungszentren (wie Futury). Diese Factories agieren als eigenständige Unternehmen und binden gezielt private Investoren sowie etablierte Unternehmen ein, um deutsche Start-up-Ökosysteme auf internationales Spitzenniveau zu heben.

Wachstum ohne innere Klarheit ist teuer

Serie: Führen im Start-up, Teil 5: Warum viele Start-ups nicht am Markt scheitern, sondern an innerer Unklarheit, Entscheidungsdruck und fehlender Selbstführung.

Der unbequeme Gedanke: Die meisten Start-ups scheitern nicht an einer falschen Idee. Sie geraten in schwierige Krisen, weil Führung unter Druck nicht klar bleibt.

Märkte sind volatil. Kapital ist knapp. Wettbewerb ist hart. Das ist bekannt – und in gewisser Weise kalkulierbar.

Was deutlich seltener einkalkuliert wird, ist der eigene innere Zustand. Doch genau dort entscheidet sich, ob Wachstum trägt – oder bricht.

Entscheidungsdruck entlarvt

Unter Druck zeigt sich nicht nur Strategie. Unter Druck zeigt sich Persönlichkeit.

  • Wird eine Entscheidung getroffen, um Orientierung zu schaffen – oder um Unsicherheit nicht spüren zu müssen?
  • Wird Tempo gewählt, weil es sinnvoll ist – oder weil Stillstand Angst auslöst?
  • Wird Kritik integriert – oder abgewehrt?

Diese Unterschiede tauchen in keinem Pitch-Deck auf. Aber sie sind im Unternehmen spürbar. Und sie vervielfachen sich mit jeder Skalierungsstufe.

Wenn Selbstführung fehlt

Selbstführung bedeutet nicht Achtsamkeit im Kalender. Sie bedeutet Urteilskraft unter Spannung. Wer seine eigenen Reaktionsmuster nicht kennt, trifft Entscheidungen aus innerer Aktivierung – nicht aus Klarheit. Wer sich selbst nicht hinterfragt, baut Strukturen, die ihn bestätigen. Wer Macht nicht reflektiert, verteidigt sie.

Das ist kein moralisches Problem. Es ist ein systemisches. Organisationen übernehmen den inneren Zustand ihrer Führung – schneller, als vielen bewusst ist.

Die betriebswirtschaftliche Dimension

Innere Unklarheit bleibt nicht psychologisch. Sie wird operativ. Sie zeigt sich in strategischen Zickzackbewegungen, die Ressourcen binden.

  • In Führungswechseln, die Vertrauen kosten.
  • In Teams, die vorsichtiger werden, statt mutiger.
  • In Produktentscheidungen, die aus Druck entstehen – nicht aus Überzeugung.

Das sind keine weichen Effekte. Diese Zickzackbewegungen führen zu Fluktuation, Reibungsverlusten, verlängerten Entscheidungszyklen und sinkender Innovationsgeschwindigkeit.

Der Markt reagiert selten sofort. Aber er reagiert konsequent. Und nicht selten ist das, was später als Marktproblem beschrieben wird, in Wahrheit ein Führungsproblem unter Druck gewesen.

Die stille Asymmetrie

Der vielleicht unbequemste Gedanke: Viele Gründer*innen investieren mehr Energie in Pitch-Decks als in die Reflexion ihrer eigenen Entscheidungslogik.

Sie analysieren Märkte bis ins Detail – aber nicht ihre eigenen Reaktionsmuster. Sie professionalisieren Prozesse – aber nicht ihre Selbstführung.

So entsteht eine stille Asymmetrie: Das Unternehmen wächst schneller als die innere Reife seiner Führung. Skalierung toleriert das eine Zeit lang. Dauerhaft jedoch nicht.

Der eigentliche Punkt des Scheiterns

Vielleicht liegt der größte Irrtum junger Unternehmen nicht im Marktverständnis, sondern im Glauben, dass Führung sich automatisch mitentwickelt. Eine Art Nebenprodukt.

Wachstum verstärkt alles, was bereits da ist. Klarheit ebenso wie Unsicherheit. Reife ebenso wie blinde Flecken. Und genau deshalb sind die entscheidenden Momente selten spektakulär.

  • Es sind die nicht geführten Gespräche.
  • Die Müdigkeit, die niemand ernst nimmt.
  • Der Widerspruch, der nicht mehr geäußert wird.
  • Die Entscheidung unter Druck, die später nicht mehr hinterfragt wird.

Nichts davon wirkt dramatisch. Bis es Wirkung entfaltet.

Unternehmen scheitern selten an einem einzelnen Fehler. Sie scheitern an kumulierten Unachtsamkeiten. An Momenten, in denen niemand innehält. An Phasen, in denen Tempo wichtiger wird als Bewusstsein.

Vielleicht ist das die eigentliche Zumutung dieser Serie: Dass nicht der Markt der größte Unsicherheitsfaktor ist. Sondern der Zustand derjenigen, die führen.

Und dass Scheitern manchmal dort beginnt, wo niemand hinsieht.

Führung entsteht nicht im Erfolg. Sie zeigt sich im Umgang mit Druck.

Tipp zum Weiterlesen

Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e

Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5

Der dritte Teil unserer Serie behandelt, warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren. Hier zum Nachlesen: https://t1p.de/v8q2k

Im vierten Teil unserer Serie liest du: Warum schnelles Wachstum ohne Reife zur strukturellen Gefahr werden kann. Hier zum Nachlesen: https://t1p.de/963rb

Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.

Schluss mit der Resilienz-Lüge

Warum gut gemeinte Resilienz-Programme die besten Leute vertreiben.

Du kennst das Ritual im Mittelstand: Ein neues Budget für Mitarbeiter-Wohlbefinden wird freigegeben, es gibt eine schicke App, ein Resilienztraining und vielleicht noch einen Achtsamkeitskurs am Freitagmorgen. Alles ist sauber pro Kopf abgerechnet, aber die Realität in den Gängen sieht düster aus: Die Stimmung kippt, die Leistung bröckelt und die Kündigungen häufen sich. Irgendwo auf dem Firmenparkplatz sitzt gerade ein Mitarbeiter im Auto und hofft inständig, dass ihn gleich niemand fragt, wie es ihm wirklich geht – willkommen in der Resilienz-Falle.

Bequemlichkeit statt Verantwortung

In der Geschäftsleitung reagierst du auf Erschöpfung oft reflexhaft mit Instrumenten zur ‚individuellen Stärkung‘. Du investierst lediglich in das Durchhalten der Belegschaft. Dabei übersiehst du geflissentlich, dass deine Leute längst gegen Strukturen ankämpfen, die du selbst mitgebaut hast. Die heimliche, aber messerscharfe Botschaft dieser Maßnahmen lautet: ‚Der Laden bleibt, wie er ist. Du musst dich anpassen.‘ Das ist für dich als Führungskraft äußerst bequem, denn es klingt nach Fürsorge und produziert bunte Fotos für das Intranet. Vor allem aber delegiert es die Verantwortung elegant von der Organisation abwärts zur einzelnen Person – von echter Führung hin zu bloßem ‚Selbstmanagement‘. Wenn ihr als Führungskräfte selbst erschöpft von der jahrelangen Permakrise seid, greift ihr eben nach dem Mittel, das am wenigsten wehtut: Training statt Kulturarbeit.

Die toxische Wahrheit über Burnout

Machen wir uns nichts vor: Burnout entsteht in den seltensten Fällen, weil jemand schlicht ‚zu wenig resilient‘ ist. Menschen brennen aus, weil die Art der Arbeit und der Führung ihnen systematisch die Energie abdreht. Laut einer globalen Untersuchung des McKinsey Health Institute ist toxisches Verhalten am Arbeitsplatz der mit Abstand größte Prädiktor für Burnout-Symptome und Kündigungsabsichten. Wir sprechen hier nicht von Hollywood-Klischees, sondern von handfester Entwertung, Bloßstellung, Sabotage, unfairem Wettbewerb und unethischem Verhalten. Dieses Gift sitzt in Meetings, in E-Mails, in Zielsystemen und in unausgesprochenen Erwartungen. Es zeigt sich genau dann, wenn du jenen einen ‚Leistungsträger‘ schützt, der seit Jahren rote Linien überschreitet. Kein Resilienztraining der Welt kann dieses Führungsversagen reparieren.

Der Bumerang-Effekt der Resilienz

Jetzt wird es paradox: Wenn in toxischen Umfeldern Resilienz trainiert wird, treibt das die Leute direkt in die Kündigung. McKinsey belegt, dass Beschäftigte mit hoher Anpassungsfähigkeit in giftigen Arbeitsumfeldern eine um 60 Prozent höhere Kündigungsbereitschaft aufweisen als weniger anpassungsfähige Kollegen. Das ist absolut logisch: Wer durch Training innerlich klarer wird, durchschaut schneller, was im Unternehmen wirklich schiefläuft. Wer lernt, Grenzen zu spüren, wird diese auch setzen. Wer seine Selbstwirksamkeit entdeckt, bleibt nicht in einem System, das ihn systematisch klein hält. Resilienz wirkt ohne echte Kulturarbeit wie ein greller Scheinwerfer, der alles sichtbar macht, was vorher bequem im Nebel versteckt war. Du investierst teuer in Resilienz und verlierst genau deshalb im Anschluss deine besten Köpfe.

Vom Sponsor zum Gestalter: Harte Führungsarbeit statt Wellness

Es ist Zeit für einen Paradigmenwechsel. Deine Rolle als Führungskraft ist nicht die eines Sponsors für Wohlfühl-Maßnahmen; du bist verantwortlich für die Rahmenbedingungen im Unternehmen. Moderne Führung braucht keine Wellness und kein Wunschdenken, sondern eine klare Haltung. Ohne Hoffnung fehlt die Richtung, ohne Vertrauen fehlt der Halt. Fehlt beides, helfen auch keine App und keine Atemtechnik mehr, weil das System weiter Druck produziert und die Menschen innerlich aussteigen.

Es gilt, die Leitfrage im Management-Team radikal umzudrehen: Statt ‚Wie machen wir unsere Leute widerstandsfähiger?‘ sollte die Frage ‚Wo erzeugen wir Bedingungen, die Widerstand überhaupt erst nötig machen?‘ lauten. Das ist kein Kuschelkurs, das ist harte Führungsarbeit. Das erfordert den Mut, toxisches Verhalten schonungslos zu benennen und Regeln auch gegen kurzfristige Leistungserfolge durchzusetzen. Resilienz darf kein Reparaturbetrieb für eine Unternehmenskultur sein, die gnadenlos Menschen verbraucht. Sie muss das natürliche Ergebnis von guter Führung und gesunden Systemen sein.

Der Autor Ben Schulz ist Unternehmensberater und SPIEGEL-Bestseller-Autor, www.benschulz-partner.de

Die Müsli-Macher und die Kälte: Das neue Millionen-Projekt von Kraiss & Mahler

Dass sie Märkte revolutionieren können, haben die Freda-Gründer bereits bewiesen – nun steht die Tiefkühlkette auf dem Prüfstand. Mit einem mutigen Modul-Konzept fordern Philipp Kraiss und Christian Mahler die Industrie-Riesen im Supermarktregal heraus.

In der Start-up-Welt ist der Begriff Seriengründer*in oft ein zweischneidiges Schwert: Das Vertrauen der Investor*innen ist hoch, doch die Fallhöhe nach einem Erfolg wie mymuesli ebenso. Philipp Kraiss und Christian Mahler haben sich mit ihrem 2023 gegründeten Food-Start-up Freda bewusst gegen ein „Me-too-Produkt“ und für eine operative Wette auf die Zukunft der Tiefkühlkette entschieden. Mit einem mutigen Modul-Konzept fordern sie die etablierten Industrie-Riesen im Supermarktregal heraus. Die Prämisse: Der Markt für Tiefkühlkost (TK) wächst – auf über 22,6 Milliarden Euro im Jahr 2024 –, ist aber durch extremen Preisdruck und eine veraltete Produktlogik geprägt. Wir haben uns das Geschäftsmodell näher angesehen und die Gründer dazu befragt.

Pizza, Pasta, Gelato … und jetzt Blocks?

Die Pizza „Salami Sensation“ war für Freda der Türöffner. Mit dem Sieg bei Stiftung Warentest (2024) bewies das Team, dass es Qualität „kann“ und schuf einen starken USP. Strategisch ist Pizza jedoch kein leichtes Feld: Der Wettbewerb ist anspruchsvoll, die Regalplätze im Einzelhandel sind besetzt und die Differenzierung erfolgt meist über den Preis. Mit einer Innovation wie „Frozen Blocks“ erweitert Freda nun das Spielfeld und eröffnet eine neue Kategorie von Tiefkühlkost.

Es handelt sich dabei nicht mehr um ein fertiges Gericht, sondern um eine Systemkomponente. Das Konzept orientiert sich am gastronomischen „Mise en Place“: Vorbereitete, schockgefrostete Komponenten wie Beef Ragù oder Chili sin Carne fungieren als Basismodule für die heimische Küche. Strategisch gesehen erhöht dies die Wertdichte pro Kubikzentimeter im TK-Fach und verringert die Komplexität in der eigenen Produktion im Vergleich zu mehrkomponentigen Fertigmenüs.

Auf die Frage, ob der strategische Wechsel von der Pizza zu den „Frozen Blocks“ eine Flucht aus dem Commodity-Preiskampf der Pizza-Truhe hin zu einer proprietären Nische sei, widerspricht Philipp Kraiss. Vielmehr handele es sich um einen konsequenten Ausbau des Sortiments, denn Freda solle künftig den gesamten Alltag der Kund*innen abbilden – vom Frühstück bis zum Abendbrot. Das sei eben mehr als nur Pizza. „Unser Anspruch ist aber nicht nur Bekanntes besser zu machen – wie bei unserer Pizza, sondern auch neue Wege zu gehen“, stellt der Gründer klar. Die flexiblen Module seien auf diesem Weg der nächste logische Schritt. Er verspricht dabei maximale Vielfalt aus dem Gefrierfach, „denn jeder Block lässt sich vielfältig kombinieren.“

Die Retail-Herausforderung: Kaufland als Stresstest

Mit einer Basis von über 30.000 D2C-Kund*innen hat das Unternehmen bereits bewiesen, dass die Nachfrage nach seinen Produkten besteht. Um dieses Potenzial voll auszuschöpfen und die Margen zu stärken, wurde im August 2025 der Launch in 780 Kaufland-Märkten umgesetzt – ein strategischer Meilenstein, der die Reichweite massiv erhöht und über das Volumen des stationären Einzelhandels den Weg zu nachhaltigem, profitablem Wachstum ebnet – ohne aufwendigen Versand mit Isolierung und Trockeneis.

Hier zählt nun die Shelf Velocity (Abverkaufsgeschwindigkeit). Ein modulares System erfordert von der Kundschaft jedoch ein Umdenken: Man kauft kein fertiges Abendessen, sondern eine Zutat. Freda muss hier beweisen, dass der Mehrwert der Zeitersparnis am Point of Sale verstanden wird, bevor die harten Auslistungsmechanismen des Handels greifen.

Doch wie überzeugt man eine*n Einkäufer*in davon, dass ein modulares System mehr Flächenproduktivität bringt als die zehnte Sorte Standard-Lasagne? Christian Mahler kontert auf diese Retail-Frage mit einem anschaulichen Branchen-Vergleich: „Wir sind eben nicht die zehnte Lasagne. Eine klassische TK-Lasagne belegt viel Regalfläche, bedient genau einen Anlass und konkurriert mit neun anderen Lasagnen um denselben Kunden.“ Durch das kompakte Format und eine maximale SKU-Dichte der Blocks könne der Händler auf derselben Regalfläche mehrere Sorten listen und spreche damit dutzende Zubereitungsarten von der Bowl bis zum Curry an. Mahler zeigt sich selbstbewusst: „Wir eröffnen eine neue Kategorie statt in einer bestehenden zu kämpfen.“

Operative Exzellenz vs. bayerisches Handwerk

Ein weiterer Spagat wartet in der Produktion: Freda wirbt offensiv mit „Made in Bavaria“ und handwerklicher Herstellung. In der Start-up-Praxis beißt sich Handwerk jedoch oft mit Skalierung. Wer bundesweit fast 900 Supermärkte bedient, muss industrielle Prozesse beherrschen. Die Gefahr dabei ist offensichtlich: Wenn die Qualität durch die Masse sinkt, verliert Freda seinen wichtigsten USP. Gleichzeitig bleibt bei der exklusiven Zielgruppe, die bereit ist, für TK-Komponenten Premium-Preise zu zahlen, in Zeiten der Inflation die Frage der Preissensibilität bestehen.

Auf drohende Kapazitätsgrenzen angesprochen, räumt Philipp Kraiss ein, dass die Passauer Manufaktur zwar das Herzstück bleibe. „Aber wir waren von Anfang an ehrlich zu uns selbst: Eine Manufaktur skaliert nicht linear“, gibt der Seriengründer zu bedenken. Mit wachsendem Geschäft müsse man die Produktion auf breitere Schultern stellen und mit Partnern zusammenarbeiten. Sein Kernversprechen an die Kund*innen lautet dabei jedoch: „Wir lagern nicht die Rezeptur aus, sondern die Kapazität.“

Marktpsychologie: Convenience ohne Reue

Psychologisch besetzt Freda damit eine überaus geschickte Lücke. Die „Frozen Blocks“ nehmen der Käuferschaft zwar die Entscheidung für die aufwendige Kernkomponente ab, lassen das Gefühl des Selbstkochens durch das frische Ergänzen von Beilagen jedoch vollkommen intakt. Dies eliminiert die oft vorhandene „Convenience-Scham“ gesundheitsbewusster Zielgruppen und könnte die Lösung für die stagnierenden Marktanteile klassischer Fertiggerichte bei jüngeren Konsument*innen sein.

Fazit für die Start-up-Praxis

Freda ist ein Lehrstück für den Übergang von einer digitalen D2C-Brand zum Player im Massenmarkt. Die Gründer nutzen ihre Erfahrung, um eine etablierte Kategorie neu zu denken. Ob die Rechnung aufgeht, wird sich an der Regal-Rotation zeigen. Wenn die Kund*innen den Aufpreis für die „bayerische Handarbeit“ und das modulare System dauerhaft akzeptieren, könnte Freda die Blaupause für die nächste Generation von Food-Marken liefern.

eeden: Die Alchemie der Altkleider

Das Münsteraner Unternehmen eeden verwandelt Textilmüll in hochwertige Rohstoffe. Mit Millioneninvestments baut das Team um Steffen Gerlach und Tobias Börnhorst nun die erste Demonstrationsanlage auf.

Steffen Gerlach saß entspannt mit seinem Schulfreund Reiner Mantsch auf einer Couch in einer Kölner Wohngemeinschaft. Mantsch hatte zuvor an der Universität in Mönchengladbach Textiltechnik studiert. Er berichtete leidenschaftlich von seinen naturwissenschaftlichen Forschungen zur Kreislaufwirtschaft. Dieses Gespräch veränderte Gerlachs gesamte berufliche Planung radikal. Mantsch suchte jemanden für die Marktseite seiner technischen Vision. Gerlach war sofort fasziniert von dem ökonomischen Potenzial. Er wollte wissen, ob man daraus ein echtes Unternehmen formen kann. „Das war der eigentliche Startpunkt für eeden. Wir entschieden uns für einen vollen Fokus auf das Projekt. Und wir wollten das Recyclingproblem der Branche grundlegend lösen“, erinnert sich Gerlach.

Der langsame Weg zum technologischen Durchbruch

Es gab keinen plötzlichen Heureka-Moment in einem winzigen und improvisierten Labor. Die Entwicklung war eher eine gezielte Suche nach einer Problemlösung. Mantsch war früher Leistungssportler und brachte den nötigen Fokus mit. Er sah den Frust seiner Kommilitonen nach Praktika in der Industrie. Die Branche wirkte starr und wenig dynamisch für junge Talente. Das Duo suchte stattdessen nach den Megatrends der Zukunft. „Die Kreislaufwirtschaft kristallisierte sich schnell als das zentrale Thema heraus. Ich habe die Marktseite intensiv analysiert und viele Gespräche geführt“, so Gerlach. Er erkannte die Verknüpfungen zwischen technischer Machbarkeit und ökonomischen Anforderungen. Die Suche nach dem technologischen Sweetspot dauerte Monate. Am Anfang stand lediglich die reine Faszination für das Recycling. Es war ein schleichender Prozess mit vielen Etappenentscheidungen.

Die wachsende Last der globalen Fast Fashion

Das Umweltproblem der globalen Textilindustrie ist mittlerweile gewaltig. Die Branche verdoppelt ihren Durchsatz alle 20 bis 30 Jahre. Jährlich werden mittlerweile mehr als 120 Mio. Tonnen Textilien produziert. Nach Angaben der Ellen MacArthur Foundation werden weltweit ungefähr zwei Drittel dieser Mengen praktisch direkt nach der Nutzung entsorgt; sie landen auf riesigen Deponien oder werden ungenutzt verbrannt. In Deutschland steht das klassische Rücknahmesystem laut Experten vor dem Kollaps. Es gibt nach seiner Aussage derzeit eine gestiegene Anzahl an Insolvenzen bei Sammel- und Sortierbetrieben. Die Qualität der Kleidung sinkt durch den Trend zur Fast Fashion massiv. Der Wiederverkauf der gebrauchten Ware lohnt sich oft nicht mehr. Neuware aus Asien ist meistens günstiger als Second Hand-Stücke aus Europa. In Deutschland verursacht die Entsorgung einer Tonne Altkleider zudem Kosten – das Material wird somit zur finanziellen Belastung für die Sammel- und Sortierbetriebe.

Chemische Trennung als industrieller Schlüssel

Das Unternehmen aus Münster setzt genau an diesem Punkt an. Die Technologie ermöglicht die Trennung von Baumwolle und Polyester und macht beide Materialien wieder nutzbar. Das ist entscheidend für den Erfolg der Kreislaufwirtschaft. Die meisten Textilien bestehen heute aus komplexen Mischgeweben. Gerlach erklärt, dass das Unternehmen aus dem Abfall eine hochwertige Cellulose und chemische Bausteine für neues Polyester gewinnt. Die Cellulose dient als sauberes Vorprodukt für die neue Faserherstellung. Das Polyester wird in seine Grundbausteine zerlegt, die für die Herstellung von neuem Polyester verwendet werden können. „Wir stellen aus Baumwolle eine hochwertige Cellulose her und gewinnen aus dem Polyester die chemischen Bausteine zurück“, sagt Gerlach. Beide Materialströme können direkt wieder in der Textilproduktion eingesetzt werden. Damit wird der Kreislauf zwischen Abfall und Kleidung geschlossen. Seit Anfang 2025 hilft zudem eine neue gesetzliche Regelung. Die EU-weite Getrenntsammlungspflicht für Textilabfälle ist in Kraft getreten: Unternehmen dürfen Textilien nun nicht mehr über den Restmüll entsorgen. Das sichert den Zugang zu großen Mengen an Rohstoffen.

Harte Verhandlungen in der Welt des Wagniskapitals

Der Weg von der ersten Idee zur fertig gebauten Industrieanlage ist lang. Deeptech-Unternehmen brauchen oft viel Geduld und Zeit für die Entwicklung. Das erfordert Investoren mit einem sehr langen Atem. In einer frühen Phase kam der High-Tech Gründerfonds an Bord. Auch die NRW.Bank und der TechVision Fonds unterstützen das Vorhaben. Später stiegen Forbion und der Chemiekonzern Henkel als Investor ein. Gerlach erinnert sich im Gespräch an einen intensiven Lernprozess bei den ersten Finanzierungsrunden. Man müsse technische Begeisterung mit harten Umsatzprognosen anreichern. Auch D11Z.Ventures, das Family Office von Dieter Schwarz (Lidl/Kaufland), investierte in das Unternehmen. Die Investoren verstehen laut Gerlach die Entwicklungszyklen und Skalierung von Deeptech-Unternehmen. Mittlerweile flossen über 20 Mio. EUR an Kapital in die Firma. Dieses Geld ermöglicht nun den nächsten großen Schritt.

Ein neues Team für die industrielle Skalierung

Das Start-up ist mittlerweile den Kinderschuhen entwachsen. In Münster entsteht derzeit eine industrielle Demonstrationsanlage. Gerlach erinnert sich an den Moment der Schlüsselübergabe: Zuerst wirkte die leere Halle riesig auf das Team. Inzwischen planen die Ingenieure bereits jeden Zentimeter der Fläche. Das Team ist auf über 25 Köpfe gewachsen. Es ist eine Mischung aus jungen Talenten und erfahrenen Kräften. Viele Mitarbeitende wechselten von großen Konzernen wie BASF nach Münster. Gerlach beobachtet eine große Lust auf die Arbeit an innovativen Prozessen. Die flachen Hierarchien im Unternehmen ziehen Experten an. Er schätzt das Know-how dieser Fachkräfte für den Anlagenbau. Erfahrene Chemiker bringen eine neue Qualität in die Prozesse. Die Zusammenarbeit zwischen Alt und Jung funktioniert hervorragend.

Führung zwischen Agilität und unternehmerischer Verantwortung

Die Unternehmenskultur hat sich mit der Größe weiterentwickelt. Gerlach betont, dass viele Impulse direkt aus der Belegschaft kommen. So wurde die Regelung für die Präsenz im Büro gemeinsam erarbeitet. Die Mitarbeitenden wünschten sich feste Tage für den Austausch. „Die schönsten Tage sind jene mit viel Begegnung“, berichtet Gerlach. Die bürokratischen Pflichten eines Geschäftsführers gehören einfach dazu. Trotzdem bleibt die Mission der Firma der wichtigste Treiber. Die Motivation im gesamten Team sei extrem hoch. Jeder packt an und treibt das Unternehmen voran. Der Spagat zwischen Entwicklung und Business ist fordernd. Gerlach jedoch genießt diese tägliche Herausforderung sehr.

Der Standort Deutschland als Zentrum für Innovation

Viele Fachleute kritisieren die Bedingungen für die Chemieindustrie. Hohe Energiekosten belasten die traditionsreichen Unternehmen stark. Gerlach sieht das differenzierter aus der Perspektive von innovativen Start-ups: „Für die Entwicklung neuer Technologien ist der Standort Deutschland weiter exzellent. Und die Qualifikation der Technologen ist hervorragend. Die aktuelle Krise führt bei uns auch zu Bewerbungen von erfahrenen Talenten aus der chemischen Industrie – die hätte es vor einigen Jahren in der Menge nicht gegeben.“ Die vorhandene Infrastruktur sei ein klarer Vorteil. Auch Konzerne beobachten solche Innovationen genau. Die Nähe zum Mittelstand fördert zudem die Skalierung. Für die beiden Gründer ist die aktuelle Produktionsanlage nur ein Anfang. Langfristig soll die Technologie weltweit lizenziert werden; überall auf der Welt fällt schließlich Textilmüll an. Die Kombination aus Ingenieurskunst und Skalierung ist das Ziel. Auch die aktuellen Investoren von eeden sehen dieses globale Potenzial. Das Unternehmen will beweisen, dass sich Kreislaufwirtschaft lohnt. Deutschland bleibt dafür ein wichtiger Ankerpunkt.

Wenn Macht zu früh zu groß wird

Serie: Führen im Start-up, Teil 4: Warum schnelles Wachstum ohne Reife zur strukturellen Gefahr werden kann.

Über Wachstum wird viel gesprochen. Über Macht kaum. Start-ups lieben das Narrativ der Geschwindigkeit. Funding-Runden, Skalierung, Expansion, neue Märkte. Jede Phase wird gefeiert.

Was seltener thematisiert wird: Mit jedem Wachstumsschritt steigt nicht nur die Komplexität. Es steigt auch die Macht derjenigen, die entscheiden.

In der Frühphase ist Macht funktional. Gründer*innen tragen Risiko, treffen schnelle Entscheidungen, halten das Unternehmen zusammen. Ohne diese Verdichtung gäbe es kein Vorankommen. Problematisch wird es erst, wenn Macht schneller wächst als die Fähigkeit, mit ihr umzugehen.

Der unsichtbare Wendepunkt

Solange ein Start-up klein ist, wird persönliche Autorität als Führung erlebt. Nähe ersetzt Struktur. Entscheidungen fallen direkt, informell, schnell.

Doch mit Wachstum verändert sich der Kontext. Neue Mitarbeitende kommen hinzu. Führungsebenen entstehen. Verantwortung wird delegiert. Gleichzeitig bleibt die Entscheidungslogik oft personenzentriert.

Klarheit kann dann zu Dominanz werden. Geschwindigkeit zu Intransparenz. Nähe zu Abhängigkeit. Nicht, weil sich der/die Gründer*in charakterlich wandelt, sondern, weil Macht in einem größeren System anders wirkt als in einem kleinen.

Wie Macht Wahrnehmung verschiebt

Sozialpsychologische Forschung beschreibt seit Jahren einen bekannten Effekt: Mit wachsendem Einfluss steigt das Vertrauen in die eigene Einschätzung. Gleichzeitig sinkt die Sensibilität für widersprechende Perspektiven.

Das geschieht selten bewusst. Je seltener echter Widerspruch erfolgt, desto stabiler wirkt die eigene Sichtweise. In Start-ups wird dieser Effekt verstärkt. Loyalität ist hoch bewertet. Kritik wird schnell als Bremsen interpretiert. Nähe zur Gründungsperson entscheidet häufig über Einfluss.

So entsteht ein stilles Gefälle. Wer irritiert, riskiert Distanz. Wer bestätigt, bleibt im Kreis.

Wenn Governance hinterherläuft

Wachstum erzeugt operative Komplexität. Governance-Strukturen entwickeln sich jedoch oft langsamer als Teamgrößen oder Umsätze.

  • Titel werden vergeben, Rollen bleiben unscharf.
  • Verantwortung wird delegiert, Entscheidungsbefugnisse nicht eindeutig definiert.
  • Feedback wird gewünscht – aber nicht immer geschützt.

So wächst das Unternehmen formal. Informell bleibt es personalisiert.

Solange Ergebnisse stimmen, fällt das kaum auf. Unter Druck wird es spürbar.

Die leisen Symptome

Machtprobleme beginnen selten spektakulär.

  • Widerspruch wird vorsichtiger formuliert.
  • Meetings enden ohne echte Kontroverse.
  • Entscheidungen werden weniger erklärt.
  • Führungskräfte orientieren sich stärker an vermuteten Erwartungen als an eigener Überzeugung.

Nach außen wirkt das Unternehmen effizient. Intern sinkt die Irritationsfähigkeit. Und genau diese Irritationsfähigkeit entscheidet über Innovation.

Warum das wirtschaftlich relevant ist

Unbalancierte Machtstrukturen bremsen nicht sofort. Sie wirken verzögert – aber konsequent.

  • Perspektiven werden homogener.
  • Konflikte wandern in informelle Räume.
  • Talente gehen, wenn sie keinen Einfluss erleben.
  • Strategische Fehlentscheidungen werden später korrigiert – häufig teurer als nötig.

Viele Start-up-Krisen werden als Marktkrisen erzählt. Nicht selten sind es Machtkrisen. Nicht der Wettbewerb war das Kernproblem, sondern die fehlende Gegenstruktur.

Reife als Skalierungskompetenz

Macht ist kein Fehler. Ohne sie gäbe es kein Unternehmertum. Entscheidend ist, ob Macht irritierbar bleibt. Ob sie die Fähigkeit behält, sich stören zu lassen.

Reife Führung bedeutet nicht, weniger zu entscheiden. Reife Führung bedeutet, sich bewusst widersprechen zu lassen.

Das erfordert Strukturen, die nicht nur Loyalität belohnen, sondern Differenz.

  • Ein Beirat mit echter Unabhängigkeit.
  • Klare Entscheidungslogiken.
  • Transparente Rollendefinitionen.
  • Geschützte Räume für Kritik.

Nicht als Misstrauensbeweis, sondern als Stabilitätsfaktor.

Ein unbequemer Schluss

Wachstum ohne Machtreflexion produziert irgendwann Widerstand. Wachstum mit Reife erzeugt Vertrauen. Vielleicht liegt die eigentliche Skalierungsfähigkeit nicht in der Geschwindigkeit, mit der ein Start-up Märkte erobert, sondern in der Fähigkeit, Macht so zu gestalten, dass sie das System stärkt – statt es zu verengen.

Denn Macht verschwindet nicht, wenn man nicht über sie spricht. Sie wirkt trotzdem. Die Frage ist nur, ob bewusst – oder unkontrolliert.

Tipp zum Weiterlesen

Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e

Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5

Der dritte Teil unserer Serie behandelt, warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren. Hier zum Nachlesen: https://t1p.de/v8q2k

Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.

Retourendaten als ungenutztes Potenzial

Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!

Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.

Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.

Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.

Wenn Daten ungenutzt verpuffen

Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.

Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.

Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.

Retourendaten als Marketing-Kompass

Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.

Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.

Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.

Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.

Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.

Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams

Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.

Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.

Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.

Daten bringen nachhaltigen Erfolg

Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.

Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.

Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH


StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster

Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?

  • [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
  • [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
  • [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
  • [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
  • [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
  • [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?

Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.