8 Tools, die jeder Gründer kennen(lernen) sollte.

Autor: Richard O'Grady
44 likes

Wer ein Start-up aufbaut, sollte von Tag eins an ein Fundament an digitalen Tools aufbauen, mit dem kontinuierliche Verbesserungen am Produkt und skalierbares Wachstum möglich sind.

Eine solche “Tool-Kultur” lässt sich nur top-down erzeugen, daher sollten Gründer die effektivsten Tools selbst nutzen und beherrschen, um dieses Wissen dann an ihr Team weitergeben zu können.

Das Ziel ist, dass alle Teammitglieder möglichst autonom arbeiten können und in der Lage sind,

  • über die richtigen Plattformen mit den richtigen Menschen zu kommunizieren
  • skalierbare digitale Prozesse zu schaffen, die starkem Wachstum standhalten
  • sich wiederholende, zeitfressende Aufgaben eigenständig zu automatisieren.

Selbstverständlich unterscheidet sich der konkrete Bedarf an Tools von Branche zu Branche und von Unternehmen zu Unternehmen. Daher erhebt diese Liste keinen Anspruch auf Vollständigkeit, aber sie zeigt, welche grundlegenden Funktionalitäten und Prozesse beinahe jedes Startup mit geeigneten Tools beherrschen sollte.

Slack - Allgemeine Kommunikation

Ein naheliegender Ausgangspunkt. Slack ist ein Kommunikationswerkzeug, das entwickelt wurde, um einen digitalen Workspace durch ein System von Channels zu schaffen, das sich auf bestimmte Themen konzentriert, z.B. #Engineering, #Sales, #Gifs-memes.

Manchmal heißt es, Slack sei wie eine Business-Version von Whatsapp. Es gibt tatsächlich einige Parallelen: Man kann Audio- und Videoanrufe 1:1 oder in Gruppen führen, den Bildschirm gemeinsam nutzen, einen Hinweis erhalten, wenn neue Nachrichten da sind. Aber eigentlich geht der Vergleich an der Sache vorbei. Slack ist eines der revolutionärsten Tools in der heutigen Geschäftswelt. Die meisten Menschen wissen einfach nicht, wie man es richtig einsetzt.

Es ist erstaunlich, wie häufig die folgenden Basics beim Einsatz von Slack NICHT beherzigt werden:

  • Sales-, Marketing-, Engineering- und Produkt-Tools in die jeweiligen Kanäle integrieren.
  • Unterschiedliche Kanäle, Threads und semantische Emoticons korrekt verwenden.
  • Sicherstellen, dass alle Offline-Gespräche oder -Meetings effizient dokumentiert werden.
  • Alle neuen Teammitgliedern klare Kommunikationsrichtlinien an die Hand geben.

Jeder, der es schon einmal in einer Führungsposition war, wird wissen, wie toll es ist, wenn jemand so kommuniziert, wie man es sich wünscht. Sobald alle Teammitglieder in der Lage sind, mit Slack effektiv zu kommunizieren, stellt das Arbeiten von zu Hause oder von unterwegs übrigens keine große Herausforderung mehr dar.

Ähnliche Kommunikations-Tools: Microsoft Teams

Hubspot - CRM-System mit Marketing-Suite

Ein Customer Relationship Management (CRM)-System "ermöglicht es Unternehmen, Geschäftsbeziehungen und die damit verbundenen Daten und Informationen zu verwalten" (Salesforce-Blog). Wenn ein Unternehmen mit der Vermarktung seines Produkts oder seiner Dienstleistung beginnt, versucht es, Informationen über potenzielle Kunden (qualifizierte Leads) zu generieren und zu speichern. Diese Informationen können sich auf den Hintergrund (Name, E-Mail, Stellenbezeichnung) oder das Verhalten einer Person oder eines Unternehmens beziehen (haben sie eine bestimmte E-Mail geöffnet, auf einen Link geklickt, die Webseite aufgerufen).

Eine Datenbank über Personen oder Unternehmen ist notwendig, aber für sich genommen noch nicht hilfreich, wenn es um Automatisierung geht. Was Unternehmen immer wieder versuchen, ist auf der Grundlage bestimmter Hintergründe oder Verhaltensweisen die Automatisierung von Aufgaben zu erreichen, die sonst manuell erledigt werden müssten.

Hier kommt Hubspot und die integrierte Marketing-Suite ins Spiel. Wenn man lernt, damit umzugehen, kann man anfangen, über die Architektur der Datenbank nachzudenken, Persona (Kundensegmente) erstellen und andere Marketinginstrumente (Typeform, Mailchimp, Eventbrite usw.) in die Datenbank zu integrieren.

Die wahre Magie kommt jedoch zum Vorschein, wenn man über Hubspot-Workflows erstellt. Das bedeutet, dass ein bestimmtes Verhalten eine Aktion auslöst (ähnlich wie weiter unten bei Zapier). Zum Beispiel ist ein Kunde, der eine E-Mail öffnet und auf einen bestimmten Inhalt klickt, es wert, eine Folge-E-Mail zu senden, im Gegensatz zu jemandem, der sie gar nicht öffnet.

Das Entscheidende ist, dass man dann beginnt, Marketing-Psychologie als datenbasiert zu begreifen. Mit Hilfe der Daten von Hubspot aus A/B-Tests, der Analyse auf der Webseite, die geöffnet wird, und der Lead-Erfassung per E-Mail wird man in die Lage versetzt, Marketing sowohl aus qualitativer als auch aus quantitativer Sicht zu verstehen. Hubspot hat sogar eine nette kleine "Akademie", in der man etwas über das Tool und einige der Grundlagen dahinter lernen kann: Hubspot-Akademie.

Ähnliche Tools: Salesforce, Marketo, Pipedrive

Figma - Product Design

Jeder in einem digitalen Start-up sollte grundlegende Design-Fähigkeiten haben. Denn unabhängig davon, in welchem Bereich man tätig ist, wird es einen Moment geben, in dem man visuell zeigen muss, was man meint. Man muss kein UI-, UX- oder Grafikdesigner sein. Stattdessen muss man die visuelle Gestaltung gerade genug beherrschen, um bei dem, was man zu erreichen versucht, autonom zu sein.

Figma ist wohl das beste Werkzeug für Design-Neulinge, um ein Design schnell nachbilden zu können. Dies gilt insbesondere für alle, die für ein Unternehmen mit einem digitalen Produkt oder einer digitalen Website arbeiten (was heutzutage quasi jedes Start-up ist!). Wenn man lernt, damit umzugehen, kann man seinem Team unkompliziert die eigene Vision zeigen, einfache Mockups und Prototypen erstellen und die Sprache der Designer sprechen.

Figma ist aus drei Gründen ein erstaunliches Tool. Man kann damit:

  • Zusammenarbeiten - Per E-Mail erhalten Kollegen Zugriff auf ein Design, das dann alle gemeinsam und gleichzeitig im Browser bearbeiten können.
  • Skalieren - Wenn man ein Design für eine Website oder eine Anwendung erstellt, kann man festgelegte Komponenten verwenden, um die Konsistenz des gesamten Designs zu gewährleisten.
  • Prototypen erstellen - Man kann einen Prototyp einer Website oder App erstellen oder daran arbeiten. Man kann dann eine "Live"-Demo davon präsentieren, indem man verschiedene Seiten (sogenannte "Frames") miteinander verknüpft und sie durch Anklicken miteinander verbinden.

Zur Einführung gibt es einige Video-Tutorials von Figma.

Ähnliche Tools: Sketch, Invision

Zapier - Automatisierung

Echte Autonomie erreicht man, wenn man im Unternehmen digitale Aufgaben erledigen kann, ohne sie tatsächlich selbst auszuführen. Dies kann man durch Automatisierung erreichen. Durch die Verbindung von APIs (Application Programming Interfaces) aus verschiedenen digitalen Tools kann man diese über eine festgelegte Logik miteinander kommunizieren lassen.

In vielen Anwendungen sind diese Integrationen bereits eingebaut. Wenn man beispielsweise Typeform verwendet, kann man sich automatisch mit Slack, Google Sheets und Hubspot "verbinden". Da diese APIs jedoch alle spezifische Möglichkeiten zur Strukturierung von Daten haben, ist es für ein Unternehmen mit einer eigenen API so gut wie unmöglich, jede mögliche Integration mit jeder anderen möglichen Anwendung aufzubauen. Wenn ein Nutzer beispielsweise in einem Typeform-Formular Daten einträgt, möchten man vielleicht, dass er automatisch zum CRM hinzugefügt wird, dass er einer Mailingliste hinzugefügt wird, dass er eine E-Mail erhält und dass die relevanten Leute im Team eine Benachrichtigung über Slack erhalten. Doch die Integrationen, die Typeform bietet, gehören möglicherweise nicht zu der spezifischen Anwendung, die man verwendet oder sind nicht in der gewünschten Weise angepasst.

An dieser Stelle kommt Zapier ins Spiel. Man kann es sich wie einen Adapter für mehr als 2000 Anwendungen vorstellen. Man schließt eine Anwendung an eine Seite des Adapters an, und er nimmt die Daten in einer bestimmten Struktur auf. Zapier strukturiert die Daten dann so um, dass man sie in die andere Anwendung importieren und beide effektiv miteinander verbinden kann. Sobald man seine Arbeit auf diese Weise angeht, fängt man an, wie ein Entwickler zu denken. Alles, was sich wiederholt und zeitintensiv ist, kann automatisiert werden. Zapier bietet die Möglichkeit, wie ein Entwickler zu arbeiten, ohne ein Entwickler zu sein!

Häufig fängt man so an, dass man Zapier nutzt, um Integrationen zu testen. Wenn man dann wächst, ersetzt man alle Integrationen in Zapier durch Code, um Kosten zu sparen, da Zapier in großem Maßstab sehr teuer sein kann.

Zapier hat jetzt seine eigene "Universität" (das ist definitiv eine Übertreibung) mit 2-minütigen Videos,  die einen Überblick darüber geben, wann und wie man das Produkt verwenden kann.

Ähnliche Tools: IFTTT, Automate

Notion - Wissensmanagement

Notion ist ein Wissensmanagement-Tool, das von Start-ups verwendet wird, um ihre Ressourcen und Prozesse über verschiedene Abteilungen oder Bereiche hinweg zu strukturieren. Zu wissen, wie man Wissen strukturiert und kommuniziert, ist als Thema eher unsexy. Wenn man es aber richtig macht, führt es zu Teammitgliedern, die etwas selbstständig ausführen, im Gegensatz zu solchen, die um Hilfe bitten müssen und so weniger effizient sind.

Jeder in meinem Team bei Le Wagon weiß, dass ich von Notion besessen bin. Ich nutze es sogar in meinem Privatleben! Die Stärke des Tools besteht darin, dass es bestehende Werkzeuge in einer Plattform kombiniert und es den Nutzern ermöglicht, Wissen auszutauschen und Daten in verschiedenen "Komponenten" zu speichern. Diese Komponenten ermöglichen es, "Seiten" zu erstellen und Informationen mit einer beeindruckenden Nutzererfahrung zu präsentieren. Man kann z.B. Dateien speichern (Google Drive), eine Kanban-Tafel erstellen (Trello), in einer Tabellenkalkulation arbeiten (Excel), Projekte verwalten (Asana), Vorlagen für Meetings pflegen, Kalender erstellen - und die Liste ist sogar noch länger.

Bei Le Wagon waren die größten Vorteile durch Notion folgende:

  • Lokale Prozesse: Da wir in vielen Städten auf der ganzen Welt aktiv sind, haben wir sowohl lokale als auch globale Prozesse. Jede Stadt hat ihren eigenen Bereich, in dem lokale Prozesse erfasst werden können und Wissen ausgetauscht werden kann.
  • Meetings effektiv strukturieren: Jedes Mal, wenn wir ein Meeting durchführen (Abteilungsmeeting, monatliche All-Hands, vierteljährliche Reviews), verwendet die Person, die das Meeting leitet, einen "Vorlagen-Button" und füllt die Details des Meetings aus, bevor es stattfindet. Dies ermöglicht kurze Meetings, die vorher überprüft werden können.
  • Onboarding: Jeder, der bei Le Wagon einsteigt, erhält eine Onboarding-Seite von Notion mit einer übersichtlichen Leseliste zu den unterschiedlichen Prozessen und Informationen zum Team. Man hat dann auch eine To-Do-Liste für die ersten Wochen, die man abhaken muss.
  • Zielüberwachung: Wenn wir unsere OKRs und Team-Roadmaps zusammenstellen, stellen wir sicher, dass diese für alle im Team öffentlich gezeigt werden.

Wie bei Slack ist auch bei Notion das Wichtigste, dass man sich Zeit dafür nimmt, wie man kommuniziert, und dass man lernt, das Tool richtig zu benutzen (Backlinks, Vorlagen-Schaltflächen, Tabellenansichten, es gibt eine Menge zu lernen). Hilfreich ist dieser Youtube-Guide zu Notion.

Typeform - Formulare und Lead-Erfassung

Was ist der einfachste Weg, Feedback zu einem MVP zu erhalten? Was ist der einfachste Weg, Leads zu erfassen? Was ist der einfachste Weg, Bewerbungen zu erfassen? Man baut ein Formular. Das ist eine einfache, aber sehr wichtige Aufgabe. Es ist allerdings erstaunlich, wie viele Gründer ein Formular zusammenstellen, das nicht die richtigen Daten auf die richtige Art und Weise erfasst. Ob es sich nun um Marktforschung, HR-Umfragen oder das Onboarding neuer Partner handelt - das Sammeln von Informationen muss effizient und mit einer guten Benutzererfahrung erfolgen.

Genau hier kam Typeform ins Spiel. Die Gründer von Typeform sahen sich damals die Wettbewerber an und stellten fest, dass der einzige Bereich, der massiv verbessert werden könnte, die Art und Weise war, wie ein Formular aussieht und wie man sich darin fortbewegt. Sie schufen daher einen einfachen, aber leistungsfähigen Formular-Generator, der verschiedenste Arten von Fragen beinhaltet. Für den Empfänger fühlt sich das Ausfüllen des Formulars dann erstens elegant und einfach an und steht zweitens auch im Einklang mit dem optischen Erscheinungsbild der Marke.

Eine wichtige Sache, die es zu lernen gilt, ist das Hinzufügen eines "Logiksprungs". Dies ermöglicht es den Nutzern, abhängig von den Antworten der Empfänger unterschiedliche Fragen zu stellen. Wenn das Formular dann fertig ist, kann man eine Vielzahl von Integrationen verwenden, um das Endergebnis mit anderen Anwendungen wie Google Drive, Hubspot, Slack und vielen anderen zu verbinden.
Wenn man das mal testen möchte, kann man bei Typeform direkt loslegen, denn das Tool ist sehr einfach zu bedienen.

Vergleichbare Tools: SurveyMonkey, Google Forms

Mailchimp - E-Mail-Marketing

Wirklich jeder Gründer sollte wissen, wie man eine Marketing-E-Mail verschickt. Sobald man all die wertvollen E-Mail-Adressen der ersten Leads gesammelt hat, muss man sie pflegen: auf sinnvolle Weise über das Produkt informieren, Upsells anbieten, interessante Inhalte vermitteln.

Zwar ist dies eine der ältesten Formen der digitalen Kommunikation, gleichzeitig aber eine der kosteneffizientesten. Während Hubspot fantastisch ist, um das Nutzerverhalten abzubilden, konzentriert sich Mailchimp auf die massenhafte Zustellung von Marketing-E-Mails an Kundensegmente. Auch Formulare für die Lead-Erfassung stehen zur Verfügung. Viele Startups nutzen Mailchimp in der Anfangsphase, um ihren Nutzerkreis durch Content-Marketing und Produkt-News zu vergrößern. Durch den Erhalt informativer und/oder lehrreicher E-Mails sollen die Benutzer wieder zum Produkt zurückgeführt werden, um sich mit ihm zu beschäftigen.

Im Laufe der Jahre hat Mailchimp auch das Erstellen von Webseiten hinzugefügt und Online-Zahlungen integriert, so dass E-Commerce-Plattformen mit dem Tool in der Frühphase effektiv wachsen können.

Ähnliches Tool: ConstantContact

Front - Kundenkommunikation

Wenn ein MVP an Popularität gewinnt, kann ein überquellender Posteingang zu einem Problem werden. Egal ob interessierte Kunden, die mehr wissen wollen, oder bestehende Nutzer, die einen Fehler melden wollen: Man muss immer effizient mit ihnen kommunizieren können. Wenn ein Startup wächst, wird häufig versucht, den Zeitaufwand für jeden einzelnen Interessenten so gering wie möglich zu halten, indem man Chatbots einsetzt, um Interessenten anzusprechen, Hilfszentren für FAQs einzurichten und Standardantworten für E-Mails festzulegen.

Die Hauptschwierigkeiten für Start-ups bestehen dann meist darin

  • als Marke vertrauenswürdig und in der gesamten Kommunikation konsistent zu sein und
  • den Überblick über alle Kunden zu behalten, indem festgehalten wird, wer mit ihnen spricht und was gesagt wurde.

Front ermöglicht dies durch eine Reihe von Tools, die es einem Team von Kundenservice- oder Vertriebsmitarbeitern ermöglichen, jedem Kontakt bestimmte Personen zuzuordnen und halbautomatische Antworten zu senden. Ziel ist es, die Kundenerfahrung zu verbessern, indem versucht wird, jeden mit einer tatsächlichen menschlichen Antwort zu versorgen (auch wenn hinter den Kulissen alle Vorgänge automatisiert sind). Durch die Möglichkeit, auf einem Account zusammenzuarbeiten und auf Nachrichten und E-Mails von einem Posteingang aus zu antworten, kann jeder innerhalb eines Teams einen Überblick darüber erhalten, wer und was kommuniziert wird. Front hat einen eigenen Blog, der zeigt, wie verschiedene Startups und Unternehmen das Tool nutzen.

Ähnliche Tools: Zendesk, Freshdesk

Der Autor Richard O'Grady stammt ursprünglich aus London, wo er innerhalb der Start-up-Szene vor allem digitale Produkte aufbaute, und kam dann nach Berlin – ursprünglich, um selbst Programmieren zu lernen. Seit mehr als zwei Jahren ist er nun Country Manager, Germany - Le Wagon, Deutschland.

Diese Artikel könnten Sie auch interessieren:

Die digitalen Erntehelfer: Deutschlands AgrarTech-Start-up-Szene 2026

Vom Nischentrend zum Rückgrat der Versorgung: Wie Start-ups die Landwirtschaft mit ihren Innovationen prägen.

Vor Jahren war „Grüne Agrartechnologie“ ein Schlagwort für Visionäre. Heute ist AgTech das Fundament einer krisenfesten Lebensmittelversorgung. In einer Welt geprägt von Extremwetter und strengen ESG-Regulierungen sind Start-ups längst keine experimentellen Ideenlieferanten mehr. Sie fungieren als systemrelevante Partner, die den Landwirt*innen helfen, den Spagat zwischen ökologischer Notwendigkeit und ökonomischem Überleben zu meistern.

Die Intelligenz kommt aufs Feld: Der Markt 2026

Der deutsche AgrarTech-Markt hat in den letzten zwei Jahren seine erste Reifephase abgeschlossen. Während man Anfang des Jahrzehnts noch über einfache Vernetzung sprach, ist künstliche Intelligenz heute der „Standard-Erntehelfer“. Eine aktuelle Analyse des Digitalverbands Bitkom und der DLG zeigt, dass fast die Hälfte aller deutschen Höfe bereits intensiv mit KI-Lösungen arbeitet – bei den Großbetrieben ist es sogar mehr als jeder zweite. Diese Entwicklung spiegelt sich auch in den Finanzströmen wider: KfW Research bezifferte das Investitionsvolumen in deutsche ClimateTech-Start-ups für das vergangene Jahr auf beeindruckende 1,3 Milliarden Euro. Besonders die Automatisierung und das Carbon Farming haben sich dabei von Trendthemen zu echten Geschäftsmodellen entwickelt, die den Landwirt*innen neue, CO2-basierte Einkommensquellen eröffnen.

Jenseits der Robotik: Die neuen Treiber der Agrarwende

Doch die Innovationen gehen 2026 weit über autonome Traktoren hinaus. Im Bereich Agri-BioTech entstehen biologische Pflanzenschutzmittel auf Basis von Mikroben (Biomineralisierung), die chemische Pestizide verdrängen – ein Feld, das von Pionieren wie Bind-X geebnet wurde. Parallel dazu hat die Agri-Photovoltaik den klassischen Flächenkonflikt zwischen Energie und Nahrung gelöst. Dank vertikaler Solarsysteme, wie sie Next2Sun marktreif gemacht hat, wächst das Getreide heute unter dem Schutz von Modulen, die gleichzeitig Strom produzieren. Auch im Stall sorgt LivestockTech für eine stille Revolution: KI-Kameras überwachen das Tierwohl in Echtzeit und senken den Antibiotikaeinsatz drastisch. Gleichzeitig hat sich Vertical Farming gesundgeschrumpft: Die neue Generation fokussiert sich profitabel auf Premium-Nischen wie Erdbeeren oder Medizinalpflanzen.

Lehrgeld und Lerneffekte: Der Reality Check

Dieser Boom war jedoch nicht ohne Opfer. Der Crash von Vertical-Farming-Pionieren wie Infarm dient heute als mahnendes Beispiel für eine ganze Branche. Diese Firmen scheiterten an explodierenden Energiekosten und einer zu komplexen Logistik für margenschwache Massenprodukte. Für Gründerinnen resultieren daraus klare Lektionen: Reine Software-Mentalität scheitert am Acker, wenn die Hardware nicht „landwirtschaftstauglich“ und extrem robust ist. Wer 2026 erfolgreich sein will, muss den „Schmutz-Faktor“ einplanen und Technologien entwickeln, die den Landwirtinnen einen sofortigen, messbaren ROI bieten. AgTech ist kein Lifestyle-Gadget mehr, sondern ein Werkzeug, das im Matsch, bei extremen Witterungen und trotz chronischer Funklöcher durch Edge-Intelligence bestehen muss.

Das deutsche Netzwerk: Hotspots mit Profil

Deutschland hat seine Stärke 2026 in einer einzigartigen Cluster-Struktur gefunden. In Osnabrück verschmilzt die Landtechnik-Industrie mit der KI-Forschung des DFKI zum „AgTech Valley“. München und Freising nutzen die Strahlkraft der TUM für DeepTech und Weltraum-Sensorik, während das Rheinland rund um Jülich zum Zentrum der Bioökonomie aufgestiegen ist. In Berlin schlägt das Herz der ESG-Finanzierung, während Stuttgart durch die Universität Hohenheim die wissenschaftliche Exzellenz bei der Sensorik hält. Die Achse Hannover-Göttingen wiederum nutzt die Messe-Macht der Agritechnica und Inkubatoren wie das RootCamp, um besonders im Bereich LivestockTech neue Maßstäbe zu setzen.

Wer sind die Investor*innen?

Die Finanzierung dieser Transformation ruht auf vier stabilen Säulen, wobei sich die Landschaft der Kapitalgeber massiv professionalisiert hat. Spezialisierte VCs wie Amathaon Capital oder der Green Generation Fund bringen das nötige Branchenwissen mit, während institutionelle Schwergewichte wie Point Nine, HV Capital oder Lakestar die technologische Skalierung finanzieren. Hinzu kommen Corporate VCs von Konzernen wie der BayWa oder KWS Saat, die den Start-ups den direkten Marktzugang zur Landwirtschaft ermöglichen.

Hinter den großen Fondskonstruktionen bewegen sich zudem die Business Angels als unverzichtbares Schmiermittel der frühen Phasen. Hier treffen Impact-Pionierinnen wie Christian Vollmann oder Verena Pausder auf eine neue Generation von „Founder-Angels“, die ihr Kapital nun in die planetare Gesundheit reinvestieren. Besonders spannend ist 2026 das Aufkommen von „Agri-Insider-Syndikaten“: Zusammenschlüsse erfahrener Landwirtinnen und mittelständischer Zulieferer, die über Netzwerke wie die Business Angels Region Stuttgart (BARS) oder Plattformen wie Companisto agieren.

Den Boden bereiten schließlich weiterhin Frühphasen-Motoren wie der HTGF und spezialisierte Acceleratoren wie das RootCamp, die das erste Risiko auf dem Weg vom Labor zum Feld tragen.

Zehn AgTech-Start-ups, die von sich reden machen

Die AgrarTech-Landschaft 2026 ist dynamischer denn je. Für unseren Report haben wir über 50 aktive deutsche Start-ups analysiert. Die Auswahl erfolgte nach einer gewichteten Matrix aus Marktrelevanz, technologischem Reifegrad, Sektor-Diversität und dem Vertrauen namhafter Investor*innen. Die folgende Liste bildet einen Mix aus etablierten „Leuchtturm-Projekten“ und hochspannenden Newcomern ab.

Klim (Berlin) – Die Pioniere des Carbon Farming

Gegründet im Jahr 2020 von Dr. Robert Gerlach, Nina Mannheimer und Adiv Maimon, hat sich Klim zum führenden Insetting-Marktplatz entwickelt. Das Geschäftsmodell basiert auf einer B2B-Plattform, über die Lebensmittelkonzerne für die Dekarbonisierung ihrer Lieferketten bezahlen. Klim nutzt diese Gelder als Prämie für Landwirte und macht regenerative Landwirtschaft so zertifizierbar. Mit einer kürzlich abgeschlossenen, gewaltigen Series-A-Finanzierung von 22 Millionen US-Dollar – angeführt von BNP Paribas – gilt das Team als absoluter Vorreiter für grüne Lieferketten in Europa.

Constellr (Freiburg) – Der Fiebermesser der Erde

Dieses Spin-off des Fraunhofer EMI wurde 2020 von Dr. Max Gulde, Marius Bierdel und Christian Mittermaier ins Leben gerufen. Constellr bietet „Data-as-a-Service“ an: Agrarkonzerne und Versicherer abonnieren hochpräzise Daten thermaler Infrarot-Mikrosatelliten. Der USP liegt in der weltweit einzigartigen Temperaturmessung der Erdoberfläche, die Trockenstress bei Pflanzen identifiziert, bevor er sichtbar wird. Dank einer massiven Series-A-Runde im Februar 2026 beläuft sich die Gesamtfinanzierung des Teams mittlerweile auf rund 75 Millionen Euro. Mit dem frischen Kapital von Lead-Investoren wie Lakestar und Alpine Space Ventures (sowie frühen Unterstützern wie Amathaon Capital) skaliert das Start-up seine Satellitendaten nun neben der Landwirtschaft auch hochprofitabel in den europäischen Verteidigungs- und Sicherheitssektor.

feld.energy (München) – Agri-PV neu gedacht

Das von Dr. Adrian Renner und Lukas Zels im Jahr 2022 gestartete Start-up feld.energy fungiert als Full-Service-Projektentwickler für Agri-Photovoltaik. Das Geschäftsmodell kombiniert für Landwirte eine risikofreie Flächen-Doppelnutzung mit einem lukrativen Pachtmodell: feld.energy plant, baut und betreibt die Anlagen, während die Höfe garantierte Pachteinnahmen erzielen. Landwirt*innen erhalten so einen unkomplizierten Zugang zu Systemen, die Strom und Ernte auf derselben Fläche ermöglichen. Im September 2025 sicherte sich das Team eine Seed-Runde von über 10 Mio. Euro unter der Führung von HV Capital, um den Rollout dieses Modells in Deutschland massiv zu beschleunigen.

Nature Robots (Osnabrück) – Autonomie ohne GPS

Dr. Sebastian Pütz, Sven Lake und Gerrit Woeckner gründeten Nature Robots 2022 als Spin-off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), um die Feldrobotik zu revolutionieren. Ihr Modell setzt auf Softwarelizenzierung: Die smarte KI-Navigation wird an Landmaschinenherstellerinnen lizenziert oder als Abo-Modell für Endkund*innen angeboten. Der technologische Durchbruch liegt in der 3D-Navigation für komplexe Umgebungen wie den Weinbau oder Agroforstsysteme, die komplett ohne GPS-Signal funktioniert. 2025 erhielt das Start-up eine gewaltige Förderung in Höhe von 6,5 Millionen Euro durch den EU EIC Accelerator.

Twogee Biotech (München/Martinsried) – Zirkuläre Biomasse

Als einer der jüngsten Player in der Liste starteten Frank Wallrapp und Helge Jochens 2024 Twogee Biotech. Ihr B2B-Modell umfasst die Produktion und Lizenzierung maßgeschneiderter Enzymlösungen zur Aufbereitung agrarischer Reststoffe. Sie industrialisieren zirkuläre Systeme, um aus Abfällen nachhaltige 2G-Rohstoffe (insbesondere Zucker) für die chemische Industrie zu generieren. Im Januar 2026 schloss das Team eine Seed-Finanzierung über 2,16 Mio. Euro ab, an der unter anderem der HTGF und Bayern Kapital beteiligt sind.

VetVise (Hannover) – KI für das Tierwohl

Das von Johannes Schmidt-Mosig, Jakob Wendt und Norman Caspari im Jahr 2020 gegründete Start-up nutzt Deep Learning zur Stall-Überwachung. Über ein „Hardware-enabled SaaS“-Modell zahlen Betriebe eine monatliche Abo-Gebühr für die KI-Auswertung installierter Kameras. VetVise  erkennt Krankheiten und Stress bei Schweinen und Geflügel rund um die Uhr, oft mehrere Tage bevor Symptome für den Menschen sichtbar sind. Das Start-up wird strategisch durch ein Millionen-Investment von LV digital (Landwirtschaftsverlag) unterstützt, um die internationale Skalierung voranzutreiben.

hexafarms (Berlin) – KI für Gewächshäuser

Gegründet 2021 von David Ahmed und Ilias Attici, optimiert hexafarms die Indoor-Produktion. Über ein B2B-SaaS-Modell abonnieren Gewächshausbetreiber*innen eine Software, die das Pflanzenwachstum exakt vorhersagt. Der USP liegt in der drastischen Reduktion von Ernteverlusten und einer Ertragssteigerung von bis zu 30 % durch präzise Algorithmen. Das Team konnte nach einer ersten Pre-Seed-Runde Ende 2025 eine signifikante Seed-Finanzierung über 6 Mio. Euro einsammeln, angeführt von Speedinvest, um die KI-gestützte Ernteprognose global zu skalieren.

Root Global (Berlin) – Das Betriebssystem für grüne Lieferketten

Eric Oancea und Maurice Hensl entwickelten 2022 das „RootOS“, ein B2B-SaaS-Modell für die Lebensmittelindustrie. Die Software berechnet den Product Carbon Footprint (PCF) vollautomatisiert und in Echtzeit – ein entscheidender Faktor, um die komplexen Scope-3-Emissionen vom Bauernhof bis zum Verkaufsregal transparent zu machen. Mit einer Seed-Runde von 8 Mio. Euro durch Point Nine Capital im August 2024 gilt Root Global heute als technisches Rückgrat für die ESG-Compliance großer Molkereien und Lebensmittelkonzerne.

vGreens (Essen) – Vertical Farming 2.0

Das Team um Dr. Maximilian Hartmann, Claas Ahrens, Dr. Stefan Hey und Dr. Caspar Krampe beweist seit 2022, dass Indoor-Farming technologisch und wirtschaftlich profitabel ist. Ursprünglich als Premium-Produzent gestartet, basiert das heutige B2B-Modell auf der Lizenzierung ihrer „vGreensLab“-Software und dem Verkauf automatisierter Industriemodule. Dank hocheffizienter KI-Klimamodelle und Hyperspektralkameras identifiziert das System den Bedarf jeder einzelnen Pflanze in Echtzeit. vGreens ist mehrfach ausgezeichnet, unter anderem mit dem NEXT GEN UNICORN Award, und skaliert seine Technologie aktuell über eine Tochtergesellschaft in Singapur auf den asiatischen Markt.

Hula Earth (München) – Biodiversität messbar machen

Florian Geiser und David Schmider starteten 2023 mit dem Ziel, Artenvielfalt quantifizierbar zu machen. Als „Data-as-a-Service“ bieten sie Unternehmen rechtssichere Biodiversitäts-Daten für das ESG-Reporting an. Ihr USP ist die Kombination aus eigenen „BioT“-IoT-Sensoren, Bioakustik zur Tierstimmen-Erkennung und Satellitendaten, um verifizierbare Biodiversitäts-Zertifikate zu ermöglichen. Ende 2024 sammelte Hula Earth eine Pre-Seed-Runde von 1,6 Mio. Euro unter der Führung von Point Nine Capital ein, um die weltweit erste Echtzeit-Plattform für Natur-Investments zu skalieren.

Der Blick über den Tellerrand

Abschließend zeigt der Blick ins Ausland, was uns morgen erwartet. In Israel und Kalifornien wird WaterTech durch KI-gesteuerte Smart-Irrigation zur Präzisionsdisziplin erhoben, während in den USA die Genschere CRISPR nach der neuen EU-NGT-Regulierung nun auch in Europa für einen Milliardenmarkt bei klimaresilientem Saatgut sorgt. In Indien boomen Smart-Contract-basierte parametrische Versicherungen, die bei Dürre-Ereignissen automatisiert via Satellitendaten auszahlen, und Singapur treibt die Precision Fermentation voran, um hochwertige Proteine und Fette ressourcenschonend in Bioreaktoren zu brauen.

Fazit: AgTech ist erwachsen geworden

Der Agrar-Sektor ist 2026 das Epizentrum der Climate-Tech-Bewegung. Die Gewinner*innen sind jene, die robuste Hardware mit intelligenter Software und tiefer Biotechnologie kreuzen. Die „Grüne Agrartechnologie“ ist kein bloßes Versprechen mehr – sie ist die hocheffiziente, datengetriebene Realität unserer Ernährungssicherung.

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.

KI-Müdigkeit im Team? Warum Friction-Maxxing jetzt die Antwort ist

Nach all der Euphorie über KI-Tools macht sich bei immer mehr Menschen eine gewisse KI-Müdigkeit breit. Die Technologie hat die Arbeitswelt im Sturm erobert – doch in Unternehmen wachsen die Zweifel: Macht KI wirklich alles einfacher oder trägt sie sogar zu sinkendem Engagement bei? Dr. Arne Sjöström von Culture Amp erklärt, warum Unternehmen jetzt auf Friction-Maxxing setzen sollten.

Friction-Maxxing ist ein Trend aus dem Lifestyle-Bereich, der jedoch auch großes Potenzial für die Arbeitswelt und den strategischen Einsatz von KI in Unternehmen hat. Gemeint ist damit ein Verhalten, bei dem man bewusst mehr kleine Hindernisse und Hürden in Arbeitsprozessen akzeptiert.

Der große Vorteil: Durch eine bewusste Verzögerung wird das Urteilsvermögen geschärft, das Engagement vertieft und die mentale Resilienz der Mitarbeitenden gestärkt.

Friction-Maxxing als Gegengewicht zur KI-Dominanz

Insbesondere für Führungskräfte und das mittlere Management bietet Friction-Maxxing die Möglichkeit, produktive Reibung in Entscheidungsprozesse zurückzubringen. Durch die Rückkehr zu mehr persönlichen Begegnungen und analogen Arbeitsabläufen entstehen Dinge, die in digitalen Formaten schlicht verloren gehen:

  • Konzentrierte Aufmerksamkeit.
  • Psychologische Sicherheit.
  • Wichtige nonverbale Signale.

Persönliche Begegnungen ermöglichen einen konstruktiven Austausch und helfen Teams dabei, ein gemeinsames Verständnis von Qualität zu entwickeln. Am Ende geht es nicht darum, unnötige Hürden aufzubauen, sondern das richtige Maß an „Reibung“ zu gestalten: Analoges für einen besseren Umgang mit Ambiguität, Kreativität und richtungsweisenden Entscheidungen – Digitales für die Umsetzung.

Fokus und Sinnhaftigkeit zurückerobern

Positive Reibung kann als dringend benötigtes Gegengewicht zur KI-getriebenen Beschleunigung in der Arbeitswelt fungieren und den Fokus wiederherstellen. Sei es durch das gründliche, manuelle Überdenken eines Briefings oder den bewussten Wunsch nach persönlichem Austausch anstelle eines asynchronen Chats. Wer sich Zeit zum Denken, Begegnen und Gestalten zurückerobert, ermöglicht es Teams, sich wieder mit ihrem eigentlichen Auftrag und ihren Ansprüchen zu verbinden – Qualitäten, die KI-Automatisierung allein niemals erreichen kann.

Dieses geänderte Verhalten führt zu mehr Präsenz, weniger Angst und einem gestärkten Gefühl der Kontrolle. Der bewusst gewählte, nur scheinbar umständlichere Weg kann somit zu mehr Autonomie und tieferer Zufriedenheit am Arbeitsplatz beitragen.

Ein Plädoyer für intentionale Reibung

Die Aufgabe moderner Führungskräfte ist es daher, bei menschenzentrierten Tätigkeiten ganz bewusst sogenannte intentionale Reibung herbeizuführen und KI parallel dazu zu nutzen, den täglichen administrativen Arbeitsaufwand zu minimieren.

Unternehmen müssen klar benennen, wo KI ihre Stärken hat und eingesetzt werden soll – und wo menschliche Fähigkeiten wie Empathie, Urteilsvermögen und kritisches Denken absolut unersetzlich sind. So gibt man Mitarbeitenden die Möglichkeit, sich auf die Arbeit zu konzentrieren, die wirklich zählt und echten Mehrwert schafft.

Friction-Maxxing ist somit weniger ein Plädoyer gegen die Technologie, sondern vielmehr ein Aufruf zur Intentionalität: Dem bewussten Abwägen darüber, wann Prozesse automatisiert werden sollten und wann gerade der Widerstand den entscheidenden Unterschied machen kann.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp. Sein Schwerpunkt liegt in der Organisationspsychologie und der angewandten Forschung.

Amba: Der Schlüssel zum Digital Detox

Drei Stunden und 19 Minuten – so lange hängen junge Erwachsene täglich auf Social Media, oft völlig unbewusst. Das Kölner Start-up Amba will diesen Scroll-Automatismus nun mit einem simplen haptischen Trick durchbrechen: Ein NFC-Schlüsselanhänger erzwingt eine physische Hürde. Doch kann das Konzept im Alltag wirklich bestehen?

Das 2025 von Yves Maurice Clever und Bastian Fischer gegründete Kölner Start-up Amba positioniert sich mutig im umkämpften Digital-Wellbeing-Markt. Statt auf strenge App-Verbote zu setzen, wollen die beiden 27-Jährigen das unbewusste Dauer-Scrollen auf Social Media mit einem physischen Schlüsselanhänger stoppen. Angesichts einer durchschnittlichen Social-Media-Nutzungsdauer von drei Stunden und 19 Minuten bei jungen Erwachsenen – wovon viel Zeit für rein gewohnheitsmäßiges Scrollen draufgeht – zielt Amba darauf ab, dieses Muster durch eine haptische Hürde zu durchbrechen.

Yves, der in Neuss Marketing studierte, beschäftigt sich schon lange mit digitaler Achtsamkeit, während Bastian als Informatiker das technische Know-how aus der Softwareentwicklung mitbringt. Angetrieben aus dem eigenen Frust über gängige Software-Lösungen, die sich mit wenigen Klicks umgehen ließen, begannen sie im Sommer vergangenen Jahres mit der Produktentwicklung, bevor im Oktober 2025 die offizielle Gründung in Köln folgte.

Haptik schlägt Habit

Doch wie verhindert man, dass der Griff zum NFC-Chip nicht bald zur nächsten unbewussten Gewohnheit wird? „Unbewusstes Scrollen funktioniert so gut, weil alles in derselben Bewegung passiert: Man nimmt das Handy in die Hand und ist sofort in der App“, analysiert Mitgründer Bastian. Ein physisches Element unterbreche genau diesen Automatismus.

Der entscheidende Vorteil gegenüber klassischer Software liege im Timing, so Bastian weiter: „Bildschirmzeit-Limits erscheinen meist erst im Scroll-Moment, wenn viele schon im Autopilot sind und sie reflexartig wegklicken. Bei Amba fällt die Entscheidung vorher.“ Nach dem haptischen Entsperren legen die Nutzer*innen fest, wie viel Zeit sie in der App verbringen möchten. Bastian betont: „Dieser kleine mentale Rahmen macht Social Media wieder zu einer bewussten Entscheidung statt zu einer Gewohnheit.“ Erste Tests scheinen den Gründern recht zu geben: Eigenen Angaben zufolge sei die Social-Media-Nutzung der Tester auf durchschnittlich 49 Minuten pro Tag gesunken.

Das Hardware-Paradoxon und die Konkurrenz

Der Ansatz der „Intentional Friction“ ist clever, doch der Markt verzeiht keine Fehler. Mit dem niederländischen Start-up Unpluq existiert bereits ein etablierter Konkurrent mit einem fast identischen NFC-Konzept. Yves sieht den Unterschied seines Produkts vor allem in der Systematik. „Viele bestehende Lösungen [...] funktionieren nach dem Prinzip: Man hält den Tag ans Smartphone, um Apps zu sperren, und deaktiviert die Sperre später wieder. Wir haben die Logik umgedreht“, kontert Yves. Bei Amba seien die Apps standardmäßig gesperrt und würden erst durch den Schlüssel freigeschaltet.

Zudem wolle man sich über eine extrem niedrige Einstiegshürde abheben: „Deshalb kostet der physische Tag bei uns nur einen symbolischen Euro und Nutzer können Amba zwei Wochen lang testen“, erklärt Yves den aggressiven Markteinstieg.

Der Kampf gegen die Abo-Müdigkeit

Dennoch muss sich Amba langfristig beweisen, insbesondere da laut einer ExpressVPN-Umfrage 38 Prozent der Konsument*innen explizit unter „Abo-Müdigkeit“ leiden. Ob die Nutzerschaft dauerhaft bereit ist, knapp 20 Euro im Jahr für einen softwarebasierten Verzicht zu zahlen, bleibt abzuwarten.

Bastian räumt offen ein: „Mit den physischen Tags verdienen wir tatsächlich kein Geld, sie decken lediglich die Produktionskosten.“ Er ist jedoch überzeugt, dass die Abo-Investition für die Nutzer*innen unverzichtbar bleibt, da das Suchtpotenzial der Apps nicht verschwinde. „Social-Media-Plattformen sind bewusst so gestaltet, dass sie möglichst lange Aufmerksamkeit binden. Viele Nutzer berichten uns, dass sie nach kurzer Zeit wieder in alte Muster zurückfallen, sobald sie die Unterstützung entfernen“, warnt Bastian. Das Ziel sei daher keine einmalige „Detox“-Kur, sondern ein Rahmen, um die Nutzung „langfristig kontrollierter zu gestalten“.

Technischer Flaschenhals zum Start

Erschwerend kommt aktuell ein stark restriktives System hinzu: Durch die Begrenzung auf das Betriebssystem iOS 18 bleiben der gesamte Android-Markt sowie Besitzer*innen älterer Apple-Geräte vorerst kategorisch ausgeschlossen. „Die aktuelle Einschränkung auf neuere iOS-Versionen hat vor allem technische Gründe“, verteidigt Yves diesen harten Schnitt. Einige NFC-Funktionen liefen auf älteren Systemen schlichtweg noch nicht stabil genug. Eine Android-Version sei geplant, befinde sich aber noch nicht in der Entwicklung.

Und was passiert, wenn man den rettenden Chip zu Hause vergisst und komplett blockiert ist? Yves beschwichtigt: Für solche Fälle gebe es eine Notfallfunktion in der App, die eine temporäre Entsperrung erlaube. Er verspricht: „Amba soll eine bewusste Hürde schaffen, aber keine Situation, in der Nutzer komplett von ihrem Smartphone abgeschnitten sind.“

Letztlich wandert das Kölner Start-up auf dem schmalen Grat zwischen Achtsamkeit und Deinstallation. Der Erfolg steht und fällt mit dem Hardware-Paradoxon: Nur wenn die Community den Schlüsselanhänger langfristig als befreiendes Werkzeug und nicht als frustrierende Barriere wahrnimmt, wird sich das subventionierte Abo-Modell gegen die Platzhirsche rentieren.

Unchained Robotics auf dem Sprung in die „Champions League“ der Industrielogistik

Der Logistikkonzern Arvato beteiligt sich an Unchained Robotics und ebnet dem Paderborner Start-up den direkten Weg in die internationale Industrielogistik. Wir analysieren, wie dieser Deal den Markt aufmischt und welche strategischen Skalierungs-Learnings B2B-Gründer*innen daraus ziehen können.

Für Gründer*innen im Hardware- und Robotik-Bereich ist der Sprung von der Technologieentwicklung in den industriellen Masseneinsatz oft die größte Hürde. Bisher adressierte Unchained Robotics mit seiner Plattform vor allem kleine und mittelständische Betriebe in Europa. Durch die enge Verzahnung mit der Bertelsmann-Tochter Arvato validiert das Start-up seine Technologie nun im industriellen Großmaßstab.

Arvato plant, in den kommenden Jahren eine dreistellige Anzahl von Robotern in unterschiedlichen operativen Umgebungen zu implementieren. Dieses Volumen schafft Erfahrungswerte und Standards, die Unchained Robotics gegenüber Mitbewerbern einen deutlichen Skalierungsvorteil verschaffen dürften. Neue Lösungen können fortan direkt entlang konkreter Use Cases im echten Betrieb erprobt und für den breiten operativen Rollout vorbereitet werden.

Plattform-Strategie und strategische Einordnung im Wettbewerb

Der deutsche Robotik-Markt ist stark umkämpft und von unterschiedlichen Lösungsansätzen geprägt. Während einige Start-ups auf die Entwicklung eigener Hardware setzen, fokussiert sich Unchained Robotics auf die softwareseitige Integration, insbesondere durch ihr Betriebssystem. So setzt beispielsweise das Münchener Start-up RobCo auf eigene, physische und modulare Hardware-Roboterarme, wohingegen Unchained strikt modular und herstellerunabhängig agiert.

Auch im Vergleich zu WAKU Robotics aus Berlin, die mit einem Marktplatz und eigener Software einen starken Fokus auf mobile Logistikroboter (AMR/AGV) legen, decken die Paderborner breitere Pick-and-Place-Anwendungen ab. Gegenüber Unternehmen wie Magazino (gehört zu Jungheinrich), die auf spezialisierte autonome Logistik-Roboter und Eigenentwicklungen für spezifische Prozesse fokussiert sind, grenzt sich Unchained durch seinen offenen, plattformbasierten Ansatz ab.

Diese strategische Positionierung erweist sich nun als maßgeblicher Hebel. Für einen globalen 3PL-Dienstleister wie Arvato wäre die Bindung an nur einen Hardware-Hersteller zu starr. Durch die Unabhängigkeit von Unchained Robotics lassen sich Lösungen flexibel für reale Logistik- und Fulfillment-Prozesse maßschneidern.

Der „Huckepack“-Vorteil bei der US-Expansion

Ein weiterer kritischer Faktor für die künftige Marktstellung des Start-ups ist die Internationalisierung. Üblicherweise erfordert der Sprung über den Atlantik für deutsche Tech-Gründer enorme Summen und den langwierigen Aufbau eigener Vertriebsstrukturen.

Unchained Robotics wählt eine effizientere Route: Neben europäischen Standorten eröffnet die Partnerschaft den direkten Zugang in internationale Märkte, insbesondere in die USA. Das Start-up expandiert quasi „huckepack“ über die bestehenden, hochkomplexen Logistik-Setups von Arvato. Gerade in den USA, wo hohe Automatisierungsanforderungen auf dynamische E-Commerce-Strukturen treffen, sichert dies einen schnellen und praxisnahen Markteintritt.

Automatisierung ohne „Raketenwissenschaft“

Für den Logistikkonzern steht bei dem Deal vor allem die rasche operative Umsetzung im Vordergrund: Automatisierung müsse heute in erster Linie schnell wirken, so Arvato-CEO Frank Schirrmeister.

Dies zahlt direkt auf die ursprüngliche Vision von Unchained Robotics ein: Die Paderborner sind angetreten, um zu beweisen, dass industrielle Automatisierung längst keine „Raketenwissenschaft“ mehr ist. Durch den Arvato-Deal erhält das Start-up nun die Möglichkeit, diesen Anspruch von der Konzeption bis zur Inbetriebnahme im globalen Großmaßstab unter Beweis zu stellen.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem Deal zwischen Unchained Robotics und Arvato lassen sich drei handfeste strategische Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Orchestrierung schlägt Vendor-Lock-in

Gerade im Hardware- und Maschinenbau neigen Start-ups dazu, eigene proprietäre Systeme zu entwickeln. Unchained Robotics zeigt den Wert des Plattform-Gedankens: Corporates hassen den „Vendor-Lock-in“ (die Abhängigkeit von einem einzigen Hersteller).
Learning: Wer sich als herstellerunabhängige, modulare Software- oder Integrationsschicht positioniert, macht sich für Konzerne, die flexibel bleiben müssen, weitaus attraktiver als der Anbieter einer isolierten Einzellösung.

2. Die „Huckepack“-Expansion (Piggybacking)

Der teuerste und riskanteste Schritt für deutsche B2B-Start-ups ist oft die Internationalisierung – insbesondere in die USA. Anstatt Millionen an VC-Geldern in den Aufbau eigener US-Vertriebs- und Servicestrukturen zu verbrennen, nutzt Unchained Robotics die bestehende Infrastruktur seines strategischen Partners.
Learning: Sucht gezielt nach Kund*innen oder Investor*innen, deren eigene globale Logistik oder Infrastruktur ihr als direktes Sprungbrett für neue Märkte nutzen könnt.

3. Volumen-Commitment als unfairen Wettbewerbsvorteil (Moat) aufbauen

Ein Corporate-Investment ist gut, ein garantiertes operatives Testfeld ist besser. Arvato hat sich nicht nur an dem Start-up beteiligt, sondern ein klares Commitment zum Rollout einer dreistelligen Anzahl von Robotern abgegeben.
Learning: Verhandelt bei strategischen Beteiligungen immer auch den operativen Einsatz mit hinein. Das garantierte Volumen generiert reale Use Cases und Datenmengen, die für neue Wettbewerber einen fast unüberwindbaren Burggraben („Moat“) darstellen.

Dezentrales Edge-Computing: Peeriot sichert sich Mio.-finanzierung für neuen IoT-Standard

Das Leipziger DeepTech-Start-up Peeriot sichert sich einen siebenstelligen Betrag, um den Marktstart seiner Open-Source-Lösung „Myrmic“ zu finanzieren. Doch die Etablierung eines neuen Infrastruktur-Standards ist ein ambitioniertes und riskantes Unterfangen.

Angeführt wird die Late-Seed-Finanzierungsrunde von den Altinvestor*innen Technologiegründerfonds Sachsen (TGFS) und der beteiligungsmanagement thüringen gmbh (bm|t), die Peeriot bereits 2024 mit 1,5 Millionen Euro unterstützt hatten. Neu eingestiegen ist das Business-Angel-Netzwerk Companisto. Das Kapital soll direkt in die Go-to-Market-Strategie für 2026 fließen: Im Fokus steht der Launch der Community-Version „Myrmic“. Die Monetarisierung soll im Anschluss über die kommerzielle Enterprise-Variante „EdgeVance“ erfolgen.

Das Team: Konzern-Know-how trifft Deep-Tech

Das 2022 gegründete Unternehmen wird von einem dreiköpfigen Gründerteam geführt, das fundierte Branchenerfahrung bündelt. CEO Ralf Hüskes verfügt über TelCo-Start-up-Erfahrung, während CFO Roy Kaiser Operations-Expertise aus einem Deep-Tech-Start-up sowie Konzern-Know-how einbringt. Komplettiert wird das Trio durch Mitgründer und Senior Developer Erik Junghanns, der die technische Umsetzung der komplexen Software-Architektur verantwortet. Diese Kombination verhalf dem Team bereits zu frühen Erfolgen bei regionalen Innovationspreisen und Pitch-Wettbewerben.

Das Problem: Fragmentierung als Kostentreiber

Der Markt für Industrial IoT und Edge-Computing wächst rasant, krankt aber an seiner extremen Fragmentierung. Die Vernetzung unterschiedlichster Hardware – vom simplen, ressourcenarmen Mikrocontroller (MCU) in einem Sensor bis zum leistungsstarken Edge-Server – erfordert derzeit massiven manuellen Integrationsaufwand. Die Resultate sind oft unflexible Systeme (Hardware-Lock-ins), die bei Skalierungen, Netzwerkausfällen oder Konnektivitätsänderungen versagen. Verschärft wird die Lage durch den EU Cyber Resilience Act, der künftig Update-Fähigkeit und höhere Sicherheit für Geräteflotten vorschreibt.

Der USP: Schwarmintelligenz statt zentralem Broker

Genau hier positioniert Peeriot sein Alleinstellungsmerkmal: Die Middleware abstrahiert die Hardware vollständig und ermöglicht eine echte, dezentrale Peer-to-Peer-Kommunikation.

  • Ohne zentralen Server: Im Gegensatz zu klassischen Client-Server-Modellen oder zentralen Brokern organisieren sich die Geräte bei Peeriot selbständig zu widerstandsfähigen Netzwerken (Mesh) – ähnlich einem Insektenschwarm. Fällt ein Knotenpunkt aus, leitet das Netzwerk die Datenströme autark um (Self-Healing).
  • Speichersicherheit durch Rust: Die gesamte Laufzeitumgebung ist in der Programmiersprache Rust geschrieben. Das garantiert eine extrem hohe Speicher- und Threadsicherheit und schützt vor klassischen Cyberangriffen, die auf Speicherlecks abzielen.
  • Skalierbarkeit: Die Software läuft hardwareunabhängig auf kleinsten Mikrocontrollern ebenso wie auf großen Serverarchitekturen.

Die Herausforderung: Die Open-Source-Falle im B2B

Das Geschäftsmodell von Peeriot folgt der klassischen Open-Source-Strategie: Die Kerntechnologie (Myrmic) wird kostenlos an Entwickler abgegeben, um eine schnelle Marktdurchdringung zu erzielen. Umsätze sollen später über ein B2B-Subskriptionsmodell generiert werden, bei dem Enterprise-Kunden für die Version EdgeVance pro eingesetztem Gerät zahlen.

Der kritische Punkt dieses Modells ist die Conversion-Rate. Entwickler*innen nutzen Open-Source-Tools gern, doch der Schritt zum zahlenden Unternehmen erfordert lange Vertriebszyklen. Zudem birgt das „Pay-per-Device“-Modell bei industriellen IoT-Schwärmen mit zehntausenden Sensoren die Gefahr exponentiell steigender Kosten für den Endkund*innen. Peeriot muss beweisen, dass die Einsparungen bei der Wartung die laufenden Lizenzkosten übersteigen.

Der Wettbewerb

Peeriot agiert in einem hochkompetitiven Umfeld. Die größten Hürden sind die Bequemlichkeit der Industrie und die Dominanz der Tech-Giganten.

  • Die Cloud-Konzerne: AWS (mit IoT Greengrass) und Microsoft (mit Azure IoT Edge) binden Kunden mit eigenen Edge-Lösungen tief in ihre Cloud-Ökosysteme ein.
  • Direkte Middleware-Konkurrenz: Peeriot konkurriert mit etablierten IoT-Plattformen und Middleware-Anbietern wie dem deutschen Unternehmen HiveMQ (fokussiert auf MQTT-Broker), Real-Time Innovations (RTI) aus den USA oder europäischen Playern wie Cybus und Zerynth.
  • Open-Source-Protokolle: Auch dezentrale Open-Source-Protokolle wie Eclipse Zenoh adressieren ähnliche Probleme im Edge-Routing.

Peeriots stärkstes Argument gegen diese Übermacht ist die radikale Cloud-Unabhängigkeit (Data Sovereignty) gepaart mit dem dezentralen Peer-to-Peer-Ansatz, der ohne fehleranfällige zentrale Broker auskommt.

Fazit: Infrastruktur statt App-Spielerei

Peeriot ist ein prägnantes Beispiel für europäisches DeepTech-Unternehmertum. Das Team wagt sich an ein fundamentales Infrastrukturproblem der Industrie 4.0. Die aktuelle Finanzierung verschafft den notwendigen Runway für den Produkt-Launch 2026. Gelingt der Aufbau der Entwickler-Community, könnte das Start-up eine neue Kategorie der Edge-Software etablieren. Findet die Open-Source-Lösung jedoch keine breite Akzeptanz, droht die technologisch anspruchsvolle Plattform in der Nische zu bleiben.

Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen

Aus dem strategischen Ansatz von Peeriot lassen sich drei handfeste Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:

1. Open-Source als trojanisches Pferd

Ein Kernprodukt an Entwickler*innen zu verschenken, ist ein bewährter Growth-Hack für maximale Marktdurchdringung. Aber eine aktive Community ersetzt keinen B2B-Vertriebsprozess. Peeriot muss beweisen, dass der Schritt von der kostenlosen Variante zum Enterprise-Modell funktioniert.
Learning: Definiert von Tag eins an glasklar, welchen monetären oder operativen Schmerz eure Enterprise-Version löst. In der Industrie zahlen Kunden selten für die reine Technologie, sondern für Service Level Agreements (SLAs) und einfache Wartung.

2. Die blinden Flecken der Tech-Giganten besetzen

Wer als Start-up versucht, gegen Tech-Giganten wie AWS oder Microsoft mit einem breiteren Funktionsumfang anzutreten, verliert. Peeriot wählt einen anderen Weg und fokussiert sich auf radikale Cloud-Unabhängigkeit und europäische Datensouveränität.
Learning: Findet den Schmerzpunkt eurer Zielgruppe, den die großen „Goliaths“ aufgrund ihres eigenen Geschäftsmodells (z.B. der Bindung an die eigene Cloud) strategisch nicht lösen können oder wollen.

3. Regulatorik als Vertriebsturbo nutzen

Lange B2B-Sales-Zyklen sind der Tod vieler Start-ups. Wer sein Produkt jedoch geschickt an neue gesetzliche Vorgaben (wie bei Peeriot den EU Cyber Resilience Act) ankoppelt, schafft sofortige Dringlichkeit bei der Kundschaft.
Learning: Verknüpft eure Lösung nach Möglichkeit direkt mit aktueller Regulatorik. Hilft euer Produkt dem/der Kund*in, gesetzliche Strafen zu vermeiden oder Compliance-Kosten zu senken, wandert es auf der Prioritätenliste des Einkaufs automatisch ganz nach oben.

Cyber Security Report 2026

Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.

Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.

Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.

Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten

Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.

Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.

Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil

Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.

Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.

Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken

Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.

IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.

Fazit

Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.

Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?

Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:

  1. Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
  2. Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
  3. Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
  4. Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.

Better Sol: Zweites Leben für die Solarwende

Wie das 2023 von Mirko Laube und Luisa Schulze gegründete Start-up Better Sol den PV-Gebrauchtmarkt aufmischen will.

Das Braunschweiger Start-up Better Sol erhält rund 125.000 Euro Förderung aus dem „Green Startup“-Programm der Deutschen Bundesstiftung Umwelt (DBU), um gebrauchte Solarpaneele in großem Stil zurück in den Markt zu bringen.

Hinter dem Start-up stehen Luisa Schulze und Mirko Laube. Better Sol entstand ursprünglich im Sommer 2022 als Ausgründung des Magdeburger Recycling-Unternehmens Solar Materials und agiert seit 2023 als eigenständige GmbH am Standort Braunschweig. Während sich die ehemalige Muttergesellschaft auf das komplexe werkstoffliche Recycling von Modulen konzentriert, widmet sich Better Sol voll und ganz dem „Second Life“ – also der direkten Wiederverwendung der noch intakten Platten.

KI-gestützte Prüfung statt Schredder

Die Beschaffungsseite von Better Sol zielt primär auf große Solarparks ab. Die Betreiber tauschen dort häufig größere Mengen an Solarmodulen recht früh in ihrem Lebenszyklus durch neuere, leistungsstärkere Modelle aus. Um diese Module vor dem Müll zu bewahren, hat das Better-Sol-Team mittels DBU-Förderung ein in Teilen automatisiertes Testsystem mit eigener Software auf Basis künstlicher Intelligenz (KI) entwickelt.

Der Prüfprozess beginnt mit einer mehrstufigen optischen Untersuchung, bei der sowohl grobe Beschädigungen als auch jede Solarzelle einzeln begutachtet werden. Im Anschluss folgen eine eingehende Prüfung der elektrischen Sicherheit sowie eine Leistungsüberprüfung, die misst, wie viel Watt das Produkt im Vergleich zur ursprünglichen Leistung noch liefert. Die Software führt all diese Daten automatisiert zu einer detaillierten Leistungsprognose zusammen. Jedes funktionstüchtige Modul erhält ein Label mit den Testdaten, einer zugewiesenen Leistungsklasse und einem umfangreichen Prüfprotokoll. Nur der endgültige Rest wird zum Recycling aussortiert. Der Vertrieb erfolgt direkt über die Internetseite von Better Sol. Zielgruppe sind oft Privathaushalte oder die Dächer größerer Fabrikhallen.

Der Markt und die Technologie im Wettbewerbsvergleich

Nach Angaben des Statistischen Bundesamtes verbucht die Photovoltaik mittlerweile einen Anteil von etwa 24 Prozent und ist damit der zweitwichtigste Energieträger der inländischen Stromerzeugung. Das Reservoir an ausgemusterten, aber noch funktionierenden Modulen wächst rasant. Laut Schulze ist im Schnitt jedes zweite gebrauchte Solarmodul noch für eine erneute Nutzung geeignet. Doch der Gebrauchtmarkt professionalisiert sich zusehends.

Better Sol setzt aktuell auf eine pragmatische, KI-gestützte Teilautomatisierung und plant als nächsten logischen Entwicklungsschritt eine mobile Testanlage, um die Solarmodule direkt dort zu testen, wo sie ausgemustert werden. Genau in diesem logistisch entscheidenden Bereich der Vor-Ort-Prüfung operiert bereits der etablierte Wettbewerber 2ndlifesolar, eine Marke der großen Buhck Gruppe. 2ndlifesolar greift auf ein deutschlandweites Logistiknetzwerk zurück und kombiniert stationäre Erstbehandlungsanlagen mit mobilen Prüflaboren. Technologisch geht das Unternehmen tief in die industrielle Qualitätssicherung und führt standardmäßig Elektrolumineszenz-Prüfungen durch, um unsichtbare Mikrorisse im Vorfeld zu detektieren.

Einen völlig anderen, stark hochskalierten Weg bestreitet das österreichische CleanTech-Start-up 2nd Cycle. Das Unternehmen betreibt eine vollautomatische Inspektions- und Upcycling-Anlage im industriellen Hochdurchsatz und nutzt neben klassischer Robotik auch patentierte hyperspektrale Analysen aus der Raumfahrt, um Zellalterungen frühzeitig zu erkennen.

Der Schlüssel zum wirtschaftlichen Erfolg

Das Vorhaben von Better Sol leistet einen fundamentalen Beitrag, um noch leistungsfähige Materialien durch geschickte Kreislaufwirtschaft für eine Weiternutzung zu erhalten, damit die Bemühungen für mehr erneuerbare Energien nicht ins Stocken geraten. Dennoch muss sich das Geschäftsmodell in einem harten Wettbewerb beweisen.

Die Handwerkerkosten für den Aufbau einer PV-Anlage auf einem Eigenheim sind hoch und fallen völlig unabhängig davon an, ob man neue oder gebrauchte Paneele installiert. Gleichzeitig steht der Markt unter enormem Preisdruck durch historisch günstige asiatische Neuware. Wenn fabrikneue Module extrem billiger werden, schwindet das Argument der finanziellen Ersparnis bei Gebrauchtmodulen mit kürzerer Restlebensdauer. Der Schlüssel zum wirtschaftlichen Erfolg von Better Sol liegt daher in der rigorosen Minimierung der eigenen Logistik- und Prozesskosten. Die geplante mobile Testanlage und die zusätzliche Automatisierung des Testsystems sind für das Start-up essenziell, um künftig auch größere Ausmusterungen von Solarparks wirtschaftlich bewältigen zu können.

Schluss mit der Resilienz-Lüge

Warum gut gemeinte Resilienz-Programme die besten Leute vertreiben.

Du kennst das Ritual im Mittelstand: Ein neues Budget für Mitarbeiter-Wohlbefinden wird freigegeben, es gibt eine schicke App, ein Resilienztraining und vielleicht noch einen Achtsamkeitskurs am Freitagmorgen. Alles ist sauber pro Kopf abgerechnet, aber die Realität in den Gängen sieht düster aus: Die Stimmung kippt, die Leistung bröckelt und die Kündigungen häufen sich. Irgendwo auf dem Firmenparkplatz sitzt gerade ein Mitarbeiter im Auto und hofft inständig, dass ihn gleich niemand fragt, wie es ihm wirklich geht – willkommen in der Resilienz-Falle.

Bequemlichkeit statt Verantwortung

In der Geschäftsleitung reagierst du auf Erschöpfung oft reflexhaft mit Instrumenten zur ‚individuellen Stärkung‘. Du investierst lediglich in das Durchhalten der Belegschaft. Dabei übersiehst du geflissentlich, dass deine Leute längst gegen Strukturen ankämpfen, die du selbst mitgebaut hast. Die heimliche, aber messerscharfe Botschaft dieser Maßnahmen lautet: ‚Der Laden bleibt, wie er ist. Du musst dich anpassen.‘ Das ist für dich als Führungskraft äußerst bequem, denn es klingt nach Fürsorge und produziert bunte Fotos für das Intranet. Vor allem aber delegiert es die Verantwortung elegant von der Organisation abwärts zur einzelnen Person – von echter Führung hin zu bloßem ‚Selbstmanagement‘. Wenn ihr als Führungskräfte selbst erschöpft von der jahrelangen Permakrise seid, greift ihr eben nach dem Mittel, das am wenigsten wehtut: Training statt Kulturarbeit.

Die toxische Wahrheit über Burnout

Machen wir uns nichts vor: Burnout entsteht in den seltensten Fällen, weil jemand schlicht ‚zu wenig resilient‘ ist. Menschen brennen aus, weil die Art der Arbeit und der Führung ihnen systematisch die Energie abdreht. Laut einer globalen Untersuchung des McKinsey Health Institute ist toxisches Verhalten am Arbeitsplatz der mit Abstand größte Prädiktor für Burnout-Symptome und Kündigungsabsichten. Wir sprechen hier nicht von Hollywood-Klischees, sondern von handfester Entwertung, Bloßstellung, Sabotage, unfairem Wettbewerb und unethischem Verhalten. Dieses Gift sitzt in Meetings, in E-Mails, in Zielsystemen und in unausgesprochenen Erwartungen. Es zeigt sich genau dann, wenn du jenen einen ‚Leistungsträger‘ schützt, der seit Jahren rote Linien überschreitet. Kein Resilienztraining der Welt kann dieses Führungsversagen reparieren.

Der Bumerang-Effekt der Resilienz

Jetzt wird es paradox: Wenn in toxischen Umfeldern Resilienz trainiert wird, treibt das die Leute direkt in die Kündigung. McKinsey belegt, dass Beschäftigte mit hoher Anpassungsfähigkeit in giftigen Arbeitsumfeldern eine um 60 Prozent höhere Kündigungsbereitschaft aufweisen als weniger anpassungsfähige Kollegen. Das ist absolut logisch: Wer durch Training innerlich klarer wird, durchschaut schneller, was im Unternehmen wirklich schiefläuft. Wer lernt, Grenzen zu spüren, wird diese auch setzen. Wer seine Selbstwirksamkeit entdeckt, bleibt nicht in einem System, das ihn systematisch klein hält. Resilienz wirkt ohne echte Kulturarbeit wie ein greller Scheinwerfer, der alles sichtbar macht, was vorher bequem im Nebel versteckt war. Du investierst teuer in Resilienz und verlierst genau deshalb im Anschluss deine besten Köpfe.

Vom Sponsor zum Gestalter: Harte Führungsarbeit statt Wellness

Es ist Zeit für einen Paradigmenwechsel. Deine Rolle als Führungskraft ist nicht die eines Sponsors für Wohlfühl-Maßnahmen; du bist verantwortlich für die Rahmenbedingungen im Unternehmen. Moderne Führung braucht keine Wellness und kein Wunschdenken, sondern eine klare Haltung. Ohne Hoffnung fehlt die Richtung, ohne Vertrauen fehlt der Halt. Fehlt beides, helfen auch keine App und keine Atemtechnik mehr, weil das System weiter Druck produziert und die Menschen innerlich aussteigen.

Es gilt, die Leitfrage im Management-Team radikal umzudrehen: Statt ‚Wie machen wir unsere Leute widerstandsfähiger?‘ sollte die Frage ‚Wo erzeugen wir Bedingungen, die Widerstand überhaupt erst nötig machen?‘ lauten. Das ist kein Kuschelkurs, das ist harte Führungsarbeit. Das erfordert den Mut, toxisches Verhalten schonungslos zu benennen und Regeln auch gegen kurzfristige Leistungserfolge durchzusetzen. Resilienz darf kein Reparaturbetrieb für eine Unternehmenskultur sein, die gnadenlos Menschen verbraucht. Sie muss das natürliche Ergebnis von guter Führung und gesunden Systemen sein.

Der Autor Ben Schulz ist Unternehmensberater und SPIEGEL-Bestseller-Autor, www.benschulz-partner.de

Die Müsli-Macher und die Kälte: Das neue Millionen-Projekt von Kraiss & Mahler

Dass sie Märkte revolutionieren können, haben die Freda-Gründer bereits bewiesen – nun steht die Tiefkühlkette auf dem Prüfstand. Mit einem mutigen Modul-Konzept fordern Philipp Kraiss und Christian Mahler die Industrie-Riesen im Supermarktregal heraus.

In der Start-up-Welt ist der Begriff Seriengründer*in oft ein zweischneidiges Schwert: Das Vertrauen der Investor*innen ist hoch, doch die Fallhöhe nach einem Erfolg wie mymuesli ebenso. Philipp Kraiss und Christian Mahler haben sich mit ihrem 2023 gegründeten Food-Start-up Freda bewusst gegen ein „Me-too-Produkt“ und für eine operative Wette auf die Zukunft der Tiefkühlkette entschieden. Mit einem mutigen Modul-Konzept fordern sie die etablierten Industrie-Riesen im Supermarktregal heraus. Die Prämisse: Der Markt für Tiefkühlkost (TK) wächst – auf über 22,6 Milliarden Euro im Jahr 2024 –, ist aber durch extremen Preisdruck und eine veraltete Produktlogik geprägt. Wir haben uns das Geschäftsmodell näher angesehen und die Gründer dazu befragt.

Pizza, Pasta, Gelato … und jetzt Blocks?

Die Pizza „Salami Sensation“ war für Freda der Türöffner. Mit dem Sieg bei Stiftung Warentest (2024) bewies das Team, dass es Qualität „kann“ und schuf einen starken USP. Strategisch ist Pizza jedoch kein leichtes Feld: Der Wettbewerb ist anspruchsvoll, die Regalplätze im Einzelhandel sind besetzt und die Differenzierung erfolgt meist über den Preis. Mit einer Innovation wie „Frozen Blocks“ erweitert Freda nun das Spielfeld und eröffnet eine neue Kategorie von Tiefkühlkost.

Es handelt sich dabei nicht mehr um ein fertiges Gericht, sondern um eine Systemkomponente. Das Konzept orientiert sich am gastronomischen „Mise en Place“: Vorbereitete, schockgefrostete Komponenten wie Beef Ragù oder Chili sin Carne fungieren als Basismodule für die heimische Küche. Strategisch gesehen erhöht dies die Wertdichte pro Kubikzentimeter im TK-Fach und verringert die Komplexität in der eigenen Produktion im Vergleich zu mehrkomponentigen Fertigmenüs.

Auf die Frage, ob der strategische Wechsel von der Pizza zu den „Frozen Blocks“ eine Flucht aus dem Commodity-Preiskampf der Pizza-Truhe hin zu einer proprietären Nische sei, widerspricht Philipp Kraiss. Vielmehr handele es sich um einen konsequenten Ausbau des Sortiments, denn Freda solle künftig den gesamten Alltag der Kund*innen abbilden – vom Frühstück bis zum Abendbrot. Das sei eben mehr als nur Pizza. „Unser Anspruch ist aber nicht nur Bekanntes besser zu machen – wie bei unserer Pizza, sondern auch neue Wege zu gehen“, stellt der Gründer klar. Die flexiblen Module seien auf diesem Weg der nächste logische Schritt. Er verspricht dabei maximale Vielfalt aus dem Gefrierfach, „denn jeder Block lässt sich vielfältig kombinieren.“

Die Retail-Herausforderung: Kaufland als Stresstest

Mit einer Basis von über 30.000 D2C-Kund*innen hat das Unternehmen bereits bewiesen, dass die Nachfrage nach seinen Produkten besteht. Um dieses Potenzial voll auszuschöpfen und die Margen zu stärken, wurde im August 2025 der Launch in 780 Kaufland-Märkten umgesetzt – ein strategischer Meilenstein, der die Reichweite massiv erhöht und über das Volumen des stationären Einzelhandels den Weg zu nachhaltigem, profitablem Wachstum ebnet – ohne aufwendigen Versand mit Isolierung und Trockeneis.

Hier zählt nun die Shelf Velocity (Abverkaufsgeschwindigkeit). Ein modulares System erfordert von der Kundschaft jedoch ein Umdenken: Man kauft kein fertiges Abendessen, sondern eine Zutat. Freda muss hier beweisen, dass der Mehrwert der Zeitersparnis am Point of Sale verstanden wird, bevor die harten Auslistungsmechanismen des Handels greifen.

Doch wie überzeugt man eine*n Einkäufer*in davon, dass ein modulares System mehr Flächenproduktivität bringt als die zehnte Sorte Standard-Lasagne? Christian Mahler kontert auf diese Retail-Frage mit einem anschaulichen Branchen-Vergleich: „Wir sind eben nicht die zehnte Lasagne. Eine klassische TK-Lasagne belegt viel Regalfläche, bedient genau einen Anlass und konkurriert mit neun anderen Lasagnen um denselben Kunden.“ Durch das kompakte Format und eine maximale SKU-Dichte der Blocks könne der Händler auf derselben Regalfläche mehrere Sorten listen und spreche damit dutzende Zubereitungsarten von der Bowl bis zum Curry an. Mahler zeigt sich selbstbewusst: „Wir eröffnen eine neue Kategorie statt in einer bestehenden zu kämpfen.“

Operative Exzellenz vs. bayerisches Handwerk

Ein weiterer Spagat wartet in der Produktion: Freda wirbt offensiv mit „Made in Bavaria“ und handwerklicher Herstellung. In der Start-up-Praxis beißt sich Handwerk jedoch oft mit Skalierung. Wer bundesweit fast 900 Supermärkte bedient, muss industrielle Prozesse beherrschen. Die Gefahr dabei ist offensichtlich: Wenn die Qualität durch die Masse sinkt, verliert Freda seinen wichtigsten USP. Gleichzeitig bleibt bei der exklusiven Zielgruppe, die bereit ist, für TK-Komponenten Premium-Preise zu zahlen, in Zeiten der Inflation die Frage der Preissensibilität bestehen.

Auf drohende Kapazitätsgrenzen angesprochen, räumt Philipp Kraiss ein, dass die Passauer Manufaktur zwar das Herzstück bleibe. „Aber wir waren von Anfang an ehrlich zu uns selbst: Eine Manufaktur skaliert nicht linear“, gibt der Seriengründer zu bedenken. Mit wachsendem Geschäft müsse man die Produktion auf breitere Schultern stellen und mit Partnern zusammenarbeiten. Sein Kernversprechen an die Kund*innen lautet dabei jedoch: „Wir lagern nicht die Rezeptur aus, sondern die Kapazität.“

Marktpsychologie: Convenience ohne Reue

Psychologisch besetzt Freda damit eine überaus geschickte Lücke. Die „Frozen Blocks“ nehmen der Käuferschaft zwar die Entscheidung für die aufwendige Kernkomponente ab, lassen das Gefühl des Selbstkochens durch das frische Ergänzen von Beilagen jedoch vollkommen intakt. Dies eliminiert die oft vorhandene „Convenience-Scham“ gesundheitsbewusster Zielgruppen und könnte die Lösung für die stagnierenden Marktanteile klassischer Fertiggerichte bei jüngeren Konsument*innen sein.

Fazit für die Start-up-Praxis

Freda ist ein Lehrstück für den Übergang von einer digitalen D2C-Brand zum Player im Massenmarkt. Die Gründer nutzen ihre Erfahrung, um eine etablierte Kategorie neu zu denken. Ob die Rechnung aufgeht, wird sich an der Regal-Rotation zeigen. Wenn die Kund*innen den Aufpreis für die „bayerische Handarbeit“ und das modulare System dauerhaft akzeptieren, könnte Freda die Blaupause für die nächste Generation von Food-Marken liefern.

eeden: Die Alchemie der Altkleider

Das Münsteraner Unternehmen eeden verwandelt Textilmüll in hochwertige Rohstoffe. Mit Millioneninvestments baut das Team um Steffen Gerlach und Tobias Börnhorst nun die erste Demonstrationsanlage auf.

Steffen Gerlach saß entspannt mit seinem Schulfreund Reiner Mantsch auf einer Couch in einer Kölner Wohngemeinschaft. Mantsch hatte zuvor an der Universität in Mönchengladbach Textiltechnik studiert. Er berichtete leidenschaftlich von seinen naturwissenschaftlichen Forschungen zur Kreislaufwirtschaft. Dieses Gespräch veränderte Gerlachs gesamte berufliche Planung radikal. Mantsch suchte jemanden für die Marktseite seiner technischen Vision. Gerlach war sofort fasziniert von dem ökonomischen Potenzial. Er wollte wissen, ob man daraus ein echtes Unternehmen formen kann. „Das war der eigentliche Startpunkt für eeden. Wir entschieden uns für einen vollen Fokus auf das Projekt. Und wir wollten das Recyclingproblem der Branche grundlegend lösen“, erinnert sich Gerlach.

Der langsame Weg zum technologischen Durchbruch

Es gab keinen plötzlichen Heureka-Moment in einem winzigen und improvisierten Labor. Die Entwicklung war eher eine gezielte Suche nach einer Problemlösung. Mantsch war früher Leistungssportler und brachte den nötigen Fokus mit. Er sah den Frust seiner Kommilitonen nach Praktika in der Industrie. Die Branche wirkte starr und wenig dynamisch für junge Talente. Das Duo suchte stattdessen nach den Megatrends der Zukunft. „Die Kreislaufwirtschaft kristallisierte sich schnell als das zentrale Thema heraus. Ich habe die Marktseite intensiv analysiert und viele Gespräche geführt“, so Gerlach. Er erkannte die Verknüpfungen zwischen technischer Machbarkeit und ökonomischen Anforderungen. Die Suche nach dem technologischen Sweetspot dauerte Monate. Am Anfang stand lediglich die reine Faszination für das Recycling. Es war ein schleichender Prozess mit vielen Etappenentscheidungen.

Die wachsende Last der globalen Fast Fashion

Das Umweltproblem der globalen Textilindustrie ist mittlerweile gewaltig. Die Branche verdoppelt ihren Durchsatz alle 20 bis 30 Jahre. Jährlich werden mittlerweile mehr als 120 Mio. Tonnen Textilien produziert. Nach Angaben der Ellen MacArthur Foundation werden weltweit ungefähr zwei Drittel dieser Mengen praktisch direkt nach der Nutzung entsorgt; sie landen auf riesigen Deponien oder werden ungenutzt verbrannt. In Deutschland steht das klassische Rücknahmesystem laut Experten vor dem Kollaps. Es gibt nach seiner Aussage derzeit eine gestiegene Anzahl an Insolvenzen bei Sammel- und Sortierbetrieben. Die Qualität der Kleidung sinkt durch den Trend zur Fast Fashion massiv. Der Wiederverkauf der gebrauchten Ware lohnt sich oft nicht mehr. Neuware aus Asien ist meistens günstiger als Second Hand-Stücke aus Europa. In Deutschland verursacht die Entsorgung einer Tonne Altkleider zudem Kosten – das Material wird somit zur finanziellen Belastung für die Sammel- und Sortierbetriebe.

Chemische Trennung als industrieller Schlüssel

Das Unternehmen aus Münster setzt genau an diesem Punkt an. Die Technologie ermöglicht die Trennung von Baumwolle und Polyester und macht beide Materialien wieder nutzbar. Das ist entscheidend für den Erfolg der Kreislaufwirtschaft. Die meisten Textilien bestehen heute aus komplexen Mischgeweben. Gerlach erklärt, dass das Unternehmen aus dem Abfall eine hochwertige Cellulose und chemische Bausteine für neues Polyester gewinnt. Die Cellulose dient als sauberes Vorprodukt für die neue Faserherstellung. Das Polyester wird in seine Grundbausteine zerlegt, die für die Herstellung von neuem Polyester verwendet werden können. „Wir stellen aus Baumwolle eine hochwertige Cellulose her und gewinnen aus dem Polyester die chemischen Bausteine zurück“, sagt Gerlach. Beide Materialströme können direkt wieder in der Textilproduktion eingesetzt werden. Damit wird der Kreislauf zwischen Abfall und Kleidung geschlossen. Seit Anfang 2025 hilft zudem eine neue gesetzliche Regelung. Die EU-weite Getrenntsammlungspflicht für Textilabfälle ist in Kraft getreten: Unternehmen dürfen Textilien nun nicht mehr über den Restmüll entsorgen. Das sichert den Zugang zu großen Mengen an Rohstoffen.

Harte Verhandlungen in der Welt des Wagniskapitals

Der Weg von der ersten Idee zur fertig gebauten Industrieanlage ist lang. Deeptech-Unternehmen brauchen oft viel Geduld und Zeit für die Entwicklung. Das erfordert Investoren mit einem sehr langen Atem. In einer frühen Phase kam der High-Tech Gründerfonds an Bord. Auch die NRW.Bank und der TechVision Fonds unterstützen das Vorhaben. Später stiegen Forbion und der Chemiekonzern Henkel als Investor ein. Gerlach erinnert sich im Gespräch an einen intensiven Lernprozess bei den ersten Finanzierungsrunden. Man müsse technische Begeisterung mit harten Umsatzprognosen anreichern. Auch D11Z.Ventures, das Family Office von Dieter Schwarz (Lidl/Kaufland), investierte in das Unternehmen. Die Investoren verstehen laut Gerlach die Entwicklungszyklen und Skalierung von Deeptech-Unternehmen. Mittlerweile flossen über 20 Mio. EUR an Kapital in die Firma. Dieses Geld ermöglicht nun den nächsten großen Schritt.

Ein neues Team für die industrielle Skalierung

Das Start-up ist mittlerweile den Kinderschuhen entwachsen. In Münster entsteht derzeit eine industrielle Demonstrationsanlage. Gerlach erinnert sich an den Moment der Schlüsselübergabe: Zuerst wirkte die leere Halle riesig auf das Team. Inzwischen planen die Ingenieure bereits jeden Zentimeter der Fläche. Das Team ist auf über 25 Köpfe gewachsen. Es ist eine Mischung aus jungen Talenten und erfahrenen Kräften. Viele Mitarbeitende wechselten von großen Konzernen wie BASF nach Münster. Gerlach beobachtet eine große Lust auf die Arbeit an innovativen Prozessen. Die flachen Hierarchien im Unternehmen ziehen Experten an. Er schätzt das Know-how dieser Fachkräfte für den Anlagenbau. Erfahrene Chemiker bringen eine neue Qualität in die Prozesse. Die Zusammenarbeit zwischen Alt und Jung funktioniert hervorragend.

Führung zwischen Agilität und unternehmerischer Verantwortung

Die Unternehmenskultur hat sich mit der Größe weiterentwickelt. Gerlach betont, dass viele Impulse direkt aus der Belegschaft kommen. So wurde die Regelung für die Präsenz im Büro gemeinsam erarbeitet. Die Mitarbeitenden wünschten sich feste Tage für den Austausch. „Die schönsten Tage sind jene mit viel Begegnung“, berichtet Gerlach. Die bürokratischen Pflichten eines Geschäftsführers gehören einfach dazu. Trotzdem bleibt die Mission der Firma der wichtigste Treiber. Die Motivation im gesamten Team sei extrem hoch. Jeder packt an und treibt das Unternehmen voran. Der Spagat zwischen Entwicklung und Business ist fordernd. Gerlach jedoch genießt diese tägliche Herausforderung sehr.

Der Standort Deutschland als Zentrum für Innovation

Viele Fachleute kritisieren die Bedingungen für die Chemieindustrie. Hohe Energiekosten belasten die traditionsreichen Unternehmen stark. Gerlach sieht das differenzierter aus der Perspektive von innovativen Start-ups: „Für die Entwicklung neuer Technologien ist der Standort Deutschland weiter exzellent. Und die Qualifikation der Technologen ist hervorragend. Die aktuelle Krise führt bei uns auch zu Bewerbungen von erfahrenen Talenten aus der chemischen Industrie – die hätte es vor einigen Jahren in der Menge nicht gegeben.“ Die vorhandene Infrastruktur sei ein klarer Vorteil. Auch Konzerne beobachten solche Innovationen genau. Die Nähe zum Mittelstand fördert zudem die Skalierung. Für die beiden Gründer ist die aktuelle Produktionsanlage nur ein Anfang. Langfristig soll die Technologie weltweit lizenziert werden; überall auf der Welt fällt schließlich Textilmüll an. Die Kombination aus Ingenieurskunst und Skalierung ist das Ziel. Auch die aktuellen Investoren von eeden sehen dieses globale Potenzial. Das Unternehmen will beweisen, dass sich Kreislaufwirtschaft lohnt. Deutschland bleibt dafür ein wichtiger Ankerpunkt.

Fördermittel: Worauf Gründer*innen von Beginn an achten sollten

Wichtige Dos and Don’ts bei der Fördermittelbeantragung.

Fördermittel klingen nach einem Traum: Kapital für Innovation, ohne Verwässerung, ohne Bankgespräche und ohne den unmittelbaren Druck eines Exits. Für Start-ups oft die Lebensversicherung, für den Mittelstand der zentrale Hebel, um im Wettbewerb vorn zu bleiben. Gerade bei technisch anspruchsvollen Projekten bestimmen Fördermittel das Tempo – sie machen aus „irgendwann“ ein „jetzt“.

In der Praxis zeigt sich jedoch immer wieder, dass dieser Hebel ungenutzt bleibt. Warum? Weil die Strategie fehlt. Fördermittel werden oft liegen gelassen, falsch beantragt oder derart spät, dass am Ende nur Frust bleibt. Oft passt das Förderprogramm nicht zur Unternehmensphase, der Antrag kollidiert mit dem Projektstart und operativen Prioritäten oder das Vorhaben wird im Antrag wie in einem visionären Pitchdeck beschrieben, statt die Anforderungen der Prüfstellen zu erfüllen. Unsere Erfahrung zeigt: Der größte Fehler wird lange vor dem ersten Mausklick im Antragsportal begangen.

Die Weichenstellung: Förderung ist eine Managemententscheidung

Innovationsförderung entfaltet ihr volles Potenzial nur dann, wenn sie nicht als „Antragsthema“, sondern als Teil der Strategie verstanden wird. Entscheidend ist nicht das Projekt mit der besten Story, sondern dass Unternehmen ihre Roadmap mit der Logik der Förderwelt in Einklang bringen. Der Kern dabei ist immer derselbe: Gefördert wird nicht „einfache Umsetzung“, sondern messbare Innovation. Das Vorhaben muss sich vom Stand der Technik abheben – durch technologische Neuheit, methodisches Risiko oder einen klaren Erkenntnisgewinn. Optimierung oder Skalierung allein wird schnell als Routineentwicklung eingeordnet. Bevor die Suche nach dem passenden Programm beginnt, braucht es deshalb eine Einordnung: Was genau ist an diesem Projekt neu, und welches Fördermittel passt dazu? Je nachdem, ob eine Neugründung vorliegt, ein strukturiertes Entwicklungsprojekt geplant wird oder Projektzyklen im Vordergrund stehen, sind unterschiedliche Instrumente und Argumentationen erforderlich. Der größte Fehler wird daher lange vor der Antragstellung begangen: Es werden falsche Fördermittel gewählt. Viele Teams starten die Recherche wie eine gewöhnliche Google-Suche („Innovationsförderung KMU Deutschland“) und entscheiden sich für ein Programm, das oberflächlich attraktiv wirkt. Förderprogramme sind Werkzeuge, keine Geldtöpfe. Drei Phasen helfen bei der Einordnung:

1) Aufbauphase: Fokus schaffen (unter anderem exist)

In frühen Gründungsphasen zwischen Idee, erster Validierung und Minimum Viable Product liegt die Herausforderung meist nicht in der Technologie, sondern in Fokus, Priorisierung und einem strukturierten Vorgehen. Programme wie exist schaffen dafür den Rahmen: Zeit, Mentoring und Ressourcen, um zentrale Annahmen systematisch zu prüfen. Ein häufiger Fehler ist, den Antrag wie einen Investor Pitch zu schreiben: Während Investoren Skalierung erwarten, bewerten Förderstellen Innovationshöhe, Stand der Technik sowie Vorgehens- und Validierungsplan, und wer sich dabei bereits als „marktreif“ darstellt, verfehlt oft den Förderzweck.

2) Projektphase: Planbar entwickeln (etwa ZIM)

Für etablierte Unternehmen und Scale-ups mit klarer Zielarchitektur ist das Zentrale Innovationsprogramm Mittelstand (ZIM) ein starkes Instrument. Es verlangt eine saubere Projektlogik mit definierten Arbeitspaketen, Ressourcen und Meilensteinen und lässt wenig Raum für unkontrollierte Iterationen. Besonders geeignet für Kooperationen mit Forschungspartnern. Ein typischer Fehler ist der „Frühstart“: Teams beginnen mit der Entwicklung, während der Antrag noch läuft, um keine Zeit zu verlieren. Förderlogisch ist das jedoch hochriskant, weil ein vorzeitiger Projektbeginn die Förderung gefährden kann. Management muss Roadmap und bürokratischen Vorlauf deshalb konsequent synchronisieren; wer „schon mal startet“, riskiert die gesamte Fördersumme.

3) Förderung in jeder Phase (Forschungszulage)

Die Forschungszulage ist das flexibelste Förderinstrument, weil sie branchenoffen ist und sich am Charakter des Vorhabens orientiert – nicht an Unternehmensphase oder Businessmodell (vom Start-up bis zum etablierten Mittelständler). Zudem folgt sie weder dem Wettbewerbsprinzip eines begrenzten Programmbudgets noch einem reinen Auswahlverfahren, sondern basiert auf einem gesetzlichen Anspruch, sofern die Voraussetzungen erfüllt sind.

Gerade weil Forschung und Entwicklung selten linear verlaufen, passt die Forschungszulage besonders gut zu Entwicklungsprozessen: Hypothesen ändern sich, Ansätze scheitern, Lösungen entstehen durch Lernen. Genau diese technische Unsicherheit ist häufig Teil der Förderlogik. Aus Businesssicht überzeugt vor allem die Liquiditätswirkung, da die Zulage grundsätzlich auch für bereits laufende oder abgeschlossene Projekte genutzt werden kann. Entscheidend ist jedoch die Dokumentation: Ohne klare Abgrenzung zur Routine-Weiterentwicklung wird Potenzial verschenkt oder der Prüfprozess unnötig erschwert. Wer profitieren will, sollte technische Risiken, Erkenntnisse und Aufwände von Beginn an kontinuierlich dokumentieren.

Fazit

Beim der Innovationsförderung gewinnt nicht, wer am schnellsten Anträge schreibt, sondern wer das richtige Instrument für sein Vorhaben wählt. Programme verfolgen unterschiedliche Ziele – und genau darin liegt ihr Wert. Entscheidend sind die passende Programmauswahl, ein sauberes Timing und gute Dokumentation.

Die Autorinnen

Dr. Isis Römer ist Senior R&D Consultant bei Coup und Expertin für die Forschungszulage. Als Wissenschaftlerin ist sie Spezialistin für die Identifikation und Dokumentation förderfähiger Projekte. Sie übersetzt komplexe technische Innovationen in die Logik der Bescheinigungsstelle (BSFZ) und unterstützt Unternehmen dabei, die feine Linie zwischen Routineentwicklung und echter Innovation klar zu ziehen.

Theresa Mayer ist CRO bei Coup. Sie verantwortet die strategische Ausrichtung und das Wachstum des Unternehmens. Mit ihrem Business-Background schlägt sie die Brücke zwischen Strategie und operativer Umsetzung. Ihr Fokus liegt darauf, Fördermittel nicht als isolierte Zuschüsse, sondern als strategischen Hebel für Skalierung und Marktrelevanz bei Start-ups sowie im Mittelstand zu positionieren.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.