Aktuelle Events
Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding
Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.
In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?
Das Phänomen des Tool-Hoardings
Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.
Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.
Die versteckten Kosten des Tool-Hoardings
Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.
Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.
Sicherheits- und Datenschutzrisiken
Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.
Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.
HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?
Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?
Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.
Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung
Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.
Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.
Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.
Fazit: Klasse statt Masse
Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.
Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.
Gründerin der Woche: beZUG – vom Pendler-Frust zur Gründung
Wer regelmäßig ICE fährt, kennt den kritischen Blick auf das Kopfkissen: Der Zug rollt, aber man zögert, sich anzulehnen. Johanna Hoeflich wollte dieses Dilemma zwischen „Nähe und Distanz“ nicht länger hinnehmen und entwickelte den beZUG. Was als Nähprojekt für den Eigenbedarf begann, ist heute ein junges Unternehmen – mehr dazu im Interview mit der Gründerin.
Das Hygiene-Problem beim Bahnfahren kennen wir alle. Aber vom Ärgernis zur Gründung ist es oft ein weiter Weg. Was war der konkrete Auslöser, tatsächlich eine Firma anzumelden?
Mein Mann pendelt täglich mit dem ICE zwischen Stuttgart und Mannheim. Er ist morgens immer früh unterwegs und möchte häufig noch einmal die Augen schließen auf der Fahrt. Das hat ihn immer Überwindung gekostet, also haben wir nach einer Lösung gesucht, die es jedoch nicht gab. Nachdem wir den beZUG dann entwickelt hatten, gab es reges Interesse im Freundes- und Bekanntenkreis. Das bestärkte mich darin ein Business daraus zu machen.
Sie haben Ihre Prototypen live im Zug getestet. Wie viele skeptische Blicke oder Kommentare von Mitreisenden mussten Sie aushalten, bis die Passform saß?
Ehrlichweise sind Bahnfahrende relativ tolerant außergewöhnlichem Verhalten gegenüber, solange man den anderen nicht stört. Die Kissen hat mein Mann meist morgens vermessen, da abends die Züge einfach zu voll sind. Aber morgens um diese Uhrzeit gilt offenbar das Prinzip: „Mind your own Business“, sodass manches Mal verwunderte Blicke kamen, aber angesprochen wurde er darauf nicht.
Lassen Sie uns über das Risiko sprechen. Ihr Produkt ist technisch einfach: Stoff und Gummizug. Was ist Ihr Schutzwall gegen Billig-Kopien aus Fernost, die das morgen für den halben Preis anbieten könnten?
Das ist eindeutig ein kritischer Punkt. Daher habe ich mir diese Frage ebenfalls sehr früh gestellt und ein Gebrauchsmuster angemeldet. Dieses ist nun tatsächlich auch eingetragen. Zudem habe ich mich von vornherein für faire Produktionsbedingungen innerhalb Europas entschieden. Da der beZUG mit Haut in Berührung kommt war mir auch die Stoffqualität wichtig. Der beZUG ist aus Bekleidungsstoff gefertigt, welcher OEKOTEX 100 zertifiziert ist. Das sind Aspekte bei denen Billigware in der Regel nicht punkten kann. Zudem ist das Produkt eines was explizit auf den deutschen Markt zugeschnitten ist. Da bleibt abzuwarten, ob sich ein Anbieter aus Nahost überhaupt dafür interessiert.
Ein weiteres Thema ist die Abhängigkeit. Ihr Geschäftsmodell basiert zu 100 Prozent auf den Sitzen der Deutschen Bahn. Wie gehen Sie mit diesem „Klumpenrisiko“ um, das heißt, was tun, wenn die Bahn morgen das Sitzdesign radikal ändert?
Diesen Punkt sehe ich relativ entspannt. Laut DB nutzen jeden Tag 400.000 Personen die Fernverkehrsstrecken der Bahn. Eine relevant große Zielgruppe ist also vorhanden. Bezüglich des ICE-Designs wurde im letzten Jahr erst die neueste Generation des ICEs, der ICE L, vorgestellt. Und auch in diesem sind Kopfkissen verbaut. Zudem werden die vorherigen Generationen des ICE nach wie vor weiter eingesetzt. Die Kopfkissen in den verschiedenen Zug-Generationen sind ein wenig unterschiedlich. Der beZUG ist jedoch so designt, dass er auf allen Kissen universell eingesetzt werden kann.
Sie haben als UG gegründet, vermutlich um die Hürden niedrig zu halten. Ist beZUG ein klassisches Bootstrapping-Projekt aus dem Cashflow, oder suchen Sie aktiv nach Investoren für das schnelle Wachstum?
Richtig, die beZUG ist aus Eigenkapital entstanden und der Plan ist auch aus eigenem Cashflow zu wachsen. Das impliziert jedoch ein kontinuierlich moderates Wachstum. Aber müssen, wie bei fast jedem produzierenden Unternehmen, Material und Produktion vorfinanziert werden. Sollte somit das limitierte Budget die Bedienung einer schnell wachsenden Nachfrage ausbremsen, müssen auch externe Finanzmittel in Betracht gezogen werden.
Aktuell verkaufen Sie D2C über Ihren Webshop. Aber bei einem "Mitnahmeartikel" fressen Versand und Marketing oft die Marge. Planen Sie den Schritt in den stationären Handel, etwa in Bahnhofsbuchhandlungen?
Tatsächlich bin ich bereits in Kontakt mit ebensolchen Handelsunternehmen, welche direkt an Bahnhöfen oder Flughäfen angesiedelt sind. Ich könnte mir auch vorstellen, dass der beZUG zukünftig aus einem Automaten direkt am Gleis bezogen werden kann. Das sind aber Ideen für Zukunft.
Bieten Sie den beZUG auch gebrandet bzw. personalisiert an?
Ja, die Verpackung und auch der beZUG selbst bieten verschiedene Möglichkeiten für ein individuelles Branding. Auch eine individuelle Stofffarbe wäre umsetzbar bei entsprechender Abnahmemenge.
Zum Abschluss ein Rat an unsere Leser*innen: Sie haben nicht lange am theoretischen Reißbrett verharrt. Ist „Einfach machen“ immer der beste Weg, oder hätten Sie rückblickend an einer Stelle lieber mehr geplant?
Diese Frage kann ich in fünf Jahren vermutlich besser beantworten. Als Gründer heißt es doch immer learning by doing. Natürlich geht es besser, aber dieses Unternehmen würde es heute noch nicht geben hätte ich alle Eventualitäten, Möglichkeiten und Förderungen vorab recherchiert. Habe ich mich über mich selbst geärgert, als ich manches Mal mit dem Steuerberater gesprochen hatte, weil es auch anders und besser gegangen wäre? Vielleicht ja. Aber bereue ich das Unternehmen so aufgezogen zu haben wie es heute ist? Nein, bestimmt nicht. Also lieber rein ins kalte Wasser und schwimmen lernen als ewig am Beckenrand stehen.
Hier geht's zu beZUG
Das Interview führte StartingUp-Chefredakteur Hans Luthardt
50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert
Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.
Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.
Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.
Vom Side-Project zur modularen Architektur
Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.
Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.
Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.
Das Open-Core-Modell auf dem Prüfstand
Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.
Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.
Im Haifischbecken der Tech-Giganten
In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.
Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.
Lektionen für die Start-up-Szene
Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.
Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.
Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.
Angriff auf die Portal-Giganten: PropTech Mietz steigt in den Immo-Verkauf ein
Pünktlich zum bevorstehenden fünfjährigen Jubiläum wagt das Berliner Start-up Mietz den nächsten großen Schritt. Die PropTech-Plattform von Gründerin Lena Tuckermann erweitert ihr Geschäftsmodell und bietet ab sofort neben der digitalen Vermietung auch den Immobilienverkauf über eine End-to-End-Plattform an.
Damit positioniert sich das Unternehmen künftig als umfassende digitale Lösung für Vermietung und Verkauf von Wohnimmobilien in Deutschland. Was als nutzerinnenfreundliche App-Alternative für die Wohnungssuche begann, soll sich nun zu einer umfassenden Infrastruktur entwickeln, die nahezu den gesamten Verkaufsprozess digital organisieren soll.
Das Bemerkenswerte daran: Laut Gründerin Lena Tuckermann hat ein dreiköpfiges Kernteam das neue Segment in nur 14 Tagen mithilfe von KI aus dem Boden gestampft – eine klare Kampfansage an die etablierten Marktgiganten.
Vom eigenen Wohnungs-Frust zum PropTech-Challenger
Die Mietz GmbH ist eine 2021 gegründete SaaS-Plattform für digitale Immobilienvermarktung mit Sitz in Berlin. Entstanden aus der eigenen Frustration bei der Wohnungssuche, startete Tuckermann mit der Mission, Vermietende und Mietende von Mailfluten zu befreien und den gesamten Prozess der Wohnraumvermietung zu digitalisieren. Das reicht von der Inseratserstellung über das Bewerbermanagement bis hin zur rechtssicheren Vertragsunterzeichnung.
+++ Tipp der Redaktion: 2023 was Lena Tuckermann bereits unsere „Gründerin der Woche“ – hier das Interview zum Nachlesen. +++
Das Konzept ging auf: Inzwischen wird die Plattform nach Unternehmensangaben deutschlandweit von über 150.000 Nutzerinnen verwendet. Flankiert wird das aktuelle Wachstum durch strategische Verstärkung im Management: Der Münchner Unternehmer Lukas Schwaiger ist als neuer Partner an Bord. Er schließe laut Tuckermann vor allem eine inhaltliche Lücke im Team. „Lukas teilt unsere Vision und Ambition und ist damit eine große Bereicherung für Mietz“, freut sich die Gründerin. Und schiebt den strategischen Mehrwert gleich hinterher: „Zudem bringt er viel operative Expertise aus dem Verkaufssegment ein – dieses Wissen ist wertvoll für die Weiterentwicklung unserer Software Prozesse.“
KI-Tempo vs. Konzernstrukturen
Besonders aufsehenerregend ist die Geschwindigkeit der Produktentwicklung. Dass das neue Marktsegment des Immobilienverkaufs dank des massiven Einsatzes künstlicher Intelligenz von nur drei Personen innerhalb von zwei Wochen aufgebaut wurde, ist eine Kampfansage. Mietz positioniert sich bewusst als schnelle, technologiegetriebene Alternative zu einem Monopol mit 1049 Mitarbeitenden – ein unverhohlener Seitenhieb auf die dominierenden Immobilienportale. In einer traditionell stark von Männern dominierten Immobilienbranche setzt Tuckermann als Female Founder damit ein echtes Ausrufezeichen für agile Softwareentwicklung.
Doch wie viel an den 14 Tagen Entwicklungszeit ist reines KI-Prompting und wie viel echte Programmierarbeit? „Das war ein ambitionierter Plan, aber ich war mir sicher, mit dem aktuellen Tech-Setup schaffen wir das“, blickt Tuckermann zurück. Sie ordnet die Euphorie jedoch realistisch ein: „Der Großteil ist nach wie vor klassisches Coding, die Einzelprozesse werden jedoch durch K-Produkte in einer wesentlich höheren Geschwindigkeit abgewickelt, als vorher.“ Dennoch sei der Sprung gewaltig: „Vor einem Jahr beispielsweise hätten wir mit Coding allein noch viel länger für so ein Produkt gebraucht. Das ist eine riesige Chance für Start-ups in der aktuellen Zeit.“
Diese neuen technischen Möglichkeiten will Mietz nutzen, um gezielt die Schwächen des großen Goliaths anzugreifen. Dieser habe laut der Gründerin in den letzten Jahren durch eine sehr aggressive Preispolitik im Markt viele Teilnehmer verärgert. Zudem liefen viele Prozesse immer noch arbeitsintensiv, intransparent und vor allem ineffizient ab. „Kein Mensch braucht 1.000+ E-Mails pro Vermietung“, kontert Tuckermann scharf. Ihre Kampfansage lautet daher: „Wir sehen die Chance darin, diese Probleme zu lösen und einen Prozess zur Verfügung zu stellen, der fair, kosteneffizient und schnell funktioniert. Ohne eine einzige E-Mail.“
Tinder-Prinzip trifft auf KI und B2B-Effizienz
Der Verkaufsbereich richtet sich wie auch die Vermietung sowohl an Privatpersonen als auch an professionelle Anbieter*innen. Die Plattform digitalisiert sämtliche Schritte der Immobilienvermarktung und soll dadurch Kosten und administrativen Aufwand erheblich reduzieren. Das System basiert auf mehreren technologischen Säulen, die nun auch den Verkauf skalierbar machen sollen.
Um das zu erreichen, setzt Mietz auf eine radikale Vereinfachung der User Experience: Für Suchende adaptiert die Plattform das gelernte Tinder-Prinzip. Nach der einmaligen Anlage einer digitalen Bewerbungsmappe reicht ein simpler Swipe nach rechts, um sich auf passende Objekte zu bewerben. Auf Anbieterseite verspricht die Software dank KI-gestützter Automatisierung eine massive Arbeitserleichterung. So soll die Künstliche Intelligenz selbständig Exposé-Texte basierend auf hochgeladenen Bildern verfassen und diese eigenständig um Mikro- sowie Makrolage-Daten ergänzen.
Flankiert wird dies vom sogenannten Mietz Score: Ein eigens entwickelter Algorithmus wertet Bewerberinnendokumente vollautomatisch aus und zeigt den Anbieterinnen sofort die Passgenauigkeit und Bonität der Interessenten an. Doch Mietz zielt nicht nur auf private Eigentümerinnen ab: Mit einem klaren B2B-Fokus unterstützt die Plattform auch Massenimporte sowie Schnittstellen zu ERP-Systemen, wodurch sich die Lösung ebenso nahtlos für Wohnungsunternehmen, Projektentwicklerinnen und Maklerinnen eignet.
Laut Tuckermann reduziert die digitale End-to-End-Lösung die Kosten um bis zu 80 Prozent und wickelt den Vermietungsprozess im Schnitt doppelt so schnell ab wie übliche Immobilienplattformen.
Zwischen Convenience und Notariat
Der Kauf einer Immobilie ist jedoch eine hochvolumige, oft lebensverändernde Entscheidung. Ob eine schnelle, auf Bequemlichkeit getrimmte UX dem enormen Informations- und Sicherheitsbedürfnis beim Immobilienkauf gerecht wird, muss sich erst noch zeigen. Auf die Nachfrage, wie sie diesem Anspruch gerecht werden wolle, betont die Gründerin: „Gerade bei einer solchen Kauf-Entscheidung geht es um Verlässlichkeit, Sicherheit und Transparenz.“ Man verstehe sich nicht nur als Plattform, sondern als Unterstützer für die Nutzer*innen. Das setze man um, indem nur geprüfte Angebote von seriösen Anbieter*innen gelistet und auch Informationen rund um den Prozess zur Verfügung gestellt werden.
Ein weiteres Nadelöhr ist der in Deutschland zwingend erforderliche Gang zum Notariat. Tuckermann räumt ein, dass die Software in diesem streng regulierten analogen Schritt aktuell noch an juristische Grenzen stößt. „Im Verkauf ist das Vertrauen in der Anbahnung und die Verbindung der richtigen Vertragsparteien ein sehr wesentlicher Prozess. Hierauf konzentrieren wir uns für den Start in diesem Jahr“, erklärt sie die aktuelle Roadmap. Langfristig wolle man die Grenzen aber verschieben: „Im Anschluss geht es darum, den Prozess möglichst weit für den Notar vorzubereiten – etwa durch Features, die den Datenraum automatisch aufbereiten.“
Wo Mietz angreift – und was zum Überleben nötig ist
Der Blick auf die Konkurrenz zeigt, dass Mietz sich auf ein hart umkämpftes Schlachtfeld begibt. Das von Lena Tuckermann erwähnte Monopol mit 1049 Mitarbeitenden ist ein kaum verhüllter Fingerzeig auf den Branchenriesen ImmoScout24. Flankiert von Playern wie Immowelt dominiert dieser das klassische Classifieds-Geschäft. Gleichzeitig tummeln sich im PropTech-Sektor bereits etablierte Start-ups wie McMakler, die den Verkaufsprozess als hybride Makler digitalisieren wollen.
Wie kann und muss sich Mietz in diesem Sandwich aus Milliardenkonzernen und Unicorn-Hoffnungen absetzen? Die Strategie der Berliner ruht dabei auf drei tragenden Säulen. Anstatt wie klassische Immobilienportale überwiegend auf kostenintensive Anzeigenmodelle zu setzen – und damit viel Frustration im Markt zu verursachen –, verfolgt Mietz einen technologiegetriebenen Ansatz. Das Ziel ist es, Immobilientransaktionen und das gesamte Ökosystem rund um die Immobilie als digitales Home Ecosystem völlig neu zu denken.
Um sich zudem die KI-gestützte Preisführerschaft zu sichern, greift das Start-up die teuren Verkaufs-Inserate der klassischen Portale sowie die kostenintensiven Vertriebsteams der Hybrid-Makler an. Mietz setzt als SaaS-Modell stattdessen voll auf KI und Automatisierung, um die Kosten für Anbieter*innen drastisch zu senken. Der dritte entscheidende Hebel gegen die großen Portale ist ein gezielter B2B-Lock-in-Effekt: Durch eine tiefe Integration in die Arbeitsabläufe der Immobilienprofis mittels ERP-Schnittstellen will Mietz für Wohnungsunternehmen langfristig unverzichtbar werden.
Bei der Monetarisierung des Verkaufssegments weicht Tuckermann von reinen Abo-Modellen ab: „Es wird eine Kombination geben“, verspricht sie. „Wir überlassen unseren Nutzern die Wahl, ob sie Mietz in einem pay-per-use Modell nutzen möchten oder als SaaS Abo.“
Der Lackmustest
Lukas Schwaiger ist überzeugt, dass klassische Plattformmodelle in den kommenden Jahren durch technologische Entwicklungen und KI zunehmend an Bedeutung verlieren werden. Dennoch bleibt der Immobilienmarkt ein „Winner-takes-all-Spielfeld“. Platzhirsche verfügen über gewaltige Netzwerkeffekte und Millionen von Seitenbesucher*innen. Eine End-to-End-Lösung muss zwingend genügend Käuferinnen und Verkäuferinnen vereinen, um echte Liquidität im Markt zu schaffen.
Wie will Mietz ohne gigantisches Marketingbudget diese Netzwerkeffekte erzielen? Tuckermann gibt sich hier überaus selbstbewusst: „Beide Parteien sind schon da und kommen aktuell aus dem Markt proaktiv auf uns zu.“ Sie verweist auf die Vorarbeit der letzten Jahre: „Wir haben in den vergangenen Jahren ein starkes Immobiliennetzwerk aufgebaut. Die Produktwünsche hat der Markt klar formuliert.“ Für ihr agiles Team sei die Mission nun simpel: „Für uns geht es jetzt vor allem um deren Umsetzung in hoher, technischer Geschwindigkeit.“
Dass ein 3-Personen-Team nach eigenen Angaben in 14 Tagen ein Verkaufs-Tool baut, beweist beispiellose Agilität. Ob das ausreicht, um hochvolumige Transaktionen von den etablierten Playern abzuziehen, wird die Zukunft zeigen.
Zwischen Hausaufgaben und Datenschutz: Der mutige B2C-Vorstoß von innoGPT
Die Inno KI GmbH aus Vechta öffnet ihre bisher auf Geschäftskunden ausgerichtete KI-Plattform nun für Familien. Mit einem neuen "Family Package" wollen die Gründer Mike Koene und Maurice Brumund das Problem des Datenschutzes bei der KI-Nutzung von Jugendlichen lösen. Ein cleverer Schachzug in eine unbesetzte Nische – oder ein schwieriges B2C-Geschäftsmodell mit hoher Preishürde?
Die Zahlen der jüngsten JIM-Studie (Jugend, Information, Medien) sprechen eine deutliche Sprache: 70 Prozent der Jugendlichen nutzen Künstliche Intelligenz zur Informationssuche, 74 Prozent lassen sich bei den Hausaufgaben helfen. Die Kehrseite dieser rasanten Adaption: Die Nutzung erfolgt zumeist über die kostenlosen Web-Versionen von US-Giganten wie OpenAI oder Google. Sensible Daten – von persönlichen Fragen bis zu hochgeladenen Schuldokumenten – fließen oft ungefiltert in die globalen Trainingsdatenbanken der Anbieter, sofern nicht manuell widersprochen wird.
Während die Politik über Social-Media-Verbote für Minderjährige debattiert, bleibt der regulatorische blinde Fleck bei KI-Tools im Kinderzimmer bislang bestehen. Genau in diese Lücke stößt nun das niedersächsische Start-up Inno KI GmbH mit seiner Plattform innoGPT.
Von der Agentur zum KI-Aggregator
Hinter innoGPT steht kein klassisches, VC-finanziertes Silicon-Valley-Konstrukt, sondern mittelständischer Pragmatismus aus Vechta. Co-Founder Maurice Brumund und sein Team begannen bereits 2022 im Umfeld einer eigenen Digitalmarketing-Agentur, intensiv mit KI-Tools zu experimentieren.
Aus dem internen Pain Point – der Frage, wie Mitarbeitende rechtssicher und datenschutzkonform mit großen Sprachmodellen (LLMs) arbeiten können – entstand Ende 2024 die Plattform innoGPT. Bisher lag der Fokus des Startups strikt auf dem B2B-Segment: Mit rein europäischem Hosting, DSGVO-Konformität und einer Zero-Retention-Policy (keine Nutzung der API-Daten für das Modell-Training) positionierte sich innoGPT als Lösung gegen die „Schatten-IT“ in Unternehmen. Laut Unternehmensangaben nutzen bereits über 2.500 Privat- und Geschäftskund*innen den Service. Nun folgt die Ausweitung des Geschäftsmodells auf den B2C-Markt.
Das Produkt: Ein "Safe Space" für die Familie
Mit dem neuen „Family Package“ erhalten bis zu fünf Familienmitglieder für 34,90 Euro im Monat individuelle Logins zu einer zentralen Plattform. Über diese können sie gebündelt auf verschiedene führende KI-Modelle von OpenAI, Anthropic, Google, Meta, Mistral und Black Forest Labs zugreifen. Ein zusätzlich buchbares Add-on filtert persönliche Daten (Named Entity Recognition) wie Namen oder E-Mail-Adressen und ersetzt diese vor der Übermittlung an die Rechenzentren automatisch durch Platzhalter.
Das Geschäftsmodell und der Markt
Aus Start-up-Sicht ist der Vorstoß von B2B-SaaS in ein Family-Abo-Modell gleichermaßen spannend wie riskant. Eine kritische Analyse offenbart dabei mehrere Marktherausforderungen:
- Der technologische Burggraben (Moat): Das Geschäftsmodell von innoGPT ist im Kern ein Aggregator- oder Wrapper-Modell. Das Start-up entwickelt keine eigenen Foundation-Modelle, sondern baut eine sichere, europäische Middleware-Schicht über die Schnittstellen (APIs) der Tech-Giganten. Der technologische Burggraben ist folglich eher niedrig. Der primäre Unternehmenswert liegt in der User Experience, der reibungslosen Modellanbindung und dem abstrakten Vertrauensfaktor „Datenschutz“.
- Zahlungsbereitschaft: 34,90 Euro im Monat (knapp 420 Euro im Jahr) sind für ein klassisches Familienbudget eine erhebliche Summe. Der Preis entspricht fast den Kosten von anderthalb ChatGPT-Plus-Lizenzen. Die zentrale Herausforderung für das Marketing wird sein: Sind Eltern bereit, für den Schutz der Daten ihrer Kinder diesen Premium-Aufschlag zu zahlen, während der Nachwuchs die Basis-Tools de facto kostenlos und mit einem Klick auf dem Smartphone nutzen kann?
- Token-Ökonomie in der Praxis: Das Modell sieht einen geteilten Token-Pool für die fünf Accounts vor. In der Praxis könnte dies zu Reibereien führen, wenn beispielsweise ein Familienmitglied rechenintensive Bildgenerierungen (etwa über Black Forest Labs) durchführt und das Kontingent für die Text-Prompts der restlichen Familie vorzeitig aufbraucht.
- Wettbewerbslandschaft: InnoGPT bewegt sich in einem Sandwich-Markt. Von oben drohen die direkten B2C-Angebote der Tech-Riesen (es ist absehbar, dass OpenAI oder Google eigene „Family Plans“ ausrollen). Von der Seite drücken EdTech-Start-ups in den Markt, die KI DSGVO-konform direkt in die Lernplattformen der Schulen integrieren – was eine private Familienlizenz obsolet machen könnte.
Ein mutiger Testballon
Für das Start-up-Ökosystem ist die Inno KI GmbH dennoch ein Paradebeispiel für „bootstrapped“ Innovationskraft. Anstatt ein Produkt am Reißbrett zu entwerfen, hat das Team ein valides Angebot aus einem eigenen betrieblichen Schmerz heraus entwickelt.
Der Vorstoß in den B2C-Markt wirkt wie ein smarter, PR-wirksamer Testballon. Das Start-up greift eine hochaktuelle, emotionale gesellschaftliche Debatte auf (Jugendschutz bei KI) und besetzt rhetorisch geschickt die Rolle des Problemlösers. Ob sich das Family-Modell finanziell trägt, hängt letztlich davon ab, ob innoGPT den trockenen Begriff der „DSGVO-Konformität“ für Eltern emotional so aufladen kann, dass er als unverzichtbare Sicherheitsmaßnahme wahrgenommen wird. Gelingt dies nicht, ist das Risiko überschaubar: Das Start-up kann sich nahtlos wieder auf sein wachsendes B2B-Kerngeschäft konzentrieren.
Aiconiq.io: Das KI-Gehirn für den Mittelstand – Brillante Vision oder teure Manufaktur?
Autonome Agenten, halbierte Prozesskosten und sicheres Daten-Hosting: Mit Aiconiq.io tritt ein Start-up an, um das KI-Gehirn für den Mittelstand zu bauen. Wir wollten wissen, wie das „Corporate Brain“ funktioniert und wo die Herausforderungen bei der Skalierung liegen.
Hinter der Aiconiq GmbH stehen zwei ausgewiesene Branchenexperten. Gegründet wurde das Start-up 2025 von Prof. Dr. Peter Gentsch, einem bekannten KI-Pionier und Seriengründer, sowie dem KI-DeepTech-Experten Dr. Michael Patrushev. Gemeinsam bringen sie jahrzehntelange Erfahrung aus der KI-Forschung, im internationalen Engineering und beim Skalieren technologiegetriebener Unternehmen in ihr neues Projekt ein.
Mehr als nur ein Chatbot
Dass hier DeepTech-Experten am Werk sind, zeigt sich am technologischen Anspruch: Während viele Firmen mit generischen Chatbots experimentieren, integriert Aiconiqs Corporate Brain laut Unternehmensangaben nicht nur explizites, sondern gezielt das implizite Wissen (Tacit Knowledge) der Belegschaft. Erfasst wird dies durch KI-gesteuerte Interviews. Um Halluzinationen und subjektiven Fehleinschätzungen vorzubeugen, setzt Co-Gründer Michael Patrushev auf harte Validierung: „Die KI stellt keine offenen, spekulativen Fragen, sondern kontextualisierte, prozessbezogene Fragen entlang realer Use Cases.“
Nach einem Abgleich mit ERP-Logs und Experten-Kreuzvergleichen speichere das System keine absoluten Wahrheiten, so Patrushev, sondern „gewichtete Wissenselemente mit Vertrauens-Score und Quellenreferenz“. Gerade dieses subjektive Erfahrungswissen sei im Unternehmensalltag entscheidend, müsse aber umsichtig geprüft werden.
David gegen die Tech-Goliaths
Im hart umkämpften Markt stellt sich die Frage, wie lange das Start-up gegen die Milliarden-Budgets von Microsoft oder OpenAI bestehen kann. Prof. Peter Gentsch gibt sich pragmatisch: „Wir kämpfen nicht gegen die Hyperscaler wie OpenAI, Google oder Anthropic – wir nutzen sie.“ Das eigene System setze horizontal auf den bekannten Modellen auf. Der Burggraben entstehe durch branchenspezifische Use Cases in einer sicheren, DSGVO-konformen Umgebung, wahlweise on-premises oder in einer europäischen Cloud.
Gentsch pointiert: „Wir wollen nicht das größte Gehirn bauen; wir bauen das relevanteste Brain für ein Unternehmen. Die Tech-Giganten optimieren Skalierung – wir optimieren den Unternehmens-Kontext.“
Skalierung: Softwareprodukt oder Manufaktur?
Die schnelle Entwicklung der eigenen Modelle sichert Aiconiq durch die interne „Aiconiq Factory“ ab, die auf radikale Automatisierung setzt. Kontrollverlust fürchtet Patrushev dabei nicht: „Geschwindigkeit ersetzt bei uns nicht Qualität – sie wird durch Qualitätssicherungssysteme ermöglicht.“ Jeder KI-generierte Code durchlaufe strenge Security-Checks und Test-Pipelines.
Doch lässt sich das aufwendige Einfangen von Unternehmenswissen beim Kunden ebenso reibungslos skalieren, oder droht Aiconiq in einem beratungsintensiven Manufaktur-Modell steckenzubleiben? Gentsch wehrt ab: Man nutze KI, um KI im Unternehmen aufzubauen. Algorithmen deckten Inkonsistenzen im Wissen automatisch auf und lösten sie teils selbständig. Ganz ohne menschliches Zutun gehe es aber nicht, räumt der Gründer ein: „Damit bleibt immer ein wenig Manufaktur bzw. ‚Human in the loop‘.“
Ausblick
Mit einer aktuellen Bewertung von 10 Millionen Euro und der Aufnahme ins „German Accelerator USA-Programm“ hat Aiconiq.io nach eigenen Angaben bereits namhafte DAX-Konzerne überzeugt. Gelingt es den Frankfurtern nun, die komplexe Wissensextraktion weiter zu standardisieren, könnte sich ihr „Corporate Brain“ als eine treibende Kraft der „industriellen KI-Revolution“ aus Deutschland etablieren.
Unchained Robotics auf dem Sprung in die „Champions League“ der Industrielogistik
Der Logistikkonzern Arvato beteiligt sich an Unchained Robotics und ebnet dem Paderborner Start-up den direkten Weg in die internationale Industrielogistik. Wir analysieren, wie dieser Deal den Markt aufmischt und welche strategischen Skalierungs-Learnings B2B-Gründer*innen daraus ziehen können.
Für Gründer*innen im Hardware- und Robotik-Bereich ist der Sprung von der Technologieentwicklung in den industriellen Masseneinsatz oft die größte Hürde. Bisher adressierte Unchained Robotics mit seiner Plattform vor allem kleine und mittelständische Betriebe in Europa. Durch die enge Verzahnung mit der Bertelsmann-Tochter Arvato validiert das Start-up seine Technologie nun im industriellen Großmaßstab.
Arvato plant, in den kommenden Jahren eine dreistellige Anzahl von Robotern in unterschiedlichen operativen Umgebungen zu implementieren. Dieses Volumen schafft Erfahrungswerte und Standards, die Unchained Robotics gegenüber Mitbewerbern einen deutlichen Skalierungsvorteil verschaffen dürften. Neue Lösungen können fortan direkt entlang konkreter Use Cases im echten Betrieb erprobt und für den breiten operativen Rollout vorbereitet werden.
Plattform-Strategie und strategische Einordnung im Wettbewerb
Der deutsche Robotik-Markt ist stark umkämpft und von unterschiedlichen Lösungsansätzen geprägt. Während einige Start-ups auf die Entwicklung eigener Hardware setzen, fokussiert sich Unchained Robotics auf die softwareseitige Integration, insbesondere durch ihr Betriebssystem. So setzt beispielsweise das Münchener Start-up RobCo auf eigene, physische und modulare Hardware-Roboterarme, wohingegen Unchained strikt modular und herstellerunabhängig agiert.
Auch im Vergleich zu WAKU Robotics aus Berlin, die mit einem Marktplatz und eigener Software einen starken Fokus auf mobile Logistikroboter (AMR/AGV) legen, decken die Paderborner breitere Pick-and-Place-Anwendungen ab. Gegenüber Unternehmen wie Magazino (gehört zu Jungheinrich), die auf spezialisierte autonome Logistik-Roboter und Eigenentwicklungen für spezifische Prozesse fokussiert sind, grenzt sich Unchained durch seinen offenen, plattformbasierten Ansatz ab.
Diese strategische Positionierung erweist sich nun als maßgeblicher Hebel. Für einen globalen 3PL-Dienstleister wie Arvato wäre die Bindung an nur einen Hardware-Hersteller zu starr. Durch die Unabhängigkeit von Unchained Robotics lassen sich Lösungen flexibel für reale Logistik- und Fulfillment-Prozesse maßschneidern.
Der „Huckepack“-Vorteil bei der US-Expansion
Ein weiterer kritischer Faktor für die künftige Marktstellung des Start-ups ist die Internationalisierung. Üblicherweise erfordert der Sprung über den Atlantik für deutsche Tech-Gründer enorme Summen und den langwierigen Aufbau eigener Vertriebsstrukturen.
Unchained Robotics wählt eine effizientere Route: Neben europäischen Standorten eröffnet die Partnerschaft den direkten Zugang in internationale Märkte, insbesondere in die USA. Das Start-up expandiert quasi „huckepack“ über die bestehenden, hochkomplexen Logistik-Setups von Arvato. Gerade in den USA, wo hohe Automatisierungsanforderungen auf dynamische E-Commerce-Strukturen treffen, sichert dies einen schnellen und praxisnahen Markteintritt.
Automatisierung ohne „Raketenwissenschaft“
Für den Logistikkonzern steht bei dem Deal vor allem die rasche operative Umsetzung im Vordergrund: Automatisierung müsse heute in erster Linie schnell wirken, so Arvato-CEO Frank Schirrmeister.
Dies zahlt direkt auf die ursprüngliche Vision von Unchained Robotics ein: Die Paderborner sind angetreten, um zu beweisen, dass industrielle Automatisierung längst keine „Raketenwissenschaft“ mehr ist. Durch den Arvato-Deal erhält das Start-up nun die Möglichkeit, diesen Anspruch von der Konzeption bis zur Inbetriebnahme im globalen Großmaßstab unter Beweis zu stellen.
Smart Scaling: 3 konkrete Learnings für B2B- und Tech-Gründer*innen
Aus dem Deal zwischen Unchained Robotics und Arvato lassen sich drei handfeste strategische Manöver ableiten, die Start-ups bei der Skalierung im B2B-Umfeld helfen können:
1. Orchestrierung schlägt Vendor-Lock-in
Gerade im Hardware- und Maschinenbau neigen Start-ups dazu, eigene proprietäre Systeme zu entwickeln. Unchained Robotics zeigt den Wert des Plattform-Gedankens: Corporates hassen den „Vendor-Lock-in“ (die Abhängigkeit von einem einzigen Hersteller).
Learning: Wer sich als herstellerunabhängige, modulare Software- oder Integrationsschicht positioniert, macht sich für Konzerne, die flexibel bleiben müssen, weitaus attraktiver als der Anbieter einer isolierten Einzellösung.
2. Die „Huckepack“-Expansion (Piggybacking)
Der teuerste und riskanteste Schritt für deutsche B2B-Start-ups ist oft die Internationalisierung – insbesondere in die USA. Anstatt Millionen an VC-Geldern in den Aufbau eigener US-Vertriebs- und Servicestrukturen zu verbrennen, nutzt Unchained Robotics die bestehende Infrastruktur seines strategischen Partners.
Learning: Sucht gezielt nach Kund*innen oder Investor*innen, deren eigene globale Logistik oder Infrastruktur ihr als direktes Sprungbrett für neue Märkte nutzen könnt.
3. Volumen-Commitment als unfairen Wettbewerbsvorteil (Moat) aufbauen
Ein Corporate-Investment ist gut, ein garantiertes operatives Testfeld ist besser. Arvato hat sich nicht nur an dem Start-up beteiligt, sondern ein klares Commitment zum Rollout einer dreistelligen Anzahl von Robotern abgegeben.
Learning: Verhandelt bei strategischen Beteiligungen immer auch den operativen Einsatz mit hinein. Das garantierte Volumen generiert reale Use Cases und Datenmengen, die für neue Wettbewerber einen fast unüberwindbaren Burggraben („Moat“) darstellen.
Gründer*in der Woche: Herita Technologies – Supply Chain Financing neu gestaltet
Das Berliner FinTech Herita Technologies wurde 2025 von Christoph Iwaniez, Benjamin Jones und Felix Kollmar mit der gemeinsamen Mission gegründet, globale Handelsfinanzierung zu vereinfachen, Abhängigkeiten zu reduzieren und nachhaltiges Wachstum in allen Branchen zu fördern. Mehr dazu im Interview mit dem Co-Founder & CEO Christoph Iwaniez.
Wer sind die Köpfe hinter Herita Technologies und was hat euch 2025 angetrieben, Herita zu gründen?
Wir sind zu dritt gestartet: Felix, Ben und ich. Felix hat ein Industry-Tech-Unternehmen erfolgreich aufgebaut und verkauft – er kennt den deutschen Mittelstand und die Herausforderungen aus der ersten Reihe. Mit seinem Netzwerk und seiner Erfahrung bringt er uns erfolgreich in den Markt. Ben und ich haben schon einmal gemeinsam ein FinTech aufgebaut. Er war CTO bei Bitwala und hat mich damals als Late Co-Founder ins Team geholt. Diesmal war ich derjenige, der ihn überzeugt hat, wieder gemeinsam etwas aufzubauen – und er baut jetzt die gesamte technische Plattform.
Welches primäre Geschäftsmodell verfolgt ihr mit Herita?
Die Lücke zwischen geforderten Zahlungszielen und Liquiditätsbedarf von Lieferanten wächst – und niemand löst sie wirklich gut. Factoring erreicht nur wenige große Lieferanten, und klassische SCF-Programme der großen Banken sind schwerfällig und teuer. Und da kommt die unternehmerische Opportunität ins Spiel.
Seit 2024 kann der Handelswechsel vollständig digital abgebildet werden. Damit wird ein jahrhundertealtes, rechtlich starkes Instrument plötzlich global skalierbar – ohne Papier, ohne Unterschriftenchaos, ohne Bankabhängigkeit. Darauf baut Herita auf. Wir kombinieren diese neue rechtliche Opportunität mit einer modernen Plattform. Unsere Technologie hilft Unternehmen, ihren Lieferanten und Kapitalgebern viel effizienter Supply Chain Financing abzuwickeln. Unser Modell ist einfach: Wir helfen Lieferketten zu finanzieren – aber ohne die Hürden und Einschränkungen traditioneller Bankprodukte.
Welche Meilensteine habt ihr bislang erreicht?
Wir haben vor wenigen Wochen den ersten vollständig digitalen Handelswechsel über unsere Plattform ausgestellt, übertragen und refinanziert – echte Transaktion, echtes Geld, korrekt verbucht in allen Systemen. Jetzt erweitern wir die Plattform so, dass Unternehmen ihre gesamten Lieferantenprogramme damit steuern können – von der Ausstellung bis zur Refinanzierung.
Nochmals auf den Punkt gebracht: Welche konkreten Probleme löst ihr für eure Kund*innen besser als bestehende Lösungen bzw. was unterscheidet euch heute von Wettbewerber*innen im FinTech-Sektor?
Wir lösen ein ganz akutes Problem in internationalen Lieferketten: Unsere Kunden wollen ihr working capital optimieren und verlängern zunehmend Zahlungsziele im Einkauf. Aber ihre Lieferanten brauchen Liquidität, viele davon sind zu klein oder in Ländern ansässig, in denen es keinen Zugang zu klassischen SCF-Programmen gibt.
Herita macht zwei Dinge besser:
1. Unsere Technologie ermöglicht Zugang zu Finanzierung für Unternehmen und ihre Lieferanten, die Banken gar nicht erst erreichen.
2. Wir ermöglichen Programme, die international funktionieren, auch dort, wo traditionelle Anbieter nicht aktiv sind.
Kurz gesagt: Wir bringen Kapital dorthin, wo es gebraucht wird – effizient, rechtssicher, global und ohne die hohen Transaktionskosten klassischer Lösungen.
Wie habt ihr die Startphase finanziell gestemmt?
Am Anfang vor allem durch das, was Gründer am meisten investieren: Zeit, Passion für eine innovative Lösung und persönlichen Einsatz.
Dann haben wir eine erste kleine Runde mit Angel-Investoren und frühen VCs aufgenommen, die an unsere These glauben und uns über reines Kapital hinaus mit Netzwerken und Know-how unterstützen.
Ihr habt im letzten Jahr an der renommierten EY Startup Academy teilgenommen. Was war eure Motivation, wie hast du das sechswöchige Programm erlebt und was hat es euch letztlich gebracht?
Für uns war das EY-Programm eine riesige Chance, uns mit Experten aus vielen Bereichen auszutauschen. Umgekehrt konnten wir mit diesen Sparringspartnern unser Produkt auf den Prüfstand stellen. Optimalerweise treffen wir bei den EY-Kollegen auf entsprechende Resonanz für mögliche gemeinsame Initiativen, weil Working Capital, Risiko und Supply Chains überall auf der Agenda stehen.
Am Ende der Academy konntet ihr euch beim großen Pitch-Finale gegen zehn Mitstreiter*innen durchsetzen und den EY Startup Academy Award 2025 gewinnen. Was bedeutet euch diese Auszeichnung?
Für uns war der Pitch das eigentliche Ziel. Wir mussten uns selbst hinterfragen, unser Produkt schärfen und den besten Weg finden, unser Geschäftsmodell in wenigen Minuten klar auf den Punkt zu bringen. Dass wir nun eine Bestätigung haben, dass wir eine ansprechende und ganz konsistente Vorstellung von Herita abrufen können, hilft uns in jedem anstehenden Gespräch mit Kunden und potenziellen Investoren.
Was sind eure weiteren unternehmerischen Vorhaben?
Wir wollen jetzt unsere ersten Top-Kollegen an Bord holen und Herita breiter aufstellen. Gleichzeitig stehen die ersten Kunden schon bereit – jetzt geht es darum, sauber zu liefern und den Erwartungen an unseren Mehrwert gerecht zu werden.
Und last, but not least: Was rätst du anderen Gründer*innen aus eigener Start-up-Erfahrung.
Stärkt eure Resilienz. Gründen ist kein Sprint, sondern ein Weg mit vielen Hindernissen, Rückschlägen und Momenten der Unsicherheit. Wer das aushält und immer weiter geht, kann unglaublich viel gewinnen: die Chance, etwas Eigenes zu bauen und eine Idee Wirklichkeit werden zu lassen.
Hier geht's zu Herita Technologies
Prämierter Gründungsgeist an der Uni
Elf Mainzer Studierende wurden für ihren Beitrag bzw. ihr Engagement zum regionalen Technologietransfer als treibende Kraft des Rhein-Main-Ökosystems geehrt.
Um ein dynamisches Start-up-Ökosystem aufzubauen, braucht es nicht nur Kapital und Forschung, sondern vor allem eine aktive Basis an den Hochschulen. Für ihren Beitrag zum regionalen Technologietransfer wurden am 5. März 2026 an der Johannes Gutenberg-Universität Mainz (JGU) elf Studierende ausgezeichnet. Die rheinland-pfälzische Wirtschaftsministerin Daniela Schmitt überreichte die Ehrung gemeinsam mit Prof. Dr. Stefan Müller-Stach, Vizepräsident der JGU, und Charlie Müller, Founder & Managing Director von Futury.
Struktureller Aufbau statt reiner Theorie
Die prämierten Studierenden engagieren sich primär im Umfeld des Entrepreneurs Club Mainz (ECM) sowie der studentischen Gründungsinitiative LAUNCH Rhein-Main, die heute hochschulübergreifend in Mainz, Frankfurt und Darmstadt aktiv ist. Sie wurden dafür geehrt, Start-up-Strukturen auf dem Campus nachhaltig zu institutionalisieren und das regionale Ökosystem entscheidend voranzubringen. Zu den wesentlichen, von den Studierenden mitgestalteten Meilensteinen des vergangenen Jahres zählen:
- Akademische Integration: Erstmals können sich Studierende an der JGU ihr Engagement über das Zertifikatsprogramm Entrepreneurship mit ECTS-Punkten auf das Studium anrechnen lassen.
- Sichtbarkeit: Die Durchführung zweier Demo Days bot eine Bühne für 24 Startup-Pitches vor mehr als 350 Teilnehmenden.
- Ökosystem-Finanzierung: Beim „Tag der Metropolregion“ sicherten sich die Initiativen 10.000 Euro Preisgeld für den weiteren Ausbau des studentischen Gründungsnetzwerks.
- Talententwicklung: Mit der „LAUNCH Talent Forge“ wurde ein neues Leadership-Programm für die nächste Generation studentischer Führungskräfte etabliert.
- Praxis-Validierung: Der Start der „Venture Labs“ ermöglichte Teams in der Frühphase die Teilnahme an Hackathons und einem fünfwöchigen Validation Track.
Zentraler Baustein einer bundesweiten Strategie
Die Relevanz dieser studentischen Basisarbeit zeigt sich im größeren wirtschaftspolitischen Kontext der Region. Das in Frankfurt am Main ansässige Innovationsnetzwerk Futury, einer der Initiatoren der Auszeichnung, gilt als Europas führendes industriegetriebenes Startup-Ökosystem. Getragen wird Futury von einer Allianz aus 33 Partnern aus Unternehmen und Stiftungen sowie vier Hochschulen: der Frankfurt School of Finance & Management, der Goethe-Universität Frankfurt, der TU Darmstadt und der JGU.
Das erklärte Ziel des Ökosystems ist es, den Transfer wissenschaftlicher Exzellenz in den Markt zu strukturieren, sodass daraus bis zum Jahr 2030 rund 1.000 neue Startups entstehen. Dafür wird Futury als eine von bundesweit zehn Startup Factories mit bis zu 10 Millionen Euro aus dem Bundeshaushalt gefördert.
In diesem Zusammenhang betonte Wirtschaftsministerin Schmitt, dass die Gründungskultur an den Hochschulen beginnen müsse. Eine frühe Berührung mit unternehmerischem Handeln sei essenziell, um Innovationen in Zukunftsfeldern wie Life Sciences, künstlicher Intelligenz und DeepTech zu fördern. Auch JGU-Vizepräsident Müller-Stach ordnete die Auszeichnung in die übergeordnete Transferstrategie der Universität ein: Es bedürfe eines Kulturwandels, um wissenschaftliche Erkenntnisse gezielt in gesellschaftlichen Impact und unternehmerische Lösungen – etwa für die Gesundheitsversorgung oder mehr Nachhaltigkeit – zu übersetzen.
Infokasten: Die exist-Programme des Bundes
Das Programm exist ist die zentrale Initiative des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) zur Förderung von Existenzgründungen aus der Wissenschaft. Es wird teilweise durch den Europäischen Sozialfonds (ESF) kofinanziert und zielt darauf ab, das Gründungsklima an Hochschulen und außeruniversitären Forschungseinrichtungen zu verbessern.
Die wichtigsten exist-Fördersäulen im Überblick:
- exist-Gründungsstipendium: Richtet sich an Studierende, Absolventen und Wissenschaftler. Es unterstützt die Vorbereitungsphase der Unternehmensgründung für maximal ein Jahr, um einen tragfähigen Businessplan auszuarbeiten und das Produkt oder die Dienstleistung zur Marktreife zu bringen. Neben der Sicherung des Lebensunterhalts werden Sach- und Coachingmittel bereitgestellt.
- exist-Forschungstransfer: Fördert besonders anspruchsvolle, forschungsbasierte Gründungsvorhaben (DeepTech), die mit aufwändigen und risikoreichen Entwicklungsarbeiten verbunden sind. Das Programm ist in zwei Phasen unterteilt: Phase I (Nachweis der technischen Machbarkeit und Businessplan-Erstellung) und Phase II (Unternehmensgründung und Vorbereitung einer externen Unternehmensfinanzierung).
- exist-Women: Eine spezifische Förderlinie, die gezielt darauf ausgerichtet ist, gründungsinteressierte Frauen an Hochschulen zu unterstützen und den Anteil von weiblichen Gründerinnen im Start-up-Ökosystem nachhaltig zu erhöhen.
- exist Startup Factories: Im Rahmen dieses Leuchtturmwettbewerbs fördert der Bund überregionale, hochprofessionelle Gründungszentren (wie Futury). Diese Factories agieren als eigenständige Unternehmen und binden gezielt private Investoren sowie etablierte Unternehmen ein, um deutsche Start-up-Ökosysteme auf internationales Spitzenniveau zu heben.
Better Sol: Zweites Leben für die Solarwende
Wie das 2023 von Mirko Laube und Luisa Schulze gegründete Start-up Better Sol den PV-Gebrauchtmarkt aufmischen will.
Das Braunschweiger Start-up Better Sol erhält rund 125.000 Euro Förderung aus dem „Green Startup“-Programm der Deutschen Bundesstiftung Umwelt (DBU), um gebrauchte Solarpaneele in großem Stil zurück in den Markt zu bringen.
Hinter dem Start-up stehen Luisa Schulze und Mirko Laube. Better Sol entstand ursprünglich im Sommer 2022 als Ausgründung des Magdeburger Recycling-Unternehmens Solar Materials und agiert seit 2023 als eigenständige GmbH am Standort Braunschweig. Während sich die ehemalige Muttergesellschaft auf das komplexe werkstoffliche Recycling von Modulen konzentriert, widmet sich Better Sol voll und ganz dem „Second Life“ – also der direkten Wiederverwendung der noch intakten Platten.
KI-gestützte Prüfung statt Schredder
Die Beschaffungsseite von Better Sol zielt primär auf große Solarparks ab. Die Betreiber tauschen dort häufig größere Mengen an Solarmodulen recht früh in ihrem Lebenszyklus durch neuere, leistungsstärkere Modelle aus. Um diese Module vor dem Müll zu bewahren, hat das Better-Sol-Team mittels DBU-Förderung ein in Teilen automatisiertes Testsystem mit eigener Software auf Basis künstlicher Intelligenz (KI) entwickelt.
Der Prüfprozess beginnt mit einer mehrstufigen optischen Untersuchung, bei der sowohl grobe Beschädigungen als auch jede Solarzelle einzeln begutachtet werden. Im Anschluss folgen eine eingehende Prüfung der elektrischen Sicherheit sowie eine Leistungsüberprüfung, die misst, wie viel Watt das Produkt im Vergleich zur ursprünglichen Leistung noch liefert. Die Software führt all diese Daten automatisiert zu einer detaillierten Leistungsprognose zusammen. Jedes funktionstüchtige Modul erhält ein Label mit den Testdaten, einer zugewiesenen Leistungsklasse und einem umfangreichen Prüfprotokoll. Nur der endgültige Rest wird zum Recycling aussortiert. Der Vertrieb erfolgt direkt über die Internetseite von Better Sol. Zielgruppe sind oft Privathaushalte oder die Dächer größerer Fabrikhallen.
Der Markt und die Technologie im Wettbewerbsvergleich
Nach Angaben des Statistischen Bundesamtes verbucht die Photovoltaik mittlerweile einen Anteil von etwa 24 Prozent und ist damit der zweitwichtigste Energieträger der inländischen Stromerzeugung. Das Reservoir an ausgemusterten, aber noch funktionierenden Modulen wächst rasant. Laut Schulze ist im Schnitt jedes zweite gebrauchte Solarmodul noch für eine erneute Nutzung geeignet. Doch der Gebrauchtmarkt professionalisiert sich zusehends.
Better Sol setzt aktuell auf eine pragmatische, KI-gestützte Teilautomatisierung und plant als nächsten logischen Entwicklungsschritt eine mobile Testanlage, um die Solarmodule direkt dort zu testen, wo sie ausgemustert werden. Genau in diesem logistisch entscheidenden Bereich der Vor-Ort-Prüfung operiert bereits der etablierte Wettbewerber 2ndlifesolar, eine Marke der großen Buhck Gruppe. 2ndlifesolar greift auf ein deutschlandweites Logistiknetzwerk zurück und kombiniert stationäre Erstbehandlungsanlagen mit mobilen Prüflaboren. Technologisch geht das Unternehmen tief in die industrielle Qualitätssicherung und führt standardmäßig Elektrolumineszenz-Prüfungen durch, um unsichtbare Mikrorisse im Vorfeld zu detektieren.
Einen völlig anderen, stark hochskalierten Weg bestreitet das österreichische CleanTech-Start-up 2nd Cycle. Das Unternehmen betreibt eine vollautomatische Inspektions- und Upcycling-Anlage im industriellen Hochdurchsatz und nutzt neben klassischer Robotik auch patentierte hyperspektrale Analysen aus der Raumfahrt, um Zellalterungen frühzeitig zu erkennen.
Der Schlüssel zum wirtschaftlichen Erfolg
Das Vorhaben von Better Sol leistet einen fundamentalen Beitrag, um noch leistungsfähige Materialien durch geschickte Kreislaufwirtschaft für eine Weiternutzung zu erhalten, damit die Bemühungen für mehr erneuerbare Energien nicht ins Stocken geraten. Dennoch muss sich das Geschäftsmodell in einem harten Wettbewerb beweisen.
Die Handwerkerkosten für den Aufbau einer PV-Anlage auf einem Eigenheim sind hoch und fallen völlig unabhängig davon an, ob man neue oder gebrauchte Paneele installiert. Gleichzeitig steht der Markt unter enormem Preisdruck durch historisch günstige asiatische Neuware. Wenn fabrikneue Module extrem billiger werden, schwindet das Argument der finanziellen Ersparnis bei Gebrauchtmodulen mit kürzerer Restlebensdauer. Der Schlüssel zum wirtschaftlichen Erfolg von Better Sol liegt daher in der rigorosen Minimierung der eigenen Logistik- und Prozesskosten. Die geplante mobile Testanlage und die zusätzliche Automatisierung des Testsystems sind für das Start-up essenziell, um künftig auch größere Ausmusterungen von Solarparks wirtschaftlich bewältigen zu können.
Der Milliarden-Coup: Wie Neura Robotics zur globalen KI-Macht aufsteigen will
Nach unserer Coverstory über Gründer David Reger und der 120-Millionen-Euro-Finanzierung im Januar 2025, zündet das Metzinger Robotik-Start-up Neura Robotics nun offenbar die nächste Stufe. Mit einer kolportierten Bewertung von 4 Milliarden Euro und dem Krypto-Giganten Tether als Investor greift das Unternehmen im globalen Haifischbecken der Humanoiden nach der Marktführerschaft.
Es war absehbar, dass die 120 Millionen Euro aus der Series-B-Runde nur das Warm-up waren. Laut übereinstimmenden Medienberichten (unter anderem von Bloomberg und der Financial Times) steht Neura Robotics vor dem Abschluss einer gigantischen Finanzierungsrunde in Höhe von rund 1 Milliarde Euro (ca. 1,2 Milliarden US-Dollar). Damit würde sich die Unternehmensbewertung auf etwa 4 Milliarden Euro katapultieren. Neura stiege somit endgültig in die absolute Top-Liga der europäischen Tech-Einhörner auf. Das Unternehmen selbst wollte die Berichte auf Nachfrage bislang nicht kommentieren.
Krypto-Milliarden für DeepTech: Der Tether-Faktor
Was diesen Deal in der Tech-Welt so einzigartig macht, ist die Herkunft des Kapitals. Angeführt wird die Runde laut den Berichten von der Tether Holdings SA, dem Emittenten des weltweit größten Stablecoins. Das ist kein Zufall, sondern Teil einer strategischen Neuausrichtung: Tether nutzt seine enormen Krypto-Gewinne (allein in den ersten drei Quartalen 2025 über 10 Milliarden Dollar), um ein „Real-World“-Portfolio aufzubauen – von KI-Rechenzentren über Energie bis hin zu zukunftsweisender Robotik. Für Neura würde das den Zugang zu einem extrem liquiden Investor bedeuten, der bereit ist, die kapitalintensive Skalierung von Hardware langfristig zu stützen.
Das globale Haifischbecken: Metzingen gegen das Silicon Valley
Dieses Kapital ist bitter nötig, denn der Markt für humanoide und kognitive Robotik wird aktuell massiv von US-Hyperscalern und chinesischen Speedbooten befeuert. Auf der einen Seite steht Elon Musk mit Tesla Optimus und enormer Skalierungsmacht. Auf der anderen Seite agieren hochfinanzierte US-Start-ups wie Figure AI, die mit Milliarden von Microsoft und dem KI-Gehirn von OpenAI ausgestattet sind. Hinzu kommen chinesische Hersteller wie Unitree, die mit staatlicher Förderung extrem günstige Modelle auf den Markt werfen.
In diesem Milliarden-Rennen positioniert sich Neura Robotics als europäische Speerspitze. Das Unternehmen liefert einen technologischen Gegenentwurf, der Kunden wie Kawasaki Heavy Industries und Omron bereits überzeugt hat – laut CEO David Reger liegen die Auftragsbücher bei einem Volumen von fast 1 Milliarde US-Dollar.
Der Burggraben: Wie sich Neura Robotics positioniert
Um gegen die Tech-Giganten zu bestehen, setzt das Start-up auf einen technologischen Burggraben. Mit diesen Alleinstellungsmerkmalen will sich Neura von der Konkurrenz abheben:
- „Physical AI“ statt umgebauter Chatbots: Während viele Konkurrenten textbasierte KI-Modelle nachträglich in Roboter integrieren, betont Neura, seine KI von Grund auf für die physische Welt gebaut zu haben. Die Roboter verfügen über ein multisensorisches System: Sie sehen in 3D, sollen Sprache im Fabriklärm erkennen und durch haptisches Feedback ein echtes "Fingerspitzengefühl" besitzen.
- Sicherheit ohne Käfige: In traditionellen Fabriken arbeiten Roboter hinter teuren Schutzzäunen. Neuras Modelle verfügen über eine patentierte Sensorik (Touchless Safe Human Detection). Sie sollen Menschen in Echtzeit erkennen, berührungslos stoppen oder ausweichen. Dadurch können Mensch und Maschine ohne teure Fabrikumbauten direkt im selben Raum arbeiten.
- Die Plattform-Strategie: Das Start-up baut nicht nur einen Roboter. Die kognitive KI fungiert als Betriebssystem, das in verschiedene Hardware-Formen gegossen wird – sei es der Humanoide 4NE-1 oder der hochpräzise kognitive Cobot MAiRA. Die Idee: Macht ein Roboter im Netzwerk einen Fehler, lernen alle anderen weltweit daraus. Ein Ökosystem, das zudem durch strategische Partnerschaften mit Giganten wie Nvidia und Schaeffler gestützt wird.
- Fokus auf Datensouveränität: Von der KI über die Steuerungssoftware bis hin zu den Sensoren entwickelt Neura Kernkomponenten im eigenen Haus. Dieser "Made in Germany"-Ansatz garantiert aus Unternehmenssicht höchste Datensicherheit. Für westliche Industrieunternehmen ist das ein massives Argument gegenüber asiatischen oder US-amerikanischen Herstellern.
„We serve humanity“: Klare Kante gegen Rüstungsdeals
Trotz des rasanten Wachstums bleibt David Reger seinen Prinzipien treu – ein Aspekt, den wir bereits in unserer Coverstory beleuchtet haben. Der Gründer positioniert seine Roboter strikt als Zivil- und Helfermaschinen für Industrie und Haushalt. Lukrative Anfragen aus der Rüstungsindustrie lehnt das Unternehmen kategorisch ab. Der Humanoide 4NE-1 soll den Menschen entlasten, nicht ersetzen oder bedrohen. Mit dieser ethischen Linie setzt Neura einen bewussten Gegenpol zu einem Markt, der teilweise stark militärisch geprägt ist.
Fazit: Der „iPhone-Moment der Robotik“
Analysten von Barclays schätzen, dass der Markt für KI-basierte Roboter und autonome Maschinen bis 2035 auf rund 1 Billion Dollar anwachsen wird. Mit der erwarteten Milliarden-Finanzierung und dem ehrgeizigen Ziel, bis 2030 rund 5 Millionen Einheiten zu produzieren, unterstreicht Neura Robotics seinen Anspruch auf die globale Weltspitze. Für das Metzinger Start-up hat die Phase der weltweiten Skalierung gerade erst begonnen.
MedTech-Start-up RAYDIAX holt 7,5 Mio. Euro für neuartiges CT-System
RAYDIAX sichert sich 7,5 Mio. Euro, um mit einem speziell für minimal-invasive Eingriffe entwickelten Computertomographen die Krebsbehandlung zu verbessern. Doch der Weg vom universitären Forschungslabor in die globalen Operationssäle ist im hochregulierten Gesundheitsmarkt lang. Ein Blick auf ein DeepTech-Geschäftsmodell, das sich nun in der klinischen Praxis beweisen muss.
Die erfolgreiche Series-A1-Finanzierungsrunde über 7,5 Millionen Euro für RAYDIAX markiert einen wichtigen Meilenstein von der universitären Forschung in den Gesundheitsmarkt. Das 2022 gegründete Unternehmen mit Hauptsitz im Magdeburger Wissenschaftshafen ist eine Ausgründung des Forschungscampus STIMULATE und der Otto-von-Guericke-Universität Magdeburg. Unter der Führung eines fünfköpfigen Gründerteams – bestehend aus CEO Dr. Thomas Hoffmann, Dr. Tim Pfeiffer, Dr. André Mewes, Benjamin Fritsch und Robert Frysch – konnte das Start-up nach einer erfolgreichen Seed-Phase nun erhebliche Mittel für den Eintritt in die klinische Phase sichern.
Das frische Kapital setzt sich aus 5 Millionen Euro Venture Capital von bestehenden Business Angels, dem Bestandsinvestor bmp Ventures mit den IBG Fonds sowie dem neu eingestiegenen GETEC Family Office um Dr. Karl Gerhold zusammen. Ergänzt wird diese Summe durch 2,5 Millionen Euro Fördermittel aus dem hochkompetitiven EIC Accelerator-Programm der Europäischen Kommission, das gezielt disruptive Deep-Tech-Innovationen mit hohem Skalierungspotenzial unterstützt.
TACT: Computertomographie für den OP neu gedacht
Im Zentrum dieser ambitionierten Wachstumspläne steht der Therapieassistenz-Computertomograph „TACT“, den RAYDIAX dediziert für minimal-invasive Krebstherapien entwickelt. Anders als herkömmliche CTs optimiert das Unternehmen sein System sowohl im Hardware- als auch im Softwarebereich speziell für den interventionellen Einsatz bei der Therapieplanung, -durchführung und -kontrolle. Wie Steffen Schmidt, CFO der GETEC-Gruppe, hervorhebt, ermöglicht die innovative Technologie eine fokussierte Live-Bildgebung, welche die Strahlenbelastung für Patient*innen und Operateur*innen senkt und die Operationszeit verringert.
Zudem bietet das System durch eine größere Geräteöffnung völlig neue Operationsmethoden im CT, wie beispielsweise den Einsatz von Robotik. Der Markt für solche Lösungen wächst, da minimal-invasive Eingriffe angesichts einer alternden Bevölkerung und steigender Krebsinzidenzen massiv an Bedeutung gewinnen. Sie ermöglichen in vielen Fällen eine schonendere Behandlung im Vergleich zu offenen chirurgischen Eingriffen, verkürzen potenziell Operations- sowie Liegezeiten, verringern Komplikationen und können so zusätzliche Behandlungskapazitäten schaffen, um die Krankenhausstrukturen zu entlasten.
Harter Wettbewerb und regulatorische Hürden
Trotz der vielversprechenden Technologie steht das Geschäftsmodell in der Praxis vor erheblichen Herausforderungen. Der globale Markt für medizinische Bildgebung ist hart umkämpft, und der Vertrieb an Kliniken ist durch extrem lange, hochkomplexe B2B-Entscheidungszyklen geprägt. RAYDIAX tritt diesem Wettbewerb entgegen, indem es anstrebt, eine funktional dringend benötigte, neue Gerätekategorie in der interventionellen Onkologie zu etablieren, um so eine Lücke im OP-Betrieb zu füllen.
Der Beweisdruck auf dem jungen Unternehmen ist dennoch enorm: Das neu eingeworbene Kapital wird nun für First-in-Human-Studien eingesetzt, um die frühe klinische Evidenz am Patienten zu generieren. Diese Phase legt die Grundlage für die regulatorische Zulassung und kommerzielle Skalierung. Parallel dazu erfordert die Weiterentwicklung zur Serienreife einen konsequenten Ausbau in den Bereichen Vertrieb, Produktion und Qualitätsmanagement, um die ersten kommerziellen Installationen systematisch vorzubereiten.
Lehrstück für europäisches DeepTech
Dieser Fall zeigt eindrucksvoll die Realität und die hohen Anforderungen europäischen DeepTech-Unternehmertums. Der Abschluss dieser Finanzierungsrunde belegt deutlich, wie essenziell die intelligente Kombination aus wissenschaftlicher Grundlagenforschung, klassischem Risikokapital und strategischen europäischen Fördergeldern ist. Nur so lässt sich die extrem kapitalintensive Entwicklungsphase von Hardware in der Medizintechnik erfolgreich überstehen. Wenn es dem Gründerteam nun gelingt, die klinische Wirksamkeit in der Praxis zu belegen und die regulatorischen Hürden zu meistern, hat dieses Spin-off das Potenzial, die Anwendung minimal-invasiver Krebstherapien erheblich auszuweiten.
Purpose schlägt Profit? Die GmbV & echte Alternativen
Alle reden über die GmbV, die Gesellschaft mit gebundenem Vermögen. Die neue Rechtsform soll Start-ups vor dem Ausverkauf schützen und „Verantwortungseigentum“ zum Standard machen. Während die Politik noch an Details feilt, stehen Gründer*innen vor einem Dilemma: Warten oder handeln? Wir zeigen, warum die GmbV aktuell ein Holzweg sein kann – und mit welchen Legal-Hacks ihr eure Vision schon heute vor dem Exit-Zirkus schützt.
Es klingt nach dem perfekten Setup für die neue Generation von Gründer*innen: Man baut ein Impact-Start-up auf und generiert saftige Umsätze, aber anstatt das Unternehmen nach fünf Jahren an den Meistbietenden zu verhökern, gehört es sich selbst. Genau das soll die GmbV (Gesellschaft mit gebundenem Vermögen, juristisch oft GmgV) leisten. Gewinne bleiben zwingend im Unternehmen, die Kontrolle liegt bei den fähigsten Köpfen, und ein lukrativer Exit ist rechtlich ausgeschlossen.
Für klassische Venture-Capital-Geber (VCs) gleicht dieses Konzept einem Albtraum. Ein Konstrukt, das einen hochprofitablen Exit systematisch blockiert, entzieht dem klassischen VC-Geschäftsmodell schlichtweg die Arbeitsgrundlage. Doch während die GmbV als moralisches Aushängeschild gefeiert wird, offenbart ein genauerer Blick auf die aktuelle Realität: Wer unreflektiert auf die neue Rechtsform wartet, riskiert seine Flexibilität.
Der Realitätscheck: Warum Warten keine Strategie ist
Die GmbV ist ein starkes politisches Signal, aber (noch) kein wirtschaftlicher Befreiungsschlag. Der entscheidende Konstruktionsfehler: Es gibt keine steuerlichen Privilegien. Wer Gewinne im Unternehmen belässt, muss diese voll versteuern. Zudem ziehen sich die gesetzliche Umsetzung und die Detailfragen – etwa zur Veräußerung von Tochtergesellschaften – in die Länge.
Wer jetzt gründet, braucht rechtliche Sicherheit. Die gute Nachricht: Ihr braucht die GmbV gar nicht zwingend. Das Konzept des Verantwortungseigentums lässt sich mit etablierten Strukturen schon heute wasserdicht abbilden.
Das Founder-Playbook: 3 erprobte Alternativen zur GmbV
Vergesst die Warterei auf den Gesetzgeber. Mit diesen drei Modellen könnt ihr eure Purpose-DNA fest im juristischen Fundament verankern:
1. Der Start-up-Liebling: Das Veto-Share-Modell (Golden Share)
Dies ist der eleganteste Hack für junge Teams mit schmalem Budget (bekannt durch Ecosia oder Einhorn). Ihr gründet eine klassische GmbH. 99 Prozent der Anteile bleiben bei den Gründer*innen und wertekompatiblen Investoren. Genau 1 Prozent (der "Golden Share") gebt ihr jedoch an eine unabhängige Instanz ab, beispielsweise die Purpose Stiftung.
- Der Clou: Im Gesellschaftervertrag wird verankert, dass fundamentale Entscheidungen (wie ein Unternehmensverkauf oder die Änderung des Purpose) nur einstimmig getroffen werden können. Die Stiftung legt ihr Veto ein, sobald jemand Kasse machen will. Ihr bleibt maximal agil, zementiert aber die Vermögensbindung.
2. Das Schwergewicht: Das Doppelstiftungsmodell
Ideal, wenn ihr bereits etabliert seid und hohe Cashflows generiert (das Bosch-Modell). Macht und Geld werden strikt getrennt. Eine Stiftung hält das Kapital (die Gewinne) und schüttet sie für gute Zwecke aus. Eine separate Unternehmensstiftung (oder ein Trust) hält die Stimmrechte und lenkt das operative Geschäft.
- Der Clou: Ein feindlicher Takeover ist ausgeschlossen. Allerdings ist dieses Modell in der Aufsetzung und im Unterhalt teuer und bürokratisch – für Seed-Start-ups meist noch überdimensioniert.
3. Das Comeback: Die Genossenschaft (eG)
Die ursprünglichste Form des Verantwortungseigentums erlebt ein Revival, besonders bei Community-getriebenen Geschäftsmodellen.
- Der Clou: Es gilt das demokratische Kopfprinzip. Egal, wie viel Geld ein Investor mitbringt, er hat nur eine Stimme. Die eG ist nahezu immun gegen Exits. Achtung: Die Entscheidungswege können hier länger dauern, was nicht zu jedem hyper-agilen Startup-Modell passt.
Handlungsanweisungen für Gründer*innen
Was bedeutet das für eure Strategie in den nächsten Wochen? Hier ist euer Fahrplan:
- Finanzierungsstrategie radikal klären: Beantwortet die "Exit-Frage" im Gründungsteam schonungslos ehrlich. Wollt ihr klassisches, schnelles Wachstumskapital (Tier-1-VCs), ist Verantwortungseigentum der falsche Weg. Stellt ihr Purpose vor Profit, richtet euren Pitch sofort auf Family Offices, Business Angels mit Impact-Fokus und Bankkredite aus.
- Mit der Standard-GmbH starten: Wählt für die Gründung die klassische GmbH. Sie ist das bekannteste Vehikel, Banken verstehen sie, und Notare haben die Vorlagen griffbereit.
- Den Veto-Share-Vertrag aufsetzen: Nutzt das Veto-Share-Modell, um eure GmbH "Exit-resistent" zu machen. Holt euch einen spezialisierten Anwalt dazu, der den Gesellschaftervertrag anpasst, und sucht euch einen unabhängigen Veto-Partner.
- Das "Nein" als Schutzschild nutzen: Kommuniziert eure Struktur offensiv und selbstbewusst nach außen. Begreift die zu erwartende Ablehnung durch klassische VCs nicht als strategischen Nachteil, sondern als euren effektivsten Filter: So sortiert ihr von Tag eins an jene Investoren aus, die bei der ersten Krise auf einen Notverkauf drängen würden.
INFOGRAFIK-KASTEN
Clash of Cultures – Wer finanziert mein Start-up?
- Klassisches Venture Capital (Shareholder Value):
- Ziel: Maximale Wertsteigerung und lukrativer "Exit" (Verkauf/IPO) nach 5 bis 7 Jahren.
- Fokus: Hyper-Wachstum, Skalierung, Marktführerschaft.
- Kontrolle: VCs fordern Sitze im Board, Vetorechte und Liquidationspräferenzen.
- Fit für Verantwortungseigentum? Absolutes No-Go.
- Purpose Funding (Verantwortungseigentum):
- Ziel: Langfristige Unternehmenssicherung, faire Renditen aus dem Cashflow, Erhalt der Unabhängigkeit.
- Geldgeber: Family Offices, Purpose-Fonds, Crowdinvesting, Bankkredite, Genussrechte.
- Kontrolle: Investoren akzeptieren, dass sie Gewinne/Zinsen erhalten, aber nicht die strategische Kontrolle oder einen Unternehmensverkauf erzwingen können.
- Fit für Verantwortungseigentum? Perfect Match.
Redaktioneller Hinweis: Dieser Artikel dient ausschließlich der journalistischen Information und Einordnung. Er stellt keine verbindliche Handlungsempfehlung dar und ersetzt keinesfalls eine individuelle juristische oder steuerliche Fachberatung.
Wenn Macht zu früh zu groß wird
Serie: Führen im Start-up, Teil 4: Warum schnelles Wachstum ohne Reife zur strukturellen Gefahr werden kann.
Über Wachstum wird viel gesprochen. Über Macht kaum. Start-ups lieben das Narrativ der Geschwindigkeit. Funding-Runden, Skalierung, Expansion, neue Märkte. Jede Phase wird gefeiert.
Was seltener thematisiert wird: Mit jedem Wachstumsschritt steigt nicht nur die Komplexität. Es steigt auch die Macht derjenigen, die entscheiden.
In der Frühphase ist Macht funktional. Gründer*innen tragen Risiko, treffen schnelle Entscheidungen, halten das Unternehmen zusammen. Ohne diese Verdichtung gäbe es kein Vorankommen. Problematisch wird es erst, wenn Macht schneller wächst als die Fähigkeit, mit ihr umzugehen.
Der unsichtbare Wendepunkt
Solange ein Start-up klein ist, wird persönliche Autorität als Führung erlebt. Nähe ersetzt Struktur. Entscheidungen fallen direkt, informell, schnell.
Doch mit Wachstum verändert sich der Kontext. Neue Mitarbeitende kommen hinzu. Führungsebenen entstehen. Verantwortung wird delegiert. Gleichzeitig bleibt die Entscheidungslogik oft personenzentriert.
Klarheit kann dann zu Dominanz werden. Geschwindigkeit zu Intransparenz. Nähe zu Abhängigkeit. Nicht, weil sich der/die Gründer*in charakterlich wandelt, sondern, weil Macht in einem größeren System anders wirkt als in einem kleinen.
Wie Macht Wahrnehmung verschiebt
Sozialpsychologische Forschung beschreibt seit Jahren einen bekannten Effekt: Mit wachsendem Einfluss steigt das Vertrauen in die eigene Einschätzung. Gleichzeitig sinkt die Sensibilität für widersprechende Perspektiven.
Das geschieht selten bewusst. Je seltener echter Widerspruch erfolgt, desto stabiler wirkt die eigene Sichtweise. In Start-ups wird dieser Effekt verstärkt. Loyalität ist hoch bewertet. Kritik wird schnell als Bremsen interpretiert. Nähe zur Gründungsperson entscheidet häufig über Einfluss.
So entsteht ein stilles Gefälle. Wer irritiert, riskiert Distanz. Wer bestätigt, bleibt im Kreis.
Wenn Governance hinterherläuft
Wachstum erzeugt operative Komplexität. Governance-Strukturen entwickeln sich jedoch oft langsamer als Teamgrößen oder Umsätze.
- Titel werden vergeben, Rollen bleiben unscharf.
- Verantwortung wird delegiert, Entscheidungsbefugnisse nicht eindeutig definiert.
- Feedback wird gewünscht – aber nicht immer geschützt.
So wächst das Unternehmen formal. Informell bleibt es personalisiert.
Solange Ergebnisse stimmen, fällt das kaum auf. Unter Druck wird es spürbar.
Die leisen Symptome
Machtprobleme beginnen selten spektakulär.
- Widerspruch wird vorsichtiger formuliert.
- Meetings enden ohne echte Kontroverse.
- Entscheidungen werden weniger erklärt.
- Führungskräfte orientieren sich stärker an vermuteten Erwartungen als an eigener Überzeugung.
Nach außen wirkt das Unternehmen effizient. Intern sinkt die Irritationsfähigkeit. Und genau diese Irritationsfähigkeit entscheidet über Innovation.
Warum das wirtschaftlich relevant ist
Unbalancierte Machtstrukturen bremsen nicht sofort. Sie wirken verzögert – aber konsequent.
- Perspektiven werden homogener.
- Konflikte wandern in informelle Räume.
- Talente gehen, wenn sie keinen Einfluss erleben.
- Strategische Fehlentscheidungen werden später korrigiert – häufig teurer als nötig.
Viele Start-up-Krisen werden als Marktkrisen erzählt. Nicht selten sind es Machtkrisen. Nicht der Wettbewerb war das Kernproblem, sondern die fehlende Gegenstruktur.
Reife als Skalierungskompetenz
Macht ist kein Fehler. Ohne sie gäbe es kein Unternehmertum. Entscheidend ist, ob Macht irritierbar bleibt. Ob sie die Fähigkeit behält, sich stören zu lassen.
Reife Führung bedeutet nicht, weniger zu entscheiden. Reife Führung bedeutet, sich bewusst widersprechen zu lassen.
Das erfordert Strukturen, die nicht nur Loyalität belohnen, sondern Differenz.
- Ein Beirat mit echter Unabhängigkeit.
- Klare Entscheidungslogiken.
- Transparente Rollendefinitionen.
- Geschützte Räume für Kritik.
Nicht als Misstrauensbeweis, sondern als Stabilitätsfaktor.
Ein unbequemer Schluss
Wachstum ohne Machtreflexion produziert irgendwann Widerstand. Wachstum mit Reife erzeugt Vertrauen. Vielleicht liegt die eigentliche Skalierungsfähigkeit nicht in der Geschwindigkeit, mit der ein Start-up Märkte erobert, sondern in der Fähigkeit, Macht so zu gestalten, dass sie das System stärkt – statt es zu verengen.
Denn Macht verschwindet nicht, wenn man nicht über sie spricht. Sie wirkt trotzdem. Die Frage ist nur, ob bewusst – oder unkontrolliert.
Tipp zum Weiterlesen
Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e
Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5
Der dritte Teil unserer Serie behandelt, warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren. Hier zum Nachlesen: https://t1p.de/v8q2k
Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
