Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding

Autor: David Padilla
44 likes

Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.

In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?

Das Phänomen des Tool-Hoardings

Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.

Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.

Die versteckten Kosten des Tool-Hoardings

Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.

Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.

Sicherheits- und Datenschutzrisiken

Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.

Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.

HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?

Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?

Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.

Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung

Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.

Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.

Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.

Fazit: Klasse statt Masse

Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.

Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.

Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet

Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.

Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.

planqc: Aus der Forschung in die Wirtschaft

Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.

Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.

Der schnelle Aufstieg: Millionen-Investments und Großaufträge

Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).

Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.

Das Problem: Der limitierte klassische Computer

Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.

Die Lösung: Ein hybrides Teamwork der Systeme

Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.

„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
 
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind

Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.

Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.

Fazit

Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.

Sizeless: Schluss mit „Da wächst du noch rein!“

Zu kleine Schuhe schaden Kinderfüßen, ständiger Neukauf belastet den Geldbeutel und die Umwelt. Das Kölner Start-up Sizeless präsentiert nun die Lösung: Einen Premium-Sneaker, der mechanisch um eine ganze Größe mitwächst. Wir sprachen mit den Gründern über den steinigen Weg vom ersten Prototyp bis zur ersten Funding-Kampagne.

Kinderfüße wachsen in rasantem Tempo – oft so schnell, dass die teuren neuen Schuhe schon nach wenigen Monaten wieder drücken. Im Schnitt benötigt ein Kind alle vier Monate neue Schuhe. Das geht nicht nur ins Geld, sondern stellt auch eine erhebliche Belastung für die Umwelt dar. Viele Eltern greifen auf eine pragmatische, aus orthopädischer Sicht jedoch problematische Lösung zurück und kaufen Schuhe schlichtweg zu groß, nach dem Motto: Da wächst du noch rein.

Die Folge sind nicht selten schlecht sitzende Schuhe, die das Gangbild beeinträchtigen und langfristig zu Fußfehlstellungen führen können. Drei Kölner Gründer wollen diesem Kreislauf aus ständigem Neukauf und Ressourcenverschwendung nun ein Ende setzen. Mit Sizeless hat das Start-up einen Kinderschuh entwickelt, der mechanisch mitwächst und das Problem an der Wurzel packen soll.

Vom Pitch zum Prototyp

Die Idee zu Sizeless entstand aus einer tiefen Kenntnis der Schuhindustrie. Die drei Gründer Alexander Schemel (CEO), Leander Peters (COO) und Louis Smith (CTO & Head Designer) kennen sich aus ihrer gemeinsamen Zeit beim Sportartikelgiganten Adidas. Der Startschuss fiel im Frühjahr 2023 bei einer Open Innovation Challenge der Marke On-Running in Zürich, bei der Alexander und Leander ihr Konzept präsentierten und gewannen. Dieser Erfolg war der nötige Funke, um aus der Idee ein Unternehmen zu formen.

Die anschließende Hardware-Entwicklung erwies sich jedoch als massiver Härtetest. „Wir kamen aus Gesprächen mit Fabriken in Portugal zurück, denen das Projekt zu technisch, zu frühphasig und zu risikobehaftet war“, erinnert sich Leander an die anfängliche Frustration. Man konnte zwar die Idee validieren und Eltern dafür begeistern, den Schuh aber schlichtweg noch nicht physisch bauen.

Den entscheidenden Befreiungsschlag brachte schließlich das exist-Gründerstipendium des Bundeswirtschaftsministeriums. Für das Team war diese Zusage „absolut wegweisend“ – ein essenzieller Anschub, den das Trio aus eigener Kraft niemals hätte stemmen können, räumt der Gründer ein. Das staatliche Programm sicherte den Kölnern nicht nur zwölf Monate rettendes Vollzeit-Commitment, sondern deckte auch die Entwicklungs-, Gründungs- und Patentkosten weitestgehend ab. Vor allem aber lieferte es die nötigen finanziellen Ressourcen, um das fehlende Puzzleteil ins Team zu holen: den studierten Produktdesigner und Ingenieur Louis Smith. Das Stipendium finanzierte seinen Umzug von Glasgow nach Köln sowie seine laufenden Kosten. „In der Essenz: Ohne exist kein Louis, ohne Louis kein Schuh“, bringt es Leander pointiert auf den Punkt.

Doch auch die beste staatliche Förderung hat ihre strukturellen Grenzen. Wie Leander erklärt, enden die Möglichkeiten von exist exakt am kritischen Übergang von der Prototypen-Entwicklung zum Launch und der anschließenden Skalierungsphase. Um in Produktion zu gehen und die Marke aufzubauen, sei frisches Kapital zwingend notwendig. Während man sich für die Pre-Seed-Runde bereits mit starken Business Angels gut aufgestellt sieht, richtet sich der Blick der Gründer nun auf eine größere Seed-Runde gegen Ende 2026, um groß angelegte Launches vorzubereiten.

Gepaart wird diese finanzielle Herausforderung mit einem Kampf gegen die Mühlen der Behörden. Bürokratische Hürden seien bei Sizeless quasi das „inoffizielle vierte Teammitglied“. Durch den Brexit gilt Louis als Nicht-EU-Bürger; sein befristetes Arbeitsvisum lief bereits im September 2025 ab. Obwohl das Team zeitnah eine Verlängerung und einen Aufenthaltstitel beantragte, reagieren die zuständigen Sachbearbeiter kaum auf E-Mails oder Anrufe. Louis hangelt sich seither mit befristeten Fiktionsbescheinigungen von Monat zu Monat und darf das Land nach deren Ablauf vorerst nicht mehr verlassen. „Diese Absurditäten lähmen enorm“, kritisiert Leander das überlastete System, durch das jeden Tag reeller wirtschaftlicher Schaden entstehe – auch in ganz anderen Dimensionen als bei ihrem Start-up.

Der Härtetest im Kindergarten

Doch wie wächst ein Schuh mit, ohne an Stabilität einzubüßen? Sizeless geht einen technischen Weg, für den bereits eine Patentanmeldung läuft. Über zwei Laschen an der Außenseite lässt sich die Passform verstellen: Sie ziehen eine flexible Sohle nach oben oder geben sie nach unten frei, wodurch die Zehenbox gezielt vergrößert oder verkleinert wird. So lässt sich der Schuh stufenlos um acht Millimeter in der Länge anpassen – was etwas mehr als einer kompletten Schuhgröße (ca. 6,6 mm) entspricht.

Auf die Frage, ob eine solche Mechanik dem erbarmungslosen Kinder-Alltag standhält, räumt Leander ein, dass das Team hier massiv dazulernen musste. Nachdem CEO Alexander tagelang als „Praktikant“ das Bewegungsverhalten in Kindergärten analysiert und den Schuh einem „Tobetest“ unterzogen hatte, wurde das Design grundlegend überarbeitet. Der Schuh musste „kindergarten-approved“ werden. Das Resultat: eine abriebfeste Sohle mit ordentlichem Profil, ein für Bobbycar-Rennen geschützter Vorderfußbereich sowie wasserabweisende und waschmaschinentaugliche Materialien. „Auch den Sizeless-Schuh wird man kaputt bekommen, wenn man es darauf anlegt“, gibt Leander unumwunden zu. Es gelte künftig stets die Kunst zu beherrschen, Minimalismus und Flexibilität mit der nötigen Robustheit auszubalancieren.

Passform und orthopädische Grenzen

Da Kinderfüße bekanntermaßen nicht nur in die Länge, sondern auch in die Breite wachsen, kombiniert Sizeless die Mechanik mit einer von Natur aus breiten Zehenbox und einem flexiblen Obermaterial. Ein zusätzlicher Klettverschluss am Spann sorgt für Anpassungsfähigkeit bei hohen oder niedrigen Risten. Wissenschaftlich begleitet wird das Projekt von Dr. Jan-Peter Goldmann vom Institut für Biomechanik und Orthopädie der Sporthochschule Köln, der sicherstellen soll, dass die Verstellmechanik die natürliche Fußentwicklung optimal fördert.

Trotz der Anpassungsfähigkeit zieht das Start-up eine klare Grenze. „Ganz wichtig: Wir sind kein Medizinprodukt!“, betont Leander. Der Leisten orientiere sich am durchschnittlichen Kinderfuß. Absolut außergewöhnliche Maße oder komplexe orthopädische Besonderheiten wolle man mit dem Launchmodell bewusst noch nicht abdecken.

Premium-Preise und ein neues Konsumverhalten

Mit dem Konzept greifen die Kölner das traditionelle Geschäftsmodell von branchenweiten Platzhirschen wie Superfit, Ricosta oder Elefanten an, das auf den ständigen Neukauf angewiesen ist. Sizeless hingegen macht dieses schnelle Wachstum zum Feature. Preislich positioniert sich der in Europa gefertigte Schuh mit einer UVP von rund 99 Euro klar im Premium-Barfuß-Segment. In diesem dominieren aktuell Marken wie Wildling Shoes oder Affenzahn.

Wird gesunde Fußentwicklung damit zum Luxusgut? Leander kontert diese Befürchtung vehement: Kinderfüße bräuchten vor allem Raum zur freien Entfaltung, ganz nach dem Prinzip „Beschützen statt beschränken“. Der Preis richte sich an eine Kernzielgruppe, die gezielt nach funktionalen, hochwertigen Schuhen sucht, und amortisiere sich ohnehin durch die deutlich längere Nutzungsdauer.

Gleichzeitig fordert der Ansatz ein Umdenken der Eltern, die traditionell auf das Ausmessen im stationären Fachhandel vertrauen. Leander sieht darin keinen Zwang, sondern eine Befreiung: Eltern „mussten“ bisher ins Geschäft, weil die Schuhe drückten. Mit Sizeless „können“ sie den Schuh bequem selbst anpassen. Den unter Personalmangel leidenden Fachhandel sehe man langfristig nicht als Konkurrenten, sondern als wichtigen Hebel – auch wenn der limitierte Launch bewusst der eigenen Community vorbehalten bleibt. Langfristig wolle man durch ein innovatives Konzept wieder Menschen in die Läden bewegen.

Marktreife und Skalierung: Eine neue Ära?

Nach monatelanger Entwicklung hat das Team einen verlässlichen Produktionspartner in Portugal gefunden, der europäische Qualitätsstandards garantiert. Aktuell geht Sizeless den nächsten Schritt: Am 16. März 2026 launchte eine Crowdfunding-Kampagne auf Kickstarter, um die erste Serienproduktion zu finanzieren. Verläuft alles nach Plan, sollen die ersten Schuhe im Sommer 2026 ausgeliefert werden.

Bleibt die große wirtschaftliche Frage: Kannibalisiert sich ein Geschäftsmodell nicht selbst, wenn Kund*innen seltener Schuhe kaufen müssen? „Kannibalisiert wird am Ende nur das, was sich dem neuen Standard nicht anpasst“, gibt sich Leander selbstbewusst. Die Skalierung soll einerseits über die Erweiterung des Sortiments um Modelle wie den ersten Winterschuh für 2026, Hausschuhe, Sandalen oder Gummistiefel erfolgen. Der eigentliche Hebel sei jedoch das Patent. Sobald dieses final erteilt ist, will das Start-up Lizenzen an andere Marken vergeben. Die Vision der Kölner ist grenzenlos: Jeder Schuh soll künftig ein Sizeless-Schuh werden können – völlig unabhängig davon, welches Logo am Ende auf dem Karton steht.

Alpine Eagle baut das weltweit erste luftgestützte Anti-Drohnen-System

Der Krieg in der Ukraine und Konflikte im Nahen Osten offenbaren eine gefährliche Asymmetrie der modernen Kriegsführung: Die Systeme zur Abwehr feindlicher Drohnen sind oft drastisch teurer als die angreifenden Drohnen selbst. Das Münchner DefenseTech-Start-up Alpine Eagle will dieses wirtschaftliche Ungleichgewicht mit einem völlig neuen Ansatz lösen. Nun wagt das Unternehmen den nächsten großen Schritt – und steht vor der klassischen Start-up-Herausforderung: der Hardware-Skalierung.

 

Es sind Zahlen, die westlichen Verteidigungsministerien Kopfzerbrechen bereiten: Bei jüngsten Angriffen im Nahen Osten mussten Verteidiger laut Analysten schätzungsweise über 1,5 Milliarden US-Dollar aufwenden, um Drohnen abzufangen, deren Start die Angreifer lediglich rund 250 Millionen US-Dollar kostete. Dieses immense Ungleichgewicht befeuert die Nachfrage nach neuen, kosteneffizienten Systemen, die massive Drohnenangriffe bewältigen können.

Genau in diese Lücke stößt Alpine Eagle. Das 2023 gegründete Start-up vereint Luftfahrtingenieure und Machine-Learning-Experten und baut das weltweit erste luftgestützte Anti-Drohnen-System.

Hinter dem schnellen Aufstieg von Alpine Eagle steht ein Gründer-Duo, das zwei für DefenseTech entscheidende Disziplinen vereint: Jan-Hendrik Boelens (CEO) und Timo Breuer. Boelens bringt als ehemaliger Chief Engineer bei Airbus sowie als Ex-CTO der Drohnen-Pioniere Volocopter und Quantum-Systems tiefe Industrie- und Hardware-Erfahrung mit. Breuer hingegen liefert als ehemaliger Wissenschaftler bei Microsoft Research und der Fraunhofer-Gesellschaft die technologische Software-Tiefe. Diese Kombination überzeugte auch Investor*innen: Namhafte VCs wie IQ Capital, General Catalyst und HCVC investierten bereits über 10 Mio. Euro in die Münchner.

Der Ansatz, nicht Jahre im Labor zu verbringen, sondern schnell in den Markt zu gehen, zahlt sich aus: Bereits 2024 wurde die deutsche Bundeswehr als Erstkundin gewonnen. Das Personalwachstum spiegelt dieses Momentum wider: Von 12 Mitarbeitenden im Jahr 2024 wuchs das Team auf aktuell 50 Personen an; bis Jahresende sollen es 100 sein.

Deep Dive: Sentinel-OS und das fliegende Sensornetzwerk

Anstatt sich auf statische, bodengestützte Abwehrsysteme zu verlassen, verlagert das Unternehmen die Abwehr in die Luft. Das Herzstück bildet die Softwareplattform Sentinel-OS, die sich in verschiedenste Hardware integrieren lässt. Die Plattform arbeitet hardware-agnostisch und nutzt maschinelles Lernen, um kleine, feindliche Drohnen zu erkennen und zu klassifizieren.

Konkret kombiniert das Sentinel-System ein luftgestütztes Radar- und Sensornetzwerk mit einer softwaredefinierten Verteidigungsarchitektur. Das System erfasst feindliche Drohnen über weite Gebiete aus der Luft und schaltet sie schließlich mit eigenen, luftgestützten Abfangdrohnen (Interceptors) aus.

Das Geschäftsmodell: Software-Brain trifft externe Muskeln

Um klassische Entwicklungsengpässe beim Bau von Trägersystemen zu umgehen, wählt Alpine Eagle einen pragmatischen Integrationsansatz. Für eine skalierbare Produktion verknüpft das Start-up seine Technologie mit der DeltaQuad Evo, einer Trägerdrohne des niederländischen Herstellers DeltaQuad. Durch diese Partnerschaft sichert sich Alpine Eagle den Zugang zu industriellen Produktionskapazitäten und stärkt eine widerstandsfähige europäische Lieferkette. Durch die Kombination aus bewährter Hardware und eigener Erkennungs- und Abwehrsoftware können die Systeme deutlich schneller geliefert werden als in klassischen Rüstungsprogrammen.

Für die finale Abfang-Komponente steht jedoch ein operativer Sprung bevor: Alpine Eagle plant aktuell nahe München den Bau einer 2.000 Quadratmeter großen Fabrik, um einen eigens entwickelten Interceptor im großen Maßstab selbst zu fertigen.

Die direkten Wettbewerber im DefenseTech-Valley

Die Standortwahl München ist strategisch. Die bayerische Landeshauptstadt hat sich zum Epizentrum für europäische Verteidigungstechnologie entwickelt. Alpine Eagle agiert hier in einem hochkompetitiven Ökosystem, das intensiv um Budgets und Top-Talente kämpft:

  • TYTAN Technologies: Ein weiteres stark wachsendes Münchner Start-up, das sich auf kosteneffiziente Counter-UAS-Lösungen spezialisiert hat und jüngst ein Millionen-Funding abschließen konnte.
  • Quantum-Systems: Das Unternehmen, bei dem Alpine-Eagle-CEO Boelens früher selbst als CTO tätig war, baut primär Aufklärungsdrohnen (ISR) und prägt den europäischen Markt entscheidend mit.
  • Helsing: Das europäische KI-Aushängeschild der Rüstungsbranche baut zwar keine Drohnen, dominiert aber den Bereich der softwaredefinierten Sensordatenverarbeitung (Electronic Warfare).

Die Hürden der Skalierung

Alpine Eagle profitiert aktuell von massivem Momentum.

  • Das Start-up liefert wichtige Praxis-Validierungen durch Härtetests unter extremen Bedingungen in der Ukraine.
  • Dort sind Counter-Drohnen-Systeme ständigen Massenangriffen ausgesetzt.
  • Zudem müssen die Systeme in der Ukraine auch bei gestörten GPS-Bedingungen zuverlässig funktionieren.
  • Weitere Validierung erfolgte durch die Teilnahme am US/UK-Militärmanöver Project Vanaheim.
  • Zudem ist Alpine Eagle in ein Verteidigungsinnovationsprogramm der Niederlande eingebunden.
  • Neben der Bundeswehr konnte das Unternehmen bereits Kund*innen in UK und den Niederlanden gewinnen.

„Verteidigungsministerien suchen zunehmend nach Systemen, die schnell geliefert und skaliert werden können, wenn der operative Bedarf wächst“, erklärt CEO Jan-Hendrik Boelens. Durch den Aufbau bestehender industrieller Kapazitäten und die Integration in die eigene Architektur kann das Unternehmen skalierbare Abwehrfähigkeiten bereitstellen.

Doch die Skalierung birgt Risiken: Der Aufbau echter Fertigungslinien bindet enorm viel Kapital und bringt klassische Supply-Chain-Risiken mit sich, die im starken Kontrast zur Skalierbarkeit reiner Software-Start-ups stehen.

Fazit

Alpine Eagle beweist eindrucksvoll, dass schnelles Start-up-Tempo in der europäischen Rüstungslandschaft möglich ist. Die Symbiose aus starkem Software-Kern und pragmatischer Hardware-Integration ist klug gewählt. Der eigentliche Reifetest beginnt jedoch genau jetzt: Im direkten Wettbewerb mit hochfinanzierten Playern und etablierten Giganten wird sich zeigen, ob die Transformation zum verlässlichen, massenproduzierenden Hardware-Lieferanten gelingt.

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

blue activity sichert sich 8,5 Mio. Euro für biozidfreie Kühlwasserbehandlung

Das Heidelberger CleanTech-Start-up blue activity schließt eine beachtliche Finanzierungsrunde ab. Mit einem unkonventionellen biologischen Ansatz fordert das Team die klassischen Verfahren der industriellen Kühlwasseraufbereitung heraus. Ein Blick auf das Geschäftsmodell, den Milliardenmarkt und die Hürden der Skalierung.

Das im Jahr 2021 gegründete Wassertechnologie-Start-up blue activity aus Heidelberg meldet den Abschluss einer weiteren großvolumigen Finanzierungsrunde in Höhe von 8,5 Millionen Euro. Das Unternehmen deklariert diese als Seed-Runde – ein aus journalistischer Sicht bemerkenswerter Schritt, da bereits Anfang 2023 der österreichische Investor Epoona in einer frühen Phase eingestiegen war. Die aktuelle Runde wurde gemeinsam von den VC-Fonds Wind Capital (Paris) und Venture Stars (München) angeführt, unter Beteiligung von Angel Invest (Berlin). Das frische Kapital soll die Produktentwicklung beschleunigen, das Team auf 15 Mitarbeitende erweitern und die kommerzielle Expansion in Europa vorantreiben.

Das Gründer-Duo

Hinter blue activity stehen CEO Lars Havighorst und Co-Founder sowie CTO Michael Simon. Die Gründung basierte auf der Mission, industrielle Verdunstungskühlsysteme chemiefrei und nachhaltig zu behandeln. Bemerkenswert ist Havighorsts Hintergrund: Vor seiner Zeit als CleanTech-Gründer war er rund 15 Jahre im Vertrieb der Finanzbranche tätig, bevor er den Quereinstieg in die Wassertechnologie wagte. Dabei ergänzt sich das Führungsduo: Während Havighorst die kommerzielle Skalierung treibt, verantwortet Simon als technologisches Rückgrat die Kombination aus neuartiger Mikrobiologie und IoT-Sensorik.

Technologie und Geschäftsmodell

Industrielle Verdunstungskühlanlagen verschlingen enorme Mengen an Wasser und stützen sich traditionell auf biozidbasierte Behandlungsprogramme. Blue activity setzt hier auf einen Paradigmenwechsel: Anstelle von Gefahrstoffen soll ein neuartiger technologischer Ansatz eine umweltfreundliche, chemiefreie und effiziente Wasseraufbereitung ermöglichen.

Der wirtschaftliche Pitch, mit dem das Startup bei der Industrie punkten will, stützt sich auf laut eigenen Angaben messbare Effekte:

  • Kostenreduktion: Das Unternehmen verspricht signifikante OPEX-Einsparungen von bis zu 15 % der gesamten Kosten der Kühlwasserbehandlung.
  • Anlageneffizienz: Diese sollen durch einen reduzierten Chemikalieneinsatz, geringeren Wartungsaufwand sowie eine verlängerte Lebensdauer der Anlagen erreicht werden. Berichte aus der Fachpresse (z. B. Handelsblatt, Industrieanzeiger) stützen die These der Effizienz und zitieren bei Bestandskunden Wasserverbrauchssenkungen von bis zu 38 Prozent.

Markt und Wettbewerb

Ein wesentlicher Treiber für das Geschäftsmodell ist das regulatorische Umfeld. Da Grenzwerte für Abwassereinleitungen zunehmend verschärft werden, werden traditionelle chemische Verfahren laut blue activity immer kostenintensiver und komplexer in der Handhabung. Die biologische Methode soll die Risiken im Zusammenhang mit Einleitungen senken und eine langfristige regulatorische Compliance unterstützen.

Die Herausforderung

Der Markt für industrielle Wasserbehandlung ist sicherheitsgetrieben und extrem konservativ. Kühltürme sind kritische Infrastrukturen – ein mikrobiologisches Ungleichgewicht kann schwere gesundheitliche und rechtliche Folgen haben. Ein Start-up, das hier eine neuartige Lösung anbietet, muss massives Vertrauen aufbauen. Dass diese Hürde überwindbar ist, zeigt ein Blick auf das aktuelle Kundenportfolio: Laut Branchenberichten zählen Schwergewichte wie BASF, Braskem und die Salzgitter AG bereits zu den Nutzern der Technologie.

Fazit & Einordnung

Mit 8,5 Millionen Euro handelt es sich um eine außergewöhnlich große Frühphasen-Runde im deutschen B2B-Hardware/DeepTech-Sektor. Das internationale Investorenkonsortium bringt dabei ein starkes Netzwerk in den europäischen CleanTech-Markt ein.

Blue activity profitiert von einer starken Problem-Lösungs-Passung: Das Team liefert der Industrie nicht nur moralische Umweltargumente, sondern mit der versprochenen OPEX-Reduktion knallharte betriebswirtschaftliche Anreize. Gelingt es den Heidelbergern, diese Ergebnisse dauerhaft in der industriellen Breite zu skalieren, wartet ein gigantischer Markt: Das globale Volumen für die industrielle Wasseraufbereitung lag 2024 bei rund 46 Milliarden USD und wächst stetig weiter. Das Kapital ist nun der entscheidende Hebel, um in diesem hochkomplexen Marktumfeld die Marktführerschaft für biozidfreie Alternativen anzugreifen.

Infokasten: Die Meilenstein-Historie von blue activity

Jahr / Zeitraum

Meilenstein

Redaktionelle Einordnung / Details

2021

Gründung

Lars Havighorst und Michael Simon gründen das CleanTech-Unternehmen in Heidelberg.

Januar / März 2023

Erste Seed-Runde

Der österreichische Umwelttech-Investor Epoona steigt mit ca. 500.000 Euro ein, um den Marktaufbau zu finanzieren.

2023 / 2024

Proof of Concept (BASF)

Erfolgreiches Pilotprojekt am Standort Ludwigshafen. Der Chemiegigant rüstet in der Folge erste Produktionsstätten auf die biozidfreie Technologie um.

Februar 2026

8,5 Mio. € (Late-)Seed-Runde

Abschluss der neuen, großvolumigen Finanzierungsrunde unter Führung von Wind Capital und Venture Stars. Das Unternehmen deklariert dies offiziell als "Seed-Runde".

Women Entrepreneurship Monitors 2024/25: Frauen fördern Gründerinnen – Männer bleiben lieber unter sich

Informelles Kapital ist der Treibstoff der frühen Phase. Doch eine neue Auswertung des „Women Entrepreneurship Monitors 2024/25“ zeigt: Wo Geld fließt, spielt das Geschlecht eine entscheidende Rolle. Während Frauen gezielt Gründerinnen stärken, investieren Männer weiterhin überwiegend in Männer. Das hat weitreichende Folgen für das Start-up-Ökosystem.

In der ganz frühen Phase einer Gründung, wenn klassische Bankkredite noch in weiter Ferne liegen, schlägt die Stunde der informellen Investor*innen. Ob Business Angels oder das private Umfeld: Ohne dieses Kapital würden viele Ideen den Sprung zum Markteintritt nicht schaffen.

Eine aktuelle Studie des RKW Kompetenzzentrums in Kooperation mit dem Thünen-Institut offenbart nun jedoch eine tiefe Kluft im Investitionsverhalten. Die Daten, basierend auf dem Global Entrepreneurship Monitor (GEM), zeigen ein deutliches Muster: Man investiert bevorzugt in das eigene Geschlecht.

Die Zahlen: Einseitigkeit bei den Männern

Besonders deutlich wird dies bei den männlichen Kapitalgebern. Rund 64 Prozent ihres Kapitals floss im Jahr 2024 in Gründungen von Männern. Nur magere 18 Prozent der männlichen Investitionen kamen Gründerinnen zugute.

Frauen zeigen sich hier deutlich offener: Fast 60 Prozent der informellen Investorinnen unterstützten andere Frauen. Gleichzeitig floss knapp ein Drittel ihres Kapitals in männlich geführte Startups. Damit investieren Frauen weitaus häufiger geschlechterübergreifend als ihre männlichen Pendants.

Mutiger außerhalb der Familie

Ein weiteres Detail der Studie betrifft die soziale Nähe zum Investitionsobjekt. Zwar bleibt der Kreis aus Familie und Freunden („Family and Friends“) für beide Geschlechter wichtig (ca. 37 bis 39 Prozent), doch bei Investitionen außerhalb des sozialen Nahfelds haben Frauen die Nase vorn:

  • Frauen: 51 Prozent investieren in Personen außerhalb des engen Kreises (z. B. Fremde mit guten Ideen oder Kollegen).
  • Männer: Hier liegt der Anteil bei lediglich 42 Prozent.

Dies deutet darauf hin, dass Frauen bei ihren Investment-Entscheidungen häufiger sachbezogen und jenseits bestehender privater Netzwerke agieren.

Einordnung für die Praxis

Für das Startup-Ökosystem ist dieser Befund ein Weckruf. Da Männer mit einer Quote von 9 Prozent deutlich häufiger als informelle Investoren auftreten als Frauen (5,1 Prozent), entsteht für Gründerinnen ein struktureller Nachteil beim Kapitalzugang.

Was bedeutet das für Gründer*innen und Investor*innen?

  1. Netzwerk-Strategie: Gründerinnen sollten gezielt weibliche Business-Angel-Netzwerke ansprechen. Die Daten belegen hier eine signifikant höhere Erfolgswahrscheinlichkeit.
  2. Unconscious Bias: Männliche Investoren sollten ihr Portfolio kritisch prüfen. Wer nur in das eigene Spiegelbild investiert, übersieht lukrative Investmentchancen in weiblich geprägten Märkten.
  3. Strukturelle Förderung: Um die Finanzierungslücke für Frauen zu schließen, ist nicht nur mehr Wagniskapital nötig, sondern vor allem eine Stärkung der weiblichen Investorinnen-Basis.

Fazit

Der Women Entrepreneurship Monitor macht klar: Kapital ist in Deutschland (noch) nicht geschlechtsneutral. Die größere Offenheit der Frauen beim Investieren sollte als Vorbild dienen, um die deutsche Startup-Landschaft diverser und damit wettbewerbsfähiger zu machen.

Observability im Start-up: Welche Signale bei Abstürzen wirklich helfen – und was am Anfang reiner Overkill ist

Wer schnell wächst, macht Dinge kaputt – das ist die Natur von Start-ups. Doch wenn der Checkout-Prozess am Freitagabend streikt, entscheidet die Werkzeugkiste der Entwickler*innen darüber, ob der Fehler in fünf Minuten behoben ist oder das ganze Wochenende kostet. Das Zauberwort der Tech-Szene lautet „Observability“. Doch welche Signale bringen Teams wirklich ans Ziel, was ist teurer Overkill und wo lauern die Fallen?

In der frühen Phase eines Start-ups sind Engineering-Ressourcen das wertvollste Gut. Wenn es um die Überwachung der eigenen Software geht, tappen viele Tech-Teams in eine von zwei Fallen: Entweder sie fliegen komplett blind oder sie bauen gigantische, teure Dashboards, die niemand versteht.

Um pragmatisch zu starten, müssen wir zunächst zwei Begriffe trennen, die oft fälschlicherweise synonym verwendet werden: Monitoring und Observability.

  • Monitoring sagt dir, dass etwas kaputt ist (Das System ist krank).
  • Observability (Beobachtbarkeit) sagt dir, warum es kaputt ist und wo genau es wehtut.

Um das „Warum“ herauszufinden, nutzt die Industrie verschiedene Signale: Logs, Metriken, Traces und Frontend-Daten. Doch nicht alle sind für Start-ups gleich wichtig. Hier ist der Reality-Check, worauf es anfangs wirklich ankommt.

1. Der absolute Gamechanger: Exception Tracking (Die User-Sicht)

Das beste Server-Monitoring nützt nichts, wenn der „Kaufen“-Button im Browser des Kunden einen unsichtbaren JavaScript-Fehler wirft. Das Backend merkt davon nichts, aber der Umsatz bleibt aus.

Der Nutzen: Extrem hoch. Tools für sogenanntes Exception Tracking (wie Sentry, Bugsnag oder Rollbar) fangen Fehler genau dort ab, wo sie passieren – im Frontend beim Nutzer und im Backend. Sie gruppieren tausende Fehlermeldungen intelligent zusammen und zeigen: "Dieser spezifische Fehler betrifft gerade 150 Nutzer."

Das Start-up-Urteil: Ein absolutes Muss von Tag eins an. Es priorisiert Fehler automatisch nach Dringlichkeit und liefert den Entwicklern den genauen Code-Schnipsel, der den Absturz verursacht hat.

2. Das Rückgrat der Fehlersuche: Strukturierte Logs

Logs sind das Tagebuch der Applikation. Wenn ein Fehler auftritt, sind sie der Ort, an dem Entwickler den Kontext finden: Wer hat was wann versucht?

Der Nutzen: Sehr hoch. Aber Vorsicht: Einfache Text-Logs (wie man sie früher geschrieben hat) werden bei viel Traffic schnell unlesbar.

Das Start-up-Urteil: Pflichtprogramm, aber richtig umgesetzt. Startups sollten von Beginn an auf Structured Logging (JSON-Format) setzen. So lassen sich Log-Dateien später wie eine Datenbank durchsuchen (z.B. "Zeige mir alle Fehler von User ID 12345"). Um Kosten zu sparen, sollten anfangs nur echte Warnungen und Fehler geloggt werden, nicht jeder harmlose Klick.

3. Der Puls des Systems: Metriken (und die RED-Methode)

Metriken sind aggregierte Zahlen über die Zeit (z. B. CPU-Auslastung, Anzahl der Fehlermeldungen pro Minute, durchschnittliche Ladezeit).

Der Nutzen: Mittel für die eigentliche Ursachenfindung, aber essenziell für Alarme. Metriken verraten dir nicht die exakte fehlerhafte Codezeile, aber sie wecken dich nachts auf, wenn das System kollabiert.

Das Start-up-Urteil: Wichtig, aber bitte simpel halten. Anstatt Dutzende von Dashboards zu bauen, sollten Start-ups die sogenannte RED-Methode für ihre wichtigsten Schnittstellen nutzen:

  • Rate: Wie viele Anfragen kommen rein?
  • Errors: Wie hoch ist die Fehlerrate?
  • Duration: Wie lange dauern die Antworten?

Reißt einer dieser drei Werte aus, gibt es eine Slack-Nachricht ans Team – und die Entwickler springen zur eigentlichen Fehlersuche in die Logs.

4. Die Overkill-Falle: Distributed Tracing und Session Replays

Jetzt kommen wir zu den Tools, die auf Konferenzen gerne beworben werden, Start-ups aber oft mehr Zeit kosten, als sie einbringen.

  • Distributed Tracing: Traces verfolgen den Weg einer einzelnen Nutzeranfrage durch ein Labyrinth aus Dutzenden Microservices. Solange ihr aber einen gut gebauten Monolithen oder nur eine Handvoll Services betreibt, rechtfertigt der enorme Implementierungsaufwand den Nutzen nicht. Hebt euch Tracing für den Tag auf, an dem euer System massiv skaliert.
  • Session Replay: Das sind Tools, die den Bildschirm des Nutzers aufzeichnen, um Mausbewegungen vor dem Fehler nachzuvollziehen. Ein fantastisches Werkzeug für UX-Designer, aber für Entwickler unter Zeitdruck oft zu zeitraubend in der Auswertung.

Die Schattenseiten: Wenn das Monitoring selbst zum Problem wird

Observability ist kein reines Wundermittel. Wer nicht aufpasst, schafft sich mit den besten Absichten neue Probleme. Startups müssen vor allem vier Risiken im Blick behalten:

  • Die Kostenexplosion: Viele SaaS-Tools rechnen nach Datenvolumen ab. Wer stur nach dem Motto „Log everything“ vorgeht, zahlt am Ende oft mehr für das Monitoring als für die eigentlichen Server. Lösung: Unwichtige Daten filtern und Löschfristen (Retention) auf 7 bis 14 Tage begrenzen.
  • Das DSGVO-Minenfeld: Detaillierte Logs saugen schnell sensible Daten wie Klartext-Passwörter, E-Mail-Adressen oder Kreditkarten-Fragmente auf. Landen diese auf Servern von US-Drittanbietern, drohen handfeste rechtliche Konsequenzen. Lösung: Sensible Daten müssen zwingend maskiert werden (Data Scrubbing), bevor sie das eigene System verlassen.
  • Alarm-Müdigkeit (Alert Fatigue): Wenn der Slack-Kanal alle fünf Minuten wegen Nichtigkeiten bimmelt, stumpft das Team ab. Irgendwann wird der eine, wirklich kritische Ausfall übersehen. Lösung: Alarme dürfen nur feuern, wenn Nutzer tatsächlich beeinträchtigt sind und Entwickler aktiv eingreifen müssen.
  • Performance-Einbußen: Zu viel Tracking im Code (gerade im Frontend des Nutzers) kann die Applikation spürbar verlangsamen. Die Beobachtung des Systems darf das Produkt niemals ausbremsen.

Fazit: Das 80/20-Prinzip für Start-ups

Start-ups sollten nicht versuchen, das Observability-Setup von Tech-Giganten zu kopieren. Die goldene Regel für die Frühphase lautet: Investiert 80 Prozent eurer Zeit in ein sauberes Exception Tracking (Frontend und Backend) und konsequent strukturierte Logs. Ergänzt das Ganze durch einfache Metriken (RED), die Alarm schlagen, wenn es wirklich brennt. Vermeidet unnötige Datensammelwut und schützt die Privatsphäre eurer Nutzer.

Infobox: Die Grundsatzentscheidung – Selbst bauen oder mieten?

Neben der Wahl der Signale stehen Start-ups früh vor der Frage, wie sie diese Tools betreiben. Hier gibt es zwei Lager:

1. Open Source (Selber hosten): Tools wie der ELK-Stack, Prometheus oder Grafana kosten keine Lizenzgebühren und die Daten bleiben komplett auf den eigenen Servern (ein DSGVO-Vorteil).
Der Haken: Die Einrichtung und Wartung frisst wertvolle Entwicklerzeit. Die teuerste Ressource im Start-up ist nicht der Server, sondern die Zeit der Entwickler.

2. SaaS / Managed Services (Mieten): Plattformen wie Datadog, Sentry oder New Relic sind in wenigen Minuten einsatzbereit und erfordern null Wartung.
Der Haken: Sie kosten Geld, und bei steigendem Datenvolumen können die Rechnungen empfindlich steigen (Vendor Lock-in).

Die goldene Regel & Teamkultur: Startet nach Möglichkeit mit SaaS-Lösungen, um euch auf euer Kernprodukt zu konzentrieren. Wechselt erst zu selbst gehosteten Systemen, wenn die monatliche SaaS-Rechnung teurer wird als die Arbeitszeit eines DevOps-Engineers. Und vergesst nicht die Kulturfrage ("You build it, you run it"): Das beste Tool nützt nichts, wenn nicht klar geregelt ist, wer sich am Wochenende um den Alarm kümmert.

Mit diesem pragmatischen Setup löst ein agiles Entwicklerteam 99 Prozent aller Probleme in Rekordzeit – und kann sich ansonsten auf das konzentrieren, was wirklich zählt: Ein Produkt zu bauen, das die Kunden lieben.

10 Mio. Euro für Würzburger DeepTech-Start-up WeSort.AI

Das 2021 von Nathanael Laier und Johannes Laier gegründete WeSort.AI nutzt KI und Röntgen, um wertvolle Rohstoffe aus dem Abfall zu retten. Alles zur neuen 10-Mio.-Finanzierung.

Ein kurzes Aufblitzen, gefolgt von beißendem Rauch: Falsch entsorgte Lithium-Ionen-Akkus sind der Albtraum jedes Recyclinghof-Betreibers. Über 50 Prozent aller entsorgten Elektrogeräte und Batterien landen nicht bei spezialisierten Recyclern, sondern im Restmüll oder der gelben Tonne. Dadurch entstehen zahlreiche Brände im Recyclingprozess und wertvolle Rohstoffe wie Lithium, Kobalt und Seltene Erden gehen verloren. Diese Materialien klassifiziert die EU als Critical Raw Materials (CRM), deren Verfügbarkeit entscheidend für die Unabhängigkeit von Drittstaaten ist. Genau in diese schmerzhafte Lücke stößt das Würzburger DeepTech-Start-up WeSort.AI. Das Unternehmen hat sich Finanzierungsmittel in Höhe von zehn Millionen Euro gesichert, um seine KI-basierte Technologie zur Rückgewinnung kritischer Rohstoffe aus Recycling-Anlagen weiter zu skalieren.

Von der Vision zum prämierten Start-up

Hinter WeSort.AI stehen die Gründer Nathanael Laier und Johannes Laier, die das Unternehmen Ende 2021 mit Sitz in Würzburg aus der Taufe hoben. Als die Brüder die veralteten Trennverfahren der globalen Müllsortierung analysierten, erkannten sie das gewaltige, ungenutzte Potenzial von Digitalisierung in diesem Sektor. Der Aufstieg seit der Gründung verlief rasant. Die Kombination aus Unternehmergeist und technischem Know-how gipfelte kürzlich im Gewinn der Tech Metal Transformation Challenge der Bundesagentur für Sprunginnovationen (SPRIND). Dass die Vision der Brüder auch auf politischer Ebene Anklang findet, beweisen zudem weitere Förderzusagen in Millionenhöhe, unter anderem vom BMWE, dem BMFTR und dem Land Bayern, mit denen das Team seine Sortiertechnologie nun weiter optimieren will.

Brandprävention als lukrativer Türöffner

Die Technologie der Würzburger liest sich wie Science-Fiction für den Müllbunker. Das KI-Sortiersystem erkennt mit Hilfe von künstlicher Intelligenz, Spezialkameras und Röntgen Batterien und Elektroschrott automatisch in falschen Abfallfraktionen und sortiert sie zurück ins fachgerechte Recycling. Die Technologie kann dabei verschiedenste gefährliche oder wertvolle kritische Rohstoffe aus diversen Abfallarten wie Altfahrzeugen, Elektronik, Bauabfällen, Industrie und Haushalt aussortieren. Das Geschäftsmodell ist äußerst smart positioniert, da es einen ökologischen Makro-Trend mit einem hochaktuellen betriebswirtschaftlichen Schmerzpunkt verbindet. Das System verhindert nicht nur Brände in Müllverarbeitungsanlagen, sondern sichert auch die Rückgewinnung strategisch wichtiger Rohstoffe.

Dass das System bereits seit 2024 bei führenden Entsorgungsunternehmen wie KORN Recycling und PreZero, einem Teil der Schwarz Gruppe, im Einsatz ist, belegt einen frühen und starken Product-Market-Fit. Zudem surft das Unternehmen geschickt auf der Welle der Geopolitik, denn der EU Critical Raw Material Act setzt ambitionierte Ziele für die europäische Rohstoffunabhängigkeit. Europa ist heute stark abhängig von Importen kritischer Materialien, was wirtschaftliche und geopolitische Risiken birgt. Indem WeSort.AI bisher ungenutzte kritische Rohstoffe aus dem Abfall zurückgewinnt, erschließt das Start-up laut Gründer Nathanael Laier eine bisher ungenutzte urbane Mine und trägt direkt zur Umsetzung der EU-Vorgaben bei.

Markt & Wettbewerb

Das frische Kapital von zehn Millionen Euro stammt von führenden europäischen Impact-Investoren wie Infinity Recycling, dem Green Generation Fund und der Corporate-Venture-Einheit vent.io. Zustande kommt die Finanzierung zudem mit Unterstützung des BayStartUP-Investorennetzwerks.

Doch diese Mittel treffen auf einen hart umkämpften Markt, der sich grob in drei Segmente unterteilen lässt. Allen voran stehen die etablierten Anlagenbau-Goliaths wie das norwegische Milliardenunternehmen Tomra oder das deutsche Traditionsunternehmen Steinert. Diese Branchenriesen dominieren den Markt für sensorgestützte Sortierung historisch und rüsten ihre eigenen Systeme massiv mit Deep-Learning und KI auf.

Neben diesen Giganten drängen extrem gut finanzierte internationale Scale-ups auf den deutschen Markt. Unternehmen wie Recycleye oder Greyparrot aus Großbritannien bringen ihre KI-gesteuerten Analytik- und Robotiksysteme in europäische Anlagen und kooperieren hier bereits mit etablierten Anlagenbauern.

Auch die heimische Start-up-Konkurrenz schläft nicht, wie etwa das Bremer Start-up WasteAnt zeigt, welches Sensorik zur Qualitätskontrolle direkt bei der Müllanlieferung einsetzt.

WeSort.AI versucht, sich in dieser Gemengelage durch einen klaren USP abzugrenzen. Peter Dorfner, Partner beim Green Generation Fund, zeigt sich besonders davon überzeugt, dass die Battery-Sort-Lösung weltweit in ihrer Form einzigartig ist und mit ihrem Patent auf dem internationalen Markt stark vor Wettbewerb geschützt ist.

Ausblick & Einordnung

Es lohnt sich ein zweiter Blick auf die vor WeSort.AI liegenden Herausforderungen. Das Unternehmen entwickelt physische Systeme für eine der rauesten Industrieumgebungen der Welt, was die Hardwareentwicklung extrem kapitalintensiv macht. Die Abfallwirtschaft gilt zudem als eher konservativ, was oft in langen B2B-Vertriebszyklen bei der Integration neuer Hardware in bestehende Infrastrukturen mündet.

Dennoch löst WeSort.AI durch die Vermeidung von Bränden und die Rückgewinnung kritischer Rohstoffe eines der größten Probleme der Branche. Gelingt es dem Gründer-Duo, die Sortiertechnologie weiter zu optimieren und in neue Anwendungen zu skalieren, hat das Start-up beste Chancen, sich als ein führender Anbieter für KI-gestützte Rückgewinnung kritischer Rohstoffe in Europa zu positionieren. Der starke Rückenwind durch EU-Regularien und die eklatante Schmerzgrenze der Entsorger bei brennenden Anlagen bleiben dabei die stärksten Verkaufsargumente.

50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert

Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.

Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.

Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.

Vom Side-Project zur modularen Architektur

Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.

Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.

Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.

Das Open-Core-Modell auf dem Prüfstand

Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.

Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.

Im Haifischbecken der Tech-Giganten

In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.

Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.

Lektionen für die Start-up-Szene

Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.

Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.

Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.

Zwischen Hausaufgaben und Datenschutz: Der mutige B2C-Vorstoß von innoGPT

Die Inno KI GmbH aus Vechta öffnet ihre bisher auf Geschäftskunden ausgerichtete KI-Plattform nun für Familien. Mit einem neuen "Family Package" wollen die Gründer Mike Koene und Maurice Brumund das Problem des Datenschutzes bei der KI-Nutzung von Jugendlichen lösen. Ein cleverer Schachzug in eine unbesetzte Nische – oder ein schwieriges B2C-Geschäftsmodell mit hoher Preishürde?

Die Zahlen der jüngsten JIM-Studie (Jugend, Information, Medien) sprechen eine deutliche Sprache: 70 Prozent der Jugendlichen nutzen Künstliche Intelligenz zur Informationssuche, 74 Prozent lassen sich bei den Hausaufgaben helfen. Die Kehrseite dieser rasanten Adaption: Die Nutzung erfolgt zumeist über die kostenlosen Web-Versionen von US-Giganten wie OpenAI oder Google. Sensible Daten – von persönlichen Fragen bis zu hochgeladenen Schuldokumenten – fließen oft ungefiltert in die globalen Trainingsdatenbanken der Anbieter, sofern nicht manuell widersprochen wird.

Während die Politik über Social-Media-Verbote für Minderjährige debattiert, bleibt der regulatorische blinde Fleck bei KI-Tools im Kinderzimmer bislang bestehen. Genau in diese Lücke stößt nun das niedersächsische Start-up Inno KI GmbH mit seiner Plattform innoGPT.

Von der Agentur zum KI-Aggregator

Hinter innoGPT steht kein klassisches, VC-finanziertes Silicon-Valley-Konstrukt, sondern mittelständischer Pragmatismus aus Vechta. Co-Founder Maurice Brumund und sein Team begannen bereits 2022 im Umfeld einer eigenen Digitalmarketing-Agentur, intensiv mit KI-Tools zu experimentieren.

Aus dem internen Pain Point – der Frage, wie Mitarbeitende rechtssicher und datenschutzkonform mit großen Sprachmodellen (LLMs) arbeiten können – entstand Ende 2024 die Plattform innoGPT. Bisher lag der Fokus des Startups strikt auf dem B2B-Segment: Mit rein europäischem Hosting, DSGVO-Konformität und einer Zero-Retention-Policy (keine Nutzung der API-Daten für das Modell-Training) positionierte sich innoGPT als Lösung gegen die „Schatten-IT“ in Unternehmen. Laut Unternehmensangaben nutzen bereits über 2.500 Privat- und Geschäftskund*innen den Service. Nun folgt die Ausweitung des Geschäftsmodells auf den B2C-Markt.

Das Produkt: Ein "Safe Space" für die Familie

Mit dem neuen „Family Package“ erhalten bis zu fünf Familienmitglieder für 34,90 Euro im Monat individuelle Logins zu einer zentralen Plattform. Über diese können sie gebündelt auf verschiedene führende KI-Modelle von OpenAI, Anthropic, Google, Meta, Mistral und Black Forest Labs zugreifen. Ein zusätzlich buchbares Add-on filtert persönliche Daten (Named Entity Recognition) wie Namen oder E-Mail-Adressen und ersetzt diese vor der Übermittlung an die Rechenzentren automatisch durch Platzhalter.

Das Geschäftsmodell und der Markt

Aus Start-up-Sicht ist der Vorstoß von B2B-SaaS in ein Family-Abo-Modell gleichermaßen spannend wie riskant. Eine kritische Analyse offenbart dabei mehrere Marktherausforderungen:

  • Der technologische Burggraben (Moat): Das Geschäftsmodell von innoGPT ist im Kern ein Aggregator- oder Wrapper-Modell. Das Start-up entwickelt keine eigenen Foundation-Modelle, sondern baut eine sichere, europäische Middleware-Schicht über die Schnittstellen (APIs) der Tech-Giganten. Der technologische Burggraben ist folglich eher niedrig. Der primäre Unternehmenswert liegt in der User Experience, der reibungslosen Modellanbindung und dem abstrakten Vertrauensfaktor „Datenschutz“.
  • Zahlungsbereitschaft: 34,90 Euro im Monat (knapp 420 Euro im Jahr) sind für ein klassisches Familienbudget eine erhebliche Summe. Der Preis entspricht fast den Kosten von anderthalb ChatGPT-Plus-Lizenzen. Die zentrale Herausforderung für das Marketing wird sein: Sind Eltern bereit, für den Schutz der Daten ihrer Kinder diesen Premium-Aufschlag zu zahlen, während der Nachwuchs die Basis-Tools de facto kostenlos und mit einem Klick auf dem Smartphone nutzen kann?
  • Token-Ökonomie in der Praxis: Das Modell sieht einen geteilten Token-Pool für die fünf Accounts vor. In der Praxis könnte dies zu Reibereien führen, wenn beispielsweise ein Familienmitglied rechenintensive Bildgenerierungen (etwa über Black Forest Labs) durchführt und das Kontingent für die Text-Prompts der restlichen Familie vorzeitig aufbraucht.
  • Wettbewerbslandschaft: InnoGPT bewegt sich in einem Sandwich-Markt. Von oben drohen die direkten B2C-Angebote der Tech-Riesen (es ist absehbar, dass OpenAI oder Google eigene „Family Plans“ ausrollen). Von der Seite drücken EdTech-Start-ups in den Markt, die KI DSGVO-konform direkt in die Lernplattformen der Schulen integrieren – was eine private Familienlizenz obsolet machen könnte.

Ein mutiger Testballon

Für das Start-up-Ökosystem ist die Inno KI GmbH dennoch ein Paradebeispiel für „bootstrapped“ Innovationskraft. Anstatt ein Produkt am Reißbrett zu entwerfen, hat das Team ein valides Angebot aus einem eigenen betrieblichen Schmerz heraus entwickelt.

Der Vorstoß in den B2C-Markt wirkt wie ein smarter, PR-wirksamer Testballon. Das Start-up greift eine hochaktuelle, emotionale gesellschaftliche Debatte auf (Jugendschutz bei KI) und besetzt rhetorisch geschickt die Rolle des Problemlösers. Ob sich das Family-Modell finanziell trägt, hängt letztlich davon ab, ob innoGPT den trockenen Begriff der „DSGVO-Konformität“ für Eltern emotional so aufladen kann, dass er als unverzichtbare Sicherheitsmaßnahme wahrgenommen wird. Gelingt dies nicht, ist das Risiko überschaubar: Das Start-up kann sich nahtlos wieder auf sein wachsendes B2B-Kerngeschäft konzentrieren.

Aiconiq.io: Das KI-Gehirn für den Mittelstand – Brillante Vision oder teure Manufaktur?

Autonome Agenten, halbierte Prozesskosten und sicheres Daten-Hosting: Mit Aiconiq.io tritt ein Start-up an, um das KI-Gehirn für den Mittelstand zu bauen. Wir wollten wissen, wie das „Corporate Brain“ funktioniert und wo die Herausforderungen bei der Skalierung liegen.

Hinter der Aiconiq GmbH stehen zwei ausgewiesene Branchenexperten. Gegründet wurde das Start-up 2025 von Prof. Dr. Peter Gentsch, einem bekannten KI-Pionier und Seriengründer, sowie dem KI-DeepTech-Experten Dr. Michael Patrushev. Gemeinsam bringen sie jahrzehntelange Erfahrung aus der KI-Forschung, im internationalen Engineering und beim Skalieren technologiegetriebener Unternehmen in ihr neues Projekt ein.

Mehr als nur ein Chatbot

Dass hier DeepTech-Experten am Werk sind, zeigt sich am technologischen Anspruch: Während viele Firmen mit generischen Chatbots experimentieren, integriert Aiconiqs Corporate Brain laut Unternehmensangaben nicht nur explizites, sondern gezielt das implizite Wissen (Tacit Knowledge) der Belegschaft. Erfasst wird dies durch KI-gesteuerte Interviews. Um Halluzinationen und subjektiven Fehleinschätzungen vorzubeugen, setzt Co-Gründer Michael Patrushev auf harte Validierung: „Die KI stellt keine offenen, spekulativen Fragen, sondern kontextualisierte, prozessbezogene Fragen entlang realer Use Cases.“

Nach einem Abgleich mit ERP-Logs und Experten-Kreuzvergleichen speichere das System keine absoluten Wahrheiten, so Patrushev, sondern „gewichtete Wissenselemente mit Vertrauens-Score und Quellenreferenz“. Gerade dieses subjektive Erfahrungswissen sei im Unternehmensalltag entscheidend, müsse aber umsichtig geprüft werden.

David gegen die Tech-Goliaths

Im hart umkämpften Markt stellt sich die Frage, wie lange das Start-up gegen die Milliarden-Budgets von Microsoft oder OpenAI bestehen kann. Prof. Peter Gentsch gibt sich pragmatisch: „Wir kämpfen nicht gegen die Hyperscaler wie OpenAI, Google oder Anthropic – wir nutzen sie.“ Das eigene System setze horizontal auf den bekannten Modellen auf. Der Burggraben entstehe durch branchenspezifische Use Cases in einer sicheren, DSGVO-konformen Umgebung, wahlweise on-premises oder in einer europäischen Cloud.

Gentsch pointiert: „Wir wollen nicht das größte Gehirn bauen; wir bauen das relevanteste Brain für ein Unternehmen. Die Tech-Giganten optimieren Skalierung – wir optimieren den Unternehmens-Kontext.“

Skalierung: Softwareprodukt oder Manufaktur?

Die schnelle Entwicklung der eigenen Modelle sichert Aiconiq durch die interne „Aiconiq Factory“ ab, die auf radikale Automatisierung setzt. Kontrollverlust fürchtet Patrushev dabei nicht: „Geschwindigkeit ersetzt bei uns nicht Qualität – sie wird durch Qualitätssicherungssysteme ermöglicht.“ Jeder KI-generierte Code durchlaufe strenge Security-Checks und Test-Pipelines.

Doch lässt sich das aufwendige Einfangen von Unternehmenswissen beim Kunden ebenso reibungslos skalieren, oder droht Aiconiq in einem beratungsintensiven Manufaktur-Modell steckenzubleiben? Gentsch wehrt ab: Man nutze KI, um KI im Unternehmen aufzubauen. Algorithmen deckten Inkonsistenzen im Wissen automatisch auf und lösten sie teils selbständig. Ganz ohne menschliches Zutun gehe es aber nicht, räumt der Gründer ein: „Damit bleibt immer ein wenig Manufaktur bzw. ‚Human in the loop‘.“

Ausblick

Mit einer aktuellen Bewertung von 10 Millionen Euro und der Aufnahme ins „German Accelerator USA-Programm“ hat Aiconiq.io nach eigenen Angaben bereits namhafte DAX-Konzerne überzeugt. Gelingt es den Frankfurtern nun, die komplexe Wissensextraktion weiter zu standardisieren, könnte sich ihr „Corporate Brain“ als eine treibende Kraft der „industriellen KI-Revolution“ aus Deutschland etablieren.

StartingUp-DeepTech-Watchlist 2026

Von „German Engineering“ zu „German DeepTech“: Diese jungen Start-ups und Scale-ups zünden 2026 die nächste Stufe – und sollten zwingend auf dem Radar von Investor*innen und Entscheider*innen stehen.

„Prognosen sind schwierig, vor allem, wenn sie die Zukunft betreffen.“ Dieser Ausspruch unterstreicht die Herausforderung, die Dynamik unseres Start-up-Ökosystems vorherzusagen. Doch wer 2025 aufmerksam verfolgt hat, der spürt: Es hat sich etwas gedreht. Der Investor*innenfokus hat sich verschoben – weg von reinen E-Commerce-Modellen, hin zu substanzieller Technologie, die echte physikalische Probleme löst.

Die folgende Auswahl an Start-ups und Scale-ups, mit denen 2026 gerechnet werden sollte, ist mehr als eine Watchlist. Sie basiert auf einer Analyse der signifikanten Finanzierungsrunden 2025, der technologischen Reife und der Resonanz bei bedeutenden Preisen. Diese Unternehmen stehen beispielhaft für eine Gründer*innengeneration, die Wissenschaft und Skalierung vereint. Natürlich bleibt ein Restrisiko. Unwägbarkeiten – von geopolitischen Instabilitäten über regulatorische Verschärfungen wie dem EU AI Act bis hin zu volatilen Zinsmärkten – können die nahe Zukunft beeinflussen. Doch die Resilienz dieser Unternehmen stimmt optimistisch.

DefenseTech: Die neue Realität der Sicherheit

Lange war Verteidigungstechnologie in Deutschland ein Tabuthema für Risikokapitalgeber. Das hat sich grundlegend geändert. Ganz oben auf der Watchlist steht neben dem Münchner Start-up Helsing nun das 2024 gegründete Black Forest Labs. Das Geschäftsmodell ist faszinierend, weil es die Grenzen zwischen kreativer Zerstörung und Sicherheitstechnologie verwischt. Es basiert auf der Entwicklung proprietärer State-of-the-Art-Modelle für generative Videoerzeugung. Nach einer spektakulären 300-Mio.-USD-Runde im Dezember 2025 katapultierte sich die Bewertung auf satte 3,25 Milliarden USD. Das Start-up ist damit Deutschlands wertvollste KI-Firma und beweist, dass Europa bei Generative AI den Anschluss nicht verloren hat. Der globale Siegeszug deutet sich 2026 unter anderem in einem mehrjährigen Vertrag mit Meta sowie in Kooperationen mit US-Plattformen wie X und Hollywood-Studios an, die Produktionskosten senken wollen. Mitgründer Robin Rombach prognostizierte im Sifted-Podcast: „2026 wird generative Video-KI zum industriellen Standard in der Medienproduktion.“ Doch auch bei der Simulation für Sicherheitsszenarien spielt die Technologie eine wachsende Rolle.

Ein weiterer Schlüsselakteur ist Stark Defence. Das 2024 gegründete Münchner Start-up adressiert eine Lücke der modernen Kriegsführung: asymmetrische Bedrohungen. Stark Defence fokussiert sich auf softwaredefinierte, autonome Drohnensysteme, die „on the edge“ entscheiden und nicht auf ständige Funkverbindung angewiesen sind. Dass das Start-up durch seine KI-Schwarmtechnologie massiv an Bedeutung gewinnen wird, hat sich Ende Februar 2026 eindrucksvoll bestätigt: Der Haushaltsausschuss des Bundestages gab einen Auftrag über 540 Millionen Euro für Kampfdrohnen frei, den sich Stark Defence (Modell „Virtus“) und das nach einer Mega-Runde im Sommer 2025 mittlerweile mit 12 Milliarden Euro bewertete Münchner Unicorn Helsing (Modell „HX-2“) teilen. Um diese rasante Skalierung zu stemmen, hat Stark Defence kürzlich das Berliner Software-Start-up Pleno übernommen und eine neue Serienfertigung im britischen Swindon eröffnet. Mitgründer Florian Seibel dazu: „Unser Ziel für 2026 ist die erste vollautonome Verteidigungslinie für Europa.“