Aktuelle Events
Batterierecycling Start-up cylib nimmt Pilotlinie in Betrieb
Das 2022 gegründete Start-up cylib ist Experte für ganzheitliches Batterierecycling und zeichnet sich durch die effiziente, ressourcen- und klimaschonende Rückgewinnung aller wertvollen Elemente in einer Batterie aus.
Das Batterierecycling Start-up cylib hat seine Pilotanlage, welche die einzigartige Technologie des Start-ups zum vollständigen Recycling von Lithium-Ionen-Batterien umsetzt, in Aachen Rothe Erde in Betrieb genommen.
Die steigende Nachfrage nach Batterien für Elektrofahrzeuge, Power Tools und erneuerbare Energiesysteme hat in den vergangenen Jahren zu einem starken Anstieg der Verwendung von Batterien geführt. Der Recyclingbedarf beläuft sich bereits heute in Deutschland schon auf ca. 100.000 Tonnen pro Jahr. Er wird bis 2040, nach Berechnungen einer Studie des Fraunhofer ISI, auf ca. 2.1 Millionen Tonnen steigen. Gleichzeitig ist die Abhängigkeit Europas von Rohstoffimporten enorm hoch. So müssen heute alle für den Bau von Batterien relevanten Elemente, wie z.B. Lithium, Graphit, Kobalt und Nickel, nach Europa importiert werden.
Doch die Effizienzen zur Rückgewinnung der Rohstoffe sind beim Recycling der Batterien, trotz des wachsenden Bedarfs nach mehr Kapazitäten, der Abhängigkeit von Importen, sowie dem steigenden regulatorischen Druck, immer noch gering. Genau hier setzt cylib an: 2022 aus der RWTH Aachen heraus von Lilian Schwich (CEO), Paul Sabarny (CTO) und Dr.-Ing. Gideon Schwich (COO) gegründet, hat cylib basierend auf langjähriger Forschung eine innovative Technologie entwickelt, die es ermöglicht, Batterien ganzheitlich nachhaltig zu recyceln.
Rückgewinnung aller Rohstoffe
CEO und Co-Gründerin Lilian Schwich sagt: "Wir bei cylib sind stolz darauf, mit der erfolgreichen Eröffnung unserer Pilotlinie, einen Beitrag zur Nachhaltigkeit der Batterieindustrie zu leisten. Unser klares Ziel ist, mit Blick auf den enormen gesellschaftlichen und industriellen Bedarf, den Ausbau unserer Technologie und Kapazitäten nun im nächsten Schritt weiter voranzutreiben und unsere Mission zu verfolgen, durch zirkuläre Rohstoffe den Lebensraum für eine nachhaltige Gesellschaft zu schaffen."
Die innovative End-to-End Recyclinganlage in Aachen ist der erste Schritt der industriellen Umsetzung des von cylib entwickelten Prozess. Mit der Pilotanlage können pro Tag ab sofort ca. 500 kg Batterien ganzheitlich recycelt werden. Der wissenschaftlich basierte Prozess gewinnt alle in Batterien enthaltenen Elemente wie z.B. Kobalt, Nickel und Kupfer zurück. Die Lithium und Graphit Rückgewinnung ist dank des proprietären Prozesses wasserbasiert und ohne Chemikalien möglich.
„Wir haben den Einzug in unsere heutige Recyclingstätte im Januar über den Aufbau der Infrastruktur bis hin zur Inbetriebnahme in weniger als 9 Monaten geschafft. Darauf sind wir im Team sehr stolz“, so CTO und Mitgründer Paul Sabarny. „Für den Aufbau der cylib Industrielinie befinden wir uns bereits in aussichtsreichen Gesprächen mit der Stadt Aachen, aber auch mit weiteren Standorten, und planen noch dieses Jahr eine Standortentscheidung für die nächste Linie treffen zu können.“
Die Eröffnung der cylib Pilotanlage ist ein wichtiger Schritt in Richtung einer nachhaltigen und umweltbewussten Zukunft.
Diese Artikel könnten Sie auch interessieren:
50 Mio. USD für Qdrant: Wie ein Berliner Start-up die globale KI-Infrastruktur erobert
Das 2021 von Andrey Vasnetsov und Andre Zayarni gegründete Qdrant sichert sich eine gewaltige Series-B-Finanzierung und fordert die etablierten Tech-Giganten heraus. Warum „Composable Vector Search“ das nächste große Ding im B2B-Markt ist und was Gründer*innen von diesem DeepTech-Erfolg lernen können.
Das Berliner KI-Infrastruktur-Start-up Qdrant hat heute eine Series-B-Finanzierungsrunde in Höhe von 50 Millionen US-Dollar bekannt gegeben. Angeführt wird die Runde vom Investor AVP, unter Beteiligung von Bosch Ventures, Unusual Ventures, Spark Capital und 42CAP. Mit dem frischen Kapital will das Unternehmen, das eine in der Programmiersprache Rust entwickelte Open-Source-Vektorsuchmaschine für Produktionslasten anbietet, seine sogenannte Composable Vector Search als fundamentale Infrastruktur für die KI-Ära standardisieren.
Für die Start-up-Szene und die StartingUp-Leser*innen liefert Qdrant ein Paradebeispiel für europäisches DeepTech, Product-Led Growth über Open-Source und den harten strategischen Wettbewerb im aktuellen KI-Ökosystem.
Vom Side-Project zur modularen Architektur
Die Ursprünge von Qdrant gehen auf das Jahr 2021 in Berlin zurück. Die Gründer André Zayarni, heute CEO des Unternehmens, und Andrey Vasnetsov, der heutige CTO, arbeiteten zunächst an einer Matching-Engine für gigantische Mengen unstrukturierter Textdaten. Der technologische Durchbruch kam, als Vasnetsov vorschlug, auf neuronale Suche umzuschwenken und sich in seiner Freizeit die speichersichere Programmiersprache Rust aneignete.
Technologisch hat sich der Markt seitdem rasant entwickelt. Zu Beginn löste die Vektorsuche ein sehr spezifisches Problem, nämlich das Abrufen der nächsten Nachbarn aus dichten Embeddings über weitgehend statische Datensätze. Moderne KI-Systeme sehen heute jedoch völlig anders aus: Retrieval-Prozesse laufen nun in Agenten-Schleifen ab, führen pro Workflow Tausende von Abfragen über hybride Modalitäten aus und greifen auf sich kontinuierlich verändernde Daten zu.
Qdrant verabschiedet sich daher von einer reinen Black-Box-Lösung und setzt stattdessen auf eine modulare Infrastruktur. Entwickler*innen können Primitive zur Vektorsuche – wie dichte und spärliche Vektoren, Metadaten-Filter, Multi-Vektor-Darstellungen und benutzerdefinierte Bewertungsfunktionen – direkt zum Zeitpunkt der Abfrage frei kombinieren. Dies erlaubt eine explizite Steuerung darüber, wie sich jede einzelne Komponente auf die Relevanz, die Latenz und die Kosten auswirkt. Um der steigenden Forderung nach Flexibilität nachzukommen, ist Qdrant so designt, dass es sich nahtlos in Cloud-, Hybrid-, On-Premise- und Edge-Umgebungen einsetzen lässt.
Das Open-Core-Modell auf dem Prüfstand
Mit diesem Ansatz tritt Qdrant als sogenannter Picks-and-Shovels-Anbieter der andauernden KI-Revolution auf. Das Geschäftsmodell basiert auf einem Open-Core-Ansatz: Die Basis-Software ist quelloffen und erfreut sich mit mittlerweile über 250 Millionen Downloads sowie mehr als 29.000 GitHub-Stars einer massiven Beliebtheit. Namhafte Konzerne wie Tripadvisor, HubSpot, OpenTable, Bazaarvoice und Bosch nutzen die Technologie bereits kontinuierlich unter realer Produktionslast. Geld verdient das Start-up durch Managed-Cloud-Dienste sowie dedizierte Enterprise- und On-Premise-Lösungen.
Die kritische geschäftliche Hürde liegt jedoch in der massiven Ressourcen- und Rechenintensität von Vektordatenbanken. Die enorme Verbreitung im Open-Source-Bereich ist zwar exzellent für das Marketing, muss sich jedoch dauerhaft mit einer hohen Konversionsrate in zahlende Enterprise-Kund*innen übersetzen lassen, um die erheblichen Infrastruktur- und Vertriebskosten zu decken. Das Funding über 50 Millionen US-Dollar ist deshalb essenziell, um das Wachstum und den Cloud-Ausbau massiv zu forcieren.
Im Haifischbecken der Tech-Giganten
In diesem Umfeld agiert das Start-up in einem der derzeit umkämpftesten Tech-Sektoren überhaupt. Zu den Hauptkonkurrenten zählen Pure-Play Vektordatenbanken wie Pinecone, das als Platzhirsch im reinen Cloud-Segment gilt und enorme Einfachheit bietet, architektonisch jedoch die Gefahr eines Cloud-Vendor-Lock-ins birgt. Mitbietende Open-Source-Rivalen wie Weaviate mit einem starken Fokus auf hybride Suche und Milvus kämpfen in einer ähnlichen Liga wie Qdrant.
Die vielleicht größte Bedrohung geht jedoch von traditionellen Datenbanksystemen wie PostgreSQL, MongoDB oder Elasticsearch aus, die Vektorsuch-Funktionen inzwischen integriert haben. Herkömmliche Tools, die Vektorsuche nur als zusätzliche Schicht auf alte Indexierungsmodelle packen, brechen jedoch unter den Anforderungen moderner KI-Skalierungen oft ein. Qdrant ist daher strategisch gezwungen, als Spezialist durch vorhersagbare, niedrige Latenzen im Milliarden-Skalen-Bereich zu überzeugen.
Lektionen für die Start-up-Szene
Für Gründerinnen und Gründer lassen sich aus dem Fall Qdrant wertvolle Lektionen ziehen. Das Start-up zeigt eindrucksvoll, dass Entwickler*innen heute die wichtigsten Gatekeeper im B2B-Sales sind und eine starke Open-Source-Community eine organische Adaption generiert, die sich im Anschluss an große Enterprises monetarisieren lässt.
Zudem zahlt sich die frühe technologische Wette auf die Programmiersprache Rust aus, da Performance im KI-Markt ein harter Wettbewerbsvorteil ist.
Nicht zuletzt demonstriert Qdrant, dass tiefgreifende KI-Infrastruktur – eine Technologie, von der alle fortschrittlichen KI-Anwendungen abhängig sein werden – erfolgreich aus Berlin heraus gegründet und in globale Märkte skaliert werden kann.
MAxL: Der Vorgründungs-Turbo für die Biotech-Branche
Keine Gründung ohne präzise Vorbereitung: Mit dem Inkubator MAxL bringt BioM Biotech-Projekte aus dem akademischen Umfeld direkt auf den Radar von Venture-Capital und Pharma-Riesen. Christina Enke-Stolle und Dr. Petra Burgstaller – sie haben die Leitung des Gründungsbereichs bei der Biotech Cluster Management Organisation BioM inne – sprechen über die größten Hürden vor der Gründung, selektive Investoren und erste Millionen-Erfolgsstorys aus dem Inkubator.
Wie unterscheidet sich MAxL von anderen Inkubatoren, was zeichnet Ihren Inkubator besonders aus?
Enke-Stolle: Mit MAxL wollen wir für die vielversprechendsten Start-ups im Bereich der Biomedizin und Biotechnologie die besten Rahmenbedingungen schaffen, einerseits in Form von State-of-the-Art-Infrastruktur und andererseits mit einem umfassenden Unterstützungsprogramm. Das Besondere an MAxL ist die Fokussierung auf die Vorgründungsphase, also Projekte und Gründungsteams, die noch ein bis zwei Jahre vor der Ausgründung stehen. Wir haben uns mit MAxL zum Ziel gesetzt, die Teams in dieser entscheidenden Phase der Translation bestmöglich dabei zu unterstützen, die richtigen Entscheidungen zu treffen und ihre Projekte bereits frühzeitig auf die Anforderungen von Investoren und auch späteren Industriepartnern wie Pharmaunternehmen auszurichten. Im Rahmen der Inkubation durch MAxL sollen für Investoren attraktive Geschäftsmodelle entstehen und überzeugende, professionelle Datenpakete generiert werden. MAxL-Teams profitieren auch entscheidend vom umfassenden Netzwerk von BioM, sei es zu potenziellen Kunden, Industriepartnern als auch Investoren.
Worauf sollten angehende Gründer*innen beim Tech-Transfer von Biotech-Themen besonders achten, mit welchen Hürden müssen sie rechnen?
Burgstaller: Ganz entscheidend zu Beginn ist oft eine durchdachte IP-Strategie. Gerade in der Biotechnologie, wo die Entwicklung meist kapitalintensiv ist, sind belastbare Schutzrechte in der Regel ein zentraler Werttreiber. Hierzu bieten wir Teams Erstberatungen durch unsere ehrenamtlichen Patentmentoren an.
Enke-Stolle: Wichtig ist auch, ausreichend Zeit für die Gewinnung von Investoren einzuplanen und die Investoren zielgerichtet anzusprechen. Wir unterstützen unsere Teams bei der Erstellung von überzeugenden Pitch Decks und vermitteln persönliche Kontakte zu Investoren. Außerdem bieten wir ihnen über unsere Veranstaltungen die Möglichkeit, sich wirkungsvoll zu präsentieren. Im Rahmen unserer Eventserie „MAxL Meets the Money“ stellen Investoren sich und ihre Investmentstrategie außerdem in einem informellen Setting vor, sodass unsere Gründer auch den Blickwinkel und das Konzept von Venture Capital verstehen und den jeweiligen Fokus der wichtigsten Player kennen.
Burgstaller: Im Hinblick auf experimentelle Daten, die noch im akademischen Umfeld erhoben werden, und Entwicklungspläne ist es wie bereits erwähnt wichtig, die eigenen Projekte frühzeitig so auszurichten, dass sie Anforderungen aus der Industrie gerecht werden. Produkte wie neuartige Therapeutika sollten hier schon zu Beginn „vom Ende gedacht“ werden: Es geht nicht nur um die Frage „Können wir etwas wissenschaftlich Spannendes entwickeln?“, sondern um Fragen wie „Würde es jemand zulassen, bezahlen, einsetzen – und kaufen?“. Dabei setzen wir bei MAxL neben einer intensiven Begleitung durch unsere MAxL-Mentoren auch auf eine enge Zusammenarbeit mit Pharma. 2025 etwa haben wir eine Kooperation mit dem japanischen Pharmaunternehmen Daiichi Sankyo geschlossen. Daiichi unterstützt ein ausgewähltes Start-up im MAxL, indem es für zwölf Monate die Kosten für den Inkubator übernimmt und mit seinen Experten in der Wirkstoffentwicklung für Fragen des Start-ups zur Verfügung steht. Weitere solche „Golden Ticket-Kooperationen“ sind in der Anbahnung.
Nach welchen Kriterien wählt MAxL Start-ups für das Programm aus?
Burgstaller: Die beiden wichtigsten Kriterien sind ein innovatives Produkt- und Geschäftskonzept und ein talentiertes Gründerteam, dem wir zutrauen, das Konzept auch erfolgreich umzusetzen. Im Bereich der Therapeutikaentwicklung gibt es im Team idealerweise bereits Hands-on Erfahrung im Bereich Drug Development. Wenn das noch nicht der Fall ist, ist es entscheidend, dass das Team offen dafür ist, sich erfahrene Leute ins Team zu holen und/oder von erfahrenen Personen zu lernen.
Enke-Stolle: Bei Projekten, die ins MAxL ziehen möchten, muss schon ein erster Proof of Principle erbracht sein. Lediglich eine Idee zu haben, wäre zu früh für unseren Inkubator. Für das innovative Produkt sollte es einen hohen medizinischen Bedarf und klare Alleinstellungsmerkmale geben, und es sollte möglich sein, eine tragfähige Schutzrechtstrategie zu entwickeln. Die meisten der aktuellen MAxL-Projekte sind durch ein akademisches Pre-Seed- oder Validierungsförderprogramm finanziert. Wir unterstützen aber auch Spin-outs aus bestehenden Unternehmen, wenn Mittel vorhanden sind, um das Projekt in ein bis zwei Jahren experimentell und kommerziell so weiterzuentwickeln, dass ein entscheidender Meilenstein erreicht werden kann.
Burgstaller: Zudem haben Teams einen zusätzlichen Pluspunkt, wenn ihre Expertise und ihr Ansatz auch einen Mehrwert für aktuelle MAxL-Teams bieten und sich daraus spannende Synergien ergeben. Eines unserer Ziele im MAxL ist die Förderung von interdisziplinärer Zusammenarbeit, zum Beispiel zwischen Teams, die Wirkstoffe entwickeln, und solchen, die Algorithmen im Bereich der Wirkstoffentwicklung entwickeln.
Wie viele Start-ups hat MAxL bislang begleitet, welche Erfolgsstory erzählen Sie besonders gern?
Burgstaller: MAxL wurde im Juni 2024 eröffnet und hat seitdem nach und nach neue Teams aufgenommen. Inzwischen sind zehn Teams im MAxL; weitere Aufnahmen bereiten wir derzeit vor. Einen wichtigen ersten Meilenstein konnte nun Twogee Biotech erreichen. Das 2025 gegründete Start-up um Frank Wallrapp und Helge Jochens ist seit Herbst 2024 im MAxL und entwickelt maßgeschneiderte Enzymlösungen zur industriellen Verwertung von Biomasse zu nachhaltigen Rohstoffen. Vor Kurzem konnte Twogee erfolgreich eine Seed-Finanzierungsrunde über 2,16 Mio. EUR abschließen. Zu den Investoren zählen der High-Tech Gründerfonds (HTGF) und Bayern Kapital sowie strategische Partner. Das Team konnte auch bereits eine Reihe von Pilotkunden für seinen Ansatz gewinnen. Eine Erfolgsgeschichte des BioM-Angebots für Start-ups ist natürlich auch Tubulis: Das Unternehmen nahm 2015 am BioM BioEntrepreneur Bootcamp teil, erhielt 2017 den m4 Award und eine Förderung durch exist, wurde 2019 gegründet und konnte seitdem mit seinen innovativen Antibody-Drug-Conjugates für die Krebstherapie über 540 Mio. EUR einwerben.
Wie bewerten Sie das aktuelle Finanzierungsumfeld für frühphasige Biotech-Start-ups?
Enke-Stolle: Für sehr frühphasige Biotech-Start-ups ist das Finanzierungsumfeld aktuell weiterhin schwieriger als noch vor ein paar Jahren. Wie wir an Twogee sehen, ist es zwar nach wie vor möglich, erfolgreiche Seed-Finanzierungen einzuwerben, aber die Investoren sind momentan deutlich selektiver und risikoaverser. Für umso wichtiger halten wir es aktuell, die Teams mit Instrumenten wie MAxL möglichst früh professionell zu unterstützen, damit sie mit überzeugenden Datenpaketen und durchdachten Entwicklungsplänen im internationalen Wettbewerb gut aufgestellt sind.
Frau Burgstaller und Frau Enke-Stolle – vielen Dank für das Gespräch
Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop
Cyber Security Report 2026
Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.
Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.
Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.
Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten
Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.
Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.
Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil
Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.
Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.
Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken
Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.
IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.
Fazit
Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.
Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?
Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:
- Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
- Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
- Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
- Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.
Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.
Der Milliarden-Coup: Wie Neura Robotics zur globalen KI-Macht aufsteigen will
Nach unserer Coverstory über Gründer David Reger und der 120-Millionen-Euro-Finanzierung im Januar 2025, zündet das Metzinger Robotik-Start-up Neura Robotics nun offenbar die nächste Stufe. Mit einer kolportierten Bewertung von 4 Milliarden Euro und dem Krypto-Giganten Tether als Investor greift das Unternehmen im globalen Haifischbecken der Humanoiden nach der Marktführerschaft.
Es war absehbar, dass die 120 Millionen Euro aus der Series-B-Runde nur das Warm-up waren. Laut übereinstimmenden Medienberichten (unter anderem von Bloomberg und der Financial Times) steht Neura Robotics vor dem Abschluss einer gigantischen Finanzierungsrunde in Höhe von rund 1 Milliarde Euro (ca. 1,2 Milliarden US-Dollar). Damit würde sich die Unternehmensbewertung auf etwa 4 Milliarden Euro katapultieren. Neura stiege somit endgültig in die absolute Top-Liga der europäischen Tech-Einhörner auf. Das Unternehmen selbst wollte die Berichte auf Nachfrage bislang nicht kommentieren.
Krypto-Milliarden für DeepTech: Der Tether-Faktor
Was diesen Deal in der Tech-Welt so einzigartig macht, ist die Herkunft des Kapitals. Angeführt wird die Runde laut den Berichten von der Tether Holdings SA, dem Emittenten des weltweit größten Stablecoins. Das ist kein Zufall, sondern Teil einer strategischen Neuausrichtung: Tether nutzt seine enormen Krypto-Gewinne (allein in den ersten drei Quartalen 2025 über 10 Milliarden Dollar), um ein „Real-World“-Portfolio aufzubauen – von KI-Rechenzentren über Energie bis hin zu zukunftsweisender Robotik. Für Neura würde das den Zugang zu einem extrem liquiden Investor bedeuten, der bereit ist, die kapitalintensive Skalierung von Hardware langfristig zu stützen.
Das globale Haifischbecken: Metzingen gegen das Silicon Valley
Dieses Kapital ist bitter nötig, denn der Markt für humanoide und kognitive Robotik wird aktuell massiv von US-Hyperscalern und chinesischen Speedbooten befeuert. Auf der einen Seite steht Elon Musk mit Tesla Optimus und enormer Skalierungsmacht. Auf der anderen Seite agieren hochfinanzierte US-Start-ups wie Figure AI, die mit Milliarden von Microsoft und dem KI-Gehirn von OpenAI ausgestattet sind. Hinzu kommen chinesische Hersteller wie Unitree, die mit staatlicher Förderung extrem günstige Modelle auf den Markt werfen.
In diesem Milliarden-Rennen positioniert sich Neura Robotics als europäische Speerspitze. Das Unternehmen liefert einen technologischen Gegenentwurf, der Kunden wie Kawasaki Heavy Industries und Omron bereits überzeugt hat – laut CEO David Reger liegen die Auftragsbücher bei einem Volumen von fast 1 Milliarde US-Dollar.
Der Burggraben: Wie sich Neura Robotics positioniert
Um gegen die Tech-Giganten zu bestehen, setzt das Start-up auf einen technologischen Burggraben. Mit diesen Alleinstellungsmerkmalen will sich Neura von der Konkurrenz abheben:
- „Physical AI“ statt umgebauter Chatbots: Während viele Konkurrenten textbasierte KI-Modelle nachträglich in Roboter integrieren, betont Neura, seine KI von Grund auf für die physische Welt gebaut zu haben. Die Roboter verfügen über ein multisensorisches System: Sie sehen in 3D, sollen Sprache im Fabriklärm erkennen und durch haptisches Feedback ein echtes "Fingerspitzengefühl" besitzen.
- Sicherheit ohne Käfige: In traditionellen Fabriken arbeiten Roboter hinter teuren Schutzzäunen. Neuras Modelle verfügen über eine patentierte Sensorik (Touchless Safe Human Detection). Sie sollen Menschen in Echtzeit erkennen, berührungslos stoppen oder ausweichen. Dadurch können Mensch und Maschine ohne teure Fabrikumbauten direkt im selben Raum arbeiten.
- Die Plattform-Strategie: Das Start-up baut nicht nur einen Roboter. Die kognitive KI fungiert als Betriebssystem, das in verschiedene Hardware-Formen gegossen wird – sei es der Humanoide 4NE-1 oder der hochpräzise kognitive Cobot MAiRA. Die Idee: Macht ein Roboter im Netzwerk einen Fehler, lernen alle anderen weltweit daraus. Ein Ökosystem, das zudem durch strategische Partnerschaften mit Giganten wie Nvidia und Schaeffler gestützt wird.
- Fokus auf Datensouveränität: Von der KI über die Steuerungssoftware bis hin zu den Sensoren entwickelt Neura Kernkomponenten im eigenen Haus. Dieser "Made in Germany"-Ansatz garantiert aus Unternehmenssicht höchste Datensicherheit. Für westliche Industrieunternehmen ist das ein massives Argument gegenüber asiatischen oder US-amerikanischen Herstellern.
„We serve humanity“: Klare Kante gegen Rüstungsdeals
Trotz des rasanten Wachstums bleibt David Reger seinen Prinzipien treu – ein Aspekt, den wir bereits in unserer Coverstory beleuchtet haben. Der Gründer positioniert seine Roboter strikt als Zivil- und Helfermaschinen für Industrie und Haushalt. Lukrative Anfragen aus der Rüstungsindustrie lehnt das Unternehmen kategorisch ab. Der Humanoide 4NE-1 soll den Menschen entlasten, nicht ersetzen oder bedrohen. Mit dieser ethischen Linie setzt Neura einen bewussten Gegenpol zu einem Markt, der teilweise stark militärisch geprägt ist.
Fazit: Der „iPhone-Moment der Robotik“
Analysten von Barclays schätzen, dass der Markt für KI-basierte Roboter und autonome Maschinen bis 2035 auf rund 1 Billion Dollar anwachsen wird. Mit der erwarteten Milliarden-Finanzierung und dem ehrgeizigen Ziel, bis 2030 rund 5 Millionen Einheiten zu produzieren, unterstreicht Neura Robotics seinen Anspruch auf die globale Weltspitze. Für das Metzinger Start-up hat die Phase der weltweiten Skalierung gerade erst begonnen.
Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag
Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.
Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.
Radar vs. Optik im Weltraum
Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.
Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.
Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.
Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.
Die physikalische Hürde: Streulicht und 24/7-Überwachung
Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.
Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.
Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.
Datenstau im All: Edge Computing als Schlüssel
Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.
Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.
Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.
Europas Datensouveränität und der Dual-Use-Markt
Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.
Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.
Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.
Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.
Foodforecast: 8-Mio.-Euro-Runde gegen Lebensmittelverschwendung
Das Kölner FoodTech-Start-up Foodforecast hat sich acht Millionen Euro frisches Kapital gesichert, um mittels künstlicher Intelligenz die Lebensmittelverschwendung in Bäckereien und der Gastronomie zu reduzieren.
Jeden Tag landen in Europa rund 30.000 Tonnen frische Lebensmittel ungenutzt im Müll, was in der Praxis häufig auf eine unpräzise Bedarfsplanung im Lebensmitteleinzelhandel und in der Gastronomie zurückzuführen ist. Genau an dieser Ineffizienz der Wertschöpfungskette setzt das 2022 gestartete Kölner Foodforecast an. Mit einer KI-gestützten Software zur Absatz- und Produktionsprognose hat das Start-up nun eine Series-A-Finanzierungsrunde in Höhe von acht Millionen Euro abgeschlossen. Angeführt wird die Runde von den niederländischen Investoren SHIFT Invest sowie dem auf Bioökonomie spezialisierten europäischen VC ECBF. Auch bestehende Geldgeber wie der Future Food Fund und Aeronaut Invest beteiligten sich erneut an der Kapitalerhöhung. Zudem wird die Finanzierung durch Mittel des EU-Programms InvestEU unterstützt.
Von der regionalen Machbarkeitsstudie zur internationalen Skalierung
Hinter der Technologie steht ein klassischer Gründungsansatz aus der Praxis. Der Informatiker Justus Lauten rief das Projekt Ende 2018 zunächst unter dem Namen „Werksta.tt“ ins Leben, nachdem regionale Bäckereien auf ihn zugekommen waren, um eine softwaregestützte Lösung für ihre hohen Retourenmengen zu finden. Später holte Lauten den Wirtschaftsingenieur Jan Brormann als Co-Founder und COO in das Führungsteam, den er im Umfeld eines Corporate-Start-ups kennengelernt hatte. Einem breiteren Publikum wurde die Marke zudem durch einen Pitch in der TV-Sendung „Die Höhle der Löwen“ bekannt. Gründer und CEO Justus Lauten ordnet den aktuellen Kapitalfluss nüchtern ein: „Diese Series A stellt einen wichtigen Meilenstein für Foodforecast dar.“ Das Ziel des Unternehmens sei es, die Planung und Produktion von ultra-frischen Lebensmitteln grundlegend neu zu denken. Mit den neuen Investoren an Bord sei man nun bereit, die eigene Technologie international zu skalieren und einen neuen Benchmark für Planung, Effizienz und Nachhaltigkeit zu etablieren.
Renditehebel Nachhaltigkeit und die Grenzen der Prognosemodelle
Das Geschäftsmodell von Foodforecast fokussiert sich auf eine hochkomplexe Nische der Lieferkette: Die sogenannten ultra-frischen Produkte. Deren Haltbarkeit reicht von wenigen Stunden bis zu maximal einem Tag, was sie bei herkömmlicher Planung extrem schwer kalkulierbar macht. Die operativen Kennzahlen, die das Start-up bei Bestandskund*innen wie SSP Germany oder Eat Happy ausweist, zeigen das Potenzial der Technologie. Laut Unternehmensangaben ist die Software in der Lage, über 90 Prozent der vormals manuellen Bestell- und Produktionsprozesse zu automatisieren.
Gleichzeitig soll die Lebensmittelverschwendung um durchschnittlich bis zu 30 Prozent reduziert werden. Da die KI-gestützte Planung zudem „Out-of-Stock“-Situationen in den Regalen minimiert, steigen die potenziellen Umsätze laut Foodforecast um bis zu 11 Prozent. Bislang konnten durch diesen datengetriebenen Ansatz nach Angaben des Unternehmens bereits über 8.800 Tonnen an Lebensmittelabfällen eingespart werden.
Dass selbst ausgereifte Machine-Learning-Modelle im operativen Alltag an Grenzen stoßen, zeigt sich an lokalen Anomalien: Während die KI externe Faktoren wie Wetterdaten oder Schulferien mit hoher Präzision verarbeitet, sinkt die Prognosegenauigkeit beispielsweise während des Kölner Karnevals signifikant ab, da die Nachfrage nach bestimmten Backwaren in diesem Zeitraum extremen und sprunghaften Schwankungen unterliegt. Dennoch demonstriert der Business Case von Foodforecast, dass Nachhaltigkeitsziele im B2B-Umfeld zunehmend nicht mehr als isolierte CSR-Maßnahmen, sondern als integraler Bestandteil zur operativen Margenverbesserung positioniert werden.
Marktumfeld: Spezialisierung als Abgrenzungsmerkmal
Auch wenn die Series A eine solide Grundlage für die angestrebte Marktdurchdringung in Europa bildet, agiert Foodforecast in einem wettbewerbsintensiven Marktumfeld. Der Sektor für softwaregestützte Bedarfsplanung wächst und zieht verschiedene Akteure an. Einerseits haben sich spezialisierte Mitbewerber wie Foodtracks (gegründet 2017) bereits fest im deutschen Bäckerei-Segment positioniert und bedienen ein signifikantes Filialnetzwerk.
Andererseits integrieren große Retail-Software-Konzerne wie SAP oder Oracle sowie etablierte Anbieter von Kassensystemen zunehmend eigene Machine-Learning-Module für das Inventory Management in ihre Standardlösungen. Foodforecast versucht, sich in dieser Gemengelage durch die technologische Spezialisierung auf sogenannte Intraday-Prognosen – also untertägige Produktionsanpassungen – und den alleinigen Fokus auf das Segment der Ultra-Frische von generischen Supply-Chain-Plattformen abzugrenzen.
Herausforderungen in der Skalierung: Legacy-Systeme und Change Management
Trotz der nachweisbaren Traktion und einer Implementierung in mehreren tausend europäischen Filialen steht das Unternehmen vor den klassischen Wachstumsbarrieren des B2B-SaaS-Sektors. Eine zentrale Herausforderung bleibt die Datenverfügbarkeit und -qualität: Da die KI elementar auf historischen Abverkaufsdaten basiert, erweist sich die oft veraltete IT- und Kassensystem-Infrastruktur im filiallisierten Mittelstand (wie bei traditionellen Bäckereiketten) regelmäßig als technischer Flaschenhals bei der Software-Integration. Darüber hinaus erfordert die Implementierung eines zu großen Teilen automatisierten Bestellwesens ein konsequentes Change Management. Filialleiter*innen und Produktionsplaner*innens müssen Vertrauen in die algorithmischen Empfehlungen aufbauen, um die Software dauerhaft im Betriebsalltag zu verankern. Nicht zuletzt diktiert der Preisdruck in der margenschwachen Lebensmittel- und Gastronomiebranche die Vertriebsgeschwindigkeit: Software-as-a-Service-Lösungen in diesem Segment können sich nur behaupten, wenn der betriebswirtschaftliche Return on Investment durch reduzierte Retouren und Umsatzsteigerungen die laufenden Lizenzkosten zeitnah und messbar übersteigt.
10 Mio. Euro Series-A: VoiceLine transformiert den Außendienst mit Sprach-KI
Das 2020 von Dr. Nicolas Höflinger und Sebastian Pinkas gegründete Münchner Start-up VoiceLine hat eine Finanzierungsrunde über 10 Mio. Euro abgeschlossen, um seine Voice-AI-Plattform für Frontline-Teams international zu skalieren.
Angeführt von Alstin Capital und Peak, unterstützt durch Scalehouse Capital, Venture Stars und NAP, setzt das Unternehmen auf ein massives Umsatzwachstum von 1.000 % gegenüber dem Vorjahr.
Fokus auf den „Motor“ der B2B-Wirtschaft
Die Gründer Dr. Nicolas Höflinger und Sebastian Pinkas haben VoiceLine als Lösung für ein zentrales Problem im Arbeitsalltag von Außendienst-Teams positioniert. Während diese Teams oft den Großteil des Tages beim Kunden oder auf Reisen verbringen, bleibt die CRM-Pflege und Dokumentation häufig auf der Strecke oder wird auf den späten Abend verschoben. Dies führt zu unvollständigen Berichten und dem Verlust wertvoller Marktinformationen. VoiceLine löst dies mit einem KI-Assistenten, der Sprachnotizen direkt in strukturierte CRM-Einträge, Besuchsberichte und Folgeaufgaben überführt.
Messbare Ergebnisse bei Industrie-Größen
Dass der technologische Ansatz funktioniert, belegen die Zahlen bei namhaften Kunden wie DACHSER, ABB, Knauf und KSB. Laut Unternehmensangaben sparen Vertriebsmitarbeiter durch die Lösung rund fünf Stunden pro Woche an administrativem Aufwand ein. Die Datenqualität aus dem Feld steigt um bis zu 400 %, während die Implementierung durch eine proprietäre Engine oft innerhalb weniger Tage abgeschlossen ist. Andreas Schenk, Partner bei Alstin Capital, betont, dass VoiceLine Sprach-KI damit zum echten „Produktivitäts-Hebel“ für mobile Teams macht.
Strategische Expansion und massives Team-Wachstum
Mit dem frischen Kapital plant VoiceLine, die Mitarbeiterzahl am Hauptsitz in München noch in diesem Jahr mehr als zu verdoppeln. Neben der internationalen Expansion soll der Fokus verstärkt auf Branchen wie Pharma, Medtech sowie Versicherungen und Finanzdienstleistungen ausgeweitet werden. CEO Nicolas Höflinger sieht in der Series-A den entscheidenden Meilenstein, um VoiceLine europaweit als Standard-Schnittstelle für Frontline-Organisationen zu etablieren.
Plato sichert sich 14,5 Mio. USD für das KI-Betriebssystem für den Großhandel
Plato entwickelt KI-native Software, die zentrale Workflows in den Bereichen Vertrieb, Angebotserstellung und ERP-Prozesse für Großhandelsunternehmen automatisiert.
Gegründet wurde Plato 2024 von Benedikt Nolte, Matthias Heinrich Morales und Oliver Birch. Die Plattform entstand ursprünglich aus Noltes familiengeführten Großhandelsunternehmen heraus, das mit veralteter Software und Fachkräftemangel zu kämpfen hatte. Dieser praxisnahe Ursprung prägt bis heute Platos industriegetriebenen Ansatz für KI-Transformation.
Das Unternehmen entwickelt KI-native Software, die zentrale Workflows in den Bereichen Vertrieb, Angebotserstellung und ERP-Prozesse für Großhandelsunternehmen automatisiert. Großhändler bewegen jeden fünften Dollar der globalen Produktionsleistung, sind jedoch bis heute massiv unterversorgt mit moderner Software. Platos Lösung stattet Vertriebsteams mit einem KI-Copiloten aus, steigert Profite und erhöht die Vertriebseffizienz via AI agents.
„Wir haben die Probleme aus erster Hand im Großhandel meiner Familie erlebt und Plato gemeinsam mit Experten entwickelt, um die Arbeitsweise der Branche neu zu denken. Wir bauen das KI-Betriebssystem für den Großhandel, beginnend mit einer intelligenten Automatisierungsplattform im Vertrieb. Mit dieser Finanzierung skalieren wir Plato, um die gesamte Branche zu transformieren und einen Tech-Champion für die Handelsökonomie aufzubauen – aus Deutschland, für die Welt“, sagt Benedikt Nolte, CEO von Plato.
Skalierung des KI-Betriebssystems für den Großhandel
Die Plattform erschließt verborgene ERP-Daten und automatisiert manuelle Aufgaben, sodass Vertriebsteams vom reaktiven ins proaktive Verkaufen kommen. Plato hat bereits mehrere der führenden Großhändler Europas mit sechsstelligen Vertragsvolumina gewonnen. Die 14,5 Mio.-USD-Finanzierung soll es Plato ermöglichen, sein vertikales Produktangebot auf Kundenservice und Einkauf auszuweiten und die internationale Expansion voranzutreiben.
„Besonders überzeugt hat uns an Plato die außergewöhnliche Qualität des Gründerteams. Das Team hat in diesem Bereich ein echtes „Right to winˮ und brennt für den Großhandel. Es vereint tiefgehende Branchenexpertise aus erster Hand mit starker technischer Umsetzung und dem Anspruch, ein branchenprägendes vertikales KI-Unternehmen aufzubauen. Großhändler suchen dringend nach branchenspezifischer KI-Software, um operative Herausforderungen zu lösen – und genau diese Lösung ist Plato“, sagt Andreas Helbig, Partner bei Atomico.
ewigbyte: Datenspeicher für die Ewigkeit?
Wie das 2025 von Dr. Steffen Klewitz, Dr. Ina von Haeften und Phil Wittwer gegründete Münchner DeepTech-Start-up Microsoft und die Tape-Industrie herausfordert und sich für seine Mission 1,6 Millionen Euro Pre-Seed-Kapital sichert.
Daten werden oft als das „Öl des 21. Jahrhunderts“ bezeichnet, doch ihre Lagerung gleicht technologisch oft noch dem Stand der 1950er Jahre. Während Künstliche Intelligenz und IoT-Anwendungen den weltweiten Datenhunger exponentiell in die Höhe treiben, werden Informationen physisch meist noch auf Magnetbändern (LTO) oder Festplatten archiviert. Diese Medien sind energiehungrig, müssen alle paar Jahre aufwändig migriert werden und sind anfällig für physikalische Zerfallsprozesse.
In diesen Markt für sogenannte Cold Data – also Daten, die archiviert, aber selten abgerufen werden – stößt nun das Münchner DeepTech-Start-up ewigbyte. Das Unternehmen, das erst im Jahr 2025 gegründet wurde, gab heute den Abschluss einer Finanzierungsrunde bekannt, die den Übergang in die industrielle Entwicklung ermöglichen soll. Angeführt wird das Konsortium von Vanagon Ventures und Bayern Kapital, ergänzt durch Business Angels aus dem BayStartUP-Netzwerk. Doch der Weg zum Markterfolg ist kein Selbstläufer, denn das Startup betritt ein Feld, auf dem sich bereits globale Giganten und etablierte Industriestandards tummeln.
Der Markt: Ein schlafender Riese erwacht
Der Zeitpunkt für den Vorstoß scheint indes gut gewählt. Branchenanalysten schätzen den globalen Markt für Archivdaten („Cold Storage“) auf ein Volumen von rund 160 bis 180 Milliarden Euro, mit Prognosen, die bis Mitte der 2030er Jahre auf über 450 Milliarden Euro ansteigen. Getrieben wird dies nicht nur durch KI-Trainingsdaten, sondern auch durch verschärfte Compliance-Regeln und den massiven Anstieg unstrukturierter Daten. Die derzeit dominierende Magnetband-Technologie stößt jedoch zunehmend an physikalische Dichtegrenzen und zwingt Rechenzentren zu kostspieligen Migrationszyklen alle fünf bis sieben Jahre, um Datenverlust durch Entmagnetisierung („Bit Rot“) zu verhindern.
Lasergravur statt magnetischer Ladung: So funktioniert es
Der Ansatz von ewigbyte bricht radikal mit diesem Paradigma. Statt Daten magnetisch oder elektronisch zu speichern, nutzt das Startup Femtosekunden-Laser, um Informationen mittels ultrakurzer Lichtpulse direkt in Quarzglas einzuschreiben.
Das Verfahren ähnelt mikroskopisch kleinen QR-Codes, die dreidimensional in das Material „graviert“ werden (Voxel). Das zentrale Versprechen: Einmal geschrieben, benötigen die Daten keinerlei Energie mehr zur Erhaltung. Das Glas ist resistent gegen Hitze, Wasser, elektromagnetische Impulse (EMP) und Cyberangriffe, da die Daten physisch fixiert sind (WORM-Speicher: Write Once, Read Many). Laut ewigbyte ermöglicht dies eine dauerhafte Archivierung über Jahrhunderte ohne die sonst üblichen laufenden Kosten für Klimatisierung und Migration.
Vom Hardware-Verkauf zum „Storage-as-a-Service“
Interessant für Gründer ist der strategische Schwenk im Geschäftsmodell, den ewigbyte vollzieht. Anstatt teure und wartungsintensive Lasermaschinen an Kunden zu verkaufen (CAPEX-Modell), positioniert sich das Start-up als Anbieter von „Storage-as-a-Service“. Kunden mieten Speicherkapazität, ewigbyte übernimmt das komplexe Handling der Laser. Dies senkt die Einstiegshürde für Pilotkunden massiv, erfordert aber vom Start-up hohe Vorab-Investitionen in die eigene Infrastruktur – ein klassisches „DeepTech“-Wagnis, das nur mit geduldigem Kapital funktioniert.
David gegen Goliath: Das Rennen um das Glas
Mit der Technologie ist ewigbyte allerdings nicht allein auf weiter Flur. Das Start-up begibt sich in direkten Wettbewerb mit einem der größten Technologiekonzerne der Welt: Microsoft forscht unter dem Namen „Project Silica“ seit Jahren an exakt dieser Technologie, um seine eigene Azure-Cloud-Infrastruktur unabhängiger von Magnetbändern zu machen. Auch lokal gibt es Konkurrenz: Das ebenfalls in München und den USA ansässige Unternehmen Cerabyte verfolgt einen ähnlichen Ansatz mit keramisch beschichtetem Glas, setzt dabei aber stärker auf kassettierte Hardware-Verkäufe.
Ewigbyte muss sich in diesem „Haifischbecken“ also klug positionieren. Mit dem frischen Kapital von 1,6 Millionen Euro will das Gründungsteam um CEO Dr. Steffen Klewitz, Technologiechef Phil Wittwer und Operations-Chefin Dr. Ina von Haeften nun den Schritt von der Forschung in die industrielle Anwendung vollziehen. Geplant ist die Entwicklung eines Prototyps, der als Basis für erste Pilotprojekte ab 2026 dienen soll. Ein entscheidender Vertrauensbeweis ist dabei der kürzlich erhaltene Validierungsauftrag der Bundesagentur für Sprunginnovationen (SPRIND). Dieses Mandat gilt in der DeepTech-Szene als Ritterschlag, da SPRIND gezielt Technologien fördert, die das Potenzial haben, Märkte disruptiv zu verändern, für klassische VCs aber oft noch zu risikoreich sind.
Die technologischen Nadelöhre
Trotz der Euphorie über die Finanzierung und das SPRIND-Siegel bleiben die technischen und ökonomischen Hürden hoch. Die Achillesferse optischer Speichermedien war historisch immer die Schreibgeschwindigkeit (Throughput). Während ein Magnetband Daten in rasender Geschwindigkeit aufspult, muss ein Laser beim Glas-Speicher physische Punkte brennen. Um im Zeitalter von Petabytes konkurrenzfähig zu sein, muss ewigbyte eine massive Parallelisierung des Schreibvorgangs erreichen – das Start-up spricht hier von „über einer Million Datenpunkten pro Puls“.
Ein weiterer Knackpunkt sind die Kosten pro Terabyte. Magnetbänder sind in der Anschaffung spottbillig. Glas als Rohstoff ist zwar günstig, doch die komplexe Lasertechnik treibt die Initialkosten. ewigbyte muss beweisen, dass die Gesamtkostenrechnung (Total Cost of Ownership) über 10 oder 20 Jahre hinweg günstiger ausfällt, weil Strom- und Migrationskosten entfallen. Zudem entsteht für Kunden ein neues Risiko: Da die Daten nur mit speziellen optischen Geräten lesbar sind, begeben sie sich in eine Abhängigkeit vom Technologieanbieter (Vendor Lock-in).
Digitale Souveränität als Verkaufsargument
Hier kommt der strategische Aspekt der „Digitalen Souveränität“ ins Spiel, den auch die Investoren betonen. Da ein Großteil europäischer Daten derzeit auf US-amerikanischer Cloud-Infrastruktur liegt oder von Hardware aus Fernost abhängt, könnte eine physische, langlebige Speicherlösung „Made in Germany“ für Behörden, Banken und kritische Infrastrukturen ein entscheidendes Argument sein. Sandro Stark von Vanagon Ventures sieht im Ausbau der Speicherinfrastruktur den „Schlüssel für alles, was davor liegt: KI, Energie, Rechenleistung“.
Ob ewigbyte tatsächlich zu einem Unternehmen von „generationeller Bedeutung“ wird, wie es die Investoren hoffen, wird sich zeigen, wenn der angekündigte industrielle Prototyp die geschützten Laborbedingungen verlässt. Der Bedarf an einer Alternative zum Magnetband ist unbestritten da – das Rennen darum, wer den Standard für das Glas-Zeitalter setzt, ist hiermit eröffnet.
4,3 Mio. Euro Seed-Finanzierung für nuuEnergy
Das Münchner EnergyTech nuuEnergy sichert sich erneut frisches Kapital, um seine regionalen Installations-Hubs auszubauen. Das Start-up setzt auf eine Kombination aus eigenen Handwerksbetrieben und digitalen Prozessen – ein Ansatz, über den StartingUp bereits früh berichtete.
Das Ende 2023 gegründete Start-up nuuEnergy hat eine Seed-Finanzierungsrunde in Höhe von 4,3 Millionen Euro abgeschlossen. Bereits im vergangenen Jahr hatten wir über den ersten großen Finanzierungserfolg der Münchner berichtet. Angeführt wird die aktuelle Runde nun von Amberra, dem Corporate-Venture-Arm der Genossenschaftlichen FinanzGruppe Volksbanken Raiffeisenbanken. Zu den weiteren Geldgebern gehören EnjoyVenture sowie die Bestandsinvestoren High-Tech Gründerfonds (HTGF), Vireo Ventures, better ventures und Bynd Venture Capital.
Marktlücke zwischen Konzern und Handwerk
Trotz einer spürbaren Delle im Absatzmarkt für Wärmepumpen im Jahr 2024 wächst der Sektor langfristig zweistellig. Die Herausforderung liegt oft nicht mehr in der Technologie selbst, sondern in der Umsetzung: Fachkräftemangel und ineffiziente Abläufe bremsen die Installation. Genau hier positioniert sich nuuEnergy als Bindeglied zwischen traditionellen Handwerksbetrieben und rein digitalen „Neo-Installern“.
Das Geschäftsmodell basiert auf dem Aufbau eigener regionaler Fachhandwerksbetriebe, sogenannter „Hubs“. Diese sind derzeit in den Großräumen München, Hamburg und Köln aktiv und decken einen Radius von rund 1,5 Stunden ab. Ergänzend arbeitet das Start-up in einigen Regionen mit Partnerbetrieben zusammen.
Digitalisierung trifft auf Meisterpflicht
Während die Installation vor Ort durch festangestellte Meister und Monteure erfolgt, setzt nuuEnergy im Hintergrund auf die vollständige Digitalisierung der Planungsprozesse. Spezialisierte Systemplaner erstellen individuelle technische Konzepte, um die Effizienz der Heizsysteme zu maximieren. Neben der Planung und Installation generiert das Unternehmen Umsätze durch langfristige Wartungsverträge sowie Zusatzangebote wie Wasserenthärtungsanlagen oder Energieberatung.
Nach Angaben des Unternehmens konnte der Umsatz von 2024 auf 2025 verfünffacht werden. Für das Jahr 2026 plant das Gründerteam um Tobias Klug und Julia Rafschneider die Umsetzung von Projekten im hohen dreistelligen Bereich.
Strategische Investoren an Bord
Mit dem frischen Kapital soll die Expansion der regionalen Betriebe vorangetrieben und die Prozesskette weiter digitalisiert werden. Der Einstieg von Amberra ist dabei strategisch relevant: Durch die Nähe zur Genossenschaftlichen FinanzGruppe erhält das Start-up potenziellen Zugang zu einem riesigen Kundennetzwerk der Volks- und Raiffeisenbanken, die Immobilienbesitzer oft auch bei Finanzierungsfragen zur energetischen Sanierung begleiten.
„Dem Team geht es nicht um digitalen Vertrieb, sondern um echte, langfristige Innovation bei Handwerk und Technik“, kommentiert Gerrit Gnisa, Investment Manager bei EnjoyVenture, die Entscheidung für das Investment. Auch der HTGF sieht in dem hybriden Ansatz aus skalierbarer Tech-Plattform und lokalem Handwerk einen entscheidenden Hebel, um den Wärmepumpen-Hochlauf trotz Fachkräftemangel zu bewältigen.
DFKI-Spin-off simmetry.ai sichert sich 330.000 Euro
Das 2024 von Kai von Szadkowski, Anton Elmiger und Prof. Dr. Stefan Stiene als Spin-off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) gegründete Start-up simmetry.ai ist auf die Generierung von hochwertigen, synthetischen Trainingsdaten für Künstliche Intelligenz und Machine Learning spezialisiert und hat sich dafür eine Förderung der Investitions- und Förderbank Niedersachsen (NBank) gesichert.
Die Mittel stammen aus dem Accelerator-Programm des High-Tech Incubator (HTI). Mit dem frischen Kapital plant simmetry.ai den Ausbau seiner Technologie zu einer skalierbaren Plattform, die es KI-Entwicklern ermöglichen soll, fotorealistische Trainingsdaten „on demand“ selbst zu generieren.
Standortvorteil im „AgTech-Silicon Valley“
Die Ansiedlung in Osnabrück und die Aufnahme in den High-Tech Incubator (HTI) sind strategische Entscheidungen. Die Region hat sich zu einem der bedeutendsten Cluster für Agrartechnik in Europa entwickelt. Für simmetry.ai bedeutet das direkte Nähe zur Zielgruppe: Das Start-up bedient bereits namhafte Kunden aus dem Bereich der Landmaschinen. Der HTI-Accelerator fungiert dabei als Katalysator, um die Deep-Tech-Lösung direkt mit der starken niedersächsischen Industrie zu vernetzen.
Vom Forschungsprojekt zur Plattform
Hinter der Technologie steht ein erfahrenes Gründungstrio: Kai von Szadkowski (CEO), Anton Elmiger (CTO) und Prof. Dr. Stefan Stiene. Als Spin-off des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) blicken die Gründer auf jahrelange Erfahrung in der angewandten Forschung zurück.
Ihr zentrales Problem in vergangenen Projekten war selten der Algorithmus, sondern der Daten-Engpass: Über 80 Prozent des Aufwands bei der KI-Entwicklung fließen laut Unternehmensangaben derzeit allein in die Datenerfassung und -aufbereitung. Insbesondere für seltene Randfälle („Edge Cases“) ist das Sammeln echter Daten oft wirtschaftlich kaum darstellbar.
Der USP: Warum der Acker den Unterschied macht
Simmetry.ai tritt an, um diesen manuellen Aufwand durch synthetische, voll annotierte Daten zu ersetzen. Im Gegensatz zu Wettbewerbern, die sich oft auf strukturierte Umgebungen konzentrieren, wählten die Gründer bewusst einen anderen Einstieg: die Landwirtschaft.
„Wir haben mit der Landwirtschaft begonnen, weil dies sowohl ein hochwirksames als auch technisch anspruchsvolles Feld für KI ist“, erklärt Anton Elmiger. Die Wette der Gründer: Wer robuste KI-Modelle für die chaotischen Bedingungen eines Ackers trainieren kann, für den sind strukturierte Industrieumgebungen leichter zu bewältigen. Diese „AgTech-DNA“ dient dem Start-up nun als technologischer Hebel für die geplante Expansion in industrielle Anwendungen.
Plattform statt Dienstleistung
Ein weiteres Differenzierungsmerkmal ist das Geschäftsmodell. Während synthetische Daten oft noch als Dienstleistung erstellt werden, baut simmetry.ai eine Self-Service-Plattform. KI-Entwickler sollen nicht auf Datenlieferungen warten müssen, sondern fotorealistische Szenarien für Aufgaben wie semantische Segmentierung oder 3D-Posenschätzung eigenständig erstellen können.
Das Timing erscheint günstig: Analysten von Gartner prognostizieren, dass der Anteil synthetisch generierter Daten in KI-Projekten von 60 Prozent im Jahr 2024 auf bis zu 95 Prozent im Jahr 2030 steigen wird.
Key Facts: simmetry.ai
- Gründung: 2024 (Spin-off des DFKI)
- Standorte: Berlin / Osnabrück
- Finanzierung: 330.000 € durch NBank (High-Tech Incubator Accelerator)
- Fokus: Self-Service-Plattform für synthetische Trainingsdaten (Computer Vision)
- Gründer: Kai von Szadkowski (CEO), Anton Elmiger (CTO), Prof. Dr. Stefan Stiene
- Zielgruppen: Landwirtschaft (Fokus), Nahrungsmittelproduktion, Industrie
GeneralMind: 12 Mio. Dollar Investment nur 6 Monate nach Gründung
Das Berliner KI-Start-up GeneralMind entwickelt ein sog. autonomes AI System of Action, das wiederkehrende, komplexe Arbeitsschritte entlang von Waren- und Zahlungsflüssen automatisiert.
GeneralMind, ein „KI System of Actionˮ zur Automatisierung von digitaler Zettelwirtschaft, unstrukturierter Koordination sowie ineffizienter manueller Prozesse entlang der gesamten Lieferkette, gibt heute den Abschluss seiner Eigenkapitalfinanzierung in Höhe von 12 Millionen US-Dollar bekannt. Die Runde ist eine der größten bekannten europäischen Pre-Seed Runden der letzten Jahre und wurde weniger als sechs Monate nach der Aufnahme der Geschäftstätigkeit des Unternehmens abgeschlossen. GeneralMind will die Mittel verwenden, um die Skalierung seiner Technologie in Europa voranzutreiben.
Angeführt wurde die Finanzierungsrunde von Lakestar, Leo Capital, Lucid Capital, Heliad, BOOOM, mit Partizipierung von etablierten Angel-Investoren wie Alexander Kudlich, Jens Urbaniak, Samir Sood und Vishal Lugani.
GeneralMind wurde in Berlin vom Gründerteam um die Razor Group gemeinsam mit führenden Technologen aus dem Silicon Valley gegründet: Tushar Ahluwalia Shrestha Chowdhury, Dr. Oliver Dlugosch, Lennart von Hardenberg, Nishrit Shrivastava und Sergiu Șoima. Neben dem Hauptsitz in Berlin betreibt das Unternehmen einen weiteren Standort in Bangalore.
GeneralMind – das „AI System of Action“
Unternehmen arbeiten heute mit sogenannten Systems of Record SoR, zum Beispiel ERP-Systemen, um die Komplexität von Lieferketten zu bewältigen. Trotz dieser Systeme findet ein Großteil der operativen Arbeit weiterhin in E-Mail-Posteingängen und Spreadsheets statt: Teams müssen unstrukturierte Kommunikation und Koordination, Übergaben, Rückfragen und Ausnahmen manuell zusammenführen, nachhalten und in Systeme übertragen. Oft fehlt dabei klare Nachverfolgbarkeit, es entstehen Medienbrüche und die Fehleranfälligkeit ist hoch, obwohl genau diese Arbeit entscheidend ist, um die Lieferkette zuverlässig am Laufen zu halten.
GeneralMind entwickelt das „AI System of Action“ (SoA), um genau diese manuelle, repetitive Arbeit sowie unstrukturierte Koordination entlang der Lieferkette end-to-end zu übernehmen, als operative KI-Ebene über bestehenden Systemen, menschenüberwacht und bei Bedarf mit Freigabe.
KI-Autopilot für operative Prozesse mit menschlicher Fähigkeit
Der KI-Autopilot von GeneralMind übernimmt die „digitale Zettelwirtschaft" entlang komplexer Lieferketten, indem er automatisiert manuelle, repetitive Abläufe zwischen E-Mail, Excel und ERP-Systemen autonom ausführt. Eingehende Aufgaben (oft per E-Mail) werden erfasst, analysiert und anschließend end-to-end ausgeführt. Besonders dort, wo viele kleinteilige Aufgaben zuverlässig abgearbeitet, Abstimmungen sauber nachgehalten, Termine und Fristen gesichert und zahlreiche interne und externe Stakeholder entlang des Prozesses koordiniert werden müssen. Zum Beispiel in Beschaffung, Vertrieb oder der Rechnungsbearbeitung.
Diese „digitale Zettelwirtschaft“ kostet global agierende Unternehmen entlang ihrer Lieferketten teilweise Umsätze in Milliardenhöhe. Ware bleibt liegen, Entscheidungen verzögern sich, Aufgaben gehen im Tagesgeschäft unter.
„Unternehmen wissen oft genau, wo es hakt, scheitern aber an der operativen Umsetzung“, sagt Tushar Ahluwalia, Gründer und CEO von GeneralMind. „Ich habe im E-Commerce immer wieder gesehen, wie digitale Zettelwirtschaft, ineffiziente manuelle Prozesse und schmerzhafte Stakeholder-Koordination zwischen unstrukturierter Kommunikation und ERP-Systemen enorme Ineffizienzen in großen Unternehmen erzeugen. Genau dieses Problem lösen wir mit GeneralMind. Unsere KI übernimmt diese Prozesse end-to-end; kein Copilot, sondern mit Autopilot-Funktionalität, die von Menschen überwacht und bei Bedarf freigegeben wird“, ergänzt er.
Millionen-Spritze gegen den Brain Drain: Blockbrain holt 17,5 Mio. Euro
Wissen ist das neue Gold – doch es wandert oft mit den Mitarbeitenden aus der Tür. Das 2022 gegründete Stuttgarter Scale-up Blockbrain will das verhindern. Mit einer „No-Code“-Plattform konservieren die Gründer Antonius Gress, Mattias Protzmann und Nam Hai Ngo Firmenwissen in KI-Agenten. Jetzt gab es frisches Kapital, dass primär in die Expansion nach Großbritannien und Europa sowie in die Produktentwicklung fließen soll.
Der demografische Wandel setzt Unternehmen unter Druck: Wenn erfahrene Fachkräfte in den Ruhestand gehen oder kündigen, hinterlassen sie oft nicht nur eine leere Stelle, sondern eine Wissenslücke. Eingespielte Prozesse und implizites Erfahrungswissen („Tribal Knowledge“) gehen verloren. Genau hier hakt Blockbrain ein. Das Tech-Unternehmen gab heute den Abschluss einer Serie-A-Finanzierungsrunde über 17,5 Millionen Euro bekannt.
Angeführt wird die Runde vom Münchner VC Alstin Capital und dem Londoner Tech-Investor 13books Capital. Zudem stockten die Bestandsinvestoren Giesecke+Devrient Ventures, Landesbank Baden-Württemberg Ventures und Mätch VC ihr finanzielles Engagement auf. Auch das Family Office von Harting beteiligte sich an der Runde, was die Gesamtfinanzierung des Unternehmens auf 22,5 Millionen Euro hebt.
Vom Konzern-Problem zur Start-up-Lösung
Dass Blockbrain bei der Industrie einen Nerv trifft, liegt auch an der DNA des Gründerteams. CEO Antonius Gress kennt die Schmerzen großer Organisationen aus seiner Zeit bei Bosch, während CTO Mattias Protzmann als Mitgründer von Statista bereits bewiesen hat, wie man Datenmodelle skaliert. Dritter im Bunde ist Nam Hai Ngo (ehemals Antler).
Ihr Ansatz: Eine „No-Code“-Plattform, mit der Unternehmen ohne Programmieraufwand sogenannte Knowledge Bots erstellen können. Diese digitalen Zwillinge speichern nicht nur Dokumente, sondern bilden Entscheidungslogiken und Methodenwissen von Experten ab. Die Anwendungsfelder reichen vom schnelleren Onboarding neuer Mitarbeiter bis zur Automatisierung komplexer Vertriebsprozesse.
Der Markt scheint ihnen recht zu geben: 2025 konnte Blockbrain nach eigenen Angaben den Umsatz verfünffachen. Kunden wie Bosch, Roland Berger und die Seifert Logistics Group setzen die Lösung bereits ein. Letztere berichtet von einer Zeitersparnis von bis zu 15 Prozent pro Woche durch die KI-Assistenten.
Sicherheit als „Moat“ gegen ChatGPT & Co.
Während viele Unternehmen beim Einsatz generativer KI wegen Halluzinationen und Datenlecks zögern, positioniert sich Blockbrain als der „sichere Hafen“. Die Plattform ist nicht nur ISO-27001-zertifiziert und „EU-AI-Act-ready“, sondern ermöglicht durch eine Multi-Model-Architektur auch die volle Datensouveränität. Kund*innendaten können bei Bedarf in regionalen Cloud-Umgebungen des Nutzenden verbleiben.
Wie groß der Vorsprung vor herkömmlichen Enterprise-Lösungen ist, untermauert das Start-up mit Zahlen: In einem unabhängigen Benchmark des Sicherheitsspezialisten Giesecke+Devrient erzielte Blockbrain 92 von 105 Punkten – der Zweitplatzierte kam lediglich auf 58 Punkte. „Sich einfach auf Versprechungen und die Stärke eines Modells zu verlassen, ist im Unternehmenskontext schlicht nicht genug“, kommentiert CTO Protzmann die Strategie.
Expansion mit „Forward-Deployed“ Ingenieuren
Das frische Kapital fließt nun primär in die Expansion nach Großbritannien und Europa sowie in die Produktentwicklung. Dabei setzt Blockbrain auf ein spezielles Personalmodell: Sogenannte Forward-Deployed AI-Engineers sollen Kund*innen eng bei der Integration begleiten – remote oder vor Ort. Ziel ist es, Recherche-Workflows weiter zu automatisieren und KI vom Experimentierfeld zum verlässlichen Werkzeug im Kerngeschäft zu machen.
