Tomorrow Things: KI-Start-up sichert sich 1,5 Mio. Euro Seed-Finanzierung


44 likes

Das Bonner Start-up KI-Start-up Tomorrow Things hat eine Seed-Finanzierung von 1,5 Mio. Euro erhalten, um die Entwicklung eines KI-gestützten Betriebssystems für Maschinen im Internet fortzusetzen.

Die Finanzierung in Höhe von 1,5 Millionen Euro erhielt Tomorrow Things in der jüngsten Finanzierungsrunde durch den Seed-Investor High-Tech Gründerfonds (HTGF) und den Frühphasen-Venture-Capital-Fonds neoteq ventures, unterstützt von der europäischen VC-Gesellschaft Notion Capital, Solo-GP Robin Capital und einer Reihe von Business Angels (Christian Noske, Maximilian Eichler, Thomas Lang, Thomas Hollwedel und Markus Doetsch), die auf Fundraising, Marketing und B2B-SaaS spezialisiert sind.

Johannes Dierkes, Investment Manager beim High-Tech Gründerfonds, erklärt: „Hohe Kosten für Systemintegratoren und der komplexe Betrieb von Services auf Cloud-Infrastrukturen bremsen die Digitalisierung. Tomorrow Things ist ein Vertriebs- und Integrationsbeschleuniger, der spannende neue Möglichkeiten im gesamten IoT-Ökosystem eröffnet. Das Gründerteam verfügt über einzigartige Erfahrungen im Aufbau von digitalen Zwillingen und weiß, wie man die Datenqualität sicherstellt, um KI voranzubringen.“

Betriebssystem für Maschinen im Internet

Tomorrow Things erleichtert die komplexe Automatisierung und Digitalisierung von technischen Anlagen und verbindet diese innerhalb von Minuten mit dem industriellen Internet der Dinge (IIoT). Dieser Prozess dauert bisher mehrere Tage oder gar Wochen und bindet erhebliche Ressourcen. Die Lösung von Tomorrow Things ist dabei nicht nur schneller, sondern auch – laut Angaben des Start-ups – bis zu 90 Prozent kostengünstiger als manuelle Integrationen.

Die Gründer – Oliver Habisch, Dr. Christian Dierolf, Ankur Srivastava und Marcel Zimmerling – verfügen über zehn Jahre Erfahrung in der KI-gestützten Automatisierung, mit der sie bereits die Prozessstabilität von Industrieanlagen und die Energieeffizienz von Gebäuden um mehr als 20 Prozent steigern konnten. Sie sind versiert darin, intelligente Regelstrategien zu entwickeln, die innerhalb vordefinierter Systemgrenzen autonom und adaptiv arbeiten. Diesen Systemen liegt zugrunde, dass sowohl eine Überwachung als auch manuelles Eingreifen im Bedarfsfall durch Menschen möglich ist.

Cloud Connect als Software as a Service (SaaS)

Tomorrow Things bietet das Produkt „Cloud Connect” als Software as a Service (SaaS) an. Dieses intelligente Automatisierungswerkzeug erstellt digitale Zwillinge von Maschinen. Die Digital Twins sind virtuelle Echtzeit-Nachbildungen physischer Assets wie Maschinen, Prozesse und sogar ganzer Fabriken, mit denen die Betreiber verschiedene Szenarien simulieren können, bevor sie diese in die Realität umsetzen. So können sie Produktionslinien optimieren, mögliche Probleme vorhersehen und fundierte Entscheidungen treffen, ohne den realen Betrieb zu beeinträchtigen. Digitale Zwillinge sammeln und analysieren Daten von Sensoren, Maschinensteuerungen und aus anderen Quellen und liefern wertvolle Informationen über Leistung, Effizienz und potenzielle Probleme. Die Daten erlauben es Anlagenbetreiber*innen, datengestützte Entscheidungen zu treffen, statt sich auf Intuition oder Vermutungen verlassen zu müssen.

„Wir entwickeln das Betriebssystem für Maschinen im Internet“, erklärt Oliver Habisch, CEO von Tomorrow Things. „Wir sind der AppStore für Asset-Blueprints, ermöglichen einfache Integrationen und KI-Applikationen von Drittanbietern auf Basis der digitalisierten Anlagen. Das macht die Welt nachhaltiger und effizienter.“

KI-generierte Blueprints ermöglichen Digitalisierung auf Knopfdruck

Open-Source-Integrationswerkzeuge werden bereits in großem Umfang eingesetzt. Doch diese Werkzeuge erfordern hochqualifizierte Benutzer bei gleichzeitig zunehmendem Fachkräftemangel – ein Paradoxon. Ein Beispiel veranschaulicht das Problem und seine Lösung: Ein Maschinenhersteller bietet in Zusammenarbeit mit Tomorrow Things in seiner Maschinenschnittstelle etwa 250.000 Datenobjekte an. Der Systemintegrator muss beim Onboarding die Wichtigkeit jedes Objekts einschätzen und entscheiden, ob es für die Anwendung im digitalen Zwilling benötigt wird. Die manuelle Vorgehensweise ist selbst für qualifizierte Mitarbeiter monoton und fehleranfällig, was unweigerlich zu Datenqualitätsproblemen, sinkender Mitarbeiterzufriedenheit und in der Folge zu Personalfluktuation führt.

Das Onboarding einer Maschinenschnittstelle war bisher zeitaufwendig, komplex und teuer. Tomorrow Things automatisiert, vereinfacht und standardisiert den Prozess. Wie ein Fingerabdruck enthalten die Blueprints von Maschinen alle wichtigen Informationen – und sie können mit nur einem Klick zu einem Digital Twin werden. Ein virtuelles Abbild bietet zahlreiche Optimierungsmöglichkeiten, z.B. die Suche nach besseren Eingabeparametern. Das verringert Materialverschwendung und Ausfallzeiten, senkt den Energieverbrauch und steigert Produktionsleistung und Rentabilität. Mit einer dynamischen Sicht auf die gesamte Fertigung können Betriebe Engpässe und Ineffizienzen in ihren Produktionsprozessen leicht erkennen.

Spannende Möglichkeiten für das gesamte IoT-Ökosystem

Tomorrow Things soll das Betriebssystem (OS) für Maschinen im Internet werden. Kompetenzen der traditionellen Industrie und von Jungunternehmen werden intelligent kombiniert. Verschiedene Anbieter werden mit dem Tomorrow Things OS ihre eigenen KI-Anwendungen in einem AppStore einfach und standardisiert bereitstellen, um den Geschäftserfolg der zuvor digitalisierten Assets voranzutreiben und so bisher ungenutzte Potenziale zu heben. Tomorrow Things ermöglicht einen sicheren bidirektionalen Datentransfer zwischen Maschinen und Internetapplikationen. KI-gestützte Regelstrategien können durch Drittanbieter zentral erstellt und lokal an der Maschine betrieben werden, um optimierte Sollwerte in der Maschinensteuerung auszuführen, die bessere Resultate erzielen.

Timo Günzel, Chief Technology Officer von Bole Intelligent Machinery Co., Ltd konnte die Plattform von Tomorrow Things schon im Rahmen der Closed Beta ausprobieren. Sein Fazit: „Viel zu lange haben wir uns als Maschinenhersteller mit Software-Eigenentwicklungen beschäftigt. Heute konzentrieren wir uns auf unser Kerngeschäft und kombinieren einen Digital Twin von Tomorrow Things standardmäßig ab Werk. Der digitale USP eröffnet uns zudem eine Remote Service Option für einen optimalen Support unserer Endkunden und fördert die Interoperabilität in heterogenen Maschinenparks, sowie mit vorhandenen Industrie-Softwarelösungen, sodass sich unsere Assets nahtlos in bestehende Systemlandschaften einfügen.“

BRYCK Startup Alliance: Vom Kohlenpott zum Code-Pott

Das Bundesministerium für Wirtschaft und Energie (BMWE) hat mit den exist Startup Factories ein hochambitioniertes Förderprogramm aufgesetzt. Das Ziel: Wissenschaftliche Erkenntnisse sollen schneller und skalierbarer in die Wirtschaft überführt werden. Eines der Leuchtturmprojekte entsteht derzeit im Ruhrgebiet. Wir werfen einen Blick auf den Status quo der BRYCK Startup Alliance, die Macher*innen im Hintergrund und die Frage, was das Konstrukt Gründenden in der Praxis wirklich bringt.

Deutschland habe ein Transferproblem, so die Analyse der Initiatoren. Während die heimischen Universitäten in der Grundlagenforschung weltweit Spitzengeschwindigkeiten fahren, gerate der Motor ins Stottern, sobald es darum gehe, aus diesen Erkenntnissen marktreife Unternehmen zu formen. Genau hier setzen die geförderten exist Startup Factories an. Sie haben den Auftrag, die Quantität und Qualität wissensbasierter Ausgründungen signifikant zu steigern.

Das Silicon Valley der Schwerindustrie?

Geführt wird die BRYCK Startup Alliance, die 2025 als einer der Sieger des exist-Wettbewerbs gekürt wurde, von einem fünfköpfigen Führungsteam um Geschäftsführer Philipp Herrmann. Herrmann, selbst Seriengründer und Investor, soll die Brücke zwischen akademischer Forschung und traditionellen Corporate-Strukturen schlagen. Das Ziel ist gewaltig: Das Ruhrgebiet soll sich zur führenden Modellregion für industrielle Erneuerung in Europa wandeln.

Warum aber ausgerechnet DeepTech und nicht etwa digitale B2B-Software, wo die Einstiegshürden niedriger wären? Herrmann stellt klar: „Weil wir hier nicht die x-te Region bauen sollten, die versucht, ein kleines Silicon Valley zu spielen.“ Das Ruhrgebiet habe andere Stärken, wie eine enorme Dichte an Hochschulen, Industrie und konkreten Anwendungsfeldern. Für ihn liegt die Zukunft Europas nicht in reinen Softwaremodellen, sondern in Feldern wie Energie, Wasserstoff oder industrieller Effizienz. „DeepTech hat für diese Region einen anderen Hebel“, betont er. Wenn hier etwas funktioniere, habe es echte Wirkung auf industrielle Prozesse und neue Wertschöpfung. Sein Fazit für die Region: „Nicht den schnellsten Hype, sondern den nachhaltigsten Umbau.“

Eine beispiellose Allianz – und potenzielle Corporate-Falle?

Das Fundament der Allianz ist massiv: Die Universitätsallianz Ruhr kooperiert mit der RAG-Stiftung und dem Initiativkreis Ruhr, einem Bündnis aus über 70 Konzernen wie E.ON oder RWE. Für Start-ups klinge das theoretisch nach einem Sechser im Lotto. In der Praxis jedoch drohen agile Gründer*innen oft in den bürokratischen Mühlen der Großkonzerne zu ersticken.

Herrmann räumt unumwunden ein: „Die Gefahr besteht absolut.“ Große Unternehmen seien nicht per se schnell, und Konzernprozesse könnten für junge Teams zermürbend sein. Die Allianz setze daher nicht auf bloßes Networking, sondern auf harte Vorsortierung. „Unser Job ist, viel stärker vorzusortieren: Wo gibt es ein echtes Problem? Wo gibt es auf Unternehmensseite jemanden, der das Thema wirklich treiben will?“ Ein echter „Fast Track“ sei am Ende immer ein gut vorbereiteter Prozess. Zwar werde dadurch nicht jede Reibung verschwinden, aber man könne die Wahrscheinlichkeit für erfolgreiche Pilotprojekte massiv erhöhen.

Status quo: Die Realitätsprüfung

Seit dem Start ist viel passiert: Weit über 130 Start-ups haben die Programme bereits durchlaufen. Zudem wurde mit „GF BRYCK Ventures“ ein 10-Millionen-Euro-Fonds für Frühphasen-Investments etabliert. Doch Herrmann gibt zu, dass zwischen Masterplan und Realität oft Welten liegen.

Besonders die Kluft zwischen Universität, Start-up und Konzern habe ihn in der täglichen Arbeit gefordert. Man habe gelernt, dass ein gutes Ökosystem neben einem „Nordstern“ vor allem „sehr viel operative Kleinarbeit an all den zu verändernden Schnittstellen“ benötige. DeepTech sei eben kein Sprint. „Das Ruhrgebiet verändert man auch nicht mit einer großen Überschrift“, so Herrmann. Vielmehr verändere man es Schritt für Schritt durch funktionierende Beispiele.

Der harte Weg aus dem Labor

Zwei der größten „Start-up-Killer“ bei Uni-Ausgründungen sind ungeklärte Patentrechte (IP) und einseitige Teams aus Forschenden ohne Vertriebserfahrung. Herrmann fordert hier bei den IP-Prozessen vor allem Geschwindigkeit und Verlässlichkeit. „Nichts ist schädlicher als Monate der Unklarheit.“

Gleichzeitig legt er den Fokus auf das Matching der Teams. Während die „Nerds“ aus dem Labor für die Technologie unverzichtbar seien, entstehe ein Unternehmen erst, wenn technologische Exzellenz und unternehmerische Kompetenz zusammenkommen. Er plädiert für ein neues Selbstverständnis: „Ich finde auch, wir müssen weg von diesem alten Denken, dass Forschung und Unternehmertum zwei getrennte Welten seien. Im Idealfall ist Unternehmertum der Weg, wie aus guter Forschung Wirkung wird.“

Was kostet die Förderung?

Mit dem neuen Fonds investiert die Allianz bis zu 300.000 Euro in der ganz frühen Phase. Pauschale Deal-Terms gebe es dabei bewusst nicht, da die Situationen der Teams zu unterschiedlich seien. Herrmann betont jedoch ein wichtiges Prinzip: „Frühphasenfinanzierung darf Gründer nicht klein, sondern muss sie handlungsfähig machen.“

Da 300.000 Euro bei DeepTech-Hardware oft nur ein Anfang sind, müsse man das „Valley of Death“ durch breitere Kapitalzugänge schließen. Er sieht hier eine große Aufgabe für ganz Europa: „Wir brauchen mehr geduldiges Kapital und bessere Anschlussfinanzierung für wissenschaftsbasierte Unternehmen.“ Ziel sei es, die Teams so aufzustellen, dass sie auch die nächste und übernächste Runde erreichen können.

Ausblick: Eine Milliarde fürs Ruhrgebiet

Bis 2030 sind die Ziele messbar: 1.000 wissenschaftsbasierte Ausgründungen und eine Milliarde Euro mobilisiertes Risikokapital. Ob das Projekt ein Erfolg wird, mache Herrmann an substanziellen Ergebnissen fest.

„Im Kern werden wir nur dann wirklich Strahl- und Magnetkraft auf europäischer Ebene entwickeln, wenn aus unseren Startups groß skalierte Unternehmen entstehen – wirkliche Unicorns, die Industrien verändern“, kontert er. Man müsse beweisen, dass hier Firmen entstehen, die industrielle Probleme auf Weltklasseniveau lösen. Sein Wunsch für die nächsten vier Jahre: „Dass das kein spannendes Einzelprojekt mehr ist, sondern ein funktionierendes System mit echter Zugkraft.“ Wenn die ersten Teams aus diesem System zu echten Erfolgsgeschichten werden, sei das der stärkste Beleg für den Erfolg.

Factsheet: BRYCK Startup Alliance auf einen Blick

  • Offizieller Name: BRYCK Startup Alliance
  • Fokus: DeepTech, B2B, industrielle Transformation
  • Status: Prämierte exist Startup Factory des BMWE (Entscheidung am 10. Juli 2025)
  • Geschäftsführung: Philipp Herrmann, Dr. Christian Lüdtke, Philippa Köhnk, Ersin Üstün, Maximilian Weil-Schimanski
  • Wissenschaftliches Rückgrat: Universitätsallianz Ruhr (Bochum, Dortmund, Duisburg-Essen)
  • Wirtschaftliches Netzwerk: Initiativkreis Ruhr (über 70 Top-Unternehmen) & RAG-Stiftung
  • Finanzierung: GF BRYCK Ventures (10 Mio. Euro Fonds, Tickets bis zu 300.000 Euro)
  • Ziele bis 2030: 1.000 Ausgründungen, 200 skalierende DeepTech-Start-ups, 1 Mrd. Euro mobilisiertes Kapital
  • Website: bryckstartupalliance.com/de

Gründer*in der Woche: Vjus.AI – Vom SEO zum GEO

Wie das 2026 von Wolfe Diener gegründete Start-up Vjus.AI den Kampf um die KI-Sichtbarkeit gewinnen will.

Die Ära der klassischen Suchmaschinenoptimierung (SEO) bekommt ernstzunehmende Konkurrenz. Wenn Nutzer*innen heute nach Produkten oder Dienstleistungen suchen, tippen sie ihre Fragen zunehmend in Dialogfenster von Sprachmodellen statt in traditionelle Suchschlitze. Genau an dieser Schnittstelle positioniert sich das neu gestartete Münchner Start-up Vjus.AI. Doch kann eine Software wirklich die „Black Box“ der generativen KI entschlüsseln – und wie nachhaltig ist das Geschäftsmodell?

Hinter der am 1. April 2026 offiziell gelaunchten Plattform steht die AtWize Business Services GmbH mit Sitz in München. Kopf des Unternehmens ist Gründer Wolfe W. Diener, der zuvor bereits in leitenden Positionen als Geschäftsführer und im Vorstand großer Softwarehäuser aktiv war. Mit dem Start von Vjus.AI vollzieht das Unternehmen nun eine strategische Erweiterung in den stark wachsenden Bereich der Answer Engine Optimization (AEO) und Generative Engine Optimization (GEO).

Vom Humankapital zur KI-Sichtbarkeit

Die Historie des Unternehmens ist dabei von einem interessanten Strategiewechsel geprägt. Ursprünglich startete AtWize 2023 mit einem Fokus auf KI-Lösungen gegen den Fachkräftemangel. Diener erklärt die Hintergründe: „Parallel hatte ich schon eine Weile an der Idee arbeitete, Unternehmen zu ermöglichen, ihre in den Ruhestand ausscheidenden Mitarbeiter strukturierter zu managen, um sie bei Bedarf für Projekte oder übergangsweise anzusprechen. Es liegt so viel Humankapital und Erfahrung brach.“ In der aktuellen wirtschaftlichen Phase sei dies jedoch kein Top-Thema gewesen, weshalb man sich zunächst auf die Software-Entwicklung für Dritte konzentriert habe.

Der eigentliche „Aha-Moment“ kam durch die tägliche Arbeit. „Im letzten Jahr haben wir dann immer mehr auch KI-Tools zur Entwicklung eingesetzt und dabei den Bedarf, sogar die Notwendigkeit erkannt, die Sichtbarkeit in KI-Modellen zu messen und zu verbessern“, so Diener. Die Dringlichkeit begründet er mit dem veränderten Nutzer*innenverhalten: „KI-Modelle geben begründete Empfehlungen zur gestellten Frage. Da sucht man nicht weiter, sondern nimmt das Ergebnis wie es ist. Wer da nicht enthalten ist, ist unsichtbar.“

Nutzer*innensimulation: Die reale Perspektive

Vjus.AI setzt auf die Simulation realer Suchanfragen. Während klassische SEO-Tools oft auf APIs zugreifen, misst diese Plattform, wie Marken in Antworten von ChatGPT, Gemini, Grok oder Perplexity tatsächlich erscheinen. Auf die Frage nach der technischen Umsetzung und der Nicht-Deterministik der KI-Modelle antwortet Diener detailliert: „Wenn Sie Ihre Sichtbarkeit bei KI-Suchen wissen wollen, dann sollte diese ja so gemessen werden, wie sie ein normaler Nutzer, der einem KI-Modell eine Frage stellt, einen Prompt eingibt, auch sieht.“ Man müsse also zunächst Prompts definieren, bei denen man gefunden werden wolle – etwa als Münchner Zahnarzt bei der Frage nach dem besten Zahnarzt vor Ort.

„Wir analysieren die Ergebnisse, die von den KI-Modelle auf die Prompts hin geliefert werden“, erklärt Diener weiter. Dabei werden Kennzahlen wie Sichtbarkeit, Ranking und Sentiments (neutrale, positive oder negative Notation) erhoben. Den Vorwurf einer verzerrenden technischen Schicht weist er zurück: „Wir sind insofern keine Zwischenschicht, sondern werten die Daten aus, die viele User auch sehen würden. Die Nicht-Deterministik führt dabei zwar zu kleinen Schwankungen, aber es entsteht insgesamt ja ein Bild über die Zeit.“

Marktchancen und der „Unfair Advantage“

Das Interesse am Markt scheint groß zu sein; bereits vor dem offiziellen Launch konnten erste Kund*innen gewonnen werden. Finanziell steht das Start-up auf eigenen Beinen: „Wir finanzieren uns komplett aus eigenen Mitteln. Und da wir schon Kunden im Entwicklungsbereich haben, konnten wir Vjus.AI früh anwenden und testen“, betont der Gründer. Mit Investor*innen habe man noch nicht gesprochen: „Jetzt erst mal machen, dann reden wir.“

Um sich gegen die großen SEO-Platzhirsche zu behaupten, setzt Diener auf vier spezifische technische Vorteile. Erstens setze man auf eine natürliche Simulation: „Unsere Art des Promptens simuliert wirklich natürliche User. Andere machen das nicht.“ Zweitens komme eine eigene Scraping-Technologie zum Einsatz. Diese erlaube eine besonders detaillierte Analyse der Ergebnisse, auch der „Nebengeräusche“ wie etwa Quellenangaben. Als dritten Punkt nennt der Gründer das analytische Prompting: Vjus.AI unterstützt nicht nur beim Erstellen von Prompts, sondern analysiert auch, wie passend diese für die Sichtbarkeitsmessung sind. Viertens biete das Improver-Modul ein Analyse-Tool, das über die Daten hinweg ermittelt, „was die Haupthebel für das Unternehmen oder die Marke ist, um die Sichtbarkeit bei KI-Suchen zu erhöhen“.

GEO als neues Standard-Tool?

Für die Zukunft sieht Diener eine klare Entwicklung. Zwar werde es in zwei Jahren wahrscheinlich immer noch die klassische Google-Suche geben, doch der Übergang sei bereits fließend, da Google zunehmend KI-Ergebnisse mitliefere. „Die Suche mit KI-Modellen wird aber die gewohnte Praxis werden“, ist sich Diener sicher.

Seine Prognose für die Branche ist deutlich: „Insofern wird SEO eher übergehen in ein GEO. Ein SEO ohne Beachtung der Optimierungen für KI-Modelle macht aus meiner Sicht aber heute schon keinen Sinn mehr.“ Das Ziel für Vjus.AI ist dabei klar gesteckt. Die größte Hürde sei es, für die Nutzer*innen den besten Mehrwert zu generieren: „Darauf liegt unser Fokus und deshalb rennen wir, so schnell wir können.“

UniteLabs: Der Münchner DeepTech-Herausforderer auf dem Weg zum globalen Labor-Standard?

Das 2024 von Robert Zechlin, Lukas Bromig und Julian Willand gegründete UniteLabs will die Laborautomatisierung von proprietären Hürden befreien. Nach einer Millionenfinanzierung folgte Anfang 2026 der offizielle US-Launch. Wir wollten wissen: Wie realistisch ist die Vision eines herstellerunabhängigen Standards in einem von Hardware-Silos dominierten Markt? Eine Analyse.

Wer heute ein hochmodernes BioTech-Labor betritt, erwartet nahtlos vernetzte HighTech-Forschung. Die Realität sieht oft anders aus: Rund 90 Prozent der Laborgeräte stammen von unterschiedlichen Hersteller*innen und sprechen schlichtweg nicht dieselbe technische Sprache. Um künstliche Intelligenz in der Forschung nutzbar zu machen, müssen hochqualifizierte Wissenschaftler*innen oft als Software-Ingenieur*innen einspringen und mühsam Schnittstellen programmieren. Genau diesen Flaschenhals will das Münchner DeepTech-Start-up UniteLabs beseitigen.

Die Gründer und der Sprung aus München

Hinter UniteLabs stehen Robert Zechlin, Lukas Bromig und Julian Willand. Nach Vorarbeiten ab 2022 wurde das Unternehmen 2024 offiziell gegründet. Das Team vereint interdisziplinäre Expertise aus Chemieingenieurwesen, Wirtschaftsinformatik und Unternehmensstrategie – eine essenzielle Mischung für ein Produkt, das tiefes Prozessverständnis mit modernster Softwarearchitektur verbinden muss.

Dass die Idee einen massiven Schmerzpunkt der Industrie trifft, zeigt die rasante Entwicklung der letzten Monate. Nach einer Pre-Seed-Finanzierungsrunde in Höhe von 2,77 Millionen Euro unter der Führung von NAP (ehemals Cavalry Ventures) im Januar 2025 und der Auszeichnung als „Bestes Münchner Start-up“ beim Munich Startup Award 2025 ist das Unternehmen sichtlich gewachsen. Im ersten Quartal 2026 zählt das Team im Münchner Inkubator Werk1 bereits rund 28 Köpfe.

Doch wie verhindert ein derart rasant wachsendes Team, bei der ständigen Anbindung neuer, exotischer Hardware nicht zu einer hochbezahlten IT-Manufaktur zu verkommen? Schließlich erfordert jedes neue Laborgerät auf dem Markt zunächst einmal Entwicklungsaufwand für den passenden Konnektor.

„Unser Ziel ist nicht, jedes exotische Gerät einzeln ‚irgendwie‘ anzubinden“, stellt Mitgründer Robert Zechlin klar. Vielmehr soll die Integration zu einer wiederholbaren Produktfähigkeit reifen. Statt sich im Klein-Klein der Modellnummern zu verlieren, baue UniteLabs seine Konnektoren entlang grundsätzlicher Geräte-Fähigkeiten. Die puren Herstellerspezifika landen dabei in einer dünnen Adapter-Schicht, während Workflows und Datensemantik konsistent bleiben.

Um die berüchtigte Skalierungsfalle zu umgehen, setzt das Start-up zudem verstärkt auf „Reusable Automation Assets“. „Wir investieren in validierte Workflow-Bausteine, Device-Profile und Test-Suites, mit denen die zweite und dritte Integration deutlich schneller wird als die erste“, betont Zechlin und skizziert damit den Weg zum echten SaaS-Unternehmen. Der Gründer gibt die Richtung selbstbewusst vor: „Die Grenzkosten für das nächste Gerät und den nächsten Standort müssen über Zeit sinken. Unser Endzustand ist ein Ökosystem, in dem Integrationen gemeinsame Infrastruktur sind, nicht Projektgeschäft.“

Vom Prototyp zur Architektur der offenen Labore

Im Februar 2026 hat UniteLabs auf der renommierten Branchenmesse SLAS in Boston den offiziellen US-Launch seines „AI-Ready Lab Automation Systems“ vollzogen. Statt nur isolierte Schnittstellen zu flicken, positioniert sich das Start-up nun mit einer klaren, dreiteiligen Architektur.

Den Kern bildet die Cloud-native „UniteLabs Platform“, die Hardware vernetzt und die Integration von Machine-Learning-Modellen in Echtzeit erlaubt. Ergänzt wird dies durch die lokale Anwendung „GroundControl“ für den Plug-and-Play-Anschluss von Geräten sowie das „UniteLabs SDK“. Letzteres ist ein Python-Werkzeug für Wissenschaftler*innen, um Labor-Workflows komplett als Code zu steuern. Dass diese Theorie praxistauglich ist, beweist das aufstrebende KI-BioTech-Unternehmen Cradle, das die Lücke zwischen Maschinen und digitalen Daten-Lakes intern bereits mit dem Münchner System schließt. Laut UniteLabs soll sich der Labor-Durchsatz für solche KI-getriebenen Forschungsteams durch die Plattform um bis zu das Vierfache steigern lassen.

Ein „Lab-as-Code“-Ansatz via Python mag für entwickleraffine Data Scientists verlockend sein – doch schließt er nicht paradoxerweise die klassischen Biolog*innen aus, für die Code-Workflows oft eine zu steile Lernkurve bedeuten?

„Code ist nicht das Produkt“, kontert Zechlin. Er sei vielmehr eine Schnittstelle, die sowohl Power-User als auch den Laboralltag bedienen müsse. Das SDK richte sich an Teams, die volle Kontrolle über Versionierung und automatisierte Tests verlangen – was im KI-BioTech-Umfeld zunehmend Standard sei. Zechlin räumt jedoch ein, dass das Programmieren nicht jedem liege: „Die meisten wollen zuverlässige Ausführung und klare Transparenz.“

Die Lösung der Münchner: Über die Orchestrierungsschicht und „GroundControl“ werden Workflows paketiert und mit Leitplanken versehen, sodass sie auch für Nicht-Entwickler sicher ausführbar sind. Code bleibt strategisch zwar die „universelle Abstraktion“ über Geräte hinweg, doch das Interface der Zukunft sieht anders aus. Zechlin blickt voraus: „Das User Interface für Wissenschaftler wird zunehmend KI-gesteuert und natürliche Sprache zum primären Interface. UniteLabs dient diesen KI-Applikationen als robuste Surface Area und Source of Truth.“ Die Leitplanke für das Wachstum fasst er in einem Satz zusammen: „Unsere Vision ist: flexibel, wo es Sinn macht, und kompromisslos robust, wo es zählen muss.“

Die Bewährungsprobe auf dem US-Markt

Nach dem Bostoner Launch steht das Start-up nun vor der monumentalen Aufgabe, sich im hochkompetitiven US-Markt zu behaupten. Hier entscheidet sich, ob UniteLabs vom europäischen Hoffnungsträger zum globalen Player reift. Umgeben von gigantischen Investitionen in die KI-Wirkstoffentwicklung reicht es nicht, nur ein weiteres Automatisierungstool zu sein – UniteLabs muss sich als essenzieller „Schaufelhersteller“ für den aktuellen Boom etablieren.

Dabei trifft man auf amerikanische Wettbewerber*innen, die teils mit hunderten Millionen Dollar Venture Capital ausgestattet sind. Wie überlebt ein Münchner Start-up mit einer Pre-Seed-Runde von knapp drei Millionen Euro diese Materialschlacht? Zechlin gibt sich pragmatisch und weicht dem direkten Finanz-Vergleich aus: „Klar: In Infrastrukturmärkten hilft Kapital, aber es ist nicht der entscheidende Hebel.“ Anstatt die Konkurrenz im reinen „Spend“ schlagen zu wollen, baue man auf messbaren Nutzen im Laborbetrieb.

Der Plan scheint aufzugehen: Ein Großteil von Umsatz und Pipeline stammt heute bereits aus den USA, wo UniteLabs Kund*innen an beiden Küsten bedient und mit großen Hardware-Hersteller*innenn kooperiert. „Wir planen für dieses Jahr unseren ersten Big Pharma Roll-out, der sowohl in Europa als auch an Standorten in den USA erfolgen soll“, verrät der Gründer. Um diese Dynamik zu finanzieren, hebe man aktuell eine 9-Millionen-Euro-Seed-Runde für die US-Expansion. Den strukturellen Wettbewerbsvorteil sieht Zechlin in der herstelleragnostischen Verbindung bestehender Geräte: „Statt Rip-and-Replace zu verlangen, werden Workflows schneller produktiv, Daten werden sauber mit Kontext versehen, und Teams können ‚Lab-as-Code‘ wirklich ausrollen.“

Ein strategischer Hebel ist dabei die Zielgruppenansprache. Statt in endlosen Vertriebszyklen mit dem C-Level großer Pharma-Konzerne zu ringen, treibt UniteLabs ein nutzer*innengetriebenes Wachstum voran. Labor-Ingenieur*innen, die durch das Python-SDK wochenlange Schnittstellenprogrammierung einsparen, tragen das System organisch in ihre Unternehmen. Dabei profitiert das Start-up enorm davon, selbst keine Pipettierroboter oder Analysegeräte herzustellen. Als „neutrale Schweiz“ der Labor-Hardware buhlt UniteLabs nicht um lukrative Geräteverkäufe – ein extrem starkes Argument gegen den gefürchteten Vendor-Lock-in amerikanischer Hardware-Giganten.

Stresstest für das Geschäftsmodell und Regularien

Doch die ambitionierte Plattform-Strategie wird kritisch geprüft werden. Das Geschäftsmodell birgt ein ständiges API-Katz-und-Maus-Spiel, da Schnittstellen zu teils stark abgeschirmten Systemen gebaut werden müssen. Wenn etablierte Hersteller*innen ihre Firmware ändern oder Drittanbieter-Zugriffe blockieren, explodieren schnell die Wartungskosten für die Konnektoren.

Bleibt die Frage an den Gründer: Was ist also der Plan B, wenn die Marktführer ihre Schnittstellen per Update plötzlich aktiv verschlüsseln? Reicht der Verweis auf offene Standards wie das SiLA2-Protokoll in der harten Praxis aus?

„Wir gehen davon aus, dass Hersteller ihre Ökosysteme schützen werden. Unsere Strategie darf deshalb nicht auf ‚Goodwill‘ bauen“, gibt sich Zechlin keinen Illusionen hin. Standards wie SiLA2 seien zwar hilfreich gegen Fragmentierung, aber „kein Schutzschild“. Der Ansatz der Münchner ist stattdessen pragmatisch und mehrstufig: Standards nutzen, wo verfügbar, und eigene robuste Adapter bauen, wo nötig. Zudem betreibe man ein Programm mit automatisierten Regressionstests am realen Geräteverhalten, um Fehler durch Updates früh zu erkennen.

Der zweite Baustein der Verteidigung ist kommerzieller Druck. Da Labore zunehmend „Best-of-Breed“-Lösungen kombinieren wollen, würden Hersteller, die Interoperabilität blockieren, zunehmend Deals riskieren. Im Hintergrund investiere man deshalb viel Arbeit in aktiv gepflegte Partnerschaften mit den Produzent*innen. Zechlins Plan B lautet letztlich Resilienz: „Mehrere Integrationspfade, starke Tests, und ein System, das stabil bleibt, auch wenn sich die Oberfläche verändert.“ Er ist sich sicher: „Langfristig wirkt die Ökonomie in Richtung Offenheit.“

Neben blockierender Hardware bleibt die US-Zulassungsbehörde FDA die vielleicht höchste Hürde auf dem Weg in den Enterprise-Markt. Deren strenge Vorgaben zu elektronischen Aufzeichnungen sind der größte Vorbehalt von Pharmaunternehmen gegenüber Cloud-basierten Systemen. Gelingt es UniteLabs, Offenheit mit lückenlosen Audit-Trails zu verknüpfen, könnten sie die berüchtigten Sales-Zyklen drastisch verkürzen.

Doch wie passt maximale Entwickler*innen-Freiheit durch Python-Skripte mit rigider FDA- und GxP-Compliance zusammen? Für Zechlin existiert dieser Widerspruch im Labor-Alltag schlichtweg nicht: „Compliance widerspricht Flexibilität nicht. Was widerspricht, ist unkontrollierte Veränderung.“

Um Big Pharma gerecht zu werden, behandle man hochflexible Workflows wie reguläre Software-Produkte: versioniert, testbar und auditierbar. „Ein Script ist in einem GxP-Kontext kein ‚jeder macht, was er will‘, sondern ein kontrolliertes Artefakt mit definierten Inputs, erwarteten Outputs und einem Validierungsnachweis“, unterstreicht der Mitgründer. Die Plattform trenne Sandbox-Entwicklungen von einer strikt kontrollierten Produktionsebene mit signierten Releases, Environment-Pinning und klarer Datenlineage. Zechlin formuliert einen selbstbewussten Anspruch an die Branche: „Das Labor holt Software-Best-Practices nach. Unser Anspruch ist, ‚compliant by design‘ zur Default-Einstellung für AI-ready Lab Ops zu machen.“

Fazit

UniteLabs hat exzellentes Timing bewiesen. Die BioTech-Branche lechzt nach KI, scheitert aber noch massenhaft an isolierten Daten. Durch das Bereitstellen essenzieller Daten-Infrastruktur haben sich die Münchner in eine starke Ausgangsposition manövriert. Der US-Launch und anstehende Messepräsentationen zeugen vom Anspruch der Gründer. Der ultimative Lackmustest ab 2026 wird jedoch sein, ob die Hardware-Hersteller*innen diesen Wandel dulden – oder den Kampf um ihre lukrativen Software-Margen eröffnen.

Bleibt die Frage nach dem viel zitierten „Endgame“: Baut das Start-up wirklich das globale Betriebssystem für Biotech-Labore, oder macht man sich letztlich nur als hochattraktives Übernahmeziel für Hardware-Giganten hübsch?

Auf diese Entweder-Oder-Frage antwortet Zechlin diplomatisch, aber ambitioniert: „Unsere Vision ist, die neutrale Betriebsschicht für moderne Labore zu werden, weil die Branche einen herstellerunabhängigen Standard braucht, nicht noch ein weiteres Einzellösungstool.“ Gleichzeitig sei man Realist: Infrastruktur zähle nur, wenn sie im Alltag zuverlässig genutzt werde und verlässliche, strukturierte Daten für KI liefere.

Sollte das gelingen, hält sich UniteLabs alle Optionen offen – von der unabhängigen Kategorie-Definition über strategische Partnerschaften bis hin zum Exit. Doch auf einen schnellen Verkauf schiele man nicht, verspricht Zechlin: „Wir bauen nicht für eine Übernahme. Wir bauen so, dass der Markt die Plattform ernst nehmen muss.“ Und am Ende solle ohnehin der/die Kund*in profitieren: „Weniger Silos, schnellere Science, und ein Ökosystem, in dem Innovation nicht an proprietären Schnittstellen hängen bleibt.“

Gründer*in der Woche: Pax Lupus – Mit KI und Drohnen gegen den Wolf

Wolfsbiss in Hamburg: Die Debatte brennt. Das Start-up Pax Lupus von Anna-Karina Katt und Karsten Schmiegel will Herden nun autonom mit KI und Drohnen schützen.

Die Rückkehr des Wolfes nach Deutschland erreicht eine neue Eskalationsstufe: Am 30. März 2026 kam es in einem Einkaufszentrum in Hamburg-Altona zur Bissverletzung einer Frau durch einen Wolf. Es ist der erste Vorfall dieser Art seit der Wiederansiedlung der Tiere vor fast 30 Jahren. Obwohl die betroffene Frau das Universitätsklinikum nach ambulanter Behandlung inzwischen verlassen konnte, ist die Debatte um den Umgang mit dem Raubtier voll entbrannt.

Alexander Bonde, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU), stellt in diesem Kontext klar: Aus Artenschutzperspektive sei die Rückkehr des Wolfs positiv, doch Wölfe gehören in die Natur und nicht in Städte. Für die freie Natur komme es laut Bonde nun auf wirtschaftliche und praktische Schutzmechanismen an, die ein Nebeneinander von Wild- und Nutztieren ermöglichen. Genau hier setzt das von der DBU mit der „Green Startup“-Förderung unterstützte Unternehmen Pax Lupus an.

Gründer*innen & Vision

Hinter Pax Lupus steht das Gründungsduo Anna-Karina Katt und Karsten Schmiegel. Die beiden haben sich dem Thema Herdenschutz verschrieben und entwickeln ein autonomes System zur nicht-tödlichen Abwehr von Wolfsrudeln. Ihre Motivation speist sich auch aus der Kritik an gängigen Praktiken: Laut Anna-Karina Katt seien etablierte Maßnahmen wie Zäune, Netze und Herdenschutzhunde nicht nur arbeitsintensiv, sondern teils auch umweltschädigend. Besonders die engmaschigen Kunststoffnetze seien kurzlebig und produzierten große Mengen an nicht-recyclebarem Müll. Ein weiteres Problem laut Katt: Andere Wildtiere wie Rehe oder Feldhasen verfangen sich in diesen Netzen, was nicht selten zu schweren Verletzungen oder gar zum Verenden führe.

Das Produkt: Autonome Luftabwehr statt Plastiknetz

Das von Katt und Schmiegel entwickelte Herdenschutzsystem soll völlig netzunabhängig und nach einem mehrstufigen Prinzip auf Basis künstlicher Intelligenz (KI) arbeiten. Für die Überwachung und Sensorik wird in der Mitte der Weide ein Mast aufgestellt, der mit Kameras und Sensoren ausgestattet ist und über Solarmodule mit Strom versorgt wird. Diese Sensoren überwachen Tag und Nacht einen Radius von bis zu 200 Metern und sollen erkennen, wenn sich ein Wolf nähert. Die entwickelte Technik soll dabei zuverlässig Menschen oder andere Tiere von Wölfen unterscheiden, sodass bei harmlosen Weidebesuchern kein Alarm ausgelöst wird.

Wird tatsächlich ein Wolf registriert, eskalieren die Abwehrmaßnahmen schrittweise zur Vergrämung. Aus der Basisstation steigt eine kleine Drohne auf, fliegt das Tier gezielt an und soll es durch entsprechende Manöver vertreiben. Um auch eine Echtzeit-Intervention zu ermöglichen, werden die Schäferinnen und Schäfer bei bestehender Netzabdeckung zeitgleich über den Vorfall alarmiert. Sie können die Lage dann über Kameras zusätzlich einschätzen und die Drohnen-Abwehr bei Bedarf manuell abbrechen. Laut Anna-Karina Katt vertreibt das System Wölfe nicht nur situativ: Durch wiederholte Vergrämung sollen Wölfe lernen, die Weidetiere auch langfristig zu meiden. Dies ermögliche es den Schäfer*innen, lediglich einen einfachen Grundschutz wie Weidezäune aufzustellen.

Geschäftsmodell & Marktanalyse

Pax Lupus bewegt sich in der wachsenden Nische des Agri-Tech und liefert einen innovativen Ansatz für ein hoch emotionales und drängendes Problem in der Landwirtschaft. Beim Vertrieb setzt das Start-up auf den Verkauf sowie das Leasing des Systems und bietet zudem die Übernahme der Wartung an. Die darüber hinaus geplanten „Notfall-Mieten“ bei akuten Wolfsrissen sind strategisch klug positioniert. Damit senkt Pax Lupus die Einstiegshürde für betroffene Schäfer*innen enorm und platziert das Produkt direkt dort, wo der akute Bedarf entsteht.

Der rein deutsche Markt für Wolfsschutz ist trotz stetig wachsender Population zunächst auf klassische Weidebetriebe limitiert. Um als Start-up skalieren zu können, ist die von Pax Lupus geplante Ausweitung auf andere Nutztiere wie Kühe, Pferde oder Hühner entscheidend. Das angedachte KI-Training zur Abwehr von weiteren Raubtieren wie Füchsen oder Kojoten öffnet zudem potenziell die Tür zu internationalen Märkten.

Die stärksten Wettbewerber*innen bleiben vorerst etablierte Zäune und Herdenschutzhunde. Pax Lupus muss beweisen, dass die Gesamtkosten ihres Hightech-Systems für oft margenschwache Weidebetriebe attraktiv sind. Zudem stehen Hardware-Startups immer vor physischen Hürden: Die Solartechnik und Drohnenmechanik müssen auch bei widrigem Wetter fehlerfrei funktionieren.

Fazit

Pax Lupus kombiniert auf clevere Weise Tierschutz mit moderner KI und entlastet Weidetierhalter. Gelingt es dem Startup, die Hardwarekosten wettbewerbsfähig zu halten und die Software zügig auf weitere Raubtierarten auszuweiten, könnte dieses System den Herdenschutz nachhaltig verändern. Letztlich schützt Technologie hier nicht nur das Schaf, sondern hilft laut Anna-Karina Katt auch, artenreiche Offenlandschaften wie Bergweiden, Heide und Deiche als wichtigen Bestandteil Mitteleuropas zu erhalten.

Gründer*in der Woche: Little World – Spracherwerb durch echte Begegnung

Wie Oliver Berlin mit seinem Aachener Social-Start-up Little World trotz beachtlichen Erfolgs vor der großen Herausforderung der Anschlussfinanzierung steht – und was das über ein strukturelles Defizit in unserem Fördersystem verrät.

Es ist eine dieser Geschichten, die eigentlich ein Happy End haben müssten. Die Zahlen stimmen, die gesellschaftliche Wirkung ist messbar, und die Menschen sind begeistert. Doch Oliver Berlin, Wirtschaftsingenieur und Gründer des Social-Start-ups Little World, blickt derzeit nicht auf Erfolgsstatistiken, sondern auf ein finanzielles Problem. Sein Projekt offenbart ein strukturelles Defizit in unserem Fördersystem und steht vor einer massiven Herausforderung, da eine essenzielle Förderung Ende 2025 ausgelaufen ist.

Spracherwerb durch echte Begegnung

Die Vision von Little World ist so simpel wie effektiv: Menschen, die Deutsch sprechen, treffen sich im digitalen Raum mit Menschen, die Deutsch lernen. Es geht dabei nicht um klassische Nachhilfe oder sture Grammatik, sondern um echten Austausch auf Augenhöhe über den Alltag, Hobbys und die Familie.

Auslöser für die Gründung war Berlins eigene Erfahrung während der Pandemie, als er beobachtete, wie seine Mutter täglich ältere Menschen anrief, um ihnen Gesellschaft zu leisten. Zusammen mit Tim Schupp und Sean Blundell fusionierte er 2022 diese Idee zu Little World. Der Erfolg ließ nicht lange auf sich warten. Innerhalb der ersten drei Monate nach dem Launch verzeichnete die Plattform bereits 1.000 Anmeldungen. Heute vernetzt das Start-up bundesweit rund 6.500 Menschen und vermittelt jährlich etwa 1.200 Gesprächspaare.

Wie die Community über sich hinauswächst

Dass Little World weit mehr ist als eine reine Vermittlungsmaschine, zeigt sich daran, wie sich das Angebot mittlerweile organisch aus der Community heraus weiterentwickelt. Neben den 1-zu-1-Gesprächen gibt es inzwischen auch von den Teilnehmenden selbst initiierte Gruppenformate, wie etwa den neuen Online-Buchclub.

Ins Leben gerufen wurde dieser von der 27-jährigen Varvara, die selbst erst seit Anfang 2025 als Deutschlernende auf der Plattform aktiv ist. Ihr eigenes Deutsch hat sie sich maßgeblich durch das Lesen erarbeitet. Nun gibt sie diese Leidenschaft weiter: Alle zwei Wochen treffen sich im virtuellen Lesekreis Lernende und Freiwillige, um über vorab vereinbarte Texte zu sprechen – die Bandbreite reicht von Harry Potter bis Franz Kafka. In kleinen Breakout-Rooms geht es dabei weniger um strenge Literaturkritik, sondern vielmehr darum, das freie Sprechen zu üben und eigene Erfahrungen zu teilen.

Das Paradoxon des Erfolgs: Wenn die Förderung wegbricht

Es sind genau diese Momente der Begegnung und Integration, die aktuell auf dem Spiel stehen. Denn während die Community wächst und floriert, tickt im Hintergrund die finanzielle Uhr. Eine substanzielle Förderung der Deutschen Fernsehlotterie in Höhe von 400.000 Euro, die dem Start-up zwei Jahre lang Luft zum Atmen und Wachsen gab, ist Ende 2025 ausgelaufen. Das Kernteam wurde zwar vergrößert, doch die laufenden Betriebskosten für Server, technischen Support und das Matchmaking bleiben …

Hier schnappt die Falle des deutschen Fördersystems zu. Stiftungen und staatliche Töpfe finanzieren gerne den innovativen Aufbau oder Pilotphasen. Ist ein Projekt jedoch etabliert und läuft erfolgreich, ziehen sich die Geldgeber*innen zurück. Sozialunternehmer wie Oliver Berlin verbringen infolgedessen oft mehr Zeit mit dem Schreiben von Anträgen als mit ihrer eigentlichen gesellschaftlichen Mission.

Kooperationen statt Rückzug

Trotz des immensen Drucks richtet das Team den Blick nach vorn und setzt auf eine strategische Neuausrichtung. Jüngst schloss Little World ein Bündnis mit Lern-Fair, einem Verein zur Unterstützung bildungsbenachteiligter Schüler*innen. Durch diese Zusammenarbeit sollen Ressourcen geteilt und neue Zielgruppen, wie etwa Eltern, erschlossen werden.

Zusätzlich rückt die Wirtschaft stärker in den Fokus. Das Social Start-up positioniert sich zunehmend als Tool für Unternehmen, die ihren Mitarbeitenden über Corporate Volunteering ein unkompliziertes Engagement ermöglichen wollen. Gleichzeitig können Firmen so frühzeitig Kontakt zu internationalen Talenten aufbauen. Um das Modell auf breitere Schultern zu stellen und die Struktur langfristig zu sichern, sollen neben Spenden künftig auch Stiftungen und Unternehmen eine entscheidende Rolle spielen. „Sprachvermittlung ist unser Vehikel – unser Ziel ist gesellschaftlicher Zusammenhalt“, appelliert Berlin.

Griff nach den Sternen: Lieferando- und Tier-Mitgründer sammelt 5 Mio. Euro für Solarenergie aus dem All

Das europäische Start-up TerraSpark will sauberen Strom per Funk aus dem Orbit zur Erde schicken. Mit dabei: der Deutsche Matthias Laug, Mitgründer von Lieferando und Tier Mobility, sowie deutsche Investoren. Wir wollten wissen: Wie realistisch ist das ehrgeizige Vorhaben der Tech- und Raumfahrt-Veteranen? Eine Einordnung.

Europas Energieinfrastruktur stößt zunehmend an ihre Grenzen. Während die Internationale Energieagentur (IEA) prognostiziert, dass sich der Strombedarf von Rechenzentren bis 2030 mehr als verdoppeln wird, zeigten großflächige Stromausfälle in Spanien und Portugal zuletzt die Schwächen der heutigen Energiesysteme auf.

Eine radikale Lösung für dieses drängende Problem verspricht nun das 2025 in Luxemburg gegründete Start-up TerraSpark. Das junge Unternehmen hat eine Pre-Seed-Finanzierungsrunde in Höhe von über fünf Millionen Euro erfolgreich abgeschlossen. Zu den Geldgebern zählen neben der Pariser Gesellschaft Daphni und dem Tech-Investor Sake Bosch auch die Angel-Investoren-Allianz better ventures und die Hans(wo)men Group. Ihr gemeinsames Ziel: Weltraumgestützte Solarenergie kommerziell nutzbar zu machen.

Prominente deutsche Wurzeln in einem hochkomplexen Hardware-Projekt

Dass dieses Vorhaben für die hiesige Gründerszene von besonderem Interesse ist, liegt maßgeblich an der personellen Aufstellung. Hinter TerraSpark steht ein Gründertrio, das eine seltene Kombination aus europäischer Raumfahrtexpertise und massiver Skalierungserfahrung vereint. Aus deutscher Sicht sticht hierbei besonders Chief Operating Officer Matthias Laug hervor. Als Mitgründer von Lieferando und Tier Mobility bringt er tiefe Erfahrung im Aufbau und in der Skalierung großer europäischer Plattformunternehmen in das komplexe Projekt ein.

Geführt wird das Team von CEO Jasper Deprez, einem Seriengründer, der zuvor die globale HR-Tech-Plattform Tradler aufbaute. Die zwingend notwendige Raumfahrt-Expertise liefert Chief Technology Officer Dr. Sanjay Vijendran: Er verantwortete bei der Europäischen Weltraumorganisation (ESA) bereits das Solaris-Programm zur weltraumgestützten Solarenergie und war an der Mars Sample Return Mission beteiligt. Auch auf Investor*innenseite ist das deutsche Vertrauen in das Team groß. Tina Dreimann, Gründerin und Geschäftsführerin von better ventures, lobt genau diese Mischung aus europäischer Raumfahrtkompetenz und der Erfahrung, Technologie wirklich zu skalieren.

Erst die Erde, dann das All

Die Vision des Trios ist gewaltig: Solarenergie soll im Weltraum eingefangen und per Funkfrequenz sicher zur Erde übertragen werden. Das Konzept ist in der Theorie bereits seit den 1970er Jahren bekannt, doch erst heute machen sinkende Startkosten sowie technologische Fortschritte in der Satellitenfertigung und Orbitrobotik die Umsetzung wirtschaftlich tragfähig.

Anstatt jedoch das immense Risiko einzugehen und sofort mit gigantischen Systemen im All zu beginnen, wählt TerraSpark bewusst einen schrittweisen Kommerzialisierungs-Ansatz. Das Startup startet auf der Erde mit der Kommerzialisierung funkfrequenzbasierter drahtloser Energieübertragung für industrielle Anwendungsfälle. Mit diesem pragmatischen Schritt sollen Sicherheit, Effizienz und regulatorische Kompatibilität im kleinen Maßstab demonstriert werden, bevor das System in den Orbit skaliert wird. Ein hochrelevanter Markt für diese erste Phase sind netzferne Regionen, die bislang auf Dieselgeneratoren angewiesen sind. Dort liegen die Stromkosten häufig bei etwa 0,70 bis 1,50 Euro pro Kilowattstunde – ein starkes Preissignal, das technologische Alternativen rasch wirtschaftlich attraktiv machen kann.

Um diesen Markt zu erschließen, bereitet das Unternehmen in den kommenden Monaten erste Pilotanwendungen vor, darunter die drahtlose Energieversorgung eines Live-Events. Auch die Roadmap für den Weg ins All steht: Ein erster orbitaler Technologie-Demonstrator ist für das Jahr 2027 geplant, die erste echte Weltraum-zu-Erde-Energieübertragung wird für 2028 anvisiert.

Markt, Wettbewerb & Machbarkeit
Obwohl die Physik hinter der funkfrequenzbasierten Energieübertragung laut CTO Sanjay Vijendran seit Jahrzehnten validiert ist, bleibt die weltraumgestützte Solarenergie ein extrem komplexes Unterfangen. TerraSpark ist auf diesem kapitalintensiven Spielfeld nicht allein. Neben Start-ups wie Virtus Solis aus den USA oder dem neuseeländisch-deutschen Unternehmen Emrod haben auch etablierte Luft- und Raumfahrtgiganten wie Airbus das enorme wirtschaftliche Potenzial längst erkannt und treiben eigene Forschungsprogramme voran.

Kritisch zu hinterfragen bleibt bei all diesen Vorhaben die technische Effizienz der Energieübertragung über gewaltige Distanzen bis hinunter zur Erde. Die Errichtung großflächiger Solarpaneele im Weltall erfordert trotz signifikant sinkender Frachtpreise weiterhin immense Vorabinvestitionen und unzählige Raketenstarts. Zudem muss der internationale regulatorische Rahmen für das Richten von hochkonzentrierten Funkwellen aus dem All auf irdische Empfangsstationen erst noch global abgestimmt werden.

Fazit

Der „Earth-first“-Ansatz von TerraSpark ist ein äußerst kluger, unternehmerischer Schachzug. Er mildert das finanzielle Risiko für die Seed-Investoren ab, demonstriert Technologie greifbar im Kleinen und könnte frühe B2B-Umsätze generieren, lange bevor die erste Hardware ins All fliegt. Dennoch bleibt der Meilenstein-Plan enorm ambitioniert. Matthias Laug und seine Mitstreiter*innen haben in der Vergangenheit zwar eindrucksvoll bewiesen, dass sie digitale und urbane Geschäftsmodelle massiv skalieren können. Der Schritt vom E-Scooter-Verleih zur interplanetaren Energie-Infrastruktur erfordert in den kommenden Jahren jedoch eine völlig neue Dimension der Exekution – und noch deutlich tiefere Taschen der Investor*innen.

deeplify sammelt 2 Mio. Euro für digitalisierte Inspektionen von Pipelines, Chemieanlagen und Brücken

Das 2023 von Jan Löwer, Christoph Siemer und Felix Asanger gegründete Bochumer Industrial-AI-Start-up deeplify bringt frischen Wind in die analog geprägte und sicherheitskritische Anlagenprüfung.

Die Überwachung von Pipelines, Chemieanlagen und Brücken unterliegt strengsten Sicherheitsvorgaben. Die sogenannte zerstörungsfreie Prüfung (ZfP / NDT) – beispielsweise mittels Ultraschall oder Röntgen – wird traditionell von zertifizierten Prüfer*innen durchgeführt. Die Dokumentation und Auswertung dieser Daten ist in der Regel zeitaufwendig und stark analog geprägt. An dieser Schnittstelle positioniert sich die 2023 gegründete deeplify GmbH aus Bochum. Das Start-up entwickelt KI-Software für sicherheitskritische Inspektionen in Energie, Chemie und Industrie. Die angebotene Software-Plattform soll Aufgabenmanagement, eine KI-gestützte Defektanalyse sowie die Berichtserstellung in einem System bündeln.

Vom Agenturgeschäft zur SaaS-Lösung

Die Idee zu deeplify entstand 2022 aus einer Data-Science-Agentur heraus. Das heutige Führungsteam setzt sich aus drei Personen mit unterschiedlichen fachlichen Schwerpunkten zusammen. CEO Jan Löwer, ein studierter Physiker und vormaliger Gründer besagter Agentur, verantwortet die strategische Ausrichtung des Unternehmens. Die operativen Prozesse steuert Christoph Siemer (COO), der zuvor über zehn Jahre als Manager beim Energiekonzern BP tätig war – eine Branchenerfahrung, die dem Start-up den vertrieblichen Zugang zur Schwerindustrie erleichtern soll. Die technische Entwicklung leitet der Robotik- und Kognitionsexperte Felix Asanger (CTO).

Auf die Frage, woran das anfängliche Agenturmodell im spezifischen Markt gescheitert sei, stellt CEO Jan Löwer klar: „Gescheitert ist das Agenturmodell nicht. Es hat funktioniert und Umsatz gebracht.“ Es sei jedoch auf einen breiteren Markt industrieller Anwendungen ausgelegt gewesen. Den Wechsel zum reinen Software-as-a-Service (SaaS)-Produkt erklärt der Gründer mit dem klaren Blick auf Marktchancen: „Wir haben dabei gesehen, dass im SaaS-Produkt das deutlich größere Skalierungspotenzial liegt.“ Der Pivot sei eine bewusste strategische Entscheidung gewesen, fügt Löwer hinzu: „Wir haben uns gefragt, wo wir den größten Hebel haben und die Antwort war eindeutig.“

Plattformansatz für Inspektionsdaten

Mit dem Produkt „deeplify inspect“ verfolgt das Unternehmen das Ziel, die oft fragmentierten Prüfdaten verschiedener Hardware-Hersteller*innen in einer DICONDE-kompatiblen Datenbank zu zentralisieren. Darauf aufbauend sollen KI-Algorithmen die Inspektor*innen bei der Fehlererkennung unterstützen. Das SaaS-Modell verspricht eine Standardisierung der Qualitätssicherung sowie eine Reduktion der Auswertungskosten. Laut Unternehmensangaben konnte deeplify bereits erste Kund*innen im Energiesektor gewinnen. Dazu zählt unter anderem der Fernleitungsnetzbetreiber Open Grid Europe (OGE), mit dem im Zuge von Transformationsprojekten Datensätze zusammengeführt wurden. Zudem gibt es Kooperationen mit Inspektionsunternehmen.

Die Schwerindustrie gilt als konservativ, und Hardware-Hersteller setzen oft auf eigene Software-Silos. Löwer sieht darin jedoch keine unüberwindbare Hürde: „Vendor-Lock-ins sind in der Anlagenprüfung weniger ausgeprägt. Betreiber setzen mehrere Hardware-Lösungen parallel ein und legen Wert auf Unabhängigkeit.“ Deeplify positioniere sich exakt an diesem Punkt: „Als herstellerunabhängige Plattform integrieren wir Inspektionsdaten aus bestehenden Systemen über standardisierte Schnittstellen und überführen sie in ein offenes Format“, betont der Gründer.

Das Versprechen an die Industrie formuliert er deutlich: „Die Unternehmen behalten ihre Hardware, wir schaffen auf der Datenebene zentrale Verfügbarkeit, Vergleichbarkeit und KI-gestützte Auswertung.“ Um die Lösung auch für Konzerne wie OGE wirtschaftlich attraktiv zu machen, verzichtet deeplify beim Pricing bewusst auf große Upfront-Investments. Löwer skizziert das Modell: „Unternehmen starten mit einer Testphase und geringen Einstiegshürden, der Funktionsumfang skaliert modular mit dem tatsächlichen Bedarf.“

Marktumfeld & regulatorische Barrieren

Der Markt für Asset-Integrity-Management wächst, bedingt durch eine alternde europäische Infrastruktur und einen zunehmenden Mangel an qualifiziertem Prüfpersonal. Gleichzeitig sind die Markteintrittsbarrieren extrem hoch. In sicherheitskritischen Bereichen gelten strenge Zertifizierungsvorgaben, und die Haftungsrisiken bei übersehenen Defekten sind immens.

Um die regulatorischen Hürden zu umgehen, positioniert deeplify seine KI nicht als autonomen Prüfer, sondern wählt einen „Human-in-the-loop“-Ansatz. Die Software assistiert, die finale rechtliche Verantwortung und Entscheidungsgewalt verbleibt bei den menschlichen Prüferinnen. Auf das Risiko angesprochen, dass Prüferinnen sich zunehmend blind auf die KI verlassen könnten (Automation Bias), kontert Löwer: „Unser Ziel ist nicht, den Prüfer zu ersetzen, sondern seine Entscheidungsqualität messbar zu stärken.“ Er bezeichnet den Human-in-the-loop-Ansatz als „bewusstes Designprinzip“. Die KI sei primär als Assistenzsystem konzipiert: „Sie macht Vorschläge transparent, weist Unsicherheiten aus und liefert nachvollziehbare Entscheidungsgrundlagen“, so der CEO. Er versichert zudem, dass bestehende Prüfprozesse, Normen und Vier-Augen-Prinzipien vollständig erhalten blieben.

Auch das Training der KI-Modelle erfordert den Zugang zu hochspezifischen, oft vertraulichen Datensätzen der Anlagenbetreiber*innen. Löwer erklärt die Beschaffung dieser sensiblen Daten: „Beim Thema Trainingsdaten setzen wir auf enge Partnerschaften mit Anlagenbetreibern, die uns bereits für Entwicklung und Validierung reale Prüfdaten zur Verfügung stellen.“ Das ermögliche praxisnahes Training und stelle sicher, „dass unsere Modelle unter realen Bedingungen zuverlässig arbeiten“.

Der technologische Burggraben im starken Wettbewerb

Der NDT-Softwaremarkt ist stark fragmentiert und zunehmend umkämpft. Auf der einen Seite stehen internationale Start-ups und Scale-ups wie HUVRdata oder Abyss Solutions sowie Tech-Spezialisten wie Screening Eagle. Auf der anderen Seite rüsten etablierte NDT-Riesen wie Waygate Technologies ihre Systeme mit KI-Komponenten aus, während Prüfkonzerne wie TÜV oder SGS signifikant in Digitalisierungseinheiten investieren.

Deeplify muss beweisen, dass der herstellerunabhängige SaaS-Ansatz diesen teils proprietären Systemen überlegen ist. Globale Konzerne und Hardware-Marktführer sitzen auf riesigen historischen Datenbergen. Auf die Frage nach dem tatsächlichen technologischen Burggraben (Moat) gegenüber etablierten Playern stellt Löwer einen grundlegenden Besitzanspruch klar: „Der entscheidende Punkt ist: Die Daten gehören den Anlagenbetreibern, nicht den Hardware-Herstellern“. Deeplify positioniere sich als herstellerunabhängige Daten- und KI-Schicht, „die systemübergreifend integriert und erstmals echte Interoperabilität in der Anlagenprüfung schafft“.

Den eigenen Wettbewerbsvorteil definiert Löwer sehr spezifisch: „Unser Moat liegt in der Kombination aus tiefem NDT- und Asset-Integrity-Know-how mit spezialisierten, proprietären KI-Modellen, die direkt auf Rohdatenebene arbeiten.“ Der Gründer übt in diesem Zusammenhang auch Kritik am Status quo der Branche: „Viele etablierte Anbieter sind in ihren eigenen Ökosystemen gefangen und können diese Perspektive kaum abbilden.“ Durch Projekte und Partnerschaften baue deeplify kontinuierlich einen praxisnahen Datenkontext auf, „der nicht als Silo funktioniert, sondern als lernende, interoperable Plattform wächst“, schließt Löwer.

Finanzierung & Ausblick

Zur Finanzierung des weiteren Wachstums schließt deeplify nun offiziell eine Pre-Seed-Runde über 2 Mio. Euro ab. Lead-Investor ist D11Z Ventures. Außerdem beteiligen sich Vanagon Ventures, EWOR und strategische Business Angels. Mit dem frischen Kapital will deeplify die technische Infrastruktur der Plattform ausbauen und weitere Einführungen bei Kund*innen in Europa beschleunigen.

Trotz der Wurzeln im Ruhrgebiet sucht das Start-up für die Entwicklung von sogenannter Agentic AI laut öffentlichen Hiring-Daten nun Personal am Standort München. Löwer begründet diese Entscheidung mit den ambitionierten Zielen des Unternehmens: „Deeplify ist auf einem Wachstumskurs. Wir benötigen die besten Talente für unser Team.“ Die Wahl des neuen Standorts sei folgerichtig: „München ist eine bewusste strategische Entscheidung. Die Stadt bietet Zugang zu einem der stärksten KI-Talentpools in Europa, ein dichtes Ökosystem aus DeepTech-Unternehmen und Forschungseinrichtungen sowie die Nähe zu potenziellen Industriekunden."

Mediennutzung 2026: Zwischen KI-Frust, Abo-Müdigkeit und neuen Chancen für Start-ups

Die Deutschen experimentieren so intensiv wie nie mit künstlicher Intelligenz (KI), sind aber zunehmend genervt von Deepfakes und „Content ohne Mehrwert“. Gleichzeitig sehnt sich der überhitzte Streaming-Markt nach einer drastischen Konsolidierung. Die aktuelle Deloitte-Studie „Media Consumer Trends 2026“ liefert nicht nur Bestandsaufnahmen, sondern zeigt deutlich, wo für Gründer*innen und Tech-Unternehmen jetzt die wahren Opportunitäten liegen.

Social Media bleibt der unangefochtene Platzhirsch der Medienlandschaft: 78 Prozent der Konsument*innen in Deutschland sind auf den Plattformen aktiv, bei der Gen Z (unter 25 Jahre) sind es sogar satte 91 Prozent. Fast die Hälfte dieser jungen Zielgruppe nutzt Instagram, TikTok und Co. heute intensiver als noch im Vorjahr. Doch ein Blick unter die Oberfläche offenbart Risse im digitalen Fundament – und die haben maßgeblich mit dem rasanten Einzug generativer künstlicher Intelligenz (KI) zu tun.

Das KI-Paradoxon: Große Kreationslust, massives Vertrauensproblem

Auf der Creator-Seite ist KI bereits Alltag. 22 Prozent der Befragten haben laut Deloitte schon Bilder per KI erstellt, jeder Zehnte generiert Videos oder Musik. Auch die Zahlungsbereitschaft ist überraschend hoch: Jeder Fünfte wäre bereit, monatlich über 10 Euro für entsprechende Tools auszugeben.

Auf der Konsument*innenseite jedoch kippt die Stimmung bedenklich. Zwei Drittel der Nutzer*innen geben an, dass sie KI-generierte Inhalte im Netz nicht mehr zuverlässig erkennen können. Schlimmer noch: 56 Prozent klagen über eine wachsende Flut an KI-generierten Postings „ohne Mehrwert“ – schlichtweg digitaler Spam. Die Konsequenz dieser Verunsicherung zeigt sich bereits in den Nutzungsdaten: Erste Altersgruppen, insbesondere Nutzer*innen ab Mitte 50, beginnen, ihren Social-Media-Konsum aktiv zurückzufahren.

Die Start-up-Perspektive: Die Zeiten des blinden KI-Hypes sind vorbei. Wer als Gründer*in heute rein quantitativ auf automatisierte Content-Erstellung setzt, riskiert Reichweite und Glaubwürdigkeit. Wie Deloitte-Expertin Sophie Pastowski anmerkt, braucht es dringend „transparente Kennzeichnung, um Vertrauen im digitalen Raum zu stärken.“ Genau hier entsteht ein massiver Zukunftsmarkt für „Trust-Tech“-Start-ups: Werkzeuge, die Authentizität verifizieren, Deepfakes zuverlässig herausfiltern, digitale Wasserzeichen etablieren oder Content-Provenance (Herkunftsnachweise) sichern, werden zu kritischen Erfolgsfaktoren für Plattformen und Verlage.

Streaming-Kollaps: Die Sehnsucht nach dem Super-Aggregator

Auch im Video-Streaming-Markt (SVoD) stehen die Zeichen auf Wandel. Der Markt ist in einer Reifephase angekommen: Zwar verbringen die Deutschen immer mehr Zeit mit Streaming, doch die Abo-Zahlen stagnieren. Mit durchschnittlich 2,5 Abos bei 64 Prozent der Haushalte ist die finanzielle und nervliche Schmerzgrenze offenbar erreicht.

Die Fragmentierung des Marktes wird zum Bumerang. Die Hälfte der Konsument*innen findet das zersplitterte Angebot unübersichtlich; das ständige Suchen nach Inhalten über verschiedene Apps hinweg („Decision Fatigue“) nervt. Das Resultat ist ein lauter Ruf nach Bündelung: 43 Prozent der Nutzer*innen wünschen sich eine plattformübergreifende Aggregation ihrer Dienste. Der Haken für Anbietende: 60 Prozent erwarten im Gegenzug für ein solches Bundle einen spürbaren Preisvorteil.

Die Start-up-Perspektive: Der Markt schreit nach einer funktionierenden Meta-Ebene. Wer es schafft, die zersplitterte Content-Landschaft in einer nutzer*innenfreundlichen Oberfläche (Super-App) mit intelligenter, plattformübergreifender Suchfunktion und klugem Pricing zu bündeln, trifft den absoluten Nerv der Zeit. Das reine Hinzufügen eines weiteren Nischen-Streamingdienstes dürfte es hingegen 2026 schwerer denn je haben.

Audio: Der harte Kampf um das knappe Gut „Glaubwürdigkeit“

Im Audio-Segment setzt sich der Strukturwandel fort. Podcasts boomen weiter und haben bei den 25- bis 34-Jährigen das klassische Radio bereits als wichtigstes Medium überholt. Doch das Radio verzeichnet mit 65 Prozent wöchentlicher Reichweite weiterhin eine enorme Resilienz. Der Grund ist ein entscheidender USP, von dem digitale Kanäle lernen können: Vertrauen. Wenn es um harte Informationen und die Nachrichtenlage geht, stufen 54 Prozent der Hörer das Radio als informativer und verlässlicher ein – Podcasts kommen hier nur auf 19 Prozent.

Fazit

Die Mediennutzung 2026 ist stark paradox geprägt: Technologie durchdringt die Erstellung von Inhalten immer tiefer, doch die Sehnsucht der Nutzer*innen nach Authentizität, Übersichtlichkeit und verlässlichen Quellen wächst proportional dazu. Für Start-ups bedeutet dies einen strategischen Paradigmenwechsel. Nicht das nächste Tool zur Erstellung von noch mehr billigem KI-Content ist der heilige Gral, sondern Lösungen, die in der Informationsflut Orientierung schaffen, Fragmentierung auflösen und echtes Vertrauen im digitalen Raum aufbauen. Wer diese Schmerzpunkte adressiert, hat im hart umkämpften Medienmarkt der kommenden Jahre exzellente Karten.

Start-up trifft Industrie-Giganten: Wie planqc mit BMW und Infineon die Logistik der Zukunft berechnet

Wenn ein junges Technologie-Unternehmen mit Branchenriesen und der Spitzenforschung an einem Tisch sitzt, lohnt sich ein genauerer Blick. Das Garchinger Start-up planqc zeigt im neuen Forschungsprojekt „QIAPO“, wie der Brückenschlag zwischen hochkomplexer Quantenphysik und handfesten Industrie-Herausforderungen gelingen soll.

Für Gründer*innen im DeepTech-Segment ist es oft die größte Hürde: Wie übersetzt man Grundlagenforschung in ein Produkt, das für die Industrie greifbare Probleme löst? Das Münchner Start-up planqc liefert darauf aktuell eine spannende Antwort. Gemeinsam mit der Universität des Saarlandes sowie den Konzernen BMW und Infineon arbeitet das Team an einer Lösung für eines der hartnäckigsten Probleme der Wirtschaft: die Routen- und Prozessoptimierung bei unzähligen Variablen. Dass planqc hier als Quanten-Spezialist auftritt, ist das Ergebnis eines rasanten Aufstiegs in der europäischen Tech-Szene.

planqc: Aus der Forschung in die Wirtschaft

Gegründet 2022 von den Quantenphysikern Dr. Alexander Glätzle (CEO), Dr. Sebastian Blatt (CTO) und Dr. Johannes Zeiher, ist planqc das erste Spin-off des renommierten Max-Planck-Instituts für Quantenoptik. Das Team bringt nicht nur geballtes Know-how aus Garching mit, sondern verfolgt einen technologischen Ansatz, der sich bewusst von einigen BigTech-Giganten unterscheidet.

Während viele globale Konzerne auf fehleranfällige und aufwendig auf den absoluten Nullpunkt gekühlte Systeme setzen, nutzt planqc neutrale Atome als Qubits, die durch Laserlicht in optischen Gittern festgehalten werden. Dieser Ansatz ermöglicht den Betrieb bei Raumtemperatur und verspricht eine leichtere Skalierbarkeit der Qubits. Anstatt im Labor auf den theoretisch perfekten Rechner der fernen Zukunft zu warten, wählt das junge Unternehmen einen stark anwendungsorientierten Weg.

Der schnelle Aufstieg: Millionen-Investments und Großaufträge

Wie sehr dieser pragmatische Ansatz im Markt verfängt, zeigt die jüngere Firmengeschichte. Bereits kurz nach der Gründung zog planqc staatliche Großaufträge an Land – darunter den Zuschlag für die Entwicklung eines Quantencomputers für das Deutsche Zentrum für Luft- und Raumfahrt (DLR).

Der vorläufige Höhepunkt der wirtschaftlichen Skalierung folgte im Sommer 2024 mit einer Series-A-Finanzierungsrunde in Höhe von 50 Millionen Euro. Mittlerweile ist das Start-up auf rund 100 Mitarbeitende angewachsen und wurde im September 2025 mit dem renommierten Deutschen Gründerpreis in der Kategorie „StartUp“ ausgezeichnet. Das aktuelle, vom Bundesministerium für Bildung und Forschung (BMBF) mit 2,3 Millionen Euro geförderte Projekt „QIAPO“ fügt sich nahtlos in diese strategische Ausrichtung ein.

Das Problem: Der limitierte klassische Computer

Ob bei der Produktion von Mikrochips (Infineon) oder in den weltweiten Lieferketten der Automobilindustrie (BMW) – überall lauern logistische Herausforderungen. Klassische Computer stoßen hier an ihre Grenzen. Sie lösen extreme Optimierungsprobleme oft nur noch mit Näherungswerten und extrem langen Rechenzeiten. Bisher galt in der Industrie daher oft die Devise: Man macht das Beste aus den vorhandenen Heuristiken.

Die Lösung: Ein hybrides Teamwork der Systeme

Genau hier setzt QIAPO (Quanteninformierte approximative Optimierung auf NISQ und partiell fehlertoleranten Quantencomputern) an. Das Projektteam erprobt ein Zusammenspiel aus zwei Welten. Den Anfang macht das System von planqc: Der Quantencomputer soll mit seinen speziellen Eigenschaften den hochkomplexen „Dschungel“ des logistischen Problems massiv ausdünnen. Das Problem wird auf diese Weise quasi „kleiner gerechnet“. Sobald es entscheidend vereinfacht ist, übernehmen wieder herkömmliche Rechner und nutzen ihre in der Praxis erprobten Algorithmen, um das greifbarere Problem zu Ende zu rechnen.

„Wir demonstrieren damit bereits heute, wie sich hochkomplexe, industrierelevante Herausforderungen in Quantenalgorithmen übersetzen lassen – die schließlich auf Quantencomputern getestet werden können“, erklärt Dr. Martin Kiffner, Head of Algorithms bei planqc.
 
Der unternehmerische Pragmatismus: Warum 85 % ein Erfolg sind

Das Besondere an diesem Ansatz – und ein wichtiges Learning für B2B-Gründer*innen – ist der Fokus auf messbare industrielle Fortschritte statt auf Perfektion. Prof. Dr. Peter P. Orth von der Universität des Saarlandes, der das Projekt koordiniert, betont, dass es auch mit dieser hybriden Methode vorerst keine 100-prozentige Lösung geben wird.

Ein theoretisches Rechenbeispiel verdeutlicht jedoch das Potenzial: Wenn ein Lieferketten-Problem heute durch klassische Rechner mit 80-prozentiger Genauigkeit gelöst wird, könnte die Kombination mit Quanten-Hardware diese Genauigkeit auf 85 oder 95 Prozent anheben. Für Corporates wie BMW und Infineon bedeutet genau diese kleine Marge durch Ressourceneinsparungen bei extrem hohen Produktionsvolumina einen enormen wirtschaftlichen Hebel.

Fazit

Planqc beweist, dass Start-ups nicht zwangsläufig das allumfassende, finale Endprodukt vorweisen müssen, um für internationale Konzerne hochrelevant zu sein. Oft reicht es, mit der eigenen Spitzentechnologie präzise in eine Lücke zu stoßen, die bestehende Systeme hinterlassen – und sich über starke Industriepartnerschaften das Rüstzeug für die weitere Skalierung zu sichern.

Logistikbude: 5-Mio.-Euro-Funding für neue Softwarekategorie im B2B-Sektor

Ein oft ignorierter, aber systemkritischer Bereich der Logistik rückt ins Rampenlicht: das Management von Ladungsträgern. Das Dortmunder Start-up Logistikbude sichert sich in einer Series-A-Runde über 5 Millionen Euro, um mit seinem „Load Carrier Management System“ (LCMS) Excel und Papier in den Lieferketten abzulösen. Ein Blick auf die Macher, den Markt und die Frage, wie tragfähig das Geschäftsmodell wirklich ist.

Wer an globale Lieferketten denkt, hat Containerschiffe, riesige Lagerhallen und KI-gestützte Routenplanung vor Augen. Doch das eigentliche Rückgrat des Welthandels ist erschreckend analog: Weltweit zirkulieren Schätzungen zufolge rund 10 Milliarden Ladungsträger – Europaletten, Gitterboxen, Spezialgestelle. Sie wechseln jährlich etwa 150 Milliarden Mal den Besitzer. Was in der Theorie nach einem reibungslosen Kreislauf klingt, ist in der Praxis ein administrativer Albtraum, der von Palettenscheinen auf Papier, fehleranfälligen Excel-Listen und endlosen E-Mail-Schleifen dominiert wird.

Genau hier setzt das Tech-Start-up Logistikbude an. Mit einer frischen Series-A-Finanzierung in Höhe von über 5 Millionen Euro, angeführt vom renommierten VC Capnamic sowie Moguntia Capital und diversen Bestandsinvestoren (u. a. FTTF, Rethink Ventures), will das Dortmunder Unternehmen eine völlig neue Softwarekategorie im B2B-Sektor etablieren: das Load Carrier Management System (LCMS).

Aus der Forschung in den Logistik-Dschungel

Die Wurzeln der Logistikbude sind ein Musterbeispiel für erfolgreichen Technologietransfer. Die Gründer Dr. Philipp Hüning (CEO), Michael Koscharnyj (COO), Patrik Elfert (CPO) und Jan Möller (CTO) stammen aus dem Fraunhofer-Institut für Materialfluss und Logistik (IML) in Dortmund. Dort arbeiteten sie in einem Enterprise Lab eng mit der European Pallet Association (EPAL) zusammen. Aus dieser direkten Schnittstelle zwischen Spitzenforschung und industrieller Realität erwuchs eine zentrale Erkenntnis: Bestehende IT-Systeme wie Warehouse Management (WMS) oder Transport Management Systeme (TMS) behandeln das Ladungsträgermanagement äußerst stiefmütterlich.

Im Oktober 2021 wagte das Quartett die Ausgründung. Aus dem Forschungsprojekt wurde ein Vertical-SaaS-Start-up, das sich anschickt, die tiefe Ineffizienz im Palettentausch zu beenden. Namhafte Kunden wie DACHSER und die Nagel-Group, die das System aktuell an 130 Standorten flächendeckend ausrollt, beweisen: Das Team hat den Product-Market-Fit gefunden.

Intelligenter Layer statt Systembruch

Das LCMS der Logistikbude positioniert sich als intelligenter Datenlayer, der sich über die bestehende – und oft stark fragmentierte – IT-Infrastruktur von Handels- und Logistikunternehmen legt. Über API-Schnittstellen zieht das System Daten aus ERP- oder WMS-Systemen, schließt Lücken über mobile Scan-Apps oder IoT-Sensoren und gleicht Salden automatisch ab.

Besonders clever: Um den manuellen Aufwand zu minimieren, nutzt die Software Künstliche Intelligenz. Ein KI-Agent liest analoge oder als PDF vorliegende Palettenscheine aus, verbucht sie und gleicht Konten ab. Partnerunternehmen, die die Software selbst nicht nutzen, lassen sich über simple Weblinks in den Bestätigungsprozess einbinden. Das Geschäftsmodell ist klassisches Software-as-a-Service (SaaS): Kunden zahlen eine monatliche Lizenzgebühr, gestaffelt nach Funktionsumfang und Volumen der Ladungsträger.

Ist das wirklich eine neue Software-Kategorie?

Die Logistikbude proklamiert selbstbewusst, mit dem LCMS eine dritte große Säule neben ERP/WMS und TMS zu schaffen. Doch hält diese These einer kritischen Marktanalyse stand?

  • Die Stärken: Das Start-up löst ein akutes Schmerzproblem. Paletten sind gebundenes Kapital. Hoher Schwund und massiver administrativer Personalaufwand für den Saldenabgleich kosten Großlogistiker jährlich Millionen. Der Return on Investment (ROI) der Software lässt sich für Kunden schnell und hart in Euro beziffern.
  • Die Risiken: Langfristig stellt sich die Feature-or-Product-Frage. Bislang ignorieren große ERP-Anbieter (wie SAP) oder etablierte WMS-Hersteller das Thema weitgehend, weil es extrem kleinteilig ist. Sollten diese Tech-Giganten jedoch den Wert der Automatisierung im Palettenmanagement erkennen und entsprechende Module nativ in ihre Suiten integrieren, gerät ein Standalone-LCMS unter Druck. Logistikbude muss sich in den Lieferketten unentbehrlich machen, bevor die großen Tanker ihren Kurs korrigieren.
  • Der Netzwerkeffekt: Palettentausch ist ein Multiplayer-Spiel. Wenn Spedition A und Händler B unterschiedliche Systeme nutzen, droht ein neuer Datenbruch. Logistikbude federt dies zwar stark durch KI-gestützte Dokumentenauslese und Partner-Links ab, doch die volle Skalierungskraft entfaltet sich erst, wenn das System zum Quasi-Standard der Branche wird.

Wettbewerb und Markt

Der Markt für das Management von Ladungsträgern ist stark fragmentiert, wobei sich die Konkurrenz im Wesentlichen in drei Cluster unterteilen lässt. Der mit Abstand größte und hartnäckigste Gegenspieler ist dabei der etablierte Status quo in Form von Excel-Tabellen und Papierdokumenten. Daneben existieren diverse Alt-Systeme und Nischenanbieter, die einfache Lademittelverwaltungen oft noch als isolierte On-Premise-Lösungen anbieten. Diesen traditionellen Ansätzen fehlt im direkten Vergleich jedoch meist die nötige Cloud-Dynamik sowie eine moderne KI-Integration. Ein drittes Cluster bilden digitale Pooling-Dienstleister wie inter.PAL, die sich dem Problem von der physischen Seite nähern. Diese Player kombinieren ein digitales Palettenkonto mit dem europaweiten, physischen Handling und Pooling der Paletten, teilweise ergänzt durch Blockchain-Verbuchungen. Im Gegensatz dazu grenzt sich die Logistikbude klar ab, indem sie rein digital, plattformunabhängig und als völlig neutraler Software-Dienstleister operiert.

Einordnung & Ausblick

Für Gründerinnen, Gründer und Investor*innen sendet die Series-A der Logistikbude ein starkes Signal: Die lukrativsten Start-up-Ideen liegen oft nicht in hippen Endkonsumenten-Trends, sondern in den unsexy Untiefen des B2B-Alltags. Die Logistikbude ist ein klassischer Hidden Champion in spe.

Mit dem frischen Kapital von über 5 Millionen Euro muss das Team nun beweisen, dass es die Internationalisierung über den DACH-Raum hinaus stemmen und eine Marktdurchdringung erreichen kann, die das System vom smarten Tool zum echten Branchenstandard erhebt. Gelingt dies, könnte das Konzept LCMS tatsächlich als eigenständige Kategorie in die IT-Systemlandschaften der globalen Wirtschaft einziehen.

Start-up-Ökosystem abseits der Metropolen: Wie Ostwestfalen-Lippe das Förder-Vakuum überwindet

280 Neugründungen und über 1.000 neue Arbeitsplätze: Das Förderprojekt „Exzellenz Start-up Center.OWL“ (ESC.OWL) zieht nach sechs Jahren Laufzeit eine beachtliche Schlussbilanz. Die eigentliche Nachricht für die Start-up-Szene liegt jedoch in der Zeit nach dem Förderende: Die Region verankert ihre aufgebauten Inkubator-Strukturen dauerhaft und führt die Vision einer „Startup Factory“ auch ohne finale exist-Bundesförderung fort.

Mit dem Abschluss des Jahres 2025 endete die Förderung des Projekts ESC.OWL, das die regionale Gründer*innenszene in Ostwestfalen-Lippe (OWL) seit 2019 maßgeblich geprägt hat. Rund 16 Millionen Euro flossen in dieser Zeit in das Vorhaben, innovative Geschäftsideen aus der Forschung der beteiligten Hochschulen auf den Weg zu bringen. Geleitet wurde das Konsortium vom „Center für Transfer durch Existenzgründung“ (TECUP) der Universität Paderborn, das auch die Start-up-Schmiede garage33 betreibt. Mit an Bord waren zudem die Technischen Hochschule OWL und die Hochschule Bielefeld.

Ambitionierte Ziele deutlich übertroffen

Die Initiatoren hatten sich für die sechsjährige Laufzeit hohe Ziele gesteckt – und diese letztlich deutlich übertroffen. Die Bilanz in harten Zahlen:

  • Statt der anvisierten 150 Ausgründungen entstanden aus über 700 begleiteten Gründungsvorhaben insgesamt 280 neue Start-ups.
  • Diese jungen Unternehmen schufen in OWL mehr als 1.000 neue Arbeitsplätze.
  • Mehr als 40.000 Menschen wurden für Themen rund um die Existenzgründung sensibilisiert (geplant waren 25.000).
  • Über 20.000 Teilnehmerinnen und Teilnehmer besuchten die diversen Formate, von Ideenwettbewerben über Pitch-Events bis hin zu Networking-Veranstaltungen mit Investoren und Business Angels.

B2B-Fokus: 87 Millionen Euro Wagniskapital eingeworben

Dass sich das Projekt derart dynamisch entwickelte, liegt an der spezifischen DNA der Region. Ostwestfalen-Lippe galt in der landesweiten Förderinitiative „Exzellenz Start-up Center.NRW“ als wichtiges Puzzleteil abseits der klassischen Ballungsräume. Die Region bot ideale Bedingungen für eine hochspezialisierte Art von Start-ups: Als Heimat des Spitzenclusters „Intelligente Technische Systeme“, zahlreicher Weltmarktführer und in direkter Nähe zum Fraunhofer-Institut IEM bildet OWL ein natürliches Testfeld für B2B-Geschäftsmodelle.

Diese enge Verzahnung von universitärer Forschung und etablierter Industrie ermöglichte es vielen Tech-Gründungen, rasch Pilotkunden zu finden. Wie lukrativ dieses Umfeld für Wagniskapitalgeber ist, zeigt eine aktuelle Zahl: Insgesamt warben Start-ups aus dem Ökosystem der garage33 seit 2019 über 87 Millionen Euro an Wagniskapital ein.

Ein Paradebeispiel für diesen Dealflow ist das Paderborner KI-Start-up ONE WARE. Das Team hat eine Software entwickelt, die ressourcenschonende neuronale Netze für verschiedenste Hardwareplattformen generiert. Dieser Ansatz überzeugte den Essener Technologieinvestor Cusp Capital, der das Start-up in dessen erster institutioneller Finanzierungsrunde mit 2,5 Millionen Euro ausstattete.

Verstetigung: Ein physisches Zuhause für Hardware-Gründer

Die größte Schwachstelle vieler staatlich geförderter Hubs ist oft ihr Ablaufdatum. Das ESC.OWL hat hier jedoch frühzeitig entgegengesteuert. An der Universität Paderborn wurde das TECUP offiziell als zentrale Betriebseinheit etabliert, wodurch die Unterstützungsleistungen für gründungsinteressierte Hochschulangehörige langfristig gesichert sind.

Darüber hinaus wurde der Gründer*innenszene ein neues physisches Zuhause geschaffen: Parallel zur ESC.NRW-Förderung bezog die garage33 den Neubau des Start-up Campus OWL im Paderborner Zukunftsquartier. Dieser bietet Start-ups modernste Büro- und Co-Working-Flächen sowie Raum zur Entwicklung physischer Prototypen.

„Wir gewährleisten so, dass Gründungsinteressierte auch künftig kontinuierlich und auf hohem Niveau unterstützt werden können, wenn sie ihre wissenschaftlichen Erkenntnisgewinne in tragfähige Geschäftsmodelle überführen möchten“, resümiert Prof. Dr. Sebastian Vogt, Direktor des TECUP.

Blick nach vorn: Die Vision geht unabhängig weiter

Das Projekt ESC.OWL ist formal abgeschlossen, doch die Region baut auf dem starken Fundament auf. Unter dem Namen Factory33 hatte sich das hochschulübergreifende Konsortium im prestigeträchtigen exist-Leuchtturmwettbewerb „Startup Factories“ des Bundesministeriums für Wirtschaft und Energie (BMWE) beworben.

Bei der finalen Prämierung der zehn bundesweiten Leuchttürme 2025 erhielten in NRW jedoch die Gateway Factory und die Factory BSA / BRYCK Startup Alliance den Zuschlag. Die Vision in Ostwestfalen-Lippe bleibt von dieser Entscheidung unberührt: Mit dem Ziel, einen international sichtbaren Hotspot für B2B-Gründungen der industriellen Transformation zu etablieren, wird das regionale Ökosystem seine Plattform nun als eigenständige und tragfähige Basis weiter vorantreiben.

10 Mio. Euro für Würzburger DeepTech-Start-up WeSort.AI

Das 2021 von Nathanael Laier und Johannes Laier gegründete WeSort.AI nutzt KI und Röntgen, um wertvolle Rohstoffe aus dem Abfall zu retten. Alles zur neuen 10-Mio.-Finanzierung.

Ein kurzes Aufblitzen, gefolgt von beißendem Rauch: Falsch entsorgte Lithium-Ionen-Akkus sind der Albtraum jedes Recyclinghof-Betreibers. Über 50 Prozent aller entsorgten Elektrogeräte und Batterien landen nicht bei spezialisierten Recyclern, sondern im Restmüll oder der gelben Tonne. Dadurch entstehen zahlreiche Brände im Recyclingprozess und wertvolle Rohstoffe wie Lithium, Kobalt und Seltene Erden gehen verloren. Diese Materialien klassifiziert die EU als Critical Raw Materials (CRM), deren Verfügbarkeit entscheidend für die Unabhängigkeit von Drittstaaten ist. Genau in diese schmerzhafte Lücke stößt das Würzburger DeepTech-Start-up WeSort.AI. Das Unternehmen hat sich Finanzierungsmittel in Höhe von zehn Millionen Euro gesichert, um seine KI-basierte Technologie zur Rückgewinnung kritischer Rohstoffe aus Recycling-Anlagen weiter zu skalieren.

Von der Vision zum prämierten Start-up

Hinter WeSort.AI stehen die Gründer Nathanael Laier und Johannes Laier, die das Unternehmen Ende 2021 mit Sitz in Würzburg aus der Taufe hoben. Als die Brüder die veralteten Trennverfahren der globalen Müllsortierung analysierten, erkannten sie das gewaltige, ungenutzte Potenzial von Digitalisierung in diesem Sektor. Der Aufstieg seit der Gründung verlief rasant. Die Kombination aus Unternehmergeist und technischem Know-how gipfelte kürzlich im Gewinn der Tech Metal Transformation Challenge der Bundesagentur für Sprunginnovationen (SPRIND). Dass die Vision der Brüder auch auf politischer Ebene Anklang findet, beweisen zudem weitere Förderzusagen in Millionenhöhe, unter anderem vom BMWE, dem BMFTR und dem Land Bayern, mit denen das Team seine Sortiertechnologie nun weiter optimieren will.

Brandprävention als lukrativer Türöffner

Die Technologie der Würzburger liest sich wie Science-Fiction für den Müllbunker. Das KI-Sortiersystem erkennt mit Hilfe von künstlicher Intelligenz, Spezialkameras und Röntgen Batterien und Elektroschrott automatisch in falschen Abfallfraktionen und sortiert sie zurück ins fachgerechte Recycling. Die Technologie kann dabei verschiedenste gefährliche oder wertvolle kritische Rohstoffe aus diversen Abfallarten wie Altfahrzeugen, Elektronik, Bauabfällen, Industrie und Haushalt aussortieren. Das Geschäftsmodell ist äußerst smart positioniert, da es einen ökologischen Makro-Trend mit einem hochaktuellen betriebswirtschaftlichen Schmerzpunkt verbindet. Das System verhindert nicht nur Brände in Müllverarbeitungsanlagen, sondern sichert auch die Rückgewinnung strategisch wichtiger Rohstoffe.

Dass das System bereits seit 2024 bei führenden Entsorgungsunternehmen wie KORN Recycling und PreZero, einem Teil der Schwarz Gruppe, im Einsatz ist, belegt einen frühen und starken Product-Market-Fit. Zudem surft das Unternehmen geschickt auf der Welle der Geopolitik, denn der EU Critical Raw Material Act setzt ambitionierte Ziele für die europäische Rohstoffunabhängigkeit. Europa ist heute stark abhängig von Importen kritischer Materialien, was wirtschaftliche und geopolitische Risiken birgt. Indem WeSort.AI bisher ungenutzte kritische Rohstoffe aus dem Abfall zurückgewinnt, erschließt das Start-up laut Gründer Nathanael Laier eine bisher ungenutzte urbane Mine und trägt direkt zur Umsetzung der EU-Vorgaben bei.

Markt & Wettbewerb

Das frische Kapital von zehn Millionen Euro stammt von führenden europäischen Impact-Investoren wie Infinity Recycling, dem Green Generation Fund und der Corporate-Venture-Einheit vent.io. Zustande kommt die Finanzierung zudem mit Unterstützung des BayStartUP-Investorennetzwerks.

Doch diese Mittel treffen auf einen hart umkämpften Markt, der sich grob in drei Segmente unterteilen lässt. Allen voran stehen die etablierten Anlagenbau-Goliaths wie das norwegische Milliardenunternehmen Tomra oder das deutsche Traditionsunternehmen Steinert. Diese Branchenriesen dominieren den Markt für sensorgestützte Sortierung historisch und rüsten ihre eigenen Systeme massiv mit Deep-Learning und KI auf.

Neben diesen Giganten drängen extrem gut finanzierte internationale Scale-ups auf den deutschen Markt. Unternehmen wie Recycleye oder Greyparrot aus Großbritannien bringen ihre KI-gesteuerten Analytik- und Robotiksysteme in europäische Anlagen und kooperieren hier bereits mit etablierten Anlagenbauern.

Auch die heimische Start-up-Konkurrenz schläft nicht, wie etwa das Bremer Start-up WasteAnt zeigt, welches Sensorik zur Qualitätskontrolle direkt bei der Müllanlieferung einsetzt.

WeSort.AI versucht, sich in dieser Gemengelage durch einen klaren USP abzugrenzen. Peter Dorfner, Partner beim Green Generation Fund, zeigt sich besonders davon überzeugt, dass die Battery-Sort-Lösung weltweit in ihrer Form einzigartig ist und mit ihrem Patent auf dem internationalen Markt stark vor Wettbewerb geschützt ist.

Ausblick & Einordnung

Es lohnt sich ein zweiter Blick auf die vor WeSort.AI liegenden Herausforderungen. Das Unternehmen entwickelt physische Systeme für eine der rauesten Industrieumgebungen der Welt, was die Hardwareentwicklung extrem kapitalintensiv macht. Die Abfallwirtschaft gilt zudem als eher konservativ, was oft in langen B2B-Vertriebszyklen bei der Integration neuer Hardware in bestehende Infrastrukturen mündet.

Dennoch löst WeSort.AI durch die Vermeidung von Bränden und die Rückgewinnung kritischer Rohstoffe eines der größten Probleme der Branche. Gelingt es dem Gründer-Duo, die Sortiertechnologie weiter zu optimieren und in neue Anwendungen zu skalieren, hat das Start-up beste Chancen, sich als ein führender Anbieter für KI-gestützte Rückgewinnung kritischer Rohstoffe in Europa zu positionieren. Der starke Rückenwind durch EU-Regularien und die eklatante Schmerzgrenze der Entsorger bei brennenden Anlagen bleiben dabei die stärksten Verkaufsargumente.

Wahrheit als Geschäftsmodell: Neuramancer sichert sich 1,7 Mio. Euro für Deepfake-Detektor

In einer Zeit, in der Deepfakes als handfeste wirtschaftliche Bedrohung gelten, positioniert sich ein deutsches Start-up als digitaler Detektiv. Doch kann ein junges Team aus Oberbayern im globalen Wettrüsten zwischen KI-Fälscher*innen und Detektoren wirklich bestehen?

Angeführt wird die 1,7 Millionen-Euro-Runde von Vanagon Ventures, während sich mit Bayern Kapital über den Innovationsfonds EFRE II auch ein gewichtiger institutioneller Partner beteiligt. Das Konsortium wird durch das Family Office Lightfield Equity, den neu gegründeten ZOHO.VC sowie mehrere strategisch erfahrene Business Angels vervollständigt.

Wenn Forschung auf Versicherung trifft

Hinter Neuramancer steht ein Führungstrio, das akademische Tiefe mit Branchenexpertise vereint. Den technologischen Grundstein legte Anatol Maier, der als technischer Architekt und CTO das wissenschaftliche Rückgrat bildet. Seine an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) im Bereich IT-Sicherheit entwickelte Methodik bildet heute das proprietäre Herzstück der Plattform.

Flankiert wird er von Anika Gruner, die als CEO die strategischen Fäden in der Hand hält. Durch ihre Stationen beim Bayerischen Rundfunk und bei Burda kennt sie die Mechanismen der Medienwelt und die Gefahren durch Desinformation aus erster Hand.

Um die technologische Lösung nun in marktfähige Bahnen zu lenken, komplettiert Martin Sondenheimer als Chief Commercial Officer das Team. Mit seiner Erfahrung als Venture-Experte bei Branchenriesen wie der Munich Re und der Allianz soll er die entscheidende Brücke zur Versicherungswirtschaft schlagen – dem Sektor, den Neuramancer als seinen ersten Fokusmarkt definiert hat.

Dem digitalen Rauschen auf der Spur

Während viele Wettbewerber auf eine rein visuelle Analyse setzen, geht Neuramancer eine Ebene tiefer. Die Plattform konzentriert sich auf die Analyse von Hintergrundrauschen und statistischen Artefakten in Bild- und Videodateien. Jede generative KI hinterlässt beim Erstellungsprozess einer Datei eine Art mathematischen Fingerabdruck. Neuramancer nutzt eigene, probabilistische Algorithmen, um diese Spuren zu isolieren. Ein wesentlicher Vorteil dieses Ansatzes ist die angestrebte Transparenz: Das System liefert mathematisch nachvollziehbare Beweise statt vager Wahrscheinlichkeiten. Dies ist insbesondere für die Akzeptanz vor Gericht oder in komplexen Versicherungsfällen ein entscheidendes Kriterium.

Zwischen Nischen-Spezialisten und Big Tech

Neuramancer tritt in einen Markt ein, der gerade erst erwachsen wird, aber bereits von verschiedenen Seiten besetzt ist. Die Wettbewerbslandschaft teilt sich dabei in drei Lager auf. Zum einen agieren internationale Schwergewichte wie Reality Defender (USA) oder DuckDuckGoose (Niederlande), die über deutlich höhere Finanzmittel verfügen.

Auf nationaler Ebene trifft Neuramancer auf spezialisierte Konkurrent*innen wie das Start-up VAARHAFT, das sich ebenfalls auf die automatisierte Prüfung von Schadensbildern fokussiert hat. Schließich arbeiten auch Tech-Giganten wie Intel oder Adobe innerhalb der Content Authenticity Initiative an eigenen Standards. Während Adobe verstärkt auf digitale Wasserzeichen setzt, um Originale zu kennzeichnen, muss Neuramancer beweisen, dass die nachträgliche Detektion von Fälschungen der effizientere Weg für Unternehmen ist.

Das Risiko der technischen Kurzlebigkeit

Trotz der exzellenten Forschungsgrundlage steht das Start-up vor Hürden. Eine der größten technischen Herausforderungen ist das Kompressions-Dilemma: Wenn Deepfakes über Dienste wie WhatsApp verschickt werden, geht oft genau das feingliedrige Rauschen verloren, auf das Maiers Algorithmen angewiesen sind. Das Team muss beweisen, dass die Technologie auch unter realen Bedingungen mit stark komprimierten Dateien robust bleibt. Zudem wirkt das Funding von 1,7 Millionen Euro im Vergleich zu den zweistelligen Millionenbeträgen der US-Konkurrenz fast bescheiden, was einen extrem effizienten Mitteleinsatz erfordert. Nicht zuletzt bleibt das Geschäft ein permanentes Wettrüsten: Sobald Detektionsmechanismen bekannt sind, könnten künftige KI-Modelle darauf trainiert werden, genau diese statistischen Spuren von vornherein zu vermeiden.

Fazit und Einordnung

Neuramancer ist ein Paradebeispiel für ein DeepTech-Spin-off, das den Sprung aus der Universität über renommierte Förderprogramme wie das Media Lab Bayern oder die Bundesagentur SPRIND in die kommerzielle Welt geschafft hat. Der Erfolg wird maßgeblich davon abhängen, wie schnell das Start-up die Versicherungswirtschaft als zahlende Kund*innen skalieren kann, bevor die nächste Generation von KI-Generatoren die aktuellen Algorithmen technologisch überholt. Ein riskanter, aber technologisch hochspannender Case für den Standort Deutschland.