Aktuelle Events
Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding
Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.
In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?
Das Phänomen des Tool-Hoardings
Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.
Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.
Die versteckten Kosten des Tool-Hoardings
Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.
Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.
Sicherheits- und Datenschutzrisiken
Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.
Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.
HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?
Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?
Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.
Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung
Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.
Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.
Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.
Fazit: Klasse statt Masse
Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.
Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.
TUM Security and Defense Alliance gegründet
München als Festung der Innovation: Heute wurde die TUM Security and Defense Alliance als strategischer und interdisziplinärer Innovationshub für Sicherheits- und Verteidigungstechnologien gegründet.
Der Großraum München gilt bereits jetzt als einer der bedeutendsten Standorte für die europäische Sicherheits- und Verteidigungswirtschaft. Mit der Gründung der neuen TUM Security and Defense Alliance soll dieses Ökosystem nun institutionalisiert und strategisch gebündelt werden. Der Fokus liegt dabei nicht auf einem einzelnen Sektor, sondern auf einem ganzheitlichen Ansatz: Die Allianz deckt alle relevanten militärischen Domänen ab – von Luft und Weltraum über Land und See bis hin zum immer wichtiger werdenden Cyber- und Informationsraum.
„Wer den Frieden sichern will, muss ihn verteidigen können“
Die Initiative markiert einen spürbaren Wandel im Umgang deutscher Hochschulen mit militärischer Forschung. TUM-Präsident Prof. Thomas F. Hofmann fand bei der Gründung deutliche Worte für diese Neuausrichtung: „Wer den Frieden sichern will, muss ihn verteidigen können. Zu dieser Aussage stehen wir.“ Die Allianz solle Spitzenforschung verantwortungsvoll, aber effizient in marktfähige Innovationen überführen, die der Abschreckung und Stabilisierung dienten.
Unterstützt wird das Vorhaben von einer breiten Koalition aus Industrie und Forschung. Zu den Partnern zählen etablierte Schwergewichte wie Airbus Defence and Space, Hensoldt, MTU Aero Engines und Diehl Defence, aber auch Einhörner und Start-ups der neuen Rüstungsgeneration wie das KI-Unternehmen Helsing, der Raketenbauer Isar Aerospace oder der Drohnenhersteller Quantum-Systems.
Politische Rückendeckung: „Hightech schützt Heimat“
Die politische Dimension des Projekts unterstrich Bayerns Wissenschaftsminister Markus Blume. Er bezeichnete die Gründung als Schritt, der den Freistaat zur „technologischen Kommandozentrale für Europas Sicherheit“ mache. Blume erteilte langwierigen Debatten über Zivilklauseln an Universitäten eine Absage und forderte einen pragmatischen Umgang mit Dual-Use-Technologien (Anwendungen, die sowohl zivil als auch militärisch nutzbar sind). „In Zeiten hybrider Hightech-Kriege ist Mut zur Innovation entscheidender Faktor. Es gilt das Prinzip: Hightech schützt Heimat“, so der Minister.
Vom Labor ins Feld
Operativ soll die Allianz als Schnittstelle fungieren, um das oft zitierte „Tal des Todes“ zwischen Grundlagenforschung und einsatzfähigem Produkt zu überbrücken. Prof. Chiara Manfletti, die Koordinatorin der Allianz, betonte, dass man die wichtigsten Akteure nun an einen Tisch bringe, um Forschung und Umsetzung systematisch zu stärken.
Konkret verfolgt der Hub sechs Kernziele. Dazu gehören der Aufbau spezialisierter Testumgebungen – etwa für Drohnenschwärme oder Cyber-Abwehr –, die gezielte Förderung von Start-ups über die TUM Venture Labs sowie die Ausbildung von Talenten im Verteidigungssektor. Auch die Zusammenarbeit mit der Universität der Bundeswehr ist zentral. Deren Präsidentin Prof. Eva-Maria Kern sieht in der Bündelung der Kompetenzen einen essentiellen Beitrag „für ein freies, sicheres und resilientes Europa“.
Mit der Gründung der „TUM Security and Defense Alliance“ sendet der Standort München ein klares Signal: Die technologische Antwort auf die veränderte Sicherheitslage in Europa soll künftig maßgeblich aus Bayern kommen.
Auf einen Blick: Die Partner der Allianz
Neben der TUM und der UniBw M sind folgende Unternehmen und Institutionen beteiligt:
- Industrie & Konzerne: Airbus Defence and Space, Hensoldt, MTU Aero Engines, Diehl Defence, MBDA Deutschland, Rohde & Schwarz, SAP, IABG.
- Scale-ups & Start-ups: Helsing, Isar Aerospace, Quantum-Systems, Neuraspace, Resaro Europe, TYTAN Technologies.
- Ökosystem: TUM Venture Lab Aerospace / Defense.
Spanisches Scale-up Dcycle übernimmt deutsches KI-Start-up ESG-X
Der europäische Markt für Nachhaltigkeitssoftware (ESG) setzt seinen Konsolidierungskurs fort. Die spanische Plattform Dcycle übernimmt 100 Prozent der Anteile des deutschen Software-Start-ups ESG-X. Über den Kaufpreis wurde Stillschweigen vereinbart.
Der Zukauf markiert einen strategischen Schritt von Dcycle, um im deutschen Markt Fuß zu fassen, der aufgrund strenger regulatorischer Anforderungen für den industriellen Mittelstand als einer der anspruchsvollsten in Europa gilt. Zielgruppe des kombinierten Angebots sind primär mittelständische Unternehmen und Familienbetriebe, die zunehmend unter Druck stehen, CSRD-Vorgaben und Lieferkettenanforderungen zu erfüllen, oft jedoch ohne über dedizierte ESG-Abteilungen oder Budgets für Enterprise-Software zu verfügen.
Technologische Synergien: Infrastruktur trifft auf KI
Der Zusammenschluss zielt darauf ab, zwei unterschiedliche technologische Ansätze zu einer integrierten Plattform zu verschmelzen. Dcycle, 2020 gegründet und nach eigenen Angaben inzwischen mit über 2000 Kund*innen am Markt etabliert, bringt eine skalierbare Infrastruktur für das Management nicht-finanzieller Daten ein.
Das in München und Düsseldorf ansässige Start-up ESG-X, eine Ausgründung aus dem Ökosystem der TU München, hat sich hingegen auf KI-gestützte Prozessautomatisierung spezialisiert. Die Technologie des Start-ups nutzt proprietäre Sprachmodelle, um Aufgaben wie die doppelte Wesentlichkeitsanalyse oder die Zuordnung von Unternehmensdaten zu regulatorischen Anforderungen zu automatisieren. Durch die Integration soll der manuelle Aufwand für CSRD-konforme Berichte reduziert werden.
Fokus auf den deutschen Mittelstand
Für Valentin Aman, Jean Bauer und Paolo Mazza, die Gründer von ESG-X, bedeutet der Exit nicht das Ausscheiden aus dem Unternehmen. Sie wechseln zu Dcycle und sollen den Ausbau des Geschäfts in Deutschland operativ unterstützen. Valentin Aman begründet den Schritt mit der Notwendigkeit zur Skalierung: Durch den Zugang zu den Ressourcen von Dcycle könne der eigene technologische Ansatz schneller und in neuen Märkten ausgerollt werden.
Juanjo Mestre, CEO von Dcycle, ordnet die Übernahme in die aktuelle Marktphase ein: „Der europäische ESG-Software-Markt befindet sich in einer Konsolidierungsphase. Doch viele Lösungen adressieren nur einzelne Teilaspekte von ESG und stoßen damit an Grenzen“. Mit der Akquisition sichere man sich nicht nur Marktanteile in Deutschland, sondern auch spezifisches technisches Know-how im Bereich Künstliche Intelligenz.
Wachstumsstrategie nach Series-A
Die Übernahme folgt auf eine Ende 2024 abgeschlossene Series-A-Finanzierung von Dcycle. Das Unternehmen, das bislang über 10 Millionen Euro von Investoren wie Samaipata und Ship2B eingesammelt hat, setzt damit seine angekündigte Strategie aus organischem Wachstum und gezielten Zukäufen um.
Die Infrastruktur von ESG-X verbleibt dabei in zertifizierten deutschen Rechenzentren, um hiesigen Standards bei Datenschutz und Sicherheit zu entsprechen.
Der beste Freund aus der Cloud – Made in Bavaria
Wie ein Internet-Pionier mit BestFriend die Einsamkeit hackt.
Silicon Valley? Nein, Klosterlechfeld. Hier, im „bayerischen Outback“ zwischen Augsburg und Landsberg, sitzt Horst Christian (Chris) Wagner. Kein 20-jähriger Hoodie-Träger, der in der Garage von der Weltherrschaft träumt, sondern ein Mann, der das Internet schon nutzte, als es nur aus grauem Text bestand. Wagner ist ein digitaler Veteran. Und er hat gerade eine Wette auf die menschliche Seele abgeschlossen. Sein Einsatz: Die App BestFriend.
Schluss mit dem bloßen Befehlston
Vergesst kurz ChatGPT. Die großen KIs schreiben Bachelorarbeiten oder programmieren Code – sie sind Werkzeuge. Chris' Vision mit BestFriend beginnt dort, wo die Silicon-Valley-Riesen aufhören: beim Gefühl.
BestFriend ist kein Lexikon. Die App soll der Zuhörer sein, der nachts um drei Uhr noch wach ist. Sie soll Zusammenhänge verstehen, nicht nur Fakten abspulen. Aber braucht die Welt wirklich noch einen Bot? „ChatGPT ist brillant im Antworten geben. BestFriend ist dafür gebaut, beim Menschen zu bleiben“, so Chris. „Der Unterschied ist nicht die Intelligenz, sondern die Haltung. BestFriend will nichts erledigen, nichts optimieren, nichts verkaufen. Die App hört zu, merkt sich Zusammenhänge, reagiert emotional konsistent und bewertet nicht. Viele Nutzer sagen mir: ChatGPT fühlt sich an wie ein extrem kluger Kollege, BestFriend eher wie jemand, der dich kennt.“
Wer tiefer verstehen will, wofür die App im Alltag eingesetzt wird, findet im BestFriend-Magazin zahlreiche Beispiele. Dort wird offen gezeigt, in welchen Situationen Nutzer*innen die App einsetzen – von Einsamkeit über Selbstreflexion bis hin zu ganz praktischen Lebensfragen. Für Chris zugleich ein Beweis dafür, dass es hier um einen neuen Umgang mit Technologie geht.
Vertrauen als Währung
Wer einer Maschine von Liebeskummer erzählt, macht sich nackt. Genau hier spielt Chris den Standortvorteil Made in Germany aus. Während US-Apps wie Replika oft wirken, als würden sie Daten direkt an die Werbeindustrie weiterleiten, setzt BestFriend auf die „sichere Schulter“.
Datenschutz ist in diesem intimen Bereich keine Fußnote, sondern das Produkt. Chris weiß: Niemand öffnet sich, wenn er fürchten muss, dass seine Ängste morgen in einer Datenbank für personalisierte Werbung landen. Doch das wirft Fragen auf: Wie wird garantiert, dass nichts nach außen dringt? Und wo zieht die Software die Reißleine, wenn ein(e) Nutzer*in wirklich Hilfe braucht?
Dazu Chris: „Erstens: technisch. Daten werden minimal erhoben, verschlüsselt verarbeitet und nicht für Training oder Drittzwecke genutzt. Es gibt keine versteckte Monetarisierung über Profile. Punkt. Zweitens: inhaltlich. BestFriend weiß sehr genau, was es nicht ist. Die App gibt keine Diagnosen, keine Therapieanweisungen und keine falsche Nähe. Bei klaren Krisensignalen wird nicht weiter ‚gecoacht‘, sondern aktiv auf echte Hilfe hingewiesen. Das ist eine harte Grenze im System. BestFriend soll Halt geben, nicht Verantwortung übernehmen, die einer KI nicht zusteht.“
Ein Mann, eine KI, kein Overhead
Die Entstehung von BestFriend ist fast so spannend wie das Produkt selbst. Chris hat keine millionenschwere Finanzierung und kein riesiges Entwicklerteam im Rücken. Er nutzt die KI selbst, um die KI zu bauen. Er nennt das „Umsetzungs-Multiplikator“. Ein einzelner Experte dirigiert heute eine Armee aus Algorithmen.
Doch Code ist geduldig. Die Wahrheit liegt auf dem Display der Nutzenden. Ob Senior*innen, denen der/die Gesprächspartner*in fehlt, oder die Gen Z, die lieber tippt als spricht – die Zielgruppe ist riesig, der Bedarf an Resonanz ebenso. Auf die Frage ob es schon diesen einen Moment, diese eine Rückmeldung gab, bei er dachte: Okay, das ist jetzt mehr als nur Software, das hilft wirklich, antwortete Chris: „Ja. Ein Tester schrieb mir: ,Ich habe gemerkt, dass ich abends nicht mehr so viel grüble, weil ich Dinge vorher loswerde.‘ Das war der Moment, in dem mir klar wurde: Das ist kein Gimmick. Die App hat kein Problem gelöst, aber sie hat einen Menschen entlastet. Und manchmal ist genau das der Unterschied zwischen Einsamkeit und Resonanz.“
Echte Freundschaft per Algorithmus?
In Klosterlechfeld entsteht gerade der Versuch, Technologie wieder menschlich zu machen – weg von SEO und Klickzahlen, hin zu einer KI, die „Resonanz“ erzeugt. Ob ein Algorithmus echte Freundschaft ersetzen kann? Das bleibt eine philosophische Frage. Aber für den Moment, in dem sonst niemand zuhört, hat Chris Wagner zumindest eine Antwort parat.
8,5 Mio. Euro für HealthTech-Start-up microsynetics
Microsynetics wurde 2019 von Marlon Besuch und Michael Hummels gegründet. Getrieben von persönlichen Erfahrungen in ihren Familien entwickeln sie unter der Marke Gardia mobile Notruflösungen für ältere Menschen.
Jetzt hat microsynetics erfolgreich eine Series-A-Finanzierungsrunde in Höhe von 8,5 Mio. Euro für Gardia - sein mobiles Notrufsystem – abgeschlossen. Die Runde wird vom europäischen Venture-Capital-Investor Peak angeführt, mit Beteiligung von amberra, dem Corporate Venturing Studio der genossenschaftlichen FinanzGruppe sowie butterfly & elephant, der Accelerator von GS1 Germany. Auch die bestehenden Investoren BONVENTURE, Dieter von Holtzbrinck Ventures (DvH Ventures) und Beurer sowie Business Angels beteiligen sich erneut.
Notrufarmband mit automatischer Sturzerkennung
Gardia ist ein mobiles Notrufsystem, das speziell auf die Bedürfnisse von Senior*innen zugeschnitten ist. Kern der Lösung ist ein Notrufarmband mit automatischer Sturzerkennung, das sowohl zu Hause als auch unterwegs funktioniert, unabhängig von einem Smartphone. Hardware, Software, App und KI-Algorithmus stammen vollständig aus eigener Entwicklung.
„Zuverlässige Sturzerkennung erfordert eine technologisch hochkomplexe und präzise Entwicklung“, sagt Marlon Besuch, Mitgründer und CEO von microsynetics. „Gleichzeitig sehen wir, dass viele bestehende Notrufsysteme im Alltag nicht genutzt werden, weil sie stigmatisierend wirken oder zu kompliziert sind. Unser Anspruch war es daher, eine technisch exzellente Lösung zu entwickeln, die Menschen gerne tragen und die im Ernstfall verlässlich hilft.“
Gardia hat im DACH-Raum laut Unternehmensangaben eine fünfstellige Zahl aktiver Nutzer*innen erreicht und eine führende Position im Markt für mobile Notrufsysteme aufgebaut. Treiber des Wachstums sind die hohe Nutzerbindung sowie die vollständige Erstattungsfähigkeit durch deutsche Krankenkassen.
„Gardia adressiert ein wachsendes gesellschaftliches Problem mit einem Produkt, das zuverlässig funktioniert und im Alltag akzeptiert wird", sagt David Zwagemaker, Partner bei Peak. „Überzeugt hat uns, dass Gardia Technologie, Design und Nutzerakzeptanz von Beginn an zusammendenkt und damit eine skalierbare Lösung schafft, die Senioren ein sicheres und selbstbestimmtes Leben ermöglicht."
Demografischer Wandel fordert innovative Notrufsysteme-Lösungen
Der demografische Wandel führt zu einem steigenden Bedarf an entsprechenden Lösungen. In der EU wird die Zahl der Menschen über 65 Jahren in den nächsten zehn Jahren von heute 97 Mio. auf über 110 Mio. steigen. In Deutschland, wo 96 Prozent der Senior*innen in privaten Haushalten leben, spitzt sich der Fachkräftemangel in der Pflege weiter zu.
Jährlich ereignen sich etwa 5,7 Mio. Stürze bei Senior*innen über 65 Jahren, wobei viele nicht selbständig aufstehen oder Hilfe rufen können. Verzögerte Hilfe erhöht das Risiko für schwere Folgeschäden und Pflegebedürftigkeit. Ein verlässliches Sicherheitsnetz für selbständig lebende Menschen wird entscheidend sein, um das Gesundheitssystem zu entlasten.
Auf Wachstums- und Ausbaukurs
Mit dem Kapital aus der Series-A plant microsynetics mit Gardia im DACH-Raum weiter zu wachsen, international zu expandieren und sein B2B-Geschäft im Pflege- und Gesundheitssektor auszubauen. Das Wachstum wird durch eine Partnerschaft mit Bosch gestützt, die eine 24/7-Notrufbetreuung durch geschulte Fachkräfte sicherstellt. Diese bearbeiten Notfälle nach individuell definierten Prozessen, einschließlich klarer Eskalations- und Kontaktketten. Parallel arbeitet das Unternehmen an der nächsten Generation seines Notrufsystems.
Wie Flexibilisierung zum Gamechanger der Energiebranche wird
encentive-CEO Nicolás Juhl im Interview: Wo die größten Hebel der Energiewende liegen, wie schwierig es ist, als Start-up in industrielle Kernprozesse vorzudringen und wie KI im Energiesektor überzeugen kann.
Die Energiewende ist längst kein Zukunftsthema mehr, sondern tägliche Realität für Wirtschaft, Politik und Verbraucher. Während der Ausbau erneuerbarer Energien sichtbar voranschreitet, bleiben anderswo zentrale Fragen oft unbeantwortet: Wie wird aus politischen Ideen wie dem Industriestrompreis ein verlässliches, zukunftsorientiertes System? Und welche Rolle spielen junge Technologieunternehmen dabei?
Das Start-up encentive setzt genau an dieser Stelle an. Statt neue Hardware zu bauen, entwickelt das Team Software, die industrielle Stromverbräuche intelligent steuert und damit neue Spielräume im Energiesystem eröffnet. Ein Ansatz, der gleichermaßen Industrie, Energieversorger und Investoren aufhorchen lässt.
Im Interview spricht CEO Nicolás Juhl darüber, warum die größten Hebel der Energiewende nicht ausschließlich auf dem Acker oder dem Dach liegen, wie schwierig es ist, als Start-up in industrielle Kernprozesse vorzudringen und weshalb Künstliche Intelligenz im Energiesektor nur dann überzeugt, wenn sie messbare Ergebnisse liefert.
Nicolás Juhl, was macht den Einsatz von KI in industriellen Energieprozessen so komplex und warum haben sich hier bisher nur wenige Start-ups erfolgreich durchgesetzt?
Der Einsatz von KI im industriellen Energiemanagement ist deutlich komplexer als in vielen anderen Bereichen. Wirklich wirksam wird KI in der Industrie erst dann, wenn sie mehr kann als reines Monitoring oder Analyse. Sie muss direkt im Maschinenraum ansetzen und Industrieanlagen automatisch steuern können. Dafür braucht es ein tiefes Verständnis gleich mehrerer Welten: der industriellen Anlagen, der Produktionsprozesse, des Energiesystems und gleichzeitig hochentwickelte Software- und KI-Kompetenz. Diese Kombination ist selten. Viele Start-ups bleiben deshalb bei Dashboards stehen. Der eigentliche Mehrwert entsteht aber erst dort, wo KI aktiv eingreift und genau diese Hürde haben bislang nur wenige erfolgreich genommen.
Viele Diskussionen zur Energiewende drehen sich um neue Kraftwerke, Netze oder Speicher. Wo sehen Sie heute die größten strukturellen Engpässe im Energiesystem und warum werden sie in der öffentlichen Debatte oft übersehen?
Durch den wachsenden Anteil erneuerbarer Energien ist das Energiesystem heute deutlich volatiler geworden. Es gibt Phasen mit sehr viel Strom und niedrigen Preisen – und andere, in denen Energie knapp ist. Das führt zu Netzüberlastungen auf der einen und Versorgungsengpässen auf der anderen Seite. Politisch wird aktuell stark auf neue Gaskraftwerke als Absicherung gesetzt. Kurzfristig ist das verständlich, langfristig löst es das Problem aber nicht. Der zentrale Hebel liegt auf der Verbraucherseite: Energie muss dann genutzt werden, wenn sie verfügbar und günstig ist. Flexible Stromnutzung, unterstützt durch Speicher und Puffermöglichkeiten, ist aus unserer Sicht der nachhaltigste Weg. Viele Unternehmen haben das bereits erkannt.
Industrieunternehmen gelten als träge, sicherheitsgetrieben und wenig experimentierfreudig. Wie gelingt es einem jungen Unternehmen wie encentive, in kritische Prozesse großer Industrieanlagen vorzudringen?
Dieses Bild trifft nicht pauschal zu. Es gibt viele sehr innovationsorientierte Industrieunternehmen, die aktiv nach Lösungen suchen, weil Energie inzwischen ein zentraler Wettbewerbsfaktor geworden ist. Bei eher konservativ aufgestellten Unternehmen ist Vertrauen entscheidend. Das entsteht durch intensive Gespräche, durch unser Team, das teilweise selbst aus der Industrie kommt, und durch transparente Kommunikation. Zudem arbeiten wir schrittweise: Häufig starten wir mit einem Pilotstandort und rollen die Lösung dann auf weitere Werke aus. Referenzen aus der gleichen Branche helfen zusätzlich, die Einstiegshürde zu senken.
Auch Energieversorger stehen unter Transformationsdruck, ihr Geschäftsmodell weiterzuentwickeln. Welche Rolle können digitale Lösungen dabei spielen und was erwarten Versorger heute konkret von Technologiepartnern?
Energieversorger verfügen über stabile Kundenbeziehungen, stehen aber zunehmend unter Druck, innovative Lösungen anzubieten – insbesondere im Bereich Flexibilität. Kunden erwarten heute mehr als reine Energiebelieferung. Digitale Lösungen ermöglichen es Versorgern, ihr Portfolio schnell zu erweitern, ohne alles selbst entwickeln zu müssen. Wir stellen unsere Plattform als Lösung zur Verfügung und entlasten sie so bei Entwicklung und Betrieb. Im Gegenzug erwarten Versorger von Technologiepartnern vor allem Zuverlässigkeit, Integration in bestehende Prozesse und Unterstützung im Vertrieb. Genau das setzen wir bereits erfolgreich mit ersten Partnern um.
Für viele Investoren wirkt der Energiesektor gleichzeitig hochrelevant und schwer zugänglich. Was müssen Kapitalgeber verstehen, wenn sie in Software-basierte Lösungen für die Energiewende investieren wollen?
Investoren sollten genau prüfen, ob eine Lösung echten strukturellen Impact hat oder nur ein kurzfristiges Optimierungstool ist. Entscheidend ist, ob das Geschäftsmodell auch unter zukünftigen Markt- und Regulierungsbedingungen relevant bleibt. Softwarelösungen, die aktiv ins System eingreifen, flexibel skalierbar sind und reale wirtschaftliche Anreize schaffen, haben aus unserer Sicht die besten Chancen. Die Energiewende ist kein kurzfristiger Trend, sie verändert das System dauerhaft.
Blick nach vorn: Wenn wir in fünf bis zehn Jahren auf das heutige Energiesystem zurückschauen: Welche Veränderungen würden Sie als echten Durchbruch bezeichnen, und welchen Beitrag kann die Start-up-Szene dazu leisten?
Ein echter Durchbruch ist erreicht, wenn flexibler Energieverbrauch in Industrie und bei Endverbrauchern der Standard ist. Wenn es selbstverständlich ist, dass Verbrauch, Erzeugung und Preise intelligent aufeinander abgestimmt werden. Die Start-up-Szene kann dazu beitragen, indem sie pragmatische, skalierbare Geschäftsmodelle entwickelt und eng mit etablierten Akteuren zusammenarbeitet. Gleichzeitig ist es wichtig, gemeinsam mit Politik und Regulierung Rahmenbedingungen zu schaffen, die Flexibilität belohnen. Nur so kann aus Innovation echte Systemveränderung werden.
Highspeed-Pivot: Wie POLARIS die Bundeswehr für sich gewann
Ein Bremer NewSpace-Start-up baut für die Bundeswehr das Raumflugzeug der Zukunft. Mit seinem revolutionären Antrieb sticht POLARIS dabei sogar die US-Konkurrenz aus und fungiert zugleich als Eisbrecher für die deutsche DeepTech-Szene.
Wenn Alexander Kopp über die Ostsee blickt, sieht er nicht nur Wasser, sondern die Zukunft der europäischen Souveränität. Während in Berlin oft über die Trägheit der Beschaffungswesen geklagt wird, lässt der Gründer von POLARIS Raumflugzeuge Fakten sprechen – oder besser gesagt: Triebwerke heulen.
Das DLR-Spin-off schafft gerade, woran Konzerne seit Jahrzehnten scheitern: Ein Raumflugzeug zu bauen, das wie ein normaler Airliner startet, aber die Leistung einer Rakete besitzt. Und noch etwas ist ungewöhnlich in der deutschen Start-up-Landschaft: Der erste große Kunde, der die Bremer „Tüftler“ finanziert, ist kein Risikokapitalgeber aus dem Silicon Valley, sondern das Beschaffungsamt der Bundeswehr.
Der Traum vom Aerospike
Was das Team um den ehemaligen DLR-Ingenieur Kopp antreibt, ist der Abschied von der teuren Einweg-Mentalität der Raumfahrt. Seine Strategie ist eine radikale Flucht nach vorn: „Wenn wir im Wettbewerb bestehen wollen, uns vielleicht sogar an die Spitze setzen wollen, müssen wir die Raketen überspringen“, erklärte Kopp gegenüber dem Magazin 1E9. „Wir müssen direkt neue, bessere Konzepte umsetzen. Keine Raketen, sondern Raumflugzeuge.“
Der technologische Schlüssel, um diese Vision Realität werden zu lassen, ist das sogenannte Linear Aerospike-Triebwerk. Es gilt als der „Heilige Gral“ der Raketentechnik, an dem sich schon die NASA in den 90er Jahren die Zähne ausbiss. Das Problem herkömmlicher Raketendüsen ist ihre Glockenform – sie sind physikalisch bedingt entweder nur am Boden oder im All effizient, nie beides gleichzeitig.
Das Aerospike-Triebwerk hingegen ist ein technologisches Chamäleon: Durch seine offene, stachelförmige Bauweise passt sich der Abgasstrahl automatisch dem Luftdruck an. Es arbeitet auf dem Rollfeld genauso effizient wie im Vakuum. Dass das nicht nur graue Theorie ist, bewies Polaris im Oktober 2024: Mit dem Demonstrator „MIRA II“ gelang dem Start-up über der Ostsee die weltweit erste Zündung eines solchen Triebwerks im Flug.
Bootstrapping in Feldgrau
Diese Mischung aus „Rapid Prototyping“ – also dem schnellen Bauen, Testen und Verbessern – und technologischer Exzellenz kam genau zur richtigen Zeit für die Strategen der Bundeswehr. Berührungsängste mit dem Uniformträger hat der Gründer dabei nicht, im Gegenteil. „Wenn man sich die Historie der Raumfahrt anschaut, kamen die Durchbrüche meist direkt oder indirekt durch das Militär“, ordnete Kopp die Zusammenarbeit im Business Insider pragmatisch ein.
Denn beim Militär treibt man das Thema „Responsive Space“ voran. Das Szenario ist so simpel wie bedrohlich: Im Konfliktfall werden eigene Aufklärungssatelliten zerstört oder geblendet. Mit dem System von POLARIS, dessen finales Modell „Aurora“ ab 2026 produziert werden soll, könnte Deutschland binnen 24 Stunden Ersatz-Satelliten in den Orbit schießen. Und zwar von jedem normalen Flughafen aus, ohne auf verwundbare Startrampen angewiesen zu sein. Für POLARIS wurde das Militär so vom reinen Geldgeber zum strategischen Anker-Kunden, der dem Start-up den nötigen „Runway“ verschafft – finanziell wie physisch.
Ein Eisbrecher für die deutsche DeepTech-Szene
POLARIS operiert dabei längst nicht mehr im luftleeren Raum. Der Erfolg der Bremer sendet ein Signal in den Markt, das weit über das eigene Unternehmen hinausstrahlt: Der Staat ist bereit, in junge High-Tech-Firmen zu investieren, wenn die Technologie „Dual-Use“ ist, also zivil und militärisch genutzt werden kann.
Davon profitieren Start-ups wie das Münchner Unternehmen OroraTech, deren Waldbrand-Satelliten im Ernstfall schnell ersetzt werden müssten – eine perfekte Fracht für Polaris. Auch im Bereich der Datenverarbeitung entstehen Synergien: Wenn ein Hyperschall-Flieger Terabytes an Aufklärungsdaten sammelt, braucht es KI-Lösungen von Firmen wie dem Defense-Einhorn Helsing, um diese Informationen in Echtzeit auszuwerten. POLARIS wirkt hier wie ein Eisbrecher, der validiert, dass „Made in Germany“ auch im neuen „Space Race“ eine Währung ist.
Denn die Konkurrenz schläft nicht. In den USA pumpen das Pentagon und die Air Force Millionen in Wettbewerber wie Hermeus oder Stratolaunch, und China arbeitet mit Hochdruck am Projekt „Tengyun“. Doch während im Silicon Valley oft noch an Simulationen gefeilt wird, haben die Bremer mit ihrem fliegenden Aerospike-Triebwerk einen Vorsprung, der sich mit Geld allein schwer aufholen lässt. Aus der visionären Idee in einem Bremer Büro ist ein Projekt von nationaler Tragweite geworden. Wenn Alexander Kopps Plan aufgeht, schauen die Amerikaner beim nächsten Wettlauf ins All nicht nach oben, sondern in den Rückspiegel.
Globaler Wettbewerb: Polaris vs. US-Konkurrenz
Merkmal | Polaris Raumflugzeuge (Deutschland) | Hermeus (USA) | Stratolaunch (USA) |
Haupt-Fahrzeug | Aurora (in Entwicklung) | Quarterhorse (Demo) / Darkhorse | Talon-A |
Start-Methode | Horizontal (Startbahn) | Horizontal (Startbahn) | Air-Launch (Abwurf vom Trägerflugzeug „Roc“) |
Antrieb | Linear Aerospike (Rakete) + Turbinen | TBCC (Turbine + Ramjet) | Flüssig-Raketentriebwerk (Konventionell) |
Haupt-Mission | Multimission: Satellitenstart (Orbit) + Hyperschall-Test/Aufklärung | Transport: Passagier/Fracht (Point-to-Point) + Militär | Testbed: Zielsimulation & Testplattform für US-Militär |
Wiederverwendbar? | Ja (System landet wie Flugzeug) | Ja | Ja (landet gleitend auf Landebahn) |
Aktueller Status | Fliegend: Skalierte Demonstratoren (MIRA) erfolgreich getestet. | Boden-Tests: Triebwerkstests erfolgreich, Rolltests ("Taxiing"). | Operativ: Talon-A hat bereits motorisierte Hyperschallflüge absolviert. |
Finanzierung | Bundeswehr (BAAINBw) & Private Investoren | US Air Force, Pentagon (DIU) & Venture Capital | Private Equity (Cerberus Capital Management) |
4,1 Mio. Euro für Berliner Cybersecurity-Start-up enclaive
Der 2022 gegründete Berliner Cybersecurity-Anbieter ermöglicht es Unternehmen mit seiner Multi-Cloud-Plattform, sensible Daten und Anwendungen zuverlässig zu schützen, ohne ihren Code, ihre Tools oder ihre Prozesse anpassen zu müssen.
Das auf Cloud-Sicherheit spezialisierte Start-up enclaive hat den Abschluss seiner Seed-Finanzierung bekannt gegeben. Insgesamt fließen 4,1 Mio. Euro in das 2022 gegründete Unternehmen. Als Lead-Investoren treten der Berliner VC Join Capital sowie der Deep-Tech-Investor Amadeus APEX Technology Fund auf. Zudem beteiligte sich der französische Fonds Auriga Cyber Ventures an der Runde.
Schutz für Daten während der Verarbeitung
Hintergrund der Finanzierung ist die wachsende Nachfrage nach Sicherheitslösungen für Multi-Cloud-Umgebungen. Während Daten bei der Übertragung (in transit) und Speicherung (at rest) heute standardmäßig verschlüsselt sind, stellt die Verarbeitung der Daten – die sogenannte „letzte Meile“ – oft noch eine Sicherheitslücke dar. Um Daten zu bearbeiten, müssen diese in der Regel unverschlüsselt im Arbeitsspeicher vorliegen.
Hier setzt enclaive mit seiner Multi-Cloud Platform (eMCP) an. Das Start-up nutzt die Technologie des Confidential Computing, bei der sensible Daten und Anwendungen in hardware-basierten, isolierten Umgebungen (Enklaven) verarbeitet werden. Der technische Ansatz von enclaive zielt darauf ab, diese komplexe Technologie für Unternehmen einfacher nutzbar zu machen. Laut Unternehmensangaben ermöglicht die Plattform den Betrieb von Anwendungen – von Kubernetes-Clustern bis zu KI-Modellen – in solchen geschützten Enklaven, ohne dass der Programmcode oder bestehende Prozesse angepasst werden müssen.
Antwort auf regulatorische Hürden
Die Technologie adressiert ein zentrales Problem europäischer Unternehmen: Die Nutzung US-amerikanischer Cloud-Infrastrukturen bei gleichzeitiger Einhaltung strenger EU-Datenschutzvorgaben.
Ion Hauer, Principal bei APEX Ventures, sieht in der Technologie daher auch eine geopolitische Relevanz: „Gesetzliche Vorgaben wie der US Cloud Act ermächtigen US-amerikanische Behörden dazu, die Herausgabe von Daten unabhängig vom Standort des Servers zu fordern. Confidential Computing ist die technische Antwort auf diese politische Anforderung: Auch wenn die Daten eingefordert werden, bleiben sie verschlossen.“
Kapital für Expansion und Produktentwicklung
Das frische Kapital soll laut CEO und Mitgründer Andreas Walbrodt primär in drei Bereiche fließen:
- Produktentwicklung: Erweiterung des Funktionsumfangs der Plattform.
- Teamaufbau: Insbesondere in den Bereichen Engineering und Operations soll das aktuell 20-köpfige Team wachsen.
- Vertrieb: Beschleunigung der Marketingaktivitäten und Vorantreiben der Internationalisierung.
Mitgründer und CTO Prof. Sebastian Gajek betont den Fokus auf eine schnelle Implementierung: „Wir haben die Software-Ebene entwickelt, mit der sich diese Technologie binnen weniger Tage – und nicht erst nach Monaten – implementieren lässt.“
Das Unternehmen positioniert sich damit in einem Markt, der durch die zunehmende Verbreitung von KI-Anwendungen und die damit verbundene Notwendigkeit, sensible Trainingsdaten in der Cloud zu schützen, stark an Dynamik gewinnt.
Die Wächter des Firmengedächtnisses
Wie das 2025 von Christian Kirsch und Stefan Kirsch gegründete Start-up amaiko den Strukturwandel im Mittelstand adressiert.
Der demografische Wandel und eine erhöhte Personalfluktuation stellen mittelständische Unternehmen zunehmend vor die Herausforderung, internes Know-how zu bewahren. Viele Unternehmen stehen vor der Schwierigkeit, dass Firmenwissen fragmentiert vorliegt. Informationen sind häufig in unterschiedlichen Systemen oder ausschließlich in den Köpfen der Mitarbeitenden gespeichert. Verlassen langjährige Fachkräfte den Betrieb in den Ruhestand oder wechseln jüngere Arbeitnehmerinnen und Arbeitnehmer kurzfristig die Stelle, gehen diese Informationen oft verloren. Zudem bindet die Suche nach relevanten Dokumenten in verwaisten Ordnerstrukturen Arbeitszeit, die in operativen Prozessen fehlt.
Das 2025 gegründete Start-up amaiko aus Niederbayern setzt hierbei auf einen technischen Ansatz, der auf die Einführung neuer Plattformen verzichtet und stattdessen eine KI-Lösung direkt in die bestehende Infrastruktur von Microsoft Teams integriert. Vor diesem Hintergrund entwickelten die Brüder Christian und Stefan Kirsch mit amaiko eine Softwarelösung, die spezifisch auf die Ressourcenstruktur mittelständischer Betriebe ausgelegt ist.
Integration statt neuer Insellösungen – und die Abgrenzung zu Copilot
Ein wesentliches Merkmal des Ansatzes ist die Entscheidung gegen eine separate Software-Plattform. Christian Kirsch, Geschäftsführer von PASSION4IT und amaiko, positioniert die Lösung als „Teams-native“. Das bedeutet, dass der KI-Assistent technisch in Microsoft Teams eingebettet wird – jene Umgebung, die in vielen Büros bereits als primäres Kommunikationswerkzeug dient. Ziel ist es, die Hürden bei der Implementierung zu senken, da Nutzer ihre gewohnte Arbeitsumgebung nicht verlassen müssen.
Angesichts der Tatsache, dass Microsoft mit dem „Microsoft 365 Copilot“ derzeit eine eigene, tief integrierte KI-Lösung ausrollt, stellt sich die Frage nach der Positionierung. Christian Kirsch sieht hier jedoch keine direkte Konkurrenzsituation, sondern eine klare Differenzierung: Copilot sei eine sehr breite, Microsoft-zentrische KI-Funktion. Amaiko hingegen verstehe sich als spezialisierter, mittelstandsorientierter Wissensassistent, der Beziehungen, Rollen, Prozesse und Unternehmenslogik tiefgreifend abbildet.
Ein entscheidender Vorteil liegt laut Kirsch zudem in der Offenheit des Systems: „Während Copilot naturgemäß an Microsoft‑Systeme gebunden ist, lässt sich amaiko herstellerunabhängig in eine viel breitere Softwarelandschaft integrieren – vom ERP über CRM bis zu Branchenlösungen. Unser Ziel ist nicht, Copilot zu kopieren, sondern reale Mittelstandsprozesse nutzbar zu machen“, so der Co-Founder.
Funktionsweise, Sicherheit und Haftung
Funktional unterscheidet sich das System von herkömmlichen Suchmasken durch eine agentenähnliche Logik. Die Software bündelt Wissen aus internen Quellen wie Richtlinien oder Projektdokumentationen und stellt diese kontextbezogen zur Verfügung. Ein Fokus liegt dabei auf der Datensouveränität. Hierbei betont Christian Kirsch, dass Kundendaten nicht in öffentlichen Modellen verarbeitet werden: „Die Modelle laufen in der europäischen Azure AI Foundry, unsere eigenen Dienste auf deutschen Servern. Die Daten des Kunden bleiben on rest vollständig im jeweiligen Microsoft‑365‑Tenant. Es findet kein Training der Foundation Models mit Kundendaten statt – weder bei Microsoft noch bei uns. Grundlage dafür sind die Azure OpenAI Non‑Training Guarantees, die Microsoft in den Product Terms sowie in SOC‑2/SOC‑3‑ und ISO‑27001‑Reports dokumentiert.“
Auch rechtlich zieht das Start-up eine klare Grenze, sollte die KI einmal fehlerhafte Informationen, sogenannte Halluzinationen, liefern. „Amaiko generiert Vorschläge, keine rechts‑ oder sicherheitsverbindlichen Anweisungen. Das stellen wir in unseren AGB klar: Die Entscheidungshoheit bleibt beim Unternehmen. Wir haften für den sicheren Betrieb der Plattform, nicht für kundenseitig freigegebene Inhalte oder daraus abgeleitete Maßnahmen. Es geht um eine saubere Abgrenzung – technische Verantwortung bei uns, inhaltliche Verantwortung beim Unternehmen“, so Christian Kirsch.
Geschäftsmodell und Markteintritt
Seit der Vorstellung der Version amaiko.ai im Juli 2025 wird das System nach Angaben des Unternehmens mittlerweile von über 200 Anwendern genutzt. Durch die Integration in die bestehende Microsoft-365-Landschaft entfällt für mittelständische Kunden eine aufwendige Systemmigration, was die technische Eintrittsbarriere gering hält.
Passend zu diesem Ansatz ist amaiko als reines SaaS-Produkt konzipiert, das Unternehmen ohne Einstiegshürde direkt online buchen können. Laut Kirsch sind keine Vorprojekte, individuellen Integrationspfade oder teuren Beratungspflichten notwendig: „Die Nutzung ist selbsterklärend und leichtgewichtig. Wer zusätzlich Unterstützung möchte – etwa zur Wissensstrukturierung oder Governance – kann sie bekommen. Aber die technische Einführung selbst ist bewusst so gestaltet, dass Mittelständler ohne Implementierungsaufwand starten können.“
Unterm Strich liefert amaiko damit eine pragmatische Antwort auf den drohenden Wissensverlust durch den demografischen Wandel: Statt auf komplexe IT-Großprojekte zu setzen, holt das bayerische Start-up die Mitarbeitenden dort ab, wo sie ohnehin kommunizieren. Ob sich die „Teams-native“-Strategie langfristig gegen die Feature-Macht von Microsoft behauptet, bleibt abzuwarten – doch mit dem Fokus auf Datensouveränität und mittelständische Prozesslogik hat amaiko gewichtige Argumente auf seiner Seite, um sich als spezialisierter Wächter des Firmengedächtnisses zu etablieren.
WordPress-Newsletter-Plugins: Funktionen, Preise und Unterschiede im Überblick
Newsletter zählen nicht grundlos zu den ältesten und nach wie vor effektivsten Marketinginstrumenten im digitalen Kosmos. Sie ermöglichen Unternehmen einen direkten Draht zur Zielgruppe, können auf saisonale und besondere Angebote aufmerksam machen und die Bestandskundenbindung stärken. Damit all das nicht zu viel Zeit kostet, lohnt es sich, den Prozess zumindest teilweise zu automatisieren.
Newsletter-Marketing mit WordPress-basierten Seiten
Mit WordPress und Newslettern arbeiten zwei digitale Urgesteine quasi Hand in Hand. Wird noch dazu ein geeignetes Plugin für das Newsletter-Management gewählt, ergeben sich neben vorteilhaften Synergien zugleich effizientere Prozesse. Grundsätzlich sollten solche Plugins mindestens Funktionen zur Erfassung der Abonnenten, zur Verwaltung von Mailinglisten sowie zur eigentlichen Erstellung und dem anschließenden Versand digitaler Nachrichten bieten. Speziell für kleine und mittelständische Unternehmen sowie Einsteiger sollte die Benutzeroberfläche intuitiv verständlich und damit leicht zu bedienen sein. Außerdem lohnt es sich auch, auf etablierte und vertrauenswürdige Anbieter zu setzen: Erst kürzlich zeigte eine Sicherheitslücke in einem WordPress-Plugin, wie anfällig Webseitenbetreiber sind, wenn sie bei der Auswahl ihrer Plugins zu fahrlässig vorgehen.
Speziell für deutsche Unternehmen ist es außerdem essentiell, dass das genutzte Plugin DSGVO-konform ist. Dazu zählen transparente Abmeldefunktionen ebenso wie die Möglichkeit, das vorgeschriebene Double-Opt-in-Verfahren möglichst automatisiert zu implementieren.
Wirtschaftliche Faktoren berücksichtigen
Hohe Conversion-Raten sind auch im Newsletter-Marketing keine Selbstverständlichkeit, sondern müssen von Unternehmen und Werbetreibenden aktiv erarbeitet werden. Allein aus diesem Grund sollte der zweite Blick direkt auf die Preisstruktur des Plugins gerichtet werden. Entscheidend sind dabei zwei Fragen: Wie viel kostet der Versand der Newsletter in einer bestimmten Größenordnung, beispielsweise per 5.000 Mails, und wie viele Kontakte lassen sich mit dem Preismodell ganzheitlich erreichen? Ein Vergleich der verfügbaren und etablierten WordPress-Newsletter-Plugins kann dahingehend Klarheit schaffen.
Die wirtschaftlichen Rahmenbedingungen spielen eine zentrale Rolle, da nicht jeder versandte Newsletter von allen Empfängern gelesen wird. Entsprechend ist es für Newsletter-Marketer zuletzt schwieriger geworden, ihre Zielgruppen effizient zu erreichen. Neue, KI-gestützte Funktionen in Googles Gmail verdeutlichen, dass auch bei etablierten Marketinginstrumenten ein flexibles und agiles Vorgehen notwendig bleibt, um erfolgreich zu sein.
Worin unterscheiden sich die Optionen zum Newsletter-Marketing?
Grundsätzlich müssen Unternehmen zunächst entscheiden, ob sie solche Plugins selbst hosten oder mit externen Diensten inklusive WordPress-Anbindung zusammenarbeiten. Eigenständig gehostete Lösungen gehen mit einem höheren technischen Aufwand einher, bieten im Gegenzug jedoch maximale Kontrolle über die Daten. Bei externen Diensten ist nicht nur das Setup in der Regel einfacher, sondern auch der laufende Wartungsaufwand fällt deutlich geringer aus.
Welche Variante sich letztlich empfiehlt, hängt von mehreren Faktoren ab. Insbesondere die Größe der Mailliste sowie die Versandfrequenz der Newsletter spielen dabei eine zentrale Rolle. Darüber hinaus sollten Unternehmen im Vorfeld prüfen, welche Funktionen tatsächlich benötigt werden und welcher Automatisierungsgrad sinnvoll ist. Viele Plugins bieten zunächst kostenlose Basisversionen oder zumindest eine zeitlich begrenzte Testphase an. Diese Möglichkeiten eignen sich gut, um das jeweilige WordPress-Plugin kennenzulernen und zugleich zu prüfen, ob es zu den internen Arbeitsabläufen des Unternehmens passt.
Wie viel verdienen Twitch Streamer wirklich? Zahlen und Verdienstmöglichkeiten im Blick
Wer als passionierter Spieler noch nicht an eine Gaming Karriere gedacht hat, sollte dies jetzt nachholen: Schließlich ergeben sich aus dieser von Esport-Turnieren bis hin zum Streaming einige Verdienstmöglichkeiten. Creatoren verdienen mit der Echtzeit-Übertragung ihres Spielerlebnisses Geld. Was sich einfach anhört, kann für so manchen Spieler auch zum komplexen Unterfangen werden. Wie hoch der Streamer Verdienst in diesen Fällen ausfällt und welche Einnahmemöglichkeiten es für Twitch Streamer noch gibt, erfahren Sie hier.
Die Top 10 Twitch Streamer im Jahr 2025
„Es gewinnt nicht der beste Spieler, sondern der beste Entertainer.“ |
Auf Plattformen wie Twitch gilt: Die Community beeinflusst stark, wie viel Geld Streamer verdienen können. Wer eine starke Zuschauergemeinde aufbauen kann, freut sich in der Regel über ein höheres Einkommen – dabei spielt vor allem die Interaktion der Viewer eine zentrale Rolle.
Aktuell weisen diese top 10 Twitch Channels die höchsten Zuschauerzahlen vor:
Streamer | Durchschnittliche Zuschauerzahl | Follower |
126.449 | 19,8 Millionen | |
52.024 | 7,9 Millionen | |
46.844 | 3,3 Millionen | |
36.903 | 2,2 Millionen | |
29.320 | 2,2 Millionen | |
71.045 | 1,5 Millionen | |
31.839 | 1,5 Millionen | |
42.837 | 1,4 Millionen | |
34.996 | 1,1 Millionen | |
30.438 | 993.817 |
Geld verdienen mit Streaming: Diese Faktoren wirken sich auf Twitch Einnahmen aus
Die Twitch-Einnahmen der verschiedenen Streamer setzen sich aus unterschiedlichen Verdienstquellen zusammen. So können die Kontoinhaber Werbung in ihren Live-Übertragungen schalten, die ihnen je nach Zuschauerzahl und Länge der Werbepause einen kleinen bis mittleren Betrag einbringen. Hierbei handelt es sich jedoch um ein eher statisches Nebeneinkommen, das die meisten Streamer auch als nebensächlich empfinden. Den größeren Teil des Twitch Einkommens machen Abonnements und Spenden der Zuschauer aus, aber auch Sponsoring und Markenpartnerschaften.
Übrigens: Twitch Auszahlungen erfolgen automatisch via PayPal oder Banküberweisung, sofern ein gewisser Mindestbetrag erreicht wurde. In diesem Zusammenhang bieten mobile casinos, ähnlich wie Streaming-Plattformen, eine bequeme Möglichkeit für Spieler, jederzeit und überall zu spielen, ohne auf traditionelle Zahlungsmethoden angewiesen zu sein. Diese Art von Plattformen hat sich zu einer beliebten Option entwickelt, da sie den Nutzern schnelle Auszahlungen und einfache Handhabung bieten.
Twitch Daten Leak 2021: Das verdienen Top-Streamer
Ende 2021 wurde die bekannte Plattform Twitch gehackt. Bei einem Datenleck kam heraus, dass die 2014 von Amazon gekaufte Plattform kaum Sicherheitsvorkehrungen geschaffen hatte – weshalb große Teile des Programmiercodes sowie Login-Daten und Zahlen zum Streamer Verdienst veröffentlicht werden konnten. Zu sehen waren vor allem die Gesamteinnahmen der Top Spieler aus den Twitch Statistiken des Zeitraumes August 2018 bis Oktober 2021 in US-Dollar:
- CriticalRole: 9,6 Millionen
- xQc: 8,5 Millionen
- summit1g: 5,8 Millionen
- Tfue: 5,3 Millionen
- Nickmercs: 5,1 Millionen
Zum Vergleich: Der deutsche Twitch Streamer Marcel Eris (alias MontanaBlack88) hat über Twitch 2,4 Millionen US-Dollar eingenommen. Der Streamer MontanaBlack88 gehört zu den bestbezahlten deutschen Spielern auf Twitch.
Damit werden die großen Unterschiede zwischen den Verdiensten der Streamer aus Deutschland und den USA deutlich. Rund vier Millionen Deutsche verfolgen Twitch-Übertragungen – und das sogar täglich. In den USA liegt die tägliche Zuschauerzahl bei stolzen 35 Millionen Nutzern, sodass amerikanische Streamer auch einen deutlich größeren Markt bedienen und die Einkommensunterschiede nicht verwunderlich sind. MontanaBlack88 ist allerdings auch auf anderen Plattformen wie YouTube zu finden, sodass sein Gesamtverdienst womöglich deutlich höher liegt.
Gut zu wissen: Twitch Partner (von Twitch ausgewählte Streamer mit qualitativem Content) können sich über höhere Einnahmen freuen – etwa einen höheren Anteil aus dem Abonnenten-Verdienst.
Im Detail: So setzt sich der Verdienst zusammen
Wie eingangs erwähnt, verdienen Twitch Streamer vor allem durch Abonnenten einen großen Teil ihres Einkommens. Das Abonnement kostet Subscribern in der ersten Stufe 4,99 Euro – wovon Streamer in der Regel 50% (2,50 Euro) behalten dürfen. Dafür erhalten Abonnenten bestimmte Vorteile wie etwa die Möglichkeit, per Chat mit dem Streamer interagieren zu können. Wer also 1.000 Abonnenten hat, kann deshalb schon mit Einnahmen von 2.500 Euro monatlich rechnen.
Einen Großteil ihrer Einnahmen generieren Gaming-Streamer aber auch mit Hilfe von Subscriber-Spenden. Diese werden in Twitch Bits genannt und von der Plattform ausgezahlt. Die Spenden rufen bei einigen Streamern emotionale Reaktionen hervor, was wiederum mehr Menschen zum Spenden anregt.
Eine weitere Möglichkeit stellt Affiliate-Marketing dar: Streamer bewerben in dem Fall für ihre Zuschauer interessante Produkte in ihren Videos. Kaufen Zuschauer die Produkte, profitieren Streamer von einer Provision – die nicht selten 30% des Kaufbetrages ausmacht.
Sponsoren und Markendeals als größte Einnahmequelle für Streamer
An Streamer mit besonders hohen Zuschauer- und Followerzahlen treten oft auch bekannte Marken heran. Sie bezahlen die Gamer dafür, ihre Produkte im Live-Stream anzupreisen – beispielsweise Gaming-Peripherie oder Energy-Drinks. Soll dies über einen längeren Zeitraum geschehen, werden solche Marken oft auch zum Sponsor des Spielers, um ihre eigene Reichweite zu erhöhen.
Kosten und Abzüge: Dem steht der Streamer Gehalt in Deutschland gegenüber
Die genannten Streamer Gehälter stellen Brutto-Summen dar – also den Verdienst vor Abzug der deutschen Einkommens-, Umsatz- und Gewerbesteuer, sowie Sozialversicherungen. Wer all diese Beträge zusammenzählt, muss oft bis zu 45% seines Brutto-Einkommens an den Fiskus abführen. Doch damit nicht genug: Die meisten Twitch-Streamer müssen auch Chat-Moderatoren bezahlen, die für eine angenehme Atmosphäre unter den Kommentierenden sorgen und Community-Richtlinien durchsetzen.
Darüber hinaus wollen sich Zuschauer nur Streams ansehen, die eine hohe Qualität aufweisen. Um leistungsstark spielen und den Verlauf optimal übertragen zu können, brauchen Streamer bestimmtes Gaming-Equipment, das selbst zwischen 2.000 und 10.000 Euro kosten kann. Auch eine stabile Internetverbindung und die damit verbundenen Kosten sind zu bedenken.
Alternative Plattformen zur Diversifizierung
Um noch mehr Einkommen zu generieren, können passionierte Spieler ihre Streams allerdings zusätzlich auf anderen Plattformen veröffentlichen und monetarisieren – beispielsweise durch Werbung und Affiliate-Marketing. Zur Diversifizierung kommen Plattformen wie YouTube und Kick in Frage, die teilweise sogar bessere Konditionen bieten. Denn: Bei Kick werden Streamer zu 95% an den Einnahmen durch Abonnements beteiligt, was im Gegensatz zu Twitch deutlich attraktiver erscheint.
Schluss mit dem Chaos: Ein Leitfaden für effiziente Büroorganisation
Ein unaufgeräumter Schreibtisch, unauffindbare Dateien und ständige Zeitnot – für viele ist das der Arbeitsalltag. Dabei ist gute Büroorganisation kein Hexenwerk, sondern das Fundament für produktives und stressfreies Arbeiten. Eine Analyse bewährter Methoden von SoftGuide, einer Softwarevergleichsplattform für Unternehmen und Behörden, zeigt, wie man Struktur in den Arbeitsplatz bringt, von der analogen Ablage bis zum digitalen Ordner.
Büroorganisation ist weit mehr als nur „Aufräumen“
Es ist ein bekanntes Phänomen: Wer im Chaos versinkt, verliert nicht nur Dokumente, sondern vor allem Zeit und Nerven. Eine durchdachte Büroorganisation ist daher weit mehr als nur „Aufräumen“; sie ist ein strategisches Werkzeug zur Effizienzsteigerung. Basierend auf aktuellen Management-Methoden lassen sich klare Schritte definieren, um den Arbeitsplatz zu optimieren.
Das Fundament: Die 5S-Methode
Am Anfang jeder Neuorganisation steht ein systematischer Ansatz. Experten verweisen hierbei oft auf das sogenannte 5S-Modell, ein Kreislaufsystem für dauerhafte Ordnung:
1. Sortieren: Alles Unnötige wird gnadenlos aussortiert.
2. Systematisieren: Jedem verbliebenen Gegenstand wird ein fester Platz zugewiesen.
3. Säubern: Der Arbeitsplatz wird gereinigt und instand gehalten.
4. Standardisieren: Es werden Regeln festgelegt, damit die Ordnung bleibt.
5. Selbstdisziplin: Die Einhaltung der Standards muss zur Gewohnheit werden.
Der Schreibtisch: Zonen der Produktivität
Ein häufiger Fehler ist die wahllose Platzierung von Arbeitsmitteln. Eine effiziente Schreibtisch-Organisation unterteilt die Arbeitsfläche in Zonen, basierend auf der Nutzungshäufigkeit:
Zone 1: Griffbereit. In direkter Nähe sollten sich nur Dinge befinden, die täglich und ständig gebraucht werden, wie Tastatur, Maus, Telefon und das aktuell bearbeitete Dokument.
Zone 2: In Reichweite. Dinge, die regelmäßig, aber nicht permanent genutzt werden (Locher, Hefter, aktuelle Projektmappen), gehören in Schubladen oder Ablagen in Armlänge.
Zone 3: Archiv. Alles, was abgeschlossen ist oder selten benötigt wird, gehört in Schränke oder das Archiv – weg von der primären Arbeitsfläche.
Das Ziel ist der „Clean Desk“: Auf der Tischplatte liegt nur das, woran gerade gearbeitet wird.
Die digitale Herausforderung
Im modernen Büro verlagert sich das Chaos oft vom Schreibtisch auf die Festplatte. Hier gelten ähnliche Regeln wie in der physischen Welt. Eine logische **Ordnerstruktur** ist essenziell.
Ein Profi-Tipp für Dateinamen ist das vorangestellte Datum im Format `JJMMTT` (z.B. 231025_Rechnung_Müller*). Dies garantiert, dass Dateien chronologisch sortiert bleiben, egal wo sie gespeichert werden. Zudem sollte das E-Mail-Postfach nicht als To-Do-Liste missbraucht werden; Mails sollten bearbeitet, archiviert oder gelöscht werden („Inbox Zero“ Prinzip).
Zeitmanagement und Routinen
Ordnung im Raum schafft Ordnung im Kopf, doch auch die Zeit will verwaltet werden. To-Do-Listen helfen, den Überblick zu behalten, aber nur, wenn sie priorisiert werden. Nicht jede Aufgabe ist gleich wichtig.
Damit das neue System nicht nach einer Woche kollabiert, sind Routinen entscheidend. Eine einfache, aber wirkungsvolle Methode: Die letzten fünf bis zehn Minuten des Arbeitstages gehören dem Aufräumen. Wer seinen Schreibtisch abends leer hinterlässt, startet am nächsten Morgen motivierter und ohne Altlasten.
Ergonomie: Die Basis für Leistung
Organisation betrifft auch den Körper. Ein ergonomisch eingerichteter Arbeitsplatz verhindert Ermüdung und langfristige Gesundheitsschäden. Dazu gehören die richtige Einstellung der Bürostuhlhöhe, der passende Abstand zum Monitor (ca. eine Armlänge) und ausreichende Beleuchtung. Wer bequem und gesund sitzt, kann sich länger konzentrieren.
Fazit: Ordnung zahlt sich aus
Die Vorteile einer konsequenten Büroorganisation liegen auf der Hand. Suchzeiten werden drastisch reduziert, Arbeitsabläufe beschleunigt und der professionelle Eindruck gegenüber Kund*innen oder Kolleg*innen gestärkt. Vor allem aber schafft ein strukturierter Arbeitsplatz mentale Klarheit – und damit mehr Raum für die eigentlichen Aufgaben.
Businesserfolg in der digitalen Welt
Im StartingUp-Interview: Porträt- und Reportagefotograf Frank Lübke. Warum Business-Fotografie das Herzstück moderner Markenführung ist.
Die fortschreitende Digitalisierung hat nicht nur die Art und Weise verändert, wie wir kommunizieren, sondern auch, wie wir verkaufen. In diesem Kontext rückt ein Werkzeug in den Fokus, das lange Zeit unterschätzt wurde: die professionelle Business-Fotografie.
Darüber sprechen wir mit dem auf Business-Fotografie spezialisierten Fotografen Frank Lübke, der in namhaften Magazinen wie Stern, Focus und anderen nationalen und internationalen Magazinen publiziert.
Herr Lübke, Sie sind international als Fotograf für namhafte Unternehmen und Magazine tätig. Wenn man Ihr Portfolio betrachtet, erkennt man eine klare Handschrift. Welchen Rat geben Sie Unternehmer*innen, die den Wert von professionellen Bildern noch immer als rein dekorativ betrachten?
Mein dringender Rat lautet: Unterschätzt nicht die Macht qualitativ hochwertiger Bilder, besonders im Verkaufsbereich! Früher wurde die Corporate- und Business-Fotografie oft als zweitrangig wahrgenommen – ein nettes Extra, wenn noch Budget übrig war. Diese Einschätzung ist heute gefährlich. Starke Bilder sind der Motor für den Verkaufserfolg. Es geht darum, das volle Potenzial professioneller Business-Fotografie zu nutzen, um in einem übersättigten Markt überhaupt noch sichtbar zu sein.
Sie sprechen die Sichtbarkeit an. Inwiefern hat die Digitalisierung die Spielregeln für die visuelle Kommunikation verändert?
Die fortschreitende Digitalisierung hat die Methoden der Geschäftsführung und Vermarktung grundlegend reformiert. Es ist heute unumstritten, dass exzellente Aufnahmen eine Schlüsselrolle für den Erfolg im Vertrieb spielen. In einer Gesellschaft, die von schnellen Medien geprägt ist, haben wir keine Zeit mehr für lange Erklärungen. Bilder besitzen die Fähigkeit, die Identität eines Unternehmens präzise abzubilden – und das in Bruchteilen von Sekunden.
Das bedeutet, das Bild ist oft der erste echte Kontaktpunkt zwischen Kund*in und Marke?
Exakt. Die Aufnahmen dienen als entscheidender Berührungspunkt, über den Interessenten eine erste Vorstellung gewinnen. Da im Netz oft der erste Moment über das Kundeninteresse entscheidet, bildet professionelles Bildmaterial häufig die Grenze zwischen Ablehnung und einem erfolgreichen Abschluss. Wer hier spart, verliert den Kunden, bevor das erste Wort gewechselt wurde
Beispiele von Frank Lübkes Business-Fotografie
b2venture legt 150 Millionen Euro Fonds auf
b2venture, ein europäischer Early-Stage-Investor, hat Fonds V erfolgreich am Hard Cap von 150 Mio. Euro geschlossen, um gezielt in Frühphasen-Start-ups zu investieren.
b2venture wurde im Jahr 2000 gegründet und verfolgt seitdem einen klaren Ansatz: konsequent gründerorientierte und mit langfristiger Perspektive investieren. Fonds V setzt diese Linie fort und knüpft an das intergenerationale Modell an, bei dem erfolgreiche Gründer*innen selbst zu Investor*innen werden und ihre Erfahrung, Netzwerke und ihr Kapital an junge Gründungsteams weitergeben. Dieses Prinzip trägt inzwischen fünf b2venture-Fondsgenerationen und unterstreicht damit die Stärke und Skalierbarkeit des community-basierten Modells.
Starke Limited Partners und mehr als 350 AngelInvestor*innen
Jetzt legt b2venture den größten Fonds seiner 25-jährigen Geschichte auf und investiert mit Fonds V in skalierbare, resiliente Technologien sowie digitale Geschäftsmodelle in der Frühphase. b2ventures Fonds V baut auf eine starke, breit aufgestellte Investorenbasis: langjährige und neue Limited Partners wie Family Offices, institutionelle Investor*innen und high-net-worth Individuals. Viele von ihnen begleiten b2venture bereits über mehrere Fondsgenerationen hinweg. Zu den neuen Limited Partners zählen unter anderem Flexstone, der Schweizer Pensionsfonds Stiftung Abendrot, Portfolio-Unternehmer wie Thomas Hagemann (SevenSenders) sowie langjährige b2venture Super Angels wie Joachim Schoss.
Ein Alleinstellungsmerkmal der Investor*innenbasis ist eine starke Community aus über 350 erfahrenen Angel-Investoren, die den Fonds aktiv unterstützt. Die Angel-Investor*innen investieren gemeinsam mit b2venture und bringen ihre Erfahrung aus dem Aufbau und der Skalierung erfolgreicher Unternehmen ein.
25 Jahre Early-Stage-Erfahrung mit Community-Fokus
Seit mehr als 20 Jahren begleitet b2venture den Aufbau europäischer Tech-Unternehmen, darunter DeepL, 1KOMMA5°, Raisin, SumUp, Nelly und Urban Sports Club. Die Bilanz: mindestens ein Unicorn pro Fonds, 11 IPOs und die langfristige Begleitung hunderter Founder-Teams. Im Jahr 2025 verzeichnete b2venture einen IPO (Navan) und sieben weitere Exits, darunter Araris Biotech, Beekeeper sowie zuletzt Neptune (Übernahme durch OpenAI).
Erste Investments Fonds V
Mit Fonds V plant b2venture Investitionen in rund 35 Early-Stage-Startups in ganz Europa, mit Fokus auf skalierbare und langfristig tragfähige Technologien. Zu den ersten Investments von Fonds V gehören Unternehmen wie:
- Nautica Technologies, das autonome Schwarmroboter im Abonnementmodell zur Reinigung von Schiffsrümpfen anbietet,
- Hive Robotics, eine KI-gestützte Plattform für autonome Systeme, die eine nahtlose Zusammenarbeit zwischen Luft-, Land- und See-Einheiten ermöglicht,
- Augmented Industries, eine KI-gestützte Plattform, die Industriefachkräften hilft, komplexes Wissen dokumentieren und Probleme effizienter lösen sowie
- Assemblean, eine Production-as-a-Service-Plattform für die effiziente Fertigung komplexer Produkte.
Diese Investments unterstreichen den Fokus auf DeepTech sowie Industrie-, Automatisierungs- und Infrastrukturunternehmen – mit Fokus auf KI und Robotik.
„Venture Capital ist vor allem ein People Business“, sagt Jan-Hendrik Bürk, Partner bei b2venture. „Unsere Angel-Community spielt dabei eine zentrale Rolle: Sie unterstützt uns bei der Auswahl und Unterstützung von Teams, die langfristig erfolgreiche Tech-Companies aufbauen. Mit Fonds V stärken wir dieses Modell weiter, mit echter fachlicher Expertise und nicht nur mit Kapital.“
Co-reactive: 6.5 Mio. € Seed-Finanzierung für CO2-negative Baustofftechnologie
Das 2024 gegründete Düsseldorfer ClimateTech Start-up Co-reactive entwickelt eine Technologie, die CO₂ kontinuierlich mineralisiert und Emissionen in leistungsfähige CO₂-negative Zementersatzstoffe verwandelt.
Das 2024 gegründete ClimateTech Start-up Co-reactive aus NRW hat eine Seed-Finanzierungsrunde über insgesamt 6,5 Mio. € abgeschlossen. Mit dem Kapital soll die CO₂-Mineralisierungstechnologie des Unternehmens, die CO₂ nutzbar macht und nachhaltig als performante Baustoffe bindet, vom Prototyp zur industriellen Anwendung skaliert werden.
Die Runde wird vom HTGF angeführt. Darüber hinaus investieren NRW.Bank, HBG Ventures, AFI Ventures (der Frühphasen Impact Arm von Ventech), Evercurious VC sowie ein Netzwerk erfahrener Climate Tech Business Angels. Weitere Unterstützung erfährt das Unternehmen durch Förderungen wie der Bundesförderung Industrie und Klima (BIK) vom Bundesministerium für Wirtschaft und Energie (BMWE).
+++ Zum Weiterlesen: die Co-reactive-Gründer waren unsere StartingUp „Gründer der Woche“ – hier geht’s zum Beitrag +++
Co-reactive hat einen kontinuierlichen Prozess entwickelt, der CO₂ gemeinsam mit natürlichen Mineralien wie beispielsweise Olivin oder metallurgischen Schlacken (EAF & BOF) in CO₂-negative Supplementary Cementitious Materials (SCMs) umwandelt. Die Materialien ermöglichen eine signifikante Verringerung des Klinkeranteils in Zement und Baustoffen – und damit eine deutliche Reduktion ihres CO₂-Fußabdrucks. Gleichzeitig tragen sie zur Druckfestigkeit und Dauerhaftigkeit von Baustoffen bei. Die Lösung ist als Drop-in-Technologie konzipiert und lässt sich problemlos in bestehende Produktionsprozesse integrieren.
Damit adressiert Co-reactive zwei zentrale Herausforderungen der Branche:
- Hohe Emissionen: Die Zementproduktion verursacht rund acht Prozent der globalen CO₂-Emissionen. Mit steigender CO₂-Bepreisung drohen sich die Herstellungskosten in der kommenden Dekade zu verdoppeln.
- Rohstoffmangel: Klassische Zementersatzstoffe wie Flugasche und Hüttensand werden durch den Kohleausstieg und die Transformation der Stahlindustrie zunehmend knapp.
Mit der Seed-Finanzierung skaliert Co-reactive seinen derzeitigen Labor- und Pilotbetrieb zunächst in Q2 2026 auf eine durchgängig betriebene Demonstrationsanlage mit rund 1.000t Kapazität pro Jahr. Parallel bereitet das Unternehmen gemeinsam mit Industriepartnern First-of-a-Kind-Anlagen im Zehntausend-Tonnen-Maßstab vor, die ab 2027 biogene oder prozessbedingte CO₂-Ströme in der Zement- und Stahlindustrie vor Ort mineralisieren sollen.
„Förderung und Wissenschaft sind die Basis – echte Transformation entsteht erst durch unternehmerisches Handeln. Mit den richtigen Mitgründern und einem interdisziplinären Team bringen wir CO₂-Mineralisierung aus dem Labor in den industriellen Dauerbetrieb. Die Unterstützung unserer Finanzierungspartner mit dem HTGF als Lead Investor gibt uns die Schlagkraft, den Funktionsbeweis mit einer 1.000-t-Demonstrationsanlage zu liefern und die Skalierung gemeinsam mit der Industrie vorzubereiten. Wir bauen eine Lösung auf, die heute dringend gebraucht wird, damit sie morgen im industriellen Maßstab wirken kann“, so Dr.-Ing. Andreas Bremen, Mitgründer und CEO von Co-reactive.
Anna Stetter, Investment Manager, HTGF, betont: „Die Bauindustrie steht vor einem Wendepunkt: Klassische Zementersatzstoffe wie Hüttensand und Flugasche werden durch die Dekarbonisierung knapp und teuer – die Preise für Flugasche haben sich in den letzten zwei Jahren teilweise vervierfacht. Co-reactive bietet eine skalierbare Alternative, die nicht nur CO₂-negativ ist, sondern sich als Drop-in-Lösung in bestehende Prozesse integrieren lässt. Mit starken Unit Economics und einem erfahrenen Team aus Mineralisierungs- und Anlagenbauexperten hat Co-reactive das Potenzial, die Branche nachhaltig zu verändern.“

