Digitale Zettelwirtschaft: Gefahren durch Tool-Hoarding

Autor: David Padilla
44 likes

Warum Unternehmen die Gefahren des sog. Tool-Hoardings nicht unterschätzen sollten und wie sie dem Problem effizient und effektiv vorbeugen können.

In einer zunehmend digitalisierten Geschäftswelt ist der Einsatz spezialisierter Software zu einer Selbstverständlichkeit geworden. Für nahezu jede betriebliche Aufgabe gibt es mittlerweile ein passendes Tool, das verspricht, die Effizienz und Produktivität zu steigern. Dabei kann jedoch die Ansammlung von zu vielen verschiedenen Anwendungen, das sogenannte Tool-Hoarding, Risiken mit sich bringen, die häufig übersehen werden. Diese digitale Zettelwirtschaft führt nicht nur zu Ineffizienz und höheren Kosten, sondern kann auch die Datenqualität und -sicherheit gefährden. Ein bewusster Umgang mit Tools und eine kluge Integration sind daher notwendig, um die eigentlichen Ziele der Digitalisierung – nämlich Prozessoptimierung und Effizienzsteigerung – zu erreichen. Doch was ist zu tun, um die Gefahren des Tool-Hoardings nicht zu unterschätzen bzw. dem Phänomen vorzubeugen?

Das Phänomen des Tool-Hoardings

Unter Tool-Hoarding versteht man die unkontrollierte Ansammlung verschiedener spezialisierter Softwarelösungen, die oft ohne eine ganzheitliche Strategie implementiert werden. In vielen Fällen beginnt das Phänomen dabei unauffällig und schleichend: Ein Unternehmen führt ein Tool für die Buchhaltung ein, ein weiteres für die Projektverwaltung, dann ein separates System für das Kundenmanagement und schließlich eine Lösung für die interne Kommunikation. Jedes dieser Tools ist für sich genommen sinnvoll, erfüllt eine spezifische Aufgabe und soll Arbeitsprozesse vereinfachen. Doch wenn immer mehr spezialisierte Anwendungen hinzugefügt werden, ohne dass sie effizient miteinander integriert sind, entstehen unerwartete Herausforderungen.

Die Gründe für das Entstehen von Tool-Hoarding sind dabei vielschichtig. Allem voran steht häufig jedoch der Wunsch, für jede Herausforderung das „beste“ oder „modernste“ Tool zu verwenden. Unternehmen möchten ihre Mitarbeitenden mit den neuesten technischen Lösungen unterstützen, in der Hoffnung, dass diese den Arbeitsalltag vereinfachen und die Produktivität erhöhen. Doch oft wird dabei übersehen, dass zu viele separate Systeme am Ende eher das Gegenteil bewirken können oder es fehlt generell an der kompletten Übersicht. Die Verwaltung einer Vielzahl von Tools kann dann sogar zur Belastung werden, insbesondere wenn die Systeme nicht miteinander kommunizieren oder Daten manuell übertragen werden müssen. Ein weiteres Problem ist die fragmentierte Datenhaltung, die zu Fehlern und Inkonsistenzen führt. Im schlimmsten Fall hat dann die zuerst gut gemeinte Anschaffung sogar einen gegenteiligen Effekt: Denn je mehr Tools ein Unternehmen im Einsatz hat, desto geringer ist die Wahrscheinlichkeit, dass sie tatsächlich genutzt werden.

Die versteckten Kosten des Tool-Hoardings

Neben der offensichtlichen organisatorischen Komplexität birgt Tool-Hoarding auch finanzielle Risiken, die oft nicht sofort ersichtlich sind. Denn jede Softwarelösung bringt nicht nur Lizenzkosten mit sich, sondern erfordert auch regelmäßige Wartung, Updates und Schulungen für die Mitarbeitenden. Diese Kosten summieren sich schnell, insbesondere in Unternehmen, die für unterschiedliche Aufgaben verschiedene Tools einsetzen.

Darüber hinaus können versteckte Kosten entstehen, die auf den ersten Blick nicht offensichtlich sind. Beispielsweise wird der Zeitaufwand für die Pflege mehrerer Systeme oft unterschätzt. Mitarbeitende müssen sich in jedes Tool einarbeiten, Daten zwischen verschiedenen Anwendungen synchronisieren und bei Problemen den IT-Support kontaktieren. Dies führt zu einem erheblichen administrativen Aufwand und Unkosten, die den eigentlichen Nutzen der Tools schnell übersteigen kann.

Sicherheits- und Datenschutzrisiken

Neben den organisatorischen und finanziellen Aspekten bringt Tool-Hoarding auch Sicherheitsrisiken mit sich. Je mehr Tools ein Unternehmen verwendet, desto größer ist die Angriffsfläche für Cyberkriminelle. Insbesondere in Branchen, in denen mit sensiblen Daten gearbeitet wird, wie im Personalwesen oder im Finanzsektor, stellt dies ein erhebliches Risiko dar. Jedes zusätzliche Tool bedeutet ein weiteres Einfallstor für potenzielle Angriffe. Unzureichende Passwortsicherheit, veraltete Softwareversionen oder mangelhafte Zugangskontrollen können dann dazu führen, dass sensible Daten ungeschützt bleiben.

Ein weiteres Sicherheitsproblem entsteht wiederum durch die Fragmentierung der Daten. Wenn verschiedene Tools nicht optimal integriert sind, besteht die Gefahr, dass wichtige Informationen in unterschiedlichen Systemen gespeichert werden, ohne dass diese ausreichend gesichert oder synchronisiert sind. Dies kann nicht nur zu Datenverlusten führen, sondern auch die Einhaltung von Datenschutzbestimmungen erschweren. Insbesondere in Zeiten strengerer Datenschutzgesetze, wie der DSGVO, ist es für Unternehmen von entscheidender Bedeutung, den Überblick über ihre Daten zu behalten und sicherzustellen, dass diese jederzeit geschützt sind.

HR-Software als Beispiel für die Auswirkungen von Tool-Hoarding: Fluch oder Segen?

Ein besonders anschauliches Beispiel für das Problem bietet aktuell in vielen Firmen der HR-Bereich. Viele Unternehmen setzen insbesondere hier noch auf verschiedene Einzellösungen für Recruiting, Personalverwaltung, Schichtplanung, Zeiterfassung und Lohnabrechnung. Während jedes dieser Tools für sich genommen seine Funktion erfüllt, führt die parallele Nutzung oft zu den bereits genannten Herausforderungen. Beispielsweise müssen Personalabteilungen Daten manuell in verschiedene Systeme eingeben, da diese nicht ausreichend miteinander vernetzt sind. Das Ergebnis: Zeitverschwendung, höhere Fehleranfälligkeit und Frustration bei den Mitarbeitenden. HR-Verantwortliche tun also gut daran, sich vor der schlussendlichen Auswahl eines Tools einige Fragen zu stellen und vorhandene System zu hinterfragen: Werden die Daten der Zeiterfassung nahtlos in die Lohnabrechnungssoftware übertragen? Werden Urlaubs- und Krankheitsanfragen in der Schichtplanung berücksichtigt?

Gerade für Unternehmen, deren Mitarbeitende nicht klassisch am Schreibtisch zu finden sind, stellt zudem die Mobilfähigkeit der genutzten Software ein absolutes Muss dar. Denn oftmals haben Mitarbeitende in diesen Branchen nur über mobile Endgeräte wie Smartphones Zugang zu den Tools, sodass nicht mobil-optimierte Anwendungen schlichtweg nicht genutzt werden. Die Folge: Die erhoffte Effizienzsteigerung durch die Einführung der digitalen Lösungen bleibt ganz einfach aus.

Der Weg aus der Tool-Harding-Falle: Integration und Automatisierung

Unternehmen sollten demnach ihre Softwarelandschaft regelmäßig überprüfen und rationalisieren, um den negativen Auswirkungen des Tool-Hoardings zu entgehen. Anstatt für jede Aufgabe ein separates Tool zu verwenden, ist es oft sinnvoller, eine integrierte Lösung zu wählen, die mehrere Funktionen abdeckt. Dies reduziert nicht nur die Anzahl der verwendeten Tools, sondern erleichtert auch die Datenverwaltung und sorgt für eine einheitliche Benutzererfahrung.

Sind wiederum schon Tools vorhanden, auf die es aufzubauen gilt, ist dann wiederum ein zentraler Punkt die Integration neuer Lösungen in die vorhandenen Systeme. Eine nahtlose Datenübertragung zwischen den Tools und eine zentrale Verwaltung der Informationen sind entscheidend, um den administrativen Aufwand zu minimieren und gleichzeitig die Datensicherheit zu erhöhen. Unternehmen, die auf integrierte Plattformen setzen, profitieren von einem besseren Überblick über ihre Prozesse und können schneller auf Veränderungen reagieren. Generell gilt jedoch: Wenn zwei Tools durch eines ersetzt werden könnten, lohnt es sich oft, diese Möglichkeit zu prüfen.

Schlussendlich spielt dann auch die Automatisierung von Prozessen eine immer größere Rolle bei der Reduzierung des Tool-Hoardings. Mithilfe von künstlicher Intelligenz (KI) können Routineaufgaben wie die Dateneingabe oder die Verwaltung von Benutzerzugängen automatisiert werden, sodass weniger manuelle Eingriffe erforderlich sind. Dies entlastet nicht nur die Mitarbeitenden, sondern verringert auch die Notwendigkeit zusätzlicher Tools.

Fazit: Klasse statt Masse

Tool-Hoarding ist eine der unterschätzten Herausforderungen der digitalen Transformation. Unternehmen, die eine Vielzahl spezialisierter Softwarelösungen anhäufen, riskieren, dass die vermeintliche Effizienzsteigerung durch diese Tools in einem unübersichtlichen, ineffizienten Softwaredschungel verpufft. Um diesem Problem entgegenzuwirken, ist es wichtig, die eingesetzten Tools regelmäßig zu evaluieren und sicherzustellen, dass diese optimal integriert sind. Weniger ist hier oft mehr: Eine konsolidierte Softwarelandschaft, die alle wichtigen Funktionen abdeckt, sorgt dann nicht nur für eine bessere Übersicht, sondern senkt auch die Kosten und erhöht die Sicherheit. Unternehmen, die also frühzeitig auf integrierte, benutzerfreundliche Plattformen setzen, können die Effizienz ihrer Prozesse nachhaltig steigern und die Gefahren des Tool-Hoardings vermeiden. Denn letztendlich geht es bei der Digitalisierung nicht darum, möglichst viele Tools zu verwenden, sondern eben die richtigen.

Der Autor David Padilla ist Gründer und CEO von Kenjo, Anbieter einer HR-Software für Arbeitskräfte bzw. Mitarbeitende in Unternehmen, die nicht an einen Schreibtisch gebunden sind und New Work effizient praktizieren wollen.

Cyber Security Report 2026

Ein aktueller Report zur Cybersicherheit in Deutschland zeigt, dass viele Unternehmen ihre Vorbereitung auf Cyber-Risiken überschätzen. Für Start-ups und Scale-ups ergeben sich daraus wichtige strategische Aufgaben. Neben der neuen NIS-2-Regulierung, die auch schnellwachsende Unternehmen treffen kann, rückt die IT-Sicherheit zunehmend in den Fokus von B2B-Kund*innen und Investor*innen.

Der auf der Cyber Security Conference 2026 in Heilbronn vorgestellte Cyber Security Report 2026 von Schwarz Digits liefert aufschlussreiche Daten zur Sicherheitslage der deutschen Wirtschaft. Obwohl die branchenübergreifenden IT-Sicherheitsbudgets auf mittlerweile 17 Prozent der IT-Gesamtausgaben steigen, offenbart die repräsentative Erhebung unter rund 1.000 deutschen Firmen, dass Maßnahmen oft eher reaktiv erfolgen.

Für die Start-up-Szene zeigen sich dabei spezifische Handlungsfelder, die im Wachstumsalltag schnell untergehen.

Wachstum und Regulierung: Die Anforderungen von NIS-2 im Blick behalten

Die EU-Richtlinie zur Netz- und Informationssicherheit (NIS-2) wird oft als reines Thema für Großkonzerne und kritische Infrastrukturen wahrgenommen. Der Report zeigt jedoch, dass branchenübergreifend 48 Prozent der befragten Unternehmen ihre regulatorische Betroffenheit voraussichtlich falsch einschätzen.

Dies betrifft zunehmend auch Scale-ups: Erreicht ein Unternehmen mit 10 bis 49 Mitarbeitern einen Jahresumsatz von über 10 Millionen Euro, fällt es – je nach Sektor – in den Anwendungsbereich der strengen Richtlinie. In diesem Größensegment gehen laut Report aktuell 92 Prozent der Firmen fälschlicherweise davon aus, nicht betroffen zu sein. Wer als Scale-up unter das in Deutschland greifende Umsetzungsgesetz fällt, muss strenge Meldepflichten und Risikomanagement-Maßnahmen etablieren. Da die Geschäftsführung bei Versäumnissen künftig verstärkt in die persönliche Haftung genommen werden kann, ist eine frühzeitige rechtliche Prüfung des eigenen Status dringend ratsam.

Die Lieferkette im Fokus: Cyber-Resilienz als B2B-Wettbewerbsvorteil

Auch Start-ups, die nicht direkt unter NIS-2 fallen, spüren die Auswirkungen häufig indirekt. Laut Erhebung hat bereits jedes zweite Unternehmen Angriffe auf seine Zulieferer registriert. Bisher überprüfen allerdings 75 Prozent der Firmen ihre Partner*innen nicht regelmäßig auf IT-Sicherheit.

Das dürfte sich durch den aktuellen regulatorischen Druck bald ändern. Konzerne und regulierte Unternehmen müssen ihre Lieferketten stärker absichern und fordern zunehmend vertragliche IT-Sicherheitsnachweise von ihren Start-up-Dienstleistern und SaaS-Anbietern ein. Gründer*innen, die hier proaktiv eine saubere Cyber-Resilienz und idealerweise den Einsatz digital-souveräner, europäischer Lösungen nachweisen können, haben in Enterprise-Pitches und bei Beschaffungsprozessen klare Vorteile.

Künstliche Intelligenz: Chancen nutzen, Sicherheitsaspekte mitdenken

Künstliche Intelligenz ist ein zentraler Treiber vieler moderner Start-up-Geschäftsmodelle. Den Sicherheitsaspekt beim KI-Einsatz schätzen viele kleine und mittlere Unternehmen (KMU) jedoch noch zu gelassen ein: 54 Prozent der Befragten gehen davon aus, dass KI-Anwendungen die eigene Cyber-Bedrohungslage nicht wesentlich verändern.

IT-Sicherheitsexperten warnen im Report jedoch vor neuen Angriffsvektoren wie autonomen KI-Angriffen oder der gezielten Manipulation von KI-Modellen (sogenannte Prompt-Hacks). Während 73 Prozent der Großunternehmen bereits klare Regeln für den KI-Einsatz definiert haben, fehlt es bei knapp einem Viertel der kleineren Unternehmen noch an internen Richtlinien. Für Start-ups empfiehlt es sich daher, das Prinzip „Security-by-Design“ von Beginn an in die eigene KI-Entwicklung und die interne Nutzung von KI-Tools zu integrieren.

Fazit

Cybersicherheit ist mehr als nur ein technisches Thema für die IT-Abteilung – sie ist ein geschäftskritischer strategischer Baustein. Start-ups, die Security- und Compliance-Anforderungen frühzeitig und professionell in ihr Wachstum integrieren, beugen nicht nur Risiken vor, sondern schaffen eine verlässliche Basis für das Vertrauen von B2B-Kund*innen, Partner*innen und Investor*innen.

Praxis-Check: Fällt mein Start-up unter die NIS-2-Richtlinie?

Ob ein Unternehmen die strengen Vorgaben der NIS-2-Richtlinie (bzw. des deutschen Umsetzungsgesetzes NIS2UmsuCG) direkt erfüllen muss, lässt sich grob in vier Schritten prüfen:

  1. Die Branchen-Frage: Ist das Start-up in einem der 18 kritischen Sektoren aktiv? Für Tech-Start-ups besonders relevant: Dazu zählen nicht nur klassische Felder wie Energie oder Gesundheit, sondern auch Digitale Infrastruktur (Cloud-Computing-Dienste, Rechenzentren), Managed IT-Services (MSP/MSSP) und Digitale Anbieter (Online-Marktplätze, Suchmaschinen).
  2. Die Größen-Frage: Beschäftigt das Unternehmen mindestens 50 Mitarbeitende oder erzielt es einen Jahresumsatz bzw. eine Jahresbilanzsumme von mehr als 10 Millionen Euro? (Achtung: Hier greift oft die erwähnte Falle für schnell wachsende Scale-ups mit wenigen Mitarbeitenden, aber hohem Umsatz).
  3. Die Ausnahmen (unabhängig von der Größe): Bietet das Start-up spezielle Dienste an (z. B. qualifizierte Vertrauensdienste, öffentliche Telekommunikationsnetze oder ist es der einzige Anbieter eines essenziellen Dienstes)? In diesen Sonderfällen greift NIS-2 ab dem ersten Mitarbeitenden.
  4. Die indirekte Betroffenheit: Selbst wenn Punkt 1 bis 3 nicht zutreffen – beliefert das Start-up große B2B-Kund*innen, die unter NIS-2 fallen? Wenn ja, werden die Sicherheitsanforderungen zunehmend über Verträge und Audits an das Start-up „durchgereicht“.

Tipp: Das Bundesamt für Sicherheit in der Informationstechnik (BSI) bietet online interaktive Formulare zur genauen Betroffenheitsprüfung an. Bei Unklarheiten lohnt sich der frühzeitige Rat eines/einer IT-Rechtsexpert*in.

Better Sol: Zweites Leben für die Solarwende

Wie das 2023 von Mirko Laube und Luisa Schulze gegründete Start-up Better Sol den PV-Gebrauchtmarkt aufmischen will.

Das Braunschweiger Start-up Better Sol erhält rund 125.000 Euro Förderung aus dem „Green Startup“-Programm der Deutschen Bundesstiftung Umwelt (DBU), um gebrauchte Solarpaneele in großem Stil zurück in den Markt zu bringen.

Hinter dem Start-up stehen Luisa Schulze und Mirko Laube. Better Sol entstand ursprünglich im Sommer 2022 als Ausgründung des Magdeburger Recycling-Unternehmens Solar Materials und agiert seit 2023 als eigenständige GmbH am Standort Braunschweig. Während sich die ehemalige Muttergesellschaft auf das komplexe werkstoffliche Recycling von Modulen konzentriert, widmet sich Better Sol voll und ganz dem „Second Life“ – also der direkten Wiederverwendung der noch intakten Platten.

KI-gestützte Prüfung statt Schredder

Die Beschaffungsseite von Better Sol zielt primär auf große Solarparks ab. Die Betreiber tauschen dort häufig größere Mengen an Solarmodulen recht früh in ihrem Lebenszyklus durch neuere, leistungsstärkere Modelle aus. Um diese Module vor dem Müll zu bewahren, hat das Better-Sol-Team mittels DBU-Förderung ein in Teilen automatisiertes Testsystem mit eigener Software auf Basis künstlicher Intelligenz (KI) entwickelt.

Der Prüfprozess beginnt mit einer mehrstufigen optischen Untersuchung, bei der sowohl grobe Beschädigungen als auch jede Solarzelle einzeln begutachtet werden. Im Anschluss folgen eine eingehende Prüfung der elektrischen Sicherheit sowie eine Leistungsüberprüfung, die misst, wie viel Watt das Produkt im Vergleich zur ursprünglichen Leistung noch liefert. Die Software führt all diese Daten automatisiert zu einer detaillierten Leistungsprognose zusammen. Jedes funktionstüchtige Modul erhält ein Label mit den Testdaten, einer zugewiesenen Leistungsklasse und einem umfangreichen Prüfprotokoll. Nur der endgültige Rest wird zum Recycling aussortiert. Der Vertrieb erfolgt direkt über die Internetseite von Better Sol. Zielgruppe sind oft Privathaushalte oder die Dächer größerer Fabrikhallen.

Der Markt und die Technologie im Wettbewerbsvergleich

Nach Angaben des Statistischen Bundesamtes verbucht die Photovoltaik mittlerweile einen Anteil von etwa 24 Prozent und ist damit der zweitwichtigste Energieträger der inländischen Stromerzeugung. Das Reservoir an ausgemusterten, aber noch funktionierenden Modulen wächst rasant. Laut Schulze ist im Schnitt jedes zweite gebrauchte Solarmodul noch für eine erneute Nutzung geeignet. Doch der Gebrauchtmarkt professionalisiert sich zusehends.

Better Sol setzt aktuell auf eine pragmatische, KI-gestützte Teilautomatisierung und plant als nächsten logischen Entwicklungsschritt eine mobile Testanlage, um die Solarmodule direkt dort zu testen, wo sie ausgemustert werden. Genau in diesem logistisch entscheidenden Bereich der Vor-Ort-Prüfung operiert bereits der etablierte Wettbewerber 2ndlifesolar, eine Marke der großen Buhck Gruppe. 2ndlifesolar greift auf ein deutschlandweites Logistiknetzwerk zurück und kombiniert stationäre Erstbehandlungsanlagen mit mobilen Prüflaboren. Technologisch geht das Unternehmen tief in die industrielle Qualitätssicherung und führt standardmäßig Elektrolumineszenz-Prüfungen durch, um unsichtbare Mikrorisse im Vorfeld zu detektieren.

Einen völlig anderen, stark hochskalierten Weg bestreitet das österreichische CleanTech-Start-up 2nd Cycle. Das Unternehmen betreibt eine vollautomatische Inspektions- und Upcycling-Anlage im industriellen Hochdurchsatz und nutzt neben klassischer Robotik auch patentierte hyperspektrale Analysen aus der Raumfahrt, um Zellalterungen frühzeitig zu erkennen.

Der Schlüssel zum wirtschaftlichen Erfolg

Das Vorhaben von Better Sol leistet einen fundamentalen Beitrag, um noch leistungsfähige Materialien durch geschickte Kreislaufwirtschaft für eine Weiternutzung zu erhalten, damit die Bemühungen für mehr erneuerbare Energien nicht ins Stocken geraten. Dennoch muss sich das Geschäftsmodell in einem harten Wettbewerb beweisen.

Die Handwerkerkosten für den Aufbau einer PV-Anlage auf einem Eigenheim sind hoch und fallen völlig unabhängig davon an, ob man neue oder gebrauchte Paneele installiert. Gleichzeitig steht der Markt unter enormem Preisdruck durch historisch günstige asiatische Neuware. Wenn fabrikneue Module extrem billiger werden, schwindet das Argument der finanziellen Ersparnis bei Gebrauchtmodulen mit kürzerer Restlebensdauer. Der Schlüssel zum wirtschaftlichen Erfolg von Better Sol liegt daher in der rigorosen Minimierung der eigenen Logistik- und Prozesskosten. Die geplante mobile Testanlage und die zusätzliche Automatisierung des Testsystems sind für das Start-up essenziell, um künftig auch größere Ausmusterungen von Solarparks wirtschaftlich bewältigen zu können.

Schluss mit der Resilienz-Lüge

Warum gut gemeinte Resilienz-Programme die besten Leute vertreiben.

Du kennst das Ritual im Mittelstand: Ein neues Budget für Mitarbeiter-Wohlbefinden wird freigegeben, es gibt eine schicke App, ein Resilienztraining und vielleicht noch einen Achtsamkeitskurs am Freitagmorgen. Alles ist sauber pro Kopf abgerechnet, aber die Realität in den Gängen sieht düster aus: Die Stimmung kippt, die Leistung bröckelt und die Kündigungen häufen sich. Irgendwo auf dem Firmenparkplatz sitzt gerade ein Mitarbeiter im Auto und hofft inständig, dass ihn gleich niemand fragt, wie es ihm wirklich geht – willkommen in der Resilienz-Falle.

Bequemlichkeit statt Verantwortung

In der Geschäftsleitung reagierst du auf Erschöpfung oft reflexhaft mit Instrumenten zur ‚individuellen Stärkung‘. Du investierst lediglich in das Durchhalten der Belegschaft. Dabei übersiehst du geflissentlich, dass deine Leute längst gegen Strukturen ankämpfen, die du selbst mitgebaut hast. Die heimliche, aber messerscharfe Botschaft dieser Maßnahmen lautet: ‚Der Laden bleibt, wie er ist. Du musst dich anpassen.‘ Das ist für dich als Führungskraft äußerst bequem, denn es klingt nach Fürsorge und produziert bunte Fotos für das Intranet. Vor allem aber delegiert es die Verantwortung elegant von der Organisation abwärts zur einzelnen Person – von echter Führung hin zu bloßem ‚Selbstmanagement‘. Wenn ihr als Führungskräfte selbst erschöpft von der jahrelangen Permakrise seid, greift ihr eben nach dem Mittel, das am wenigsten wehtut: Training statt Kulturarbeit.

Die toxische Wahrheit über Burnout

Machen wir uns nichts vor: Burnout entsteht in den seltensten Fällen, weil jemand schlicht ‚zu wenig resilient‘ ist. Menschen brennen aus, weil die Art der Arbeit und der Führung ihnen systematisch die Energie abdreht. Laut einer globalen Untersuchung des McKinsey Health Institute ist toxisches Verhalten am Arbeitsplatz der mit Abstand größte Prädiktor für Burnout-Symptome und Kündigungsabsichten. Wir sprechen hier nicht von Hollywood-Klischees, sondern von handfester Entwertung, Bloßstellung, Sabotage, unfairem Wettbewerb und unethischem Verhalten. Dieses Gift sitzt in Meetings, in E-Mails, in Zielsystemen und in unausgesprochenen Erwartungen. Es zeigt sich genau dann, wenn du jenen einen ‚Leistungsträger‘ schützt, der seit Jahren rote Linien überschreitet. Kein Resilienztraining der Welt kann dieses Führungsversagen reparieren.

Der Bumerang-Effekt der Resilienz

Jetzt wird es paradox: Wenn in toxischen Umfeldern Resilienz trainiert wird, treibt das die Leute direkt in die Kündigung. McKinsey belegt, dass Beschäftigte mit hoher Anpassungsfähigkeit in giftigen Arbeitsumfeldern eine um 60 Prozent höhere Kündigungsbereitschaft aufweisen als weniger anpassungsfähige Kollegen. Das ist absolut logisch: Wer durch Training innerlich klarer wird, durchschaut schneller, was im Unternehmen wirklich schiefläuft. Wer lernt, Grenzen zu spüren, wird diese auch setzen. Wer seine Selbstwirksamkeit entdeckt, bleibt nicht in einem System, das ihn systematisch klein hält. Resilienz wirkt ohne echte Kulturarbeit wie ein greller Scheinwerfer, der alles sichtbar macht, was vorher bequem im Nebel versteckt war. Du investierst teuer in Resilienz und verlierst genau deshalb im Anschluss deine besten Köpfe.

Vom Sponsor zum Gestalter: Harte Führungsarbeit statt Wellness

Es ist Zeit für einen Paradigmenwechsel. Deine Rolle als Führungskraft ist nicht die eines Sponsors für Wohlfühl-Maßnahmen; du bist verantwortlich für die Rahmenbedingungen im Unternehmen. Moderne Führung braucht keine Wellness und kein Wunschdenken, sondern eine klare Haltung. Ohne Hoffnung fehlt die Richtung, ohne Vertrauen fehlt der Halt. Fehlt beides, helfen auch keine App und keine Atemtechnik mehr, weil das System weiter Druck produziert und die Menschen innerlich aussteigen.

Es gilt, die Leitfrage im Management-Team radikal umzudrehen: Statt ‚Wie machen wir unsere Leute widerstandsfähiger?‘ sollte die Frage ‚Wo erzeugen wir Bedingungen, die Widerstand überhaupt erst nötig machen?‘ lauten. Das ist kein Kuschelkurs, das ist harte Führungsarbeit. Das erfordert den Mut, toxisches Verhalten schonungslos zu benennen und Regeln auch gegen kurzfristige Leistungserfolge durchzusetzen. Resilienz darf kein Reparaturbetrieb für eine Unternehmenskultur sein, die gnadenlos Menschen verbraucht. Sie muss das natürliche Ergebnis von guter Führung und gesunden Systemen sein.

Der Autor Ben Schulz ist Unternehmensberater und SPIEGEL-Bestseller-Autor, www.benschulz-partner.de

Die Müsli-Macher und die Kälte: Das neue Millionen-Projekt von Kraiss & Mahler

Dass sie Märkte revolutionieren können, haben die Freda-Gründer bereits bewiesen – nun steht die Tiefkühlkette auf dem Prüfstand. Mit einem mutigen Modul-Konzept fordern Philipp Kraiss und Christian Mahler die Industrie-Riesen im Supermarktregal heraus.

In der Start-up-Welt ist der Begriff Seriengründer*in oft ein zweischneidiges Schwert: Das Vertrauen der Investor*innen ist hoch, doch die Fallhöhe nach einem Erfolg wie mymuesli ebenso. Philipp Kraiss und Christian Mahler haben sich mit ihrem 2023 gegründeten Food-Start-up Freda bewusst gegen ein „Me-too-Produkt“ und für eine operative Wette auf die Zukunft der Tiefkühlkette entschieden. Mit einem mutigen Modul-Konzept fordern sie die etablierten Industrie-Riesen im Supermarktregal heraus. Die Prämisse: Der Markt für Tiefkühlkost (TK) wächst – auf über 22,6 Milliarden Euro im Jahr 2024 –, ist aber durch extremen Preisdruck und eine veraltete Produktlogik geprägt. Wir haben uns das Geschäftsmodell näher angesehen und die Gründer dazu befragt.

Pizza, Pasta, Gelato … und jetzt Blocks?

Die Pizza „Salami Sensation“ war für Freda der Türöffner. Mit dem Sieg bei Stiftung Warentest (2024) bewies das Team, dass es Qualität „kann“ und schuf einen starken USP. Strategisch ist Pizza jedoch kein leichtes Feld: Der Wettbewerb ist anspruchsvoll, die Regalplätze im Einzelhandel sind besetzt und die Differenzierung erfolgt meist über den Preis. Mit einer Innovation wie „Frozen Blocks“ erweitert Freda nun das Spielfeld und eröffnet eine neue Kategorie von Tiefkühlkost.

Es handelt sich dabei nicht mehr um ein fertiges Gericht, sondern um eine Systemkomponente. Das Konzept orientiert sich am gastronomischen „Mise en Place“: Vorbereitete, schockgefrostete Komponenten wie Beef Ragù oder Chili sin Carne fungieren als Basismodule für die heimische Küche. Strategisch gesehen erhöht dies die Wertdichte pro Kubikzentimeter im TK-Fach und verringert die Komplexität in der eigenen Produktion im Vergleich zu mehrkomponentigen Fertigmenüs.

Auf die Frage, ob der strategische Wechsel von der Pizza zu den „Frozen Blocks“ eine Flucht aus dem Commodity-Preiskampf der Pizza-Truhe hin zu einer proprietären Nische sei, widerspricht Philipp Kraiss. Vielmehr handele es sich um einen konsequenten Ausbau des Sortiments, denn Freda solle künftig den gesamten Alltag der Kund*innen abbilden – vom Frühstück bis zum Abendbrot. Das sei eben mehr als nur Pizza. „Unser Anspruch ist aber nicht nur Bekanntes besser zu machen – wie bei unserer Pizza, sondern auch neue Wege zu gehen“, stellt der Gründer klar. Die flexiblen Module seien auf diesem Weg der nächste logische Schritt. Er verspricht dabei maximale Vielfalt aus dem Gefrierfach, „denn jeder Block lässt sich vielfältig kombinieren.“

Die Retail-Herausforderung: Kaufland als Stresstest

Mit einer Basis von über 30.000 D2C-Kund*innen hat das Unternehmen bereits bewiesen, dass die Nachfrage nach seinen Produkten besteht. Um dieses Potenzial voll auszuschöpfen und die Margen zu stärken, wurde im August 2025 der Launch in 780 Kaufland-Märkten umgesetzt – ein strategischer Meilenstein, der die Reichweite massiv erhöht und über das Volumen des stationären Einzelhandels den Weg zu nachhaltigem, profitablem Wachstum ebnet – ohne aufwendigen Versand mit Isolierung und Trockeneis.

Hier zählt nun die Shelf Velocity (Abverkaufsgeschwindigkeit). Ein modulares System erfordert von der Kundschaft jedoch ein Umdenken: Man kauft kein fertiges Abendessen, sondern eine Zutat. Freda muss hier beweisen, dass der Mehrwert der Zeitersparnis am Point of Sale verstanden wird, bevor die harten Auslistungsmechanismen des Handels greifen.

Doch wie überzeugt man eine*n Einkäufer*in davon, dass ein modulares System mehr Flächenproduktivität bringt als die zehnte Sorte Standard-Lasagne? Christian Mahler kontert auf diese Retail-Frage mit einem anschaulichen Branchen-Vergleich: „Wir sind eben nicht die zehnte Lasagne. Eine klassische TK-Lasagne belegt viel Regalfläche, bedient genau einen Anlass und konkurriert mit neun anderen Lasagnen um denselben Kunden.“ Durch das kompakte Format und eine maximale SKU-Dichte der Blocks könne der Händler auf derselben Regalfläche mehrere Sorten listen und spreche damit dutzende Zubereitungsarten von der Bowl bis zum Curry an. Mahler zeigt sich selbstbewusst: „Wir eröffnen eine neue Kategorie statt in einer bestehenden zu kämpfen.“

Operative Exzellenz vs. bayerisches Handwerk

Ein weiterer Spagat wartet in der Produktion: Freda wirbt offensiv mit „Made in Bavaria“ und handwerklicher Herstellung. In der Start-up-Praxis beißt sich Handwerk jedoch oft mit Skalierung. Wer bundesweit fast 900 Supermärkte bedient, muss industrielle Prozesse beherrschen. Die Gefahr dabei ist offensichtlich: Wenn die Qualität durch die Masse sinkt, verliert Freda seinen wichtigsten USP. Gleichzeitig bleibt bei der exklusiven Zielgruppe, die bereit ist, für TK-Komponenten Premium-Preise zu zahlen, in Zeiten der Inflation die Frage der Preissensibilität bestehen.

Auf drohende Kapazitätsgrenzen angesprochen, räumt Philipp Kraiss ein, dass die Passauer Manufaktur zwar das Herzstück bleibe. „Aber wir waren von Anfang an ehrlich zu uns selbst: Eine Manufaktur skaliert nicht linear“, gibt der Seriengründer zu bedenken. Mit wachsendem Geschäft müsse man die Produktion auf breitere Schultern stellen und mit Partnern zusammenarbeiten. Sein Kernversprechen an die Kund*innen lautet dabei jedoch: „Wir lagern nicht die Rezeptur aus, sondern die Kapazität.“

Marktpsychologie: Convenience ohne Reue

Psychologisch besetzt Freda damit eine überaus geschickte Lücke. Die „Frozen Blocks“ nehmen der Käuferschaft zwar die Entscheidung für die aufwendige Kernkomponente ab, lassen das Gefühl des Selbstkochens durch das frische Ergänzen von Beilagen jedoch vollkommen intakt. Dies eliminiert die oft vorhandene „Convenience-Scham“ gesundheitsbewusster Zielgruppen und könnte die Lösung für die stagnierenden Marktanteile klassischer Fertiggerichte bei jüngeren Konsument*innen sein.

Fazit für die Start-up-Praxis

Freda ist ein Lehrstück für den Übergang von einer digitalen D2C-Brand zum Player im Massenmarkt. Die Gründer nutzen ihre Erfahrung, um eine etablierte Kategorie neu zu denken. Ob die Rechnung aufgeht, wird sich an der Regal-Rotation zeigen. Wenn die Kund*innen den Aufpreis für die „bayerische Handarbeit“ und das modulare System dauerhaft akzeptieren, könnte Freda die Blaupause für die nächste Generation von Food-Marken liefern.

Wenn das T-Shirt den Tremor stoppt: MedTech Noxon schließt Mio.-Seed-Runde ab

Das Münchner Start-up Noxon macht menschliche Muskeln zur digitalen Schnittstelle. Mit einer millionenschweren Finanzierung durch den HTGF und Bayern Kapital rückt die klinische Zulassung des textilen „Muscle-Computer-Interface“ näher. Doch der Weg vom smarten Wearable zum erstattungsfähigen Medizinprodukt birgt enorme regulatorische und physikalische Hürden. Eine Einordnung.

Neurologische und muskuloskelettale Erkrankungen nehmen weltweit rasant zu. In der Rehabilitation sowie bei neurologischen Krankheitsbildern wie Parkinson oder Lähmungen nach Schlaganfällen werden Muskeldiagnostik und -stimulation jedoch meist nur punktuell und rein klinisch durchgeführt. Das Resultat: Im Alltag fehlen kontinuierliche Daten und eine sich anpassende, durchgehende Therapie.

Das 2022 gegründete Münchner MedTech-Start-up Noxon will diese Versorgungslücke nun schließen. Mit dem Abschluss einer millionenschweren Seed-Finanzierungsrunde unter Führung des High-Tech Gründerfonds (HTGF) und Bayern Kapital (unter Beteiligung von Auxxo und einem weiteren institutionellen Investor) sichert sich das junge Unternehmen das nötige Kapital für die klinische Zertifizierung und den geplanten Markteintritt.

Aus dem Drucklabor zum DeepTech

Die Ursprünge von Noxon reichen in das Jahr 2021 zurück. Maria Neugschwender, damals 22-jährige Studentin, startete das Projekt an der Hochschule München (HM). Unterstützt vom dortigen Strascheg Center for Entrepreneurship (SCE) und den Drucklaboren der HM, begann sie zusammen mit ihrem Gründungteam Marius Neugschwender und Ka Hou Leong damit, etablierte Druckverfahren (wie den Siebdruck) mit intelligenten, funktionalen Tinten zu kombinieren.

Heute ist Noxon ein DeepTech-Unternehmen, das als Spin-off tief in der universitären Forschung verwurzelt ist. Neben der Hochschule München bestehen enge technologische und klinische Verflechtungen mit der Neurowissenschaftsgruppe N-Squared Lab der FAU Erlangen-Nürnberg sowie dem Universitätsklinikum Würzburg, mit denen Noxon an Pilotanwendungen forscht.

Die Technologie: Eine geschlossene Feedback-Schleife auf der Haut

Das technologische Herzstück von Noxon ist ein alltagstaugliches, nicht-invasives Muscle-Computer-Interface (MCI). Das Unternehmen druckt hauchdünne Biosensoren direkt auf Textilien, Bandagen oder Tapes (ein erstes Produkt trug den Namen „Silverstep“).

Der eigentliche USP liegt jedoch in der Bidirektionalität: Die intelligente Kleidung liest die elektrischen Muskelsignale in Echtzeit aus, decodiert mithilfe von KI die Bewegungsabsichten des Patienten und schließt die Schleife, indem sie über Neuromuskuläre Elektrische Stimulation (NMES) gezielte Impulse zurücksendet. Wenn die Signalübertragung vom Gehirn zum Muskel beeinträchtigt ist, übernimmt das Wearable die Steuerung. So sollen beispielsweise Lähmungen therapiert, Muskelatrophie verhindert oder der Tremor bei Parkinson-Patienten aktiv unterdrückt werden.

Markt und Wettbewerb: Zwischen Tech-Giganten und MedTech-Dinos

Der Markt für Wearable MedTech und Neuroprothetik wächst rasant und ist von einer enormen Dynamik geprägt. Angesichts einer alternden Weltbevölkerung und der weltweiten Zunahme neurologischer sowie muskuloskelettaler Erkrankungen adressiert Noxon einen gigantischen Markt von potenziell über 1,1 Milliarden betroffenen Menschen. Der Trend in der Gesundheitsversorgung geht dabei eindeutig weg von der rein klinischen, punktuellen Diagnostik hin zu kontinuierlichem Monitoring und adaptiven Therapien im häuslichen Alltag. Genau an dieser lukrativen, aber auch hart umkämpften Schnittstelle zwischen Consumer-Wearables, digitaler Diagnostik und aktiver Therapie positioniert sich das Münchner Start-up.

In diesem hochkompetitiven Umfeld betritt Noxon den Ring mit Schwergewichten aus völlig unterschiedlichen Sektoren. Im spezifischen Bereich der Tremor-Therapie hat sich beispielsweise das US-Unternehmen Cala Health mit einem Handgelenks-Wearable zur elektrischen Nervenstimulation bereits erfolgreich etabliert und den Weg für solche Behandlungsformen geebnet.

Gleichzeitig drängen milliardenschwere Big-Tech-Akteure auf den Plan: Meta forscht nach der Übernahme von CTRL-labs mit enormen Budgets an EMG-Armbändern, die neuronale Muskelsignale auslesen und in digitale Steuerungsbefehle übersetzen sollen. Und auch im klassischen Segment der Muskelstimulation und Orthetik muss sich Noxon gegen etablierte Platzhirsche behaupten – von Compex, die den Sportbereich dominieren, bis hin zu Weltmarktführern wie Ottobock bei komplexen neuro-orthopädischen Hilfsmitteln.

Um zwischen diesen Tech-Giganten und MedTech-Dinos zu bestehen, setzt das Spin-off auf eine klare Differenzierungsstrategie. Die Stärke von Noxon liegt in der Unauffälligkeit und der technologischen Tiefe: Anstatt klobige Geräte zu entwickeln, integriert das Team die Sensortechnik mittels Textildruck nahtlos in alltagstaugliche Bandagen und Tapes. Vor allem aber grenzt sich Noxon durch die geschlossene, medizinische Feedback-Schleife ab. Während herkömmliche Wearables meist nur Daten sammeln, vereint Noxon kontinuierliches Messen und personalisiertes Stimulieren in einem einzigen System, das aktiv in den Behandlungsverlauf eingreift.

Noxon: „High Risk, High Reward“-Modell mit großen Herausforderungen

Für Gründer*innen und Investoren*innen präsentiert sich Noxon als klassisches „High Risk, High Reward“-Modell im stark wachsenden DeepTech-Sektor. Dass erfahrene VCs wie der HTGF und Bayern Kapital in dieser Phase einsteigen, ist ein starkes Signal für den Reifegrad der zugrundeliegenden Technologie. Dennoch steht dem Start-up der eigentliche Härtetest erst noch bevor, denn das unternehmerische Risiko wird maßgeblich durch drei zentrale Hürden definiert.

Zunächst muss Noxon die physikalischen Grenzen der Hardware im Alltagstest überwinden. Gedruckte Elektronik auf Textilien unterliegt extremen Belastungen durch Bewegung, Schweiß und Reinigung. Das Team muss zweifelsfrei beweisen, dass die feinen Biosensoren auch nach dutzenden Waschgängen und bei ständiger Reibung am Körper noch verlässliche, medizinisch verwertbare und artefaktfreie Daten liefern können.

Daran schließt sich nahtlos die berüchtigte regulatorische Hürde an. Der Übergang von einem smarten Wearable zu einem offiziell zugelassenen Medizinprodukt ist unter der strengen europäischen Medical Device Regulation (MDR) ein extrem zeit- und kapitalintensiver Prozess. Genau für diese Phase wird das frisch eingesammelte Seed-Kapital dringend benötigt, denn unvorhergesehene Verzögerungen in den erforderlichen klinischen Studien können MedTech-Start-ups in dieser Entwicklungsstufe schnell die finanzielle Reichweite (Runway) kosten.

Ein weiterer, alles entscheidender Erfolgsfaktor für die Skalierung ist die Erstattungsfähigkeit. CEO Maria Neugschwender betont zwar das Ziel, Muskelgesundheit für jeden bezahlbar zu machen, doch in der Breite gelingt dies im Gesundheitssystem meist erst, wenn die Krankenkassen die Kosten übernehmen. Noxon muss handfeste klinische Evidenz erbringen, um perspektivisch in das Hilfsmittelverzeichnis aufgenommen oder als Digitale Gesundheitsanwendung (DiGA) anerkannt zu werden. Ein reines B2C-Geschäftsmodell, bei dem chronisch kranke Patientinnen und Patienten die Kosten als Selbstzahler tragen, wäre kaum im großen Stil skalierbar.

Zusammenfassend lässt sich festhalten, dass Noxon mit seiner Lösung eines der drängendsten Probleme einer alternden Gesellschaft adressiert. Gelingt es dem Münchner Gründungsteam, die komplexe Brücke zwischen widerstandsfähiger Sensor-Hardware, präziser KI-Decodierung und strenger klinischer Zertifizierung erfolgreich zu schlagen, könnte das Start-up tatsächlich einen neuen Standard in der neurologischen Rehabilitation setzen. Bis die smarte Kleidung jedoch ganz selbstverständlich auf Rezept erhältlich ist, bleibt es eine hochspannende und überaus herausfordernde unternehmerische Reise.

Wenn Macht zu früh zu groß wird

Serie: Führen im Start-up, Teil 4: Warum schnelles Wachstum ohne Reife zur strukturellen Gefahr werden kann.

Über Wachstum wird viel gesprochen. Über Macht kaum. Start-ups lieben das Narrativ der Geschwindigkeit. Funding-Runden, Skalierung, Expansion, neue Märkte. Jede Phase wird gefeiert.

Was seltener thematisiert wird: Mit jedem Wachstumsschritt steigt nicht nur die Komplexität. Es steigt auch die Macht derjenigen, die entscheiden.

In der Frühphase ist Macht funktional. Gründer*innen tragen Risiko, treffen schnelle Entscheidungen, halten das Unternehmen zusammen. Ohne diese Verdichtung gäbe es kein Vorankommen. Problematisch wird es erst, wenn Macht schneller wächst als die Fähigkeit, mit ihr umzugehen.

Der unsichtbare Wendepunkt

Solange ein Start-up klein ist, wird persönliche Autorität als Führung erlebt. Nähe ersetzt Struktur. Entscheidungen fallen direkt, informell, schnell.

Doch mit Wachstum verändert sich der Kontext. Neue Mitarbeitende kommen hinzu. Führungsebenen entstehen. Verantwortung wird delegiert. Gleichzeitig bleibt die Entscheidungslogik oft personenzentriert.

Klarheit kann dann zu Dominanz werden. Geschwindigkeit zu Intransparenz. Nähe zu Abhängigkeit. Nicht, weil sich der/die Gründer*in charakterlich wandelt, sondern, weil Macht in einem größeren System anders wirkt als in einem kleinen.

Wie Macht Wahrnehmung verschiebt

Sozialpsychologische Forschung beschreibt seit Jahren einen bekannten Effekt: Mit wachsendem Einfluss steigt das Vertrauen in die eigene Einschätzung. Gleichzeitig sinkt die Sensibilität für widersprechende Perspektiven.

Das geschieht selten bewusst. Je seltener echter Widerspruch erfolgt, desto stabiler wirkt die eigene Sichtweise. In Start-ups wird dieser Effekt verstärkt. Loyalität ist hoch bewertet. Kritik wird schnell als Bremsen interpretiert. Nähe zur Gründungsperson entscheidet häufig über Einfluss.

So entsteht ein stilles Gefälle. Wer irritiert, riskiert Distanz. Wer bestätigt, bleibt im Kreis.

Wenn Governance hinterherläuft

Wachstum erzeugt operative Komplexität. Governance-Strukturen entwickeln sich jedoch oft langsamer als Teamgrößen oder Umsätze.

  • Titel werden vergeben, Rollen bleiben unscharf.
  • Verantwortung wird delegiert, Entscheidungsbefugnisse nicht eindeutig definiert.
  • Feedback wird gewünscht – aber nicht immer geschützt.

So wächst das Unternehmen formal. Informell bleibt es personalisiert.

Solange Ergebnisse stimmen, fällt das kaum auf. Unter Druck wird es spürbar.

Die leisen Symptome

Machtprobleme beginnen selten spektakulär.

  • Widerspruch wird vorsichtiger formuliert.
  • Meetings enden ohne echte Kontroverse.
  • Entscheidungen werden weniger erklärt.
  • Führungskräfte orientieren sich stärker an vermuteten Erwartungen als an eigener Überzeugung.

Nach außen wirkt das Unternehmen effizient. Intern sinkt die Irritationsfähigkeit. Und genau diese Irritationsfähigkeit entscheidet über Innovation.

Warum das wirtschaftlich relevant ist

Unbalancierte Machtstrukturen bremsen nicht sofort. Sie wirken verzögert – aber konsequent.

  • Perspektiven werden homogener.
  • Konflikte wandern in informelle Räume.
  • Talente gehen, wenn sie keinen Einfluss erleben.
  • Strategische Fehlentscheidungen werden später korrigiert – häufig teurer als nötig.

Viele Start-up-Krisen werden als Marktkrisen erzählt. Nicht selten sind es Machtkrisen. Nicht der Wettbewerb war das Kernproblem, sondern die fehlende Gegenstruktur.

Reife als Skalierungskompetenz

Macht ist kein Fehler. Ohne sie gäbe es kein Unternehmertum. Entscheidend ist, ob Macht irritierbar bleibt. Ob sie die Fähigkeit behält, sich stören zu lassen.

Reife Führung bedeutet nicht, weniger zu entscheiden. Reife Führung bedeutet, sich bewusst widersprechen zu lassen.

Das erfordert Strukturen, die nicht nur Loyalität belohnen, sondern Differenz.

  • Ein Beirat mit echter Unabhängigkeit.
  • Klare Entscheidungslogiken.
  • Transparente Rollendefinitionen.
  • Geschützte Räume für Kritik.

Nicht als Misstrauensbeweis, sondern als Stabilitätsfaktor.

Ein unbequemer Schluss

Wachstum ohne Machtreflexion produziert irgendwann Widerstand. Wachstum mit Reife erzeugt Vertrauen. Vielleicht liegt die eigentliche Skalierungsfähigkeit nicht in der Geschwindigkeit, mit der ein Start-up Märkte erobert, sondern in der Fähigkeit, Macht so zu gestalten, dass sie das System stärkt – statt es zu verengen.

Denn Macht verschwindet nicht, wenn man nicht über sie spricht. Sie wirkt trotzdem. Die Frage ist nur, ob bewusst – oder unkontrolliert.

Tipp zum Weiterlesen

Im ersten Teil der Serie haben wir untersucht, warum Überforderung kein Spätphänomen von Konzernen ist, sondern in der Seed-Phase beginnt. Hier zum Nachlesen: https://t1p.de/56g8e

Im zweiten Teil der Serie haben wir thematisiert, warum sich Gründer*innen oft einsam fühlen, obwohl sie von Menschen umgeben sind. Hier zum Nachlesen: https://t1p.de/y21x5

Der dritte Teil unserer Serie behandelt, warum Start-ups ihre spätere Dysfunktion oft im ersten Jahr programmieren. Hier zum Nachlesen: https://t1p.de/v8q2k

Die Autorin Nicole Dildei ist Unternehmensberaterin, Interimsmanagerin und Coach mit Fokus auf Organisationsentwicklung und Strategieberatung, Integrations- und Interimsmanagement sowie Coach•sulting.

Vyoma: Münchner NewSpace-Start-up sichert sich strategischen ESA-Auftrag

Das NewSpace-Unternehmen Vyoma liefert künftig kritische Beobachtungsdaten an die Europäische Weltraumagentur (ESA). Mit den optischen Sensoren des im Januar 2026 gestarteten Satelliten „Flamingo-1“ soll das ESA-Modell zur Erfassung kleinster Weltraumobjekte validiert werden – ein Meilenstein für Europas geostrategische Autonomie in einem umkämpften Milliardenmarkt. Von CEO Stefan Frey wollten wir wissen, wie dieser Ansatz etablierte Radarsysteme schlägt und Europas Souveränität im All sichern hilft.

Der erdnahe Orbit (LEO) wird zunehmend zum Nadelöhr der globalen Infrastruktur. Derzeit umkreisen rund 12.000 aktive Satelliten die Erde – umgeben von einer rasant wachsenden Wolke aus Weltraummüll. Laut aktuellen ESA-Schätzungen befinden sich mittlerweile über 34.000 Objekte von über zehn Zentimetern Größe, etwa 900.000 Objekte zwischen einem und zehn Zentimetern sowie rund 130 Millionen winzige Fragmente unter einem Zentimeter im All. Da diese Trümmer mit zehntausenden Stundenkilometern kreisen, stellen selbst millimetergroße Projektile eine fatale Bedrohung dar. Zur Einschätzung dieser Risiken nutzt die ESA ihr Modell MASTER (Meteoroid And Space debris Terrestrial Environment Reference). Diesem fehlen jedoch verlässliche Daten zu den unzähligen Mikro-Objekten. Genau diese Lücke soll Vyoma nun über das Space Safety Programme (S2P) der ESA schließen.

Radar vs. Optik im Weltraum

Der SSA-Markt (Space Situational Awareness) wird bislang von Systemen dominiert, die auf bodengestütztes Radar setzen. US-Konkurrenten wie LeoLabs betreiben riesige Phased-Array-Radaranlagen, die rund um die Uhr wetterunabhängige Daten zu Entfernung und Geschwindigkeit liefern. Radar hat jedoch ein massives physikalisches Problem: den Signalverlust über Distanz. Da sich die empfangene Leistung umgekehrt proportional zur vierten Potenz der Entfernung verhält, muss die Sendeleistung für kleinere Rückstrahlflächen exorbitant erhöht werden. Bei Objekten unter 10 Zentimetern Größe stoßen bodengestützte Radaranlagen daher an eine harte physikalische und wirtschaftliche Grenze.

Hier setzt Vyomas Wette an: Statt von der Erde hochzufunken, platziert das Start-up optische Sensoren in rund 510 Kilometern Höhe im Orbit. Diese Kameras erfassen das vom Weltraummüll reflektierte Sonnenlicht. Ohne die störende Erdatmosphäre und den massiven Radar-Signalverlust kann Flamingo-1 theoretisch deutlich kleinere Objekte erfassen als terrestrische Anlagen. „Daten zur Weltraumlageerfassung, die von weltraumgestützten Beobachtern generiert werden, spielen eine wesentliche Rolle beim Schutz bestehender und geplanter Satelliten“, bestätigt Dr. Tim Flohrer, Leiter des Space Debris Office der ESA.

Vyoma-CEO Dr. Stefan Frey differenziert hierbei klar zwischen statistischen Beobachtungen und erfolgreichem Katalogisieren. Für die ESA sei im Rahmen des aktuellen Vertrages Ersteres relevant. Man gehe davon aus, Objekte zu erfassen, die unter der Sichtbarkeitsgrenze kommerzieller Radarsysteme liegen. Da genaue Latenzen in den Modellen schwer vorherzusagen seien, verspreche Vyoma der ESA eine fixe Anzahl an Beobachtungsstunden, auf deren Basis die Bewertung stattfinde.

Für den echten Aufbau eines Katalogs sieht Frey das In-Situ-System ebenfalls im Vorteil: Bei der Katalogisierung müsse man Objekte mit geringer Latenz beobachten; für Kleinstteile sei Vyoma dazu ab sechs Flamingo-Satelliten in der Lage. Während bodengestützte kommerzielle Radarstationen meist Tracking-Systeme mit kleinem Sichtfeld seien und Schwächen bei manövrierenden Satelliten zeigten, eigne sich der Flamingo-Sensor ideal für die großflächige Überwachung. Zudem erlaube der Orbit-Blick eine lückenlose Erfassung auch über Polregionen und Ozeanen – völlig frei von geopolitischen Abhängigkeiten, die am Boden fast unumgänglich wären. Mit den Flamingos trage Vyoma somit zur Souveränität Europas und Deutschlands bei.

Die physikalische Hürde: Streulicht und 24/7-Überwachung

Optische Systeme erfordern, dass das zu beobachtende Objekt von der Sonne angeleuchtet wird. Frey stellt jedoch klar, dass Weltraumkameras entscheidende Vorteile gegenüber bodengestützten Systemen haben, die durch den hellen Himmel stark limitiert sind. Das Streulicht der Atmosphäre sei ab 350 Kilometern Höhe vernachlässigbar, weshalb Vyoma mit jedem Sensor eine fast durchgängige Betriebsdauer erreiche.

Um direktes oder indirekt reflektiertes Sonnenlicht (etwa vom Mond oder den Polarkappen) abzufangen, verfügt Flamingo-1 über eine vierfach ausfahrbare, 1,3 Meter lange Streulichtblende mit tiefschwarzer Innenbeschichtung. Dies erlaubt dem Sensor, unter einen 90-Grad-Winkel zwischen Beobachtungsobjekt und Sonne zu gehen, wodurch der mögliche Beobachtungsbereich auf mehr als eine komplette Hemisphäre anwächst.

Die nominale und patentierte Beobachtungsgeometrie von Vyoma ist leicht von der Sonne abgewandt, um kontinuierlich möglichst viele Objekte zu erfassen. Im Endausbau sollen zwölf Satelliten in einer Bahnebene ein geschlossenes Netzwerk aufspannen. Jedes Objekt muss dieses System zweimal pro Orbit durchqueren, wodurch tieffliegende Objekte beispielsweise alle 45 bis 60 Minuten detektiert werden. Dies reiche aus, um auch manövrierende Objekte nicht aus dem Sichtfeld zu verlieren.

Datenstau im All: Edge Computing als Schlüssel

Dieser Ansatz bringt schwerwiegende Engineering-Herausforderungen mit sich. Während ein Radar-Ping wenige Kilobytes generiert, produziert eine hochauflösende Weltraumkamera rasend schnell Gigabytes an Bildmaterial. Diese Datenmengen müssen an Bord vorverarbeitet und durch das enge Nadelöhr der Satellitenkommunikation zur Erde gefunkt werden. Für automatisierte Ausweichmanöver ist diese Latenz entscheidend.

Frey erklärt, dass die Objekte in der Regel weit entfernt sind und Dutzende Sekunden im Sichtfeld verweilen. Eine Bildrate von einem Hertz reiche daher aus, um die Umlaufbahn abzuschätzen. Diese Daten werden an Bord verlustfrei komprimiert und verschlüsselt. Im Nominalbetrieb besteht alle ein bis zwei Stunden Erdkontakt, für prioritäre Daten alle 20 bis 30 Minuten.

Ziel von Vyoma ist jedoch eine Download-Latenz von unter einer Sekunde. Da optische Übertragungssysteme teuer sind, arbeitet das Start-up bereits für Flamingo-2 daran, die Bildverarbeitung „on the edge“ direkt auf dem Satelliten zu ermöglichen. Damit reicht im nächsten Schritt eine geringere Datenübertragungsrate für eine niedrige Latenz aus. Ab Flamingo-3 werden die Satelliten mit Radios und Antennen ausgestattet, um die verarbeiteten Daten live über andere Satelliten zu streamen.

Europas Datensouveränität und der Dual-Use-Markt

Dass der Zuschlag an ein Münchner Start-up geht, unterstreicht die Reife des süddeutschen Raumfahrt-Ökosystems („Space Valley“) rund um die TU München. Bislang sind europäische Satellitenbetreiber bei der Kollisionswarnung stark auf US-Daten angewiesen. Mit Vyoma agiert die ESA nun als „Anchor Customer“. Das stärkt Europas Souveränität und unterstützt die Zero Debris Charter, die bis 2030 eine neutrale Müllbilanz im All anstrebt.

Für das 40-köpfige Team tickt nun die Uhr. Zwischen Ende 2026 und 2029 sollen die restlichen elf Satelliten ins All gebracht werden. Der Aufbau verschlingt zweistellige Millionenbeträge, wobei Investoren wie Atlantic Labs, Happiness Capital und Safran Corporate Ventures bereits an Bord sind. Dennoch muss Vyoma in einem abgekühlten Venture-Capital-Markt beweisen, dass die Unit Economics stimmen.

Um den hohen Kapitalbedarf zu decken, positioniert sich Vyoma gezielt im Dual-Use-Segment. Frey bestätigt den engen Austausch mit europäischen Weltraumkommandos und nachrichtendienstlichen Entitäten. Da Weltraumüberwachung in der Weltraumstrategie der Bundesregierung seit 2025 hohe Priorität genießt, geht Vyoma von kurzfristigen Datenlieferungsverträgen und mittelfristig dem Verkauf schlüsselfertiger Lösungen aus.

Die Kosten zum Aufbau des Systems sehen sich laut Frey einem enormen Marktpotenzial gegenüber. Da einmalige Entwicklungskosten größtenteils gedeckt sind, führen größere Stückzahlen zu Stückkosten, die Investoren im DeepTech-Bereich „höchstens positiv überraschen“. Die Umsätze aus dem Verteidigungsbereich werden maßgeblich zum Aufbau der Konstellation beitragen. Die komplettierte Konstellation biete schließlich auch kommerziellen Kunden eine garantierte Beobachtungslatenz zu niedrigen Kosten.

Primogene: Muttermilch als Vorbild

Primogene ist ein 2023 gegründetes BioTech-Start-up mit Sitz in Leipzig, das sich auf die Entwicklung biotechnologischer Herstellungsverfahren für bioidentische Inhaltsstoffe spezialisiert hat. Ein Schwerpunkt liegt auf Verbindungen, die der Muttermilch nachempfunden sind und die Gesundheit in allen Lebensphasen fördern können.

Auch wenn das Produkt als weißes Pulver eher unscheinbar aussieht, markiert seine Existenz einen wissenschaftlichen Meilenstein. „Wir haben eine spezielle Technologie entwickelt, dank der wir komplexe bioidentische humane Milchzucker skalierbar herstellen können“, erzählt Linda Karger, einst Managementstudentin an der Technischen Universität in München, heute COO der 2023 in Leipzig gegründeten Primogene GmbH. Die chemischen Verbindungen entsprechen also den im menschlichen Körper vorkommenden Molekülen bis ins kleinste biochemische Detail. Und sie übernehmen – obwohl industriell hergestellt – die gleichen Funktionen, die bisher nur Muttermilch garantierte.

Zum Verständnis: Die komplexen Zuckerstrukturen sind nach Fett und Laktose der drittgrößte feste Bestandteil menschlicher Milch. Sie bieten einzigartige gesundheitliche Vorteile, unterstützen beispielsweise das Immunsystem sowie die kognitive Entwicklung wie kein anderer Stoff. „Nach zahllosen Gesprächen mit Ärzten und Kliniken begann unsere Geschichte mit der Idee, nährstoffreiche Inhaltsstoffe als Zusatz für die Ernährung von Frühgeborenen herzustellen. Weitergedacht können bioaktive Bestandteile der Muttermilch ebenso zur Krankheitsprävention bei Erwachsenen sinnvoll eingesetzt werden“, erklärt Karger. „Um das Wirkungspotenzial unserer Human Milk Oligosaccharides (HMO) weiter zu erforschen, testen wir diese aktuell in enger Zusammenarbeit mit dem Leipziger Fraunhofer-Institut für Zelltherapie und Immunologie.“

Produktsortiment in der Breite offen

Gleichzeitig wird die von Dr.-Ing. Reza Mahour (CEO, Experte für Bioverfahrenstechnologie) und Valerian Grote (CTO, Molekularbiologe/Experte für Analytische Biochemie) entwickelte enzymatische Technologie genutzt, um bioidentische Moleküle für andere Märkte zu erzeugen, beispielsweise Inhaltsstoffe für Produkte der Körperpflege oder Rohmaterialien für die Pharmaindustrie. „Wir produzieren selbst. Dabei lässt sich jedes unserer Produkte auf die spezielle Technologie zurückführen. Unseren Kunden bieten wir Komplettlösungen – das reicht von der Suche nach der richtigen Produktionsplattform bis hin zu Entwicklung und Produktion“, bestätigt Karger. Erste Umsätze wurden nach ihren Angaben bereits früh erzielt. Inhaltsstoffe für den Kosmetikbereich sollen noch in diesem Jahr mithilfe bestehender Partnerschaften am Markt eingeführt werden. Im Pharmabereich wird ebenfalls mit ersten Kunden zusammengearbeitet.

Karger ergänzt: „Wir haben früh auf Partnerschaften und Vorbestellungen gesetzt, um den Markt besser zu verstehen.“ Um die bereits verabredeten hochwertigen Roh- und Inhaltsstoffe bald in größeren Mengen liefern zu können, ist das aktuell elfköpfige Team von Primogene gerade innerhalb Leipzigs umgezogen. Für die anstehende Skalierung war der Wechsel auf eine Betriebsstätte mit mehr Laborfläche und größerem Produktionsbereich wichtig. Große Mitspieler auf dem Feld der HMOs wie die niederländische DSM-Firmenich oder der dänische Konzern Chr. Hansen schrecken Karger nicht: „Bekannt sind mehr als 200 verschiedene HMOs, davon sind bisher sieben strukturell einfacher industriell herstellbar und auf dem Markt. Sie werden mit einer Fermentationstechnologie produziert. Unser enzymatisches Verfahren kann deutlich mehr und komplexere Zuckerstrukturen hervorbringen. Außerdem reicht unsere Produktpalette weit über HMOs hinaus.“

Sichtbarkeit durch Innovationsplattform futureSax erleichtert Investorensuche

Das bisher benötigte Kapital stammt unter anderem von Business Angels aus dem Bereich der Biotechnologie, darunter auch Climate Founders, bei deren Accelerator-Programm Mahour Grote und Karger einst zusammenfanden. Für Primogene als forschungs- und deshalb kapitalintensives Biotech-Unternehmen sind daneben die Mittel aus Förderprogrammen des Landes Sachsen und der Stadt Leipzig von wesentlicher Bedeutung. Darüber hinaus profitiert das Start-up noch heute von der Sichtbarkeit, die es durch den Gewinn des dritten Platzes beim Sächsischen Gründerpreis 2024 erhielt. Zunächst sorgten der professionelle Nominiertenfilm und die begleitende Öffentlichkeitsarbeit von futureSax für Aufmerksamkeit sowohl in den Medien als auch innerhalb des Netzwerks.

Dann bot die Preisübergabe auf der Sächsischen Innovationskonferenz vor über 1.000 Gästen Primogene eine wichtige Gelegenheit zur Präsentation. „Sachsen ist ein Innovationsstandort mit besonderer Dichte: Exzellente Forschung, starke Industrie- und Mittelstandsstrukturen und eine wachsende Start-up-Szene greifen ineinander. Hier entstehen Lösungen, die international wettbewerbsfähig sind. Entscheidend ist der Schulterschluss im Ökosystem – von Hochschulen über Unternehmen bis zu Kapitalgebern. futureSax schafft dafür die Bühne und die Verbindungen, damit aus Ideen schneller Produkte, Partnerschaften und Gründungen werden“, erklärt Susanne Stump, Geschäftsführerin der Innovationsplattform des Freistaats Sachsen. Das Interesse großer Investoren bestätigt, dass Primogene auf dem richtigen Weg ist. Im Jahr 2025 schloss das innovative Start-up eine Seed-Finanzierungsrunde mit namhaften Investoren wie HTGF, TGFS, der Sächsischen Beteiligungsgesellschaft und better ventures ab. Das geplante Personalwachstum sowie die Produktionsaktivitäten der nächsten zwei Jahre sind damit gesichert.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Rechtsruck auf Social Media: Was Start-ups jetzt tun müssen

Hass und rechte Narrative dominieren zunehmend die Kommentarspalten, da Social-Media-Algorithmen diese Polarisierung mit Reichweite belohnen. Was du wissen solltest und wie du aktiv gegensteuern kannst.

Was früher als Randphänomen galt, ist heute leider Alltag: Kommentarspalten auf Instagram, TikTok und Facebook werden zunehmend von rechten Narrativen, gezielten Provokationen und orchestrierten Empörungswellen geprägt. Gleichzeitig verstehen sich die meisten Plattformen längst nicht mehr primär als „soziale Netzwerke“, sondern als Entertainment-Plattformen. TikTok kommuniziert das beispielsweise schon länger sehr offen. Dadurch verlagert sich der „soziale“ Austausch in Direktnachrichten, Gruppenchats – und vor allem in die Kommentare.

Was viele junge Unternehmen jedoch unterschätzen: Nutzer*innen klicken oft schon nach wenigen Sekunden auf die Kommentare, während das Video noch läuft. Der Diskurs unter dem Content ist somit zum eigentlichen Content geworden. Und die Plattformen belohnen genau das.

Warum Polarisierung algorithmisch attraktiv ist

Algorithmen priorisieren Interaktionen – und Kommentare zählen mehr als Likes. Reißerische Headlines und Clickbait funktionieren seit jeher. Neu ist allerdings, dass auch Empörung, Wut und Zuspitzung algorithmisch belohnt werden, weil sie zu mehr Kommentaren führen. Mehr Kommentare bedeuten mehr Reichweite. Mehr Reichweite wiederum zieht neue Kommentierende an.

Für Marketer entsteht eine paradoxe Situation: Negative und hasserfüllte Kommentare können die Performance eines Posts steigern. Ironischerweise sorgen Hasskommentare unter Umständen dafür, dass genau dieser Beitrag noch stärker ausgespielt wird. Doch diese Dynamik hat ihren Preis. Sie normalisiert radikale Narrative in Mainstream-Feeds. Dazu haben Plattformen wie TikTok ihre Moderation oder Meta den unabhängigen Faktencheck leider zuletzt eher eingeschränkt als ausgeweitet. Damit müssen Start-ups und ihre Marketingteams selbst mehr Verantwortung übernehmen.

Wenn der Rechtsruck im Community Management ankommt

In unserer Social-Media-Boutique-Beratung erleben wir die Folgen täglich. Ob sexualisierte Kommentare unter einem Video mit einer körperbetont gekleideten Darstellerin, das Leugnen des Klimawandels unter Nachhaltigkeits-Content sowie Veganismus-Bashing von Fleisch-Ultras oder rassistische und islamophobe Kommentare unter Beiträgen einer Expertin mit Kopftuch: Die Intensität hat erheblich zugenommen.

Besonders letzteres war für mein Team ein Wake-up-Call. In unserer Bubble in Berlin-Kreuzberg spüren wir gesellschaftliche Verschiebungen oft weniger direkt. Doch in den Kommentarspalten ist der Rechtsruck real – und emotional belastend, nicht nur für die Betroffenen, sondern auch für das Community-Management-Team. Start-ups sollten daher klare Leitlinien haben, wie sie auf Social Media mit Hass umgehen.

Schutz zuerst und don’t feed the trolls

Das Wichtigste zuerst: Die Darsteller*innen müssen geschützt werden. Im Idealfall bekommen sie von der Hasswelle nichts mit. Für Social-Media-Teams bedeutet das: zwei- bis dreimal tägliche Moderationsrunden, klare Standard Operating Procedures und konsequentes Verstecken und Melden von Hasskommentaren.

„Don’t feed the trolls“ bleibt eine valide Grundregel. Öffentliche Diskussionen mit klar provokativen Accounts führen selten zu Einsicht – oft nur zu weiterer Eskalation oder dazu, dass Gleichgesinnte mobilisiert werden. Solche Posts sollten sofort versteckt, gemeldet und dokumentiert werden. Bei grenzwertigen Kommentaren kann es sinnvoll sein, sie teilweise stehen zu lassen, wenn die Community diesen Äußerungen konstruktiv widerspricht. Denn eine starke Community kann selbstregulierend wirken und stärkt das Wir-Gefühl.

Eine weitere sehr gute Maßnahme ist, einen eigenen Kommentar nach folgendem Motto zu verfassen: "Wir als Marke X stehen für XYZ. Jegliche Form von Hass wird von uns nicht toleriert. Dennoch haben wir uns entschlossen, dahingehende Äußerungen unter diesem Post stehen zu lassen, weil das Löschen gegen unsere Werte verstößt. Jedoch melden wir jeden einzelnen Hasskommentar." Dies zeigt eine klare Haltung und kann oben angepinnt werden.

Ist die Kommentarflut jedoch nicht mehr moderierbar, empfiehlt es sich, die Kommentarfunktion in Ausnahmefällen zu deaktivieren oder den Post zu archivieren. Solch eine Maßnahme mussten wir beispielsweise bei einem Projekt ergreifen, bei dem die Expertin ein Kopftuch trug, da die islamophoben Kommentare regional leider massiv zunahmen. So mussten wir die Performance-Ads mit ihr in bestimmten Regionen aussetzen – in Berlin funktionierten sie hervorragend, in Teilen Sachsens nicht. Das ist natürlich bitter.

Kolleg*innen aus anderen Social-Media-Agenturen haben mir zudem von früheren Workarounds berichtet. So ließen sich in Ads bestimmte interessenbasierte Zielgruppen ausschließen, wie etwa Personen mit Affinitäten zu rechten Bands. Doch diese Targeting-Möglichkeiten wurden zuletzt deutlich eingeschränkt. Start-ups stehen damit oft schutzloser da als noch vor wenigen Jahren.

Zwischen Haltung und Algorithmus

Auf den gesellschaftlichen Rechtsruck haben junge Unternehmen leider nur einen kleinen Einfluss. Sehr wohl können sie allerdings beeinflussen, wie sie auf ihren Social-Media-Kanälen damit umgehen. Leitlinie sollten folgende Punkte sein:

  • Moderation professionalisieren: Klare Prozesse etablieren, statt situativer Reaktionen.
  • Darsteller*innen schützen: Sowohl psychologisch als auch operativ.
  • Haltung zeigen: Sichtbar, konsistent, nicht nur in Krisenmomenten.
  • Community stärken: Echte Unterstützer:innen aktivieren, statt nur Reichweite zu jagen.
  • Reichweite nicht über Werte stellen: Selbst wenn Hass kurzfristig Performance bringt.

Die Entwicklung bei TikTok und Co. zeigt, dass Kommentarspalten längst keine Nebensache mehr sind. Sie sind Diskursräume – und damit politische Räume. Start-ups, die auf Social Media vertreten sind, müssen sich darüber klar sein. Sie sind nicht mehr nur reine Marketingkanäle, sondern moderieren öffentliche Debatten. Und das ist eine Verantwortung, die sie nicht an den Algorithmus delegieren dürfen.

Der Autor Mirco Gluch ist Gründer der Boutique Social Media-Beratung Piggyback, KI-Experte und Macher des Onlinekurses „AI für Social Media".

Qualifizierte Migration darf kein Irrgarten sein

Um die Migration qualifizierter Fachkräfte aus dem Ausland zu erleichtern, haben Studierende der Universität zu Köln im Jahr 2024 VisaFlow ins Leben gerufen. Heute präsentiert sich die App als ultimativer Leitfaden, der dabei hilft, sich im deutschen Einwanderungsprozess zurechtzufinden. CEO Georg Nauheimer erzählt, was es damit auf sich hat und warum das exist-Programm vom Bundesministerium für Wirtschaft und Energie (BMWE) dabei eine doppelt wichtige Rolle spielt.

Was hat Sie und Ihre Mitgründer*innen motiviert, VisaFlow zu starten?

Im Studium erlebten wir – insbesondere am Beispiel unseres Teammitglieds Cheyenne aus den USA – die Herausforderungen, die sich bei der Einwanderung nach Deutschland ergeben. Die Prozesse zur Erteilung eines Visums oder einer Aufenthaltserlaubnis sind bisher überaus komplex und belastend; für Talente, Hochschulen und Unternehmen. Dabei steht fest, dass allein aufgrund der hiesigen demografischen Entwicklung qualifizierte Migration unverzichtbar ist für den Wirtschaftsstandort Deutschland. Unsere Vision ist deshalb die einer Welt, in der die internationale Mobilität geeigneter Fachkräfte nicht durch intransparente und ineffiziente Visumsprozesse eingeschränkt wird.

Was ist bisher die größte Hürde?

Ob als Student, Fachkraft oder mit einer Unternehmensidee: Wer aus dem nicht-europäischen Ausland den Schritt nach Deutschland wagt, sieht sich häufig einem schwer durchschaubaren bürokratischen Prozess gegenüber. Unklare Anforderungen, widersprüchliche Informationen, schwer verständliche Formulare in Amtsdeutsch und lange Wartezeiten machen das Einwanderungsverfahren zu einem regelrechten Irrgarten. Es bleibt immer die Unsicherheit, dass selbst ein kleiner formaler Fehler zu enormen Verzögerungen führen kann. Und bei der Verlängerung von Visa und Aufenthaltstiteln geht alles von vorne los. Genau hier setzt VisaFlow an: Unser Ziel ist es, diese Komplexität zu reduzieren, Transparenz zu schaffen und die Reibung im System für alle Beteiligten nachhaltig zu minimieren.

Inwiefern kann eine App dabei helfen?

Wir haben ein benutzerfreundliches Programm entwickelt, das den gesamten Prozess der Identifizierung, Ausfüllung und Einreichung erforderlicher Unterlagen optimiert. VisaFlow führt Nutzerinnen und Nutzer wie ein persönlicher Guide durch den in verständliche Schritte zerlegten Prozess – von der ersten Frage „Welches Visum brauche ich eigentlich?“ bis zur vollständigen, korrekt eingereichten Bewerbung. Kein Rätselraten mehr, keine unnötigen Umwege. Statt nüchterner Behördenlogik rückt die App die Perspektive der Menschen in den Mittelpunkt. Sie strukturiert Anforderungen, erinnert an Fristen, erklärt Dokumente in einfacher Sprache und sorgt dafür, dass nichts vergessen wird. Alles folgt einem klaren Flow – genau daher der Name.

Welche Rolle spielt exist – from science to business in diesem Kontext?

Exist ist für uns gleich doppelt wichtig! Zunächst als Förderpartner. Als wir 2024 an der Universität zu Köln mit VisaFlow gestartet sind, war schon der Bewerbungsprozess um das exist Gründungsstipendium ein wertvolles Training, die Zusage dann ein entscheidender Meilenstein. Von zentraler Bedeutung war natürlich die finanzielle Absicherung in der frühen Phase. Insgesamt verschaffte uns das Programm den zeitlichen Freiraum, den klaren Fokus und die notwendige Rückendeckung, um unsere Idee konsequent weiterzuentwickeln und zur Marktreife zu führen. Bis heute profitieren wir außerdem von der starken Signalwirkung, die exist als Qualitätssiegel gegenüber potenziellen Kunden, Partnern und Investoren entfaltet. Auch die Netzwerkkontakte sowie die fachliche Begleitung während des Förderzeitraums haben maßgeblich zu unserem Fortschritt beigetragen. Unser Fazit: Für Gründungsteams aus dem wissensbasierten Ökosystem ist exist nicht nur die bewährte erste Anlaufstelle, sondern die zentrale Förderung, die unbedingt genutzt werden sollte.

Um das Tempo von Gründungen aus der Wissenschaft zu beschleunigen, hat das BMWE den Antragsprozess des exist-Programms vereinfacht. Welche Erfahrungen haben Sie diesbezüglich gemacht?

Vor allem die digitale Antragstellung ist ein großer Fortschritt. Bei uns lief bereits fast alles digital, inklusive Unterschriften und Kommunikation. Eine Erleichterung ist auch der reduzierte Umfang der Antragsunterlagen, insbesondere das kürzere Ideenpapier, das dazu zwingt, wirklich auf den Punkt zu kommen. Die Sachmittelpauschalen haben wir noch nicht genutzt, wir sehen diese allerdings auch als weiteren Schritt der Entbürokratisierung im exist-Programm. Positiv hervorzuheben sind außerdem die überarbeiteten Webseiten, die von Anfang an für Klarheit sorgen. Insgesamt kommt hier also genau das Rezept zum Einsatz, das wir uns auch in unserem Thema wünschen: Digitale Abläufe, mehr Transparenz und weniger Aufwand für alle im System!

Sie sagten, das exist-Programm sei für VisaFlow gleich doppelt wichtig. Was meinen Sie damit?

Tatsächlich verbindet uns auch unsere Mission: Mit der Einrichtung des Global Certification and Consulting Centre (GCCC) durch das BMWE im Jahr 2024 als Teil des exist-Programms haben sich inhaltliche Schnittstellen ergeben. Hintergrund ist die Reform des Aufenthaltsgesetzes, die Nicht-EU-Gründer und -Gründerinnen bei exist-Finanzierung den Zugang zu Visa und Aufenthaltstiteln ermöglicht. Dabei fungiert das GCCC als zentrale Schnittstelle zwischen Auslandsvertretungen, Behörden, Hochschulen und internationalen Gründungsteams. Auch prüft und zertifiziert es stipendienbasierte Gründungsprogramme. Daraus ergeben sich mehrere Ansatzpunkte für eine wertstiftende Zusammenarbeit zwischen dem GCCC und VisaFlow.

Wie könnte eine solche Zusammenarbeit aussehen?Um internationale Gründungen in Deutschland nachhaltig zu fördern, wäre die gezielte Bündelung der jeweiligen Kompetenzen denkbar. GCCC bringt spezialisiertes Fachwissen, ein belastbares Netzwerk sowie Sichtbarkeit im exist-Umfeld in den Prozess ein. VisaFlow steuert eine skalierbare Technologielösung und umfassendes Behördenwissen bei, wodurch sich die Qualität von Visums- und Aufenthaltstitelanträgen bereits im Vorfeld deutlich verbessern lässt. Darüber hinaus sind verschiedene gemeinsame Projekte möglich, etwa Trainingseinheiten zur Digitalisierung von Abläufen sowie zur praxisnahen Umsetzung neuer gesetzlicher Regelungen in den Behörden.

Geben Sie uns noch einen Überblick, wo VisaFlow aktuell steht.Sehr gern. Aktuell arbeiten wir bundesweit mit über 60 Hochschulen zusammen. Wir haben bereits mehr als 4.000 Fälle erfolgreich unterstützt, die Nachfrage ist weiter groß. Daneben treiben wir mit unserem Innovationspartner Rewe Group die Entwicklung einer Produktlinie für Unternehmen und deren Personalabteilungen voran. Für uns ist es zentral, Lösungen stets im Co-Development mit den Nutzerinnen und Nutzern zu entwickeln. In diesem speziellen Fall ist es unser Ziel, eine skalierbare End-to-End-Lösung zu entwickeln, die Unternehmen bei internationalen Einstellungen deutlich entlastet und Bewerberinnen und Bewerbern eine signifikant bessere Onboarding-Erfahrung ermöglicht. Der Plan ist, damit Mitte dieses Jahres an den Start zu gehen.

Herr Nauheimer, vielen Dank für das Gespräch!

Infokasten

Was ist exist?

Das exist-Programm des Bundesministeriums für Wirtschaft und Energie (BMWE) fördert wissensbasierte Gründungen aus Hochschulen und Forschungseinrichtungen. Es stärkt den Transfer von Forschung in marktfähige Produkte und Dienstleistungen und eröffnet Wissenschaftlerinnen und Wissenschaftlern eine klare Karriereoption im Unternehmertum.

exist Gründungsstipendium

Für gründungsinteressierte Studierende, Absolventinnen und Absolventen sowie Wissenschaftlerinnen und Wissenschaftler.

exist Women

Entwicklungen und Aktivitäten zur Förderung und Unterstützung von Gründerinnen aus Hochschulen und Forschungseinrichtungen.

exist Forschungstransfer

Für forschungsbasierte Gründungsvorhaben mit aufwendigen, risikoreichen Entwicklungsarbeiten.

exist Startup Factories

Zehn Leuchttürme des deutschen Startup-Ökosystems zur Steigerung von Anzahl und Qualität wissensbasierter Ausgründungen.

Bewerbungen erfolgen über die Hochschule/Forschungseinrichtung an den Projektträger.

Weitere Informationen unter www.exist.de

Distart: Vom Agentur-Frust zum EdTech-Champion

Wie das 2021 von Thomy Roecklin gegründete und seit 2025 zusammen mit Lucia-Miriam Selbert geführte Leipziger EdTech Distart das Bildungssystem „gegen den Strich bürstet“.

Wer in Deutschland über Start-up-Hubs spricht, landet meist schnell in Berlin oder München. Doch in der sächsischen Metropole Leipzig wächst seit einigen Jahren ein Player heran, der beweist, dass Innovation auch abseits der üblichen Verdächtigen gedeiht: Die Distart Education GmbH. Ihr Treibstoff ist der eklatante Mangel an digitaler Kompetenz in der deutschen Wirtschaft – und der Mut, das „System Bildung“ gegen den Strich zu bürsten.

Wenn „Done for You“ nicht mehr reicht

Die Wurzeln des Unternehmens reichen weiter zurück als das offizielle Gründungsjahr 2021. Gründer Thomy Roecklin setzte jahrelang mit seinen Agenturen MNKY lab und TRDIGITAL digitale Kampagnen für Kund*innen um. Doch im Tagesgeschäft bremste das fehlende Digitalverständnis auf Kundenseite die Projekte immer wieder aus. Die Erkenntnis, dass Deutschland weniger neue Agenturen, sondern mehr digitale Mündigkeit braucht, führte schließlich zum Pivot.

Interessanterweise war der Auslöser für diesen Kurswechsel kein konkretes Kundenprojekt. Auf die Frage nach dem „Aha-Moment“ erklärt Roecklin, dass er lediglich versuchte, Lucia-Miriam Selbert einzuarbeiten, und dabei schockiert feststellte, wie wenig praxisnahe digitale Weiterbildungen existierten. Er baute kurzerhand selbst ein Lernprogramm – ohne zu ahnen, dass daraus einmal Distart entstehen würde. Im Januar 2021 fiel der Startschuss für Distart learn. Mitten in der Pandemie setzte Roecklin auf ein Modell, das sich radikal von klassischen Bildungsträgern unterschied: 100 Prozent remote, aber mit enger persönlicher Betreuung und einem klaren Fokus auf die Praxis.

Das Schnellboot zwischen den Tankern

Distart operiert im sogenannten AZAV-Markt (Akkreditierungs- und Zulassungsverordnung Arbeitsförderung). Während etablierte Bildungsriesen oft mit der Trägheit ihrer Größe kämpfen und bis zu 24 Monate für Lehrplananpassungen benötigen, hat sich Distart als agiler „Qualitäts-Vorreiter“ positioniert.

Für Roecklin ist diese Agilität eine Frage des Überlebens, da sich Jobs und Skills heute schneller verändern als jede klassische Bildungslogik. Er betont, dass man ohne permanente Weiterentwicklung der Inhalte zwangsläufig am Markt vorbei ausbilden würde. Diese Flexibilität ist zudem essenziell für die Zielgruppe: Viele Teilnehmende bilden sich neben ihrem 9-to-5-Job weiter, betreuen Kinder oder pflegen Angehörige und benötigen daher flexible statt starrer Strukturen.

Agency-DNA statt Schulbank-Feeling

Der entscheidende Wettbewerbsvorteil liegt in der Herkunft: Distart ist keine klassische Schule, sondern wurde von Marketern für Marketer gebaut. Diese „Agency-DNA“ durchzieht das gesamte Geschäftsmodell. Mit einer modernen Lernumgebung aus Live-Sessions und asynchronen Deep-Dives spricht das Unternehmen alle Altersgruppen gleichermaßen an.

Auch technologisch ist man der Konkurrenz oft einen Schritt voraus: Als ChatGPT Ende 2022 die Arbeitswelt veränderte, reagierte Distart fast in Echtzeit. Auf die kritische Frage, ob KI das vermittelte Wissen nicht bald obsolet mache, findet Roecklin eine klare Antwort: KI ersetzt keine Menschen, sie ersetzt lediglich Mittelmaß. Während KI das Netz mit generischen Inhalten flutet, steige paradoxerweise der Hunger nach echten Stimmen, Ideen und Perspektiven – Marketing werde also menschlicher.

Bootstrapping und gesundes Wachstum

Der Erfolg gibt dem Konzept recht. Im September 2024 erfolgte die Umfirmierung zur Distart Education GmbH, was den Übergang vom Start-up zum etablierten Bildungsinstitut markierte. Während andere Tech-Unternehmen Personal abbauen mussten, verdoppelte Distart seine Belegschaft beinahe auf über 100 Köpfe und bezog im Oktober 2025 neue Räumlichkeiten im NEO Leipzig.

Besonders bemerkenswert: Das Wachstum ist organisch und gebootstrapped – finanziert aus dem eigenen Cashflow ohne externe Risikokapitalgeber. Das macht Distart unabhängig von Exit-Druck. Seit Februar 2025 verstärkt Lucia-Miriam Selbert als Geschäftsführerin die strategische Ausrichtung.

Dennoch birgt die Skalierung Risiken, da das Geschäftsmodell stark von staatlichen Bildungsgutscheinen abhängt. Auf einen möglichen „Plan B“ angesprochen, erklärt das Unternehmen, dass Förderungen zwar beim Beschleunigen helfen, man Distart aber bewusst so aufbaue, dass langfristig strukturelle Unabhängigkeit erreicht wird. Auch die Qualitätssicherung bei über 100 Mitarbeitenden ist eine Herausforderung. Thomy Roecklin gibt offen zu, dass Wachstum kein Wellnessprogramm ist und es im Getriebe zwangsläufig knirscht. Sein Schlüssel: Qualität darf nicht an Einzelpersonen hängen, sondern muss im gesamten System verankert sein, kombiniert mit echtem Vertrauen in das Team statt Kontrolle.

Der Standort als Statement und Vision

Dass Distart in Leipzig verwurzelt bleibt, ist Teil der Identität. Roecklin sieht im Osten Deutschlands ein enormes, oft unterschätztes Potenzial und erlebt dort viel Talent, Pragmatismus und Lernhunger. Distart versteht sich hier auch als Regionalentwickler.

Die Vision der Gründer geht jedoch über reine Kurse hinaus. Unterstrichen durch Auszeichnungen wie „Top Fernschule 2025“ und „2026“, arbeitet das Team nun an der Gründung der Distart University of Applied Sciences. Das Ziel bis 2030 ist ambitioniert: Ein Alumni-Netzwerk von 25.000 Absolvent*innen. Sollte der komplexe Weg zur staatlichen Anerkennung gelingen, wird Distart endgültig zum gewichtigen Faktor für die digitale Wettbewerbsfähigkeit der Bundesrepublik.

Executive Search 2026

Zwischen Automatisierung und individueller Entscheidung: Wo kann KI im Top-Level-Recruiting einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Kaum ein technologisches Thema hat in den vergangenen Jahren so viele Erwartungen, aber auch Unsicherheiten ausgelöst wie der rasante Fortschritt im Bereich der künstlichen Intelligenz (KI). Ob in der Industrie, der Verwaltung oder im Finanzwesen – KI-Systeme übernehmen zunehmend strukturierte und wiederkehrende Aufgaben, optimieren Prozesse und steigern dadurch die Effizienz des Ressourceneinsatzes. Auch in der Rekrutierung und der Personalauswahl wird der Einsatz von KI inzwischen intensiv diskutiert und in vielen Anwendungsbereichen praktisch erprobt.

Während Algorithmen dabei helfen, große Datenmengen zu analysieren, Dokumente zu strukturieren oder einfache „Matching-Prozesse“ zu unterstützen, stellt sich im gehobenen Executive-Search jedoch die grundsätzliche Frage: Wo kann KI im Top-Level-Recruiting tatsächlich einen Mehrwert stiften, und wo stößt sie an inhaltliche und strukturelle Grenzen?

Was kann KI leisten – und was nicht?

Gerade bei kritischen Führungspositionen zeigt sich: Die Suche nach Persönlichkeiten, die Unternehmen strategisch weiterentwickeln sollen, lässt sich nicht vollständig durch automatisierte Algorithmen übernehmen. Denn KI erkennt Muster, aber keine Potenziale. Sie kann historische Daten auswerten, aber keine Zukunftsszenarien entwickeln – und sie kann Ähnlichkeiten identifizieren, aber keine kulturelle Passung beurteilen. In standardisierten, datengetriebenen Prozessen, beispielsweise bei der Analyse von Qualifikationen, der Bewertung von Branchenerfahrung oder der Strukturierung großer Bewerberpools, kann KI ohne Zweifel Mehrwert liefern. Doch genau dort, wo es um Kontext, Nuancen, unternehmerische Zielbilder und individuelle Wirkungsentfaltung geht, endet der Automatisierungsnutzen Künstlicher Intelligenz.

Warum der Mensch unverzichtbar bleibt

Gerade im Executive Search sind Dialog, Erfahrung und Intuition zentrale Elemente. Die Bewertung von Führungsreife, Veränderungskompetenz oder Ambiguitätstoleranz lässt sich nicht aus Lebensläufen oder Onlineprofilen herauslesen; hier braucht es persönliche Gespräche, strukturierte Interviews, fundierte Diagnostik und die Fähigkeit, nicht nur die fachliche Eignung, sondern auch die Passung der Persönlichkeit zu erkennen. Zudem bewegen sich Unternehmen heute in hochdynamischen Märkten: Strategische Transformationen, Nachfolgeszenarien oder Buy and Build-Konzepte im Private Equity-Kontext erfordern individuelle Lösungen. Gerade dort, wo Führungspersönlichkeiten gesucht werden, die nicht nur den Status quo verwalten, sondern aktiv gestalten sollen, ist ein algorithmisch gesteuerter Auswahlprozess schlicht nicht zielführend.

Leadership in Zeiten von KI

Auch die Anforderungen an Führung verändern sich. Wer heute Unternehmen prägt, muss nicht nur operativ exzellent sein, sondern auch mit Unsicherheit, Komplexität und technologischem Wandel souverän umgehen können. Zukunftsfähige Führung bedeutet, KI-Systeme strategisch einzuordnen, sie in die unterseeischen Prozesse zu integrieren und gleichzeitig die Mitarbeitenden nicht außer Acht zu lassen. Diese doppelte Kompetenz, Technologiekompetenz wie emphatisches Leadership, wird zur Schlüsselanforderung. Dabei genügt es nicht, technische Entwicklungen nur zu kennen.

Entscheidend ist die Fähigkeit, technologische Möglichkeiten kritisch zu reflektieren, verantwortungsvoll einzusetzen und gleichzeitig eine Kultur des Vertrauens, der Lernbereitschaft und der Anpassungsfähigkeit zu fördern. Genau hier entscheidet sich die Qualität moderner Führung. Gerade deshalb braucht es im Auswahlprozess bei Führungspositionen mehr als nur datenbasierte Abgleiche von standardisierten Kompetenzen: Es braucht vielmehr ein tiefes Verständnis für die kulturellen Voraussetzungen, für Veränderungsdynamiken und für das, was eine Führungspersönlichkeit heute glaubwürdig, wirksam und resilient macht.

KI in der Personalentwicklung: Impulse für Coaching und Leadership-Entwicklung

Auch in der Personalentwicklung eröffnet der Einsatz von KI neue Potenziale, insbesondere im Bereich von Führungskräfte-Coachings, Kompetenzanalysen und individuellen Lernpfaden. Moderne Systeme können Verhaltensmuster analysieren, Entwicklungsbedarfe frühzeitig identifizieren und gezielte Trainingsformate entwickeln. So lassen sich Führungspersönlichkeiten gezielt und datengestützt bei ihrer Weiterentwicklung begleiten. Entscheidend bleibt dabei: KI liefert Hinweise, keine unumstößlichen Wahrheiten. Sie kann ein wirksames Werkzeug sein, um Reflexionsprozesse anzustoßen und Entwicklung zu strukturieren – sie ersetzt jedoch nicht den Dialog, das Vertrauen und die persönliche Erfahrung, die hochwertiges Coaching und nachhaltige Führungsentwicklung ausmachen.

Fazit: Executive Search neu denken

Nicht nur Unternehmen, auch Führungspersönlichkeiten selbst profitieren von einer individuellen Begleitung. Die richtigen Fragen, ein Perspektivwechsel, eine ehrliche Einschätzung von Timing, Positionierung und Zielbild: All diese Punkte sind nur im persönlichen Austausch möglich. Ja – KI-Anwendungen können dabei wertvolle Impulse liefern. Aber die eigentliche Auseinandersetzung mit der eigenen Zukunft bleibt eine zutiefst menschliche. Zugleich wird der Beratungsprozess datengetriebener, transparenter und oft auch schneller. Wer heute Executive Search professionell betreibt, kombiniert fundierte Diagnostik mit technologischer Unterstützung, aber niemals zulasten der Individualität.

KI wird den Executive Search-Prozess signifikant verändern, jedoch nicht ersetzen. Die Stärken liegen in der Datenstrukturierung, der Effizienzsteigerung durch gezielte Analysen sowie bei der Übernahme repetitiver Aufgaben. Doch die finale Auswahl, die Bewertung der Passung und das strategische Matching bleiben Aufgaben, die tiefes menschliches Verständnis, zukunftsgerichtete Beratungskompetenz und wertschätzende Dialogkultur erfordern. Die Zukunft liegt in der Verbindung von KI als Werkzeug und erfahrenen Beraterinnen und Beratern, die mit unternehmerischem Verständnis und menschlicher Urteilskraft die richtigen Entscheidungen ermöglichen. Denn am Ende geht es nicht um das Entweder-oder von Mensch und Maschine, sondern um ein intelligentes Zusammenspiel im Dienst besserer Entscheidungen, nachhaltiger Besetzungen und langfristigem Unternehmenserfolg.

Dies ist ein Beitrag aus der StartingUp 01/26 – hier kannst du die gesamt Ausgabe kostenfrei lesen: https://t1p.de/p8gop

Der Autor Dr. Jochen Becker ist geschäftsführender Gesellschafter der HAPEKO Executive Partner GmbH. Mit seinem Team betreut er internationale Private Equity-Gesellschaften und unterstützt diese bei der Besetzung von Schlüsselpositionen in deren Portfoliounternehmen.

Gründer*in der Woche: syntik – High-Tech im Herzen der Industrie

Wie Mert Erdoğan mit syntik den Mittelstand fit für die Zukunft machen will, indem er Unternehmen ganzheitlich von der KI-Strategie über das Mitarbeitendentraining bis hin zur technischen Umsetzung individueller Softwarelösungen begleitet.

Vom sicheren Management-Sessel in das Wagnis der Selbständigkeit – diesen Weg wählen viele, doch nur wenige tun es mit einem so klaren Fokus auf die Old Economy. Mert Erdoğan, selbst Alumni der Universität Siegen, sah jahrelang eine wachsende Kluft: Auf der einen Seite die rasanten Fortschritte in der KI-Entwicklung, auf der anderen Seite ein deutscher Mittelstand, der oft noch mit Excel-Tabellen und Papierbergen kämpft.

„Ich habe in vielen Projekten gesehen, wie groß das Potenzial von KI ist. Vor allem in Bereichen, in denen heute noch unnötig viele repetitive Aufgaben manuell erledigt werden. Das Frustrierende war, dass diese Use Cases echten Mehrwert schaffen könnten, aber gerade im Mittelstand fehlt oft das Know-how, sie technisch und wirtschaftlich richtig einzuordnen. Genau da wollte ich ansetzen“, sagt Mert. Seine Antwort darauf ist syntik.

Der Dolmetscher zwischen zwei Welten

Das Problem vieler Traditionsunternehmen ist nicht der Unwille zur Innovation, sondern die Überforderung durch die Komplexität. Genau hier setzt das Geschäftsmodell von syntik an. Das 2025 im Siegerland gegründete Start-up versteht sich weniger als klassische IT-Beratung, sondern vielmehr als Übersetzer und Brückenbauer.

„Viele haben Angst vor großen KI-Investitionen ohne entsprechendem ROI und der Intransparenz dahinter. Wir übersetzen das Thema in verständliche, wirtschaftlich greifbare Schritte. Was muss individuell entwickelt werden, wie viel kostet dies, gibt es ggf. Fertige Lösungen. So machen wir aus Unsicherheit konkrete Handlungsmöglichkeiten“, so Mert.

Die Philosophie ist simpel: Technologie muss demokratisiert werden. Syntik holt die Unternehmen dort ab, wo sie stehen. Das Portfolio ruht dabei auf drei Säulen: Einer strategischen Beratung, die echte Anwendungsfälle jenseits von Spielereien identifiziert, einem umfangreichen Trainingsprogramm, das den Mitarbeitenden die Angst vor der "Black Box" KI nimmt, und schließlich der harten technischen Umsetzung individueller Softwarelösungen.

Alltagstauglichkeit statt KI-Schnickschnack

In einer Branche, die oft von Buzzwords und abstrakten Visionen dominiert wird, wirkt der Ansatz der Siegener erfrischend pragmatisch. Während etablierte IT-Riesen und schicke KI-Boutiquen aus den Metropolen sich oft auf DAX-Konzerne stürzen und entsprechende Preisschilder aufrufen, lässt syntik diese Nische bewusst links liegen.

Das Alleinstellungsmerkmal liegt in der kulturellen Passung. Die Macher hinter syntik treten nicht als abgehobene Tech-Evangelisten auf, sondern als Partner auf Augenhöhe. Sie sprechen die Sprache der Ingenieur*innen und Kaufleute im Mittelstand.

„Wir kommen nicht mit besonderen Folien, sondern mit echtem Verständnis für die Herausforderungen im Alltag. Ich kenne den Mittelstand, weil ich selbst aus dieser Welt komme. Mein Vater arbeitet sei über 20 Jahren bei den Deutschen Edelstahlwerke (DEW).  Wir reden nicht über Visionen, wir reden über Lösungen, die heute schon etwas besser machen in den kaufmännischen Prozessen“, so Mert.

Dieser „Siegerländer Pragmatismus“ kommt an. Statt theoretischer Powerpoints liefert das Team Lösungen, die funktionieren – sei es die Automatisierung der Angebotserstellung oder die Optimierung der Materialdisposition. Es geht darum, KI vom abstrakten Gespenst zum nützlichen Werkzeug am Fließband oder im Büro zu machen.

„Unsere Kunden sagen oft ‚Das ist kein KI-Schnickschnack, das hilft uns wirklich im Alltag.‘ Und genau das ist unser Anspruch, Lösungen zu liefern, die sofort spürbar etwas verbessern und Kapazitäten für relevante Aufgaben frei werden“, so Mert.

Bootstrapping statt Venture Capital

Auch bei der Finanzierung bleibt Mert Erdoğan seiner Linie treu. Statt sich frühzeitig von Venture-Capital-Gebenden abhängig zu machen und Anteile gegen „schnelles Geld“ zu tauschen, wählte syntik den Weg des Bootstrappings. Das Unternehmen wächst organisch aus dem eigenen Cashflow.

Dieser Weg ist steiniger und erfordert mehr Geduld, signalisiert den Kund*innen aber auch Stabilität: Hier wird kein Geld verbrannt, um künstliche Wachstumsziele zu erreichen. Das Stammkapital der GmbH wurde klassisch eingebracht, das Risiko liegt beim Gründer.

 „Wir wollen nur unseren Kunden verpflichtet sein, nicht irgendwelchen Wachstumsverpflichtungen von Investoren. Unabhängigkeit heißt für uns, dass wir selbst entscheiden, was sinnvoll ist. Und wir wachsen nur dort, wo es echten Mehrwert bringt. Wenn wir bestimmte KI-Produkte entsprechend etabliert haben und den Bedarf am stärksten an bestimmten Stellen sehen, können wir ggf. über Investoren sprechen“, betont der CEO.

Dieses Vorgehen schafft Vertrauen gerade beim Mittelstand, der oft skeptisch gegenüber fremdfinanzierten Start-up-Blasen ist.

Der Blick nach vorn: Fokus auf die Schwergewichte

Trotz der jungen Firmengeschichte – die Gründung erfolgte erst im Sommer 2025 – kann das Team bereits auf Referenzen aus über einem Dutzend Branchen verweisen. Im Gespräch mit dem Alumniverbund der Uni Siegen machte Erdoğan deutlich, wohin die Reise gehen soll: Der Fokus verschiebt sich zunehmend auf stark regulierte und dokumentationsintensive Sektoren wie Pharma, Chemie und Automotive.

Gerade in diesen Bereichen, wo Fehler teuer sind und Prozesse strikten Normen unterliegen, sieht der Gründer das größte Potenzial für KI-gestützte Effizienzsteigerung. Damit besetzt das Start-up seinen „Sweet Spot“ im Markt: Syntik agiert agiler und nahbarer als die nicht selten „trägen Tanker der Großberatungen“, ist aber gleichzeitig strategisch weitsichtiger als reine Software-Entwickler, die oft nur Code liefern, ohne die komplexen Prozesse des Mittelstands wirklich zu verstehen.

„Wir geben uns nicht mit Oberflächenlösungen zufrieden. Unser Ziel ist es, KI dort nutzbar zu machen, wo sie bisher scheitert. In kritischen Prozessen, unter realen Bedingungen mit echten Ergebnissen. Beim automatisierten Abgleich von Ausschreibungen, der strukturierten Verarbeitung technischer Anfragen, präzisen Forecasts in der Instandhaltung oder intelligenten Assistenzsystemen in Form von Chatbots für Normen und Richtlinien mit entsprechender Logik, Aktionen in Systemen und Mehrsprachigkeit“, so Mert.

Langfristig will das syntik den Schritt vom reinen Dienstleister zum Produktanbieter vollziehen. Geplant ist die Entwicklung standardisierter KI-Module, die sich wie Bausteine in verschiedene Unternehmenslandschaften integrieren lassen.

Mit syntik beweist Mert Erdoğan einmal mehr, dass Innovation nicht zwangsläufig aus den Metropolen kommen muss. Manchmal entsteht sie genau dort, wo sie am dringendsten gebraucht wird: Mitten im Maschinenraum der deutschen Wirtschaft.