Aktuelle Events
Der digitale Produktpass: fünf Erfolgsfaktoren für Unternehmen
Die verpflichtende Vorgabe für digitale Produktpässe (DPPs) lässt nicht mehr lange auf sich warten. Jetzt gilt es, proaktiv eine Datenstrategie zu entwerfen, um die die nahtlose Erfassung, Verwaltung und gemeinsame Nutzung von Daten zu erleichtern.
Erste Marken machen es vor: Ein Jeanshersteller wirbt mit dem Versprechen einer lebenslangen, kostenlosen Reparatur für jede verkaufte Jeans. Hierfür macht das Unternehmen den gesamten Herstellungs-, Transport- und Lagerprozess transparent: Woher stammt der Rohstoff, wer spinnt, webt und färbt den Stoff, woher kommen die Knöpfe und Nieten, wo wird gefertigt und verpackt, und wer liefert und lagert die fertigen Produkte. Ziel ist es, immer die passenden Teile für eine Reparatur zu haben und den Produktionsprozess nach ökologischen und sozialen Gesichtspunkten offen zu legen.
Ein anderer Anbieter experimentiert mit einer kreislauffähigen Modekollektion und hat den digitalen Produktpass in Form eines NFC-Tags in jedes Kleidungsstück eingenäht. Dieser Speicherchip soll alle wichtigen Informationen über Material, Produktion und den richtigen Rückgabekanal enthalten, so dass seine Bestandteile später genau identifiziert werden können.
Ob Lieferkette oder Produkthaftung: Es ist zeitlich absehbar, dass für Hersteller immer mehr Vorschriften über erweiterte Informationspflichten, längere Haftungszeiten und die Reparierbarkeit und Recyclingfähigkeit von Produkten entstehen.
Die Voraussetzung für die Nachverfolgbarkeit all dieser Daten ist ein zentrales Datenmanagementsystem. Dies aufzubauen, kostet Zeit. Firmen sollten jetzt damit anfangen.
Hintergrundinformationen zum DPP
Der digitale Produktpass (DPP) ist eine dieser Gesetzesinitiativen. Er wurde mit der neuen EU-Verordnung über Ökodesign für nachhaltige Produkte (ESPR) eingeführt und dient als Instrument zur Verbesserung der Transparenz und Förderung der Kreislaufwirtschaft. Ihr Ziel besteht darin, Abfälle zu minimieren und die Ressourcen durch Förderung von Nachhaltigkeit und Wiederverwendung optimal zu nutzen. Diese Vorteile entstehen durch den Austausch umfassender Produktinformationen über die gesamte Wertschöpfungskette hinweg. Der DPP fördert die Reparatur und das Recycling von Produkten und zeigt die Umweltauswirkungen während des Lebenszyklus. Ein weiteres Ziel besteht darin, nachhaltige und wiederverwendbare Produkte als Standard auf dem EU-Markt zu etablieren.
Diese neue Methode der digitalen Aufzeichnung und des Austauschs von Produktinformationen in Bezug auf ökologische Nachhaltigkeitsfaktoren erfordert ein Umdenken von international agierenden Unternehmen, die Produkte in der EU verkaufen. Künftig müssen sie digitale Produktpässe in ihren übergreifenden Rahmen für Umwelt, Soziales und Governance (ESG) integrieren.
Dabei sollten sie die folgenden fünf wichtigen Erkenntnisse für einen effektiven Umgang mit den Produktpässen berücksichtigen.
1. Um was es sich beim DPP handelt
Der digitale Produktpass dient als dynamisches digitales Dossier, das den gesamten Lebenszyklus eines Produkts – einschließlich Konzeption, Design, Herstellung und Vertrieb – erfasst und in Form eines „digitalen Zwillings“ zugänglich macht. Er fungiert als digitale Methode zur Aufzeichnung und Weitergabe umfassender Informationen über ein Produkt und seine Bestandteile. Das fördert die Transparenz, Rückverfolgbarkeit und Nachhaltigkeit in der gesamten Lieferkette.
Als Beitrag zur Kreislaufwirtschaft liefern DPPs entscheidende Details über die ökologische Nachhaltigkeit von Produkten. Sie versorgen Interessengruppen wie Regulierungsbehörden und Verbraucher mit Informationen über Reparatur, Recycling, Berichterstattung, Produktnutzung und -auswirkungen. Der digitale Produktpass erfordert eine eindeutige Produktkennung, Firmen können jedoch auch bestehende Technologien wie Barcodes, QR-Codes, RFID-Tags oder etwas Ähnliches verwenden.
Scannt ein Verbraucher beispielsweise einen QR-Code auf dem Etikett eines Smartphones, wird er sofort weitergeleitet und mit dem entsprechenden DPP verbunden. Dieser Pass enthält umfassende Informationen zu den Nachhaltigkeitsmerkmalen des Produkts (Beschaffung, Materialzusammensetzung, Herstellungsverfahren, Reparatur- und Demontagemöglichkeiten sowie Recycling-Richtlinien).
2. Worauf der DPP abzielt
Das DPP soll sowohl Verbrauchern als auch Unternehmen dabei helfen, beim Kauf von Produkten gut informierte Entscheidungen zu treffen. Außerdem soll er die Prozesse im Zusammenhang mit Reparaturen und Recycling rationalisieren und tiefere Einblicke in die Umweltauswirkungen während des gesamten Lebenszyklus eines Produkts ermöglichen.
Darüber hinaus soll der Produktpass die Behörden bei der Durchführung wirksamerer Prüfungen und Kontrollen unterstützen, indem er zuverlässige Informationen in Echtzeit liefert.
3. Wer sich für den DPP interessieren sollte
Für Unternehmen, die beispielsweise Textilien, Elektronik, Bauprodukte oder Batterien herstellen und diese in der EU verkaufen, spielt der DPP eine wichtige Rolle. Die für die ESPR vorgeschlagenen Regeln gelten für alle Produkte in der EU – unabhängig davon, wo sie hergestellt werden. Lediglich für einige wenige Branchen (etwa Lebensmittel, Futtermittel oder medizinische Produkte) gelten andere Vorschriften.
Der DPP soll für etwa 30 Kategorien gelten und voraussichtlich ab 2026 eingeführt werden, der Starttermin hängt von der endgültigen Genehmigung ab. Als erste betroffene Produktkategorie kommen dann Batterien an die Reihe, kurz danach werden auch Bekleidung und Unterhaltungselektronik den Vorschriften entsprechen müssen.
4. Was der DPP für Unternehmen bedeutet
Die Umsetzung des Produktpasses erfordert die Erfassung, Verwaltung und Weitergabe relevanter Informationen wie Produktdaten und Lieferkettendetails. Im Rahmen des DPP wurden verschiedene Anforderungen festgelegt, darunter Haltbarkeit, Wiederverwendbarkeit, Aufrüstbarkeit und Reparierbarkeit. Auch Stoffe, die sich auf die Kreislaufwirtschaft auswirken, spielen eine Rolle, ebenso wie Energie- und Ressourceneffizienz, Recycling und der Umweltfußabdruck. Die Art der erfassten Informationen hängt vom Produkt ab. So enthält der DPP für Unterhaltungselektronik ausführliche Informationen über Materialien, Reparaturen und Recyclingdaten, während der DPP für Verpackungen den Prozentsatz an recyceltem Material hervorhebt, aber keine Reparaturinformationen beinhaltet.
Zu den Hauptbestandteilen eines DPP zählt die Produktidentität und -historie: Eindeutige Identifikatoren ermöglichen es den Beteiligten, das Produkt bis zu seinem Ursprung zurückzuverfolgen. Diese Funktion hilft bei der Bekämpfung von Produktfälschungen. Auch die Transparenz der Lieferkette gilt als wichtiger Baustein: Die Echtzeitverfolgung dokumentiert die Reise durch die gesamte Lieferkette.
Diese Transparenz ermöglicht es, Ineffizienzen zu erkennen, Risiken zu verringern und die Einhaltung ethischer und ökologischer Standards zu gewährleisten. Last, but not least erfasst ein DPP auch noch den gesamten Lebenszyklus eines Produkts. Diese Fülle an Informationen ermöglicht es den Verantwortlichen, fundierte Entscheidungen zu treffen, Prozesse zu optimieren und die Produktqualität insgesamt zu verbessern.
5. Die Rolle von Stammdaten im DPP-Ökosystem
Hersteller und Zulieferer geben Produktdaten auf unterschiedliche Weise für DPPs frei. Viele Unternehmen, die digitale Produktpässe einführen wollen, stehen jedoch vor der Herausforderung, dass sie keinen Einblick in ihre Lieferketten haben. Für bessere Einblicke und mehr Rentabilität ist es für alle Organisationen in der Lieferkette unerlässlich, zusammenzuarbeiten und die erforderlichen Informationen effizient auszutauschen.
Hierbei kommt der Verwaltung von Stammdaten eine Schlüsselrolle zu, da die für die Nachhaltigkeit eines Produkts relevanten Informationen oft über verschiedene Geschäftssysteme verstreut sind. Um einen verlässlichen DPP-Rahmen zu schaffen, müssen der Chief Data Officer (CDO) und der Chief Sustainability Officer (CSO) in einem Unternehmen diese Daten an einem zentralen Speicherort sammeln und die Governance durch Deduplizierung, Datenqualitätskontrolle und Workflow-Automatisierung sicherstellen.
Um einen effektiven DPP zu erstellen, ist es wichtig, den Lebenszyklus eines Produkts vollständig zu verstehen. Firmen müssen dazu in der Lage sein, Informationen über die gesamte Lieferkette hinweg problemlos zu verfolgen. Dazu benötigen sie Systeme, die verschiedene Arten von Daten erfassen und organisieren können, etwa Nachhaltigkeitsdetails, Firmenstandort und Materialzusammensetzung.
Diese Systeme müssen auch mit den Änderungen der DPP-Standards Schritt halten. Um die Vorschriften einzuhalten, müssen Betriebe wichtige Daten sammeln und sie sicher an die richtigen Personen in der Lieferkette weitergeben. Der Schwerpunkt sollte dabei auf Initiativen zur Produktverbesserung und zur Minimierung der Umweltauswirkungen liegen.
Ein Produkt-Informationsmanagement-System (PIM) mit eingebetteter Datenverwaltung kann als Eckpfeiler im DPP-Ökosystem dienen. Es gewährleistet die Zuverlässigkeit standardisierter Informationen, denn nur diese ermöglichen es Unternehmen, ihren Kunden und Geschäftspartnern Details und tiefgehende Einblicke in Produktmaterialien zu vermitteln.
PIM-Systeme spielen auch eine entscheidende Rolle bei der nahtlosen Integration von DPPs in verschiedene Systeme innerhalb einer Lieferkette, indem sie die Interoperabilität mit den Enterprise Resource Planning, Product Lifecycle Management, Master Data Management (MDM) und anderen Plattformen verbessern. Dank dieser Flexibilität gelingt es Firmen, sich an veränderte Eigenschaften, Vorschriften und Marktanforderungen anzupassen und so Skalierbarkeit und Agilität zu gewährleisten.
Trotz der Fähigkeiten eines PIM-Systems unterstreichen die zahlreichen Datendomänen die Notwendigkeit einer Plattform, die Beziehungen und komplizierte Hierarchien verwalten kann. Eine Standard-PIM-Lösung deckt möglicherweise nicht alle DPP-Anforderungen ab, wenn es beispielsweise um die Speicherung von Lieferanteninformationen neben Produktdaten, Standorten und Materialinformationen geht. Es empfiehlt sich, den Ansatz mit einer Multidomain-MDM-Lösung zu kombinieren, die präzise Daten über alle Bereiche hinweg bereitstellt. Dies versetzt CDOs und CSOs in die Lage, alle Datenbeziehungen und komplexen Hierarchien zu verwalten, die für DPPs unerlässlich sind.
Was kommt als Nächstes?
Die Einbindung von DPPs in den primären ESG-Rahmen eines Unternehmens zählt mittlerweile zum Pflichtprogramm, da die verpflichtende Vorgabe für DPPs nicht mehr lange auf sich warten lässt. Jetzt ist der richtige Zeitpunkt für Unternehmen, um proaktiv eine umfassende Datenstrategie zu entwerfen und Lösungen zu finden, die die nahtlose Erfassung, Verwaltung und gemeinsame Nutzung von Daten erleichtern. Dieser proaktive Ansatz ermöglicht es Firmen, den Entwicklungen der Vorschriften einen Schritt voraus sein.
Der Autor Levent Ergin ist Global Chief ESG Sustainability Strategist beim Datenmanagement-Spezialisten Informatica und arbeitet mit führenden Organisationen zusammen, ihre ESG-Berichterstattung zu beschleunigen und Nachhaltigkeitsentscheidungen zu unterstützen.
Diese Artikel könnten Sie auch interessieren:
Produktivität statt Überstunden: Wie Echtzeitdaten das Finanzwesen von morgen steuern
Das KI-gestützte Fintech Embat beendet das Excel-Chaos im Treasury und macht Finanzteams mit Echtzeitdaten fit für die Zukunft.
Berlin, 28. April 2026 – Es ist ein bekanntes Bild in den Finanz- und Treasury-Abteilungen des deutschen Mittelstands: Wenn der Monatsabschluss naht oder Ad-hoc-Berichte für die Geschäftsführung benötigt werden, bleiben die Schreibtischlampen bis spät in die Nacht an. Die manuelle Zusammenführung von Daten aus unterschiedlichen Bankportalen und historisch gewachsenen Excel-Listen kostet nicht nur Nerven, sondern vor allem wertvolle Zeit.
Das schnell wachsende Fintech Embat tritt an, um genau diesen Engpass aufzulösen. André Reimers, Head of DACH, treibt diese Mission im deutschsprachigen Raum als Gesicht des Unternehmens voran. Seine Kernüberzeugung: Wer heute noch regelmäßig Überstunden machen muss, um finanzielle Transparenz zu schaffen, leidet nicht unter mangelnder Einsatzbereitschaft – er leidet unter einem strukturellen Datenproblem.
Beeindruckendes Wachstum durch das Lösen echter Pain Points
Dass der Schmerz in den Finanzabteilungen groß und der Bedarf an modernen Lösungen riesig ist, belegen die Zahlen, mit denen Embat den europäischen Markt aufrollt. Mit einem starken Kundenwachstum im deutschen Markt von über 250 Prozent im vergangenen Jahr und mittlerweile mehr als 400 mittelständischen und großen Unternehmenskunden weltweit hat sich das Fintech als fester Player etabliert. Das stetig wachsende Transaktionsvolumen von 250 Millionen Euro zeigt deutlich: Der Wechsel von fehleranfälligen Tabellen zu automatisierten Cloud-Lösungen ist in vollem Gange.
Der Weg aus der Excel-Falle
Mit seiner Technologie nimmt Embat den Kampf gegen ineffiziente Prozesse im Treasury auf. Anstatt hochqualifizierte Mitarbeiter mit repetitiver Datenpflege zu binden, automatisiert das System die Konsolidierung aller relevanten Finanzdaten.
„Die Erwartungshaltung, dass komplexe Finanzanalysen zwingend mit langen Abenden im Büro einhergehen müssen, ist schlichtweg nicht mehr zeitgemäß“, erklärt André Reimers. „Wenn Cashflow, Liquidität und Runways per Knopfdruck in Echtzeit abrufbar sind, ändert sich die gesamte Arbeitsdynamik. Finanzteams können aus dem reaktiven Modus heraustreten und sich auf die strategische Steuerung des Unternehmens konzentrieren.“
Hohe Innovationskraft trifft auf lokales DACH-Verständnis
Embat profitiert von einer enormen Innovationsgeschwindigkeit und Agilität, auf der die starke technologische Basis des Unternehmens beruht. Wie diese passgenau auf die spezifischen Bedürfnisse des deutschen Marktes übersetzt wird und für eine hohe lokale Marktpräsenz sorgt, zeigt André Reimers an den Standorten in München und Berlin.
Von diesen beiden Standorten aus steuert André Reimers das DACH-Geschäft und stellt das tiefe Verständnis für die komplexen Strukturen und hohen Sicherheitsbedürfnisse des deutschen Mittelstands sicher. Das Team zeigt dabei, wie moderne, dezentrale Zusammenarbeit erfolgreich funktioniert. Das Vertrauen der stetig wachsenden deutschen Kundenbasis fußt dabei auf dieser geballten lokalen Expertise gepaart mit der unerschütterlichen Zuverlässigkeit der Systeme.
Führen durch Resultate, nicht durch Anwesenheit
Die Botschaft an die Finanzwelt ist klar: Moderne Führung, hohe Produktivität und Skalierbarkeit erfordern keine starren Kontrollmechanismen oder endlosen Arbeitstage. Sie erfordern radikale Datentransparenz und die richtigen digitalen Werkzeuge. Wenn die Daten in Echtzeit fließen, sinkt die Fehlerquote, die Entscheidungsgeschwindigkeit steigt – und die systembedingten Überstunden im Treasury gehören endgültig der Vergangenheit an.
Über Embat:
Embat ist ein KI-gestütztes FinTech mit Schwerpunkt auf Treasury-Management, das es mittelständischen Unternehmen und Großkonzernen ermöglicht, ihre Finanzprozesse in Echtzeit zu zentralisieren. Gegründet von Antonio Berga und Carlos Serrano – ehemaligen J.P. Morgan-Managern mit umfassender Erfahrung im Corporate Banking – sowie Tomás Gil, dem ehemaligen CTO von Fintonic, entstand die Plattform mit der Mission, die Finanzabteilung zu digitalisieren. Die klare Prämisse dabei: Technologie von Finanzexperten für Finanzexperten.
Durch seine hybride Konnektivität lässt sich Embat in über 15.000 Banken und führende ERP-Systeme integrieren und beseitigt so jegliche Datenfragmentierung. Das wichtigste Alleinstellungsmerkmal ist TellMe, ein „Agentic Treasury Analyst“ (autonomer KI-Analyst), der Cashflow-Muster erkennt, komplexe Kontenabstimmungen automatisiert und strategische Entscheidungen zur Optimierung der Liquidität vorschlägt.
Mit Niederlassungen in Madrid, London, Berlin und München definiert Embat die Zukunft des Corporate Finance neu.
Von der Medienmarke zur Infrastruktur: Was Gründende von MILC über Web3 lernen können, ohne in den Hype zu tappen
Viele Start-ups scheitern nicht an Ideen, sondern an der falschen Flughöhe. Sie bauen Produkte für einen Markt, den es in dieser Form noch gar nicht gibt, oder sie verwechseln Aufmerksamkeit mit Substanz. Gerade im Web3-Umfeld war das in den vergangenen Jahren oft zu beobachten. Viel Kapital floss in Narrative, deutlich weniger in tragfähige Modelle.
Der Fall MILC (Media Industry Licensing Content) ist deshalb interessant, weil er einen anderen Weg zeigt. Hinter dem Projekt steht mit Hendrik Hey kein Krypto-Promoter, sondern ein Medienunternehmer mit jahrzehntelanger Markterfahrung. Der Ausgangspunkt war nicht die Frage, wie man einen Token in den Markt drückt, sondern welches reale Problem so groß ist, dass sich dafür eine neue Infrastruktur lohnt.
Nicht vom Hype her denken, sondern vom Marktproblem
Ein häufiger Fehler von Gründenden besteht darin, sich zuerst in eine Technologie zu verlieben und erst danach nach ihrem Zweck zu suchen. Bei MILC scheint die Reihenfolge umgekehrt zu sein. Das Kernproblem ist schnell beschrieben: Medien lassen sich heute global verbreiten, aber Rechte, Beteiligungen und Erlöse sind weiterhin in langsamen, teuren und oft schwer nachvollziehbaren Strukturen organisiert.
Genau dort setzt das Modell an. Nicht als weiteres Medienportal, sondern als Infrastruktur für Lizenzierung, Rechteverwaltung und Erlöslogik. Für Gründende ist das die erste wichtige Lektion: Märkte mit hoher Reibung sind oft interessanter als Märkte mit hoher Lautstärke.
Je komplexer ein Markt in der Abwicklung ist, desto größer ist der Hebel für ein gutes Infrastrukturprodukt. Wer es schafft, einen Prozess nicht nur digitaler, sondern verlässlicher und klarer zu machen, baut näher am echten Wert als jemand, der bloß eine weitere Oberfläche produziert.
Eine starke These ist noch kein Geschäftsmodell
Start-ups brauchen eine große Erzählung, aber sie dürfen sich nicht in ihr verlieren. Auch MILC arbeitet mit einer großen These: dass digitale Eigentums- und Beteiligungsmodelle im Medienbereich neu organisiert werden müssen. Entscheidend ist jedoch, ob diese These in ein funktionierendes Modell übersetzt werden kann.
Genau hier wird es für Gründende spannend. Ein Projekt wie MILC muss nicht nur technisch funktionieren. Es muss mehrere Gruppen gleichzeitig überzeugen: Rechteinhaber, Produzenten, Lizenznehmer, kreative Talente, mögliche Partner und später womöglich institutionelle Kapitalgeber. Das bedeutet: Die eigentliche Herausforderung liegt nicht im Feature, sondern im Zusammenspiel aus Produkt, Recht, Vertrieb und Vertrauen.
Viele junge Unternehmen unterschätzen diese Mehrdimensionalität. Sie bauen zu stark aus Sicht des Entwicklers und zu wenig aus Sicht eines Marktes, der sich nur dann bewegt, wenn Risiko sinkt. Infrastruktur heißt deshalb immer auch: Komplexität für andere reduzieren.
Warum Timing wichtiger ist als Vision allein
Ein weiteres Learning aus Projekten wie MILC betrifft das Timing. Dieselbe Idee wäre vor einigen Jahren vermutlich schwerer vermittelbar gewesen. Heute treffen mehrere Trends aufeinander: KI senkt Produktionskosten, digitale Inhalte zirkulieren schneller denn je, Plattformabhängigkeiten werden sichtbarer, und die Diskussion über Eigentum an Daten, Inhalten und digitalen Assets ist deutlich reifer geworden.
Für Gründende heißt das: Eine starke Idee reicht nicht. Sie muss in einem Moment auftauchen, in dem der Markt ihren Nutzen erkennen kann. Timing ist kein Nebenaspekt, sondern oft der Unterschied zwischen zu früh und genau richtig.
Das gilt nicht nur für Web3. Es gilt für fast jede Infrastrukturidee. Wer Prozesse verbessern will, die bislang mit Excel, E-Mail und juristischen Einzelabsprachen laufen, braucht Geduld und einen Markt, der Veränderungsdruck spürt. Ohne diesen Druck bleibt selbst das bessere System nur eine gute Präsentation.
Regulierung ist nicht der Feind, sondern Teil des Produkts
Gerade Gründende aus digitalen Szenen betrachten Regulierung oft als lästige Pflicht. Das ist verständlich, aber zu kurz gedacht. In Bereichen, in denen Eigentum, Geldflüsse und grenzüberschreitende Nutzung eine Rolle spielen, ist Regulierung kein Add-on. Sie ist Teil des Produkts.
Das ist einer der interessantesten Punkte an der MILC-Strategie. Der Anspruch ist nicht, sich möglichst weit außerhalb institutioneller Logiken zu bewegen, sondern Brücken in genau diese Welt zu bauen. Für viele Start-ups liegt darin eine unbequeme, aber wichtige Einsicht: Wer in sensiblen Märkten wachsen will, muss nicht nur technologisch, sondern auch strukturell glaubwürdig sein.
Das betrifft Vertragslogiken, Auditierbarkeit, Verantwortlichkeiten und Kapitalfähigkeit. Gerade im europäischen Kontext kann das ein Vorteil sein. Vertrauen entsteht nicht nur durch gutes Design, sondern auch durch belastbare Regeln.
Gründende müssen das Problem größer denken als das Produkt
MILC wirkt deshalb weniger wie ein einzelnes Tool und eher wie der Versuch, eine ganze Wertschöpfungskette neu zu sortieren. Ob das gelingt, ist offen. Aber die Perspektive dahinter ist lehrreich. Gute Start-ups stellen nicht nur die Frage, was ihr Produkt kann. Sie fragen, welches Systemverhalten sich dadurch verändert.
Für Gründende bedeutet das: Der eigentliche Wert eines Produkts entsteht oft erst dann, wenn es Teil einer größeren Marktlogik wird. Wer nur ein Feature anbietet, bleibt austauschbar. Wer eine Kategorie neu schneidet, hat die Chance, Standards zu setzen. Das ist riskanter und langsamer, aber oft auch nachhaltiger. Vor allem in Märkten, in denen sich Macht aus intransparenten Prozessen speist, können neue Standards mehr bewirken als einzelne Innovationen.
Was man als Gründende aus MILC mitnehmen kann
Drei Punkte stechen besonders hervor:
Erstens: Starte nicht mit der Technologie, sondern mit einem Marktversagen. Wo Reibung groß ist, liegt Potenzial.
Zweitens: Infrastruktur verkauft sich nicht über Glamour, sondern über Verlässlichkeit. Wer Prozesse neu ordnet, braucht Vertrauen in Produkt, Struktur und Team.
Drittens: Große Visionen brauchen Anschlussfähigkeit. Ein Start-up wird nicht dadurch stark, dass es alles anders machen will, sondern dadurch, dass es das Neue mit den Anforderungen realer Märkte kompatibel macht.
Zwischen Hype und Handwerk
Web3 war in den vergangenen Jahren oft eine Bühne für überzogene Versprechen. Umso interessanter sind Projekte, die das Thema auf Handwerk zurückholen: auf Eigentum, Regeln, Prozesse, Beteiligung. Genau dort entscheidet sich am Ende, ob aus einer Idee ein Markt wird.
Für Gründende ist das die vielleicht wichtigste Botschaft. Es lohnt sich, auf die unspektakulären Probleme zu schauen. Denn oft liegt gerade dort das größere Unternehmen verborgen. Nicht in der lautesten Story, sondern in der stillen Fähigkeit, Ordnung in ein System zu bringen, das bislang von Unklarheit lebt.
MILC ist damit weniger ein Vorbild im Sinne einer Blaupause als ein nützlicher Prüfstein. Es zeigt, wie man eine Zukunftstechnologie nicht als Selbstzweck erzählt, sondern als Antwort auf ein reales Marktproblem. Für junge Unternehmen ist das oft die wertvollste Form von Innovation.
Retourendaten als ungenutztes Potenzial
Retouren sind dein größter Kostenfaktor – aber auch eine wertvolle Datenquelle. Unser Artikel samt Praxis-Checkliste zeigt dir, wie du sie strategisch zum Marketing-Booster machst!
Retouren kosten den Handel jedes Jahr Millionen Euro. Dabei wird oft verkannt, dass sie auch eine wertvolle Quelle für mehr Umsatz und eine bessere Customer Journey sind. Aktuelle Daten aus dem Jahr 2025 zeigen, wie sich das Retourenverhalten von Verbrauchern entwickelt – und welche ungenutzten Chancen hierbei für dich und dein E-Commerce-Unternehmen liegen.
Die wichtigste Erkenntnis aus dem aktuellen Retouren-Report 2025: Immer weniger Kunden senden ihre Einkäufe zurück. Im Jahr 2025 waren es nur noch 46 Prozent – im Vergleich zu 51 Prozent in 2024 und 67 Prozent im gleichen Zeitraum 2023.
Trotz dieser sinkenden individuellen Retourenneigung prognostiziert die Universität Bamberg für Deutschland im Jahr 2025 ein neues Rekordvolumen von 550 Millionen Paketen. Um dieser Diskrepanz zu begegnen, musst du als Online-Händler deine Zielgruppen basierend auf den bei der Retoure gewonnenen Einsichten künftig präziser ansprechen.
Wenn Daten ungenutzt verpuffen
Noch immer ignorieren viele Online-Shops, wer welche Produkte warum zurückschickt. Betrachtest auch du Retouren oft ausschließlich aus der reinen Umsatzperspektive und übersiehst die damit verbundenen wertvollen Details zu Zielgruppen, Produkten und Kanälen? Viele erfassen zwar Retourengründe, doch nur ein Bruchteil wertet diese systematisch und automatisiert aus. Dabei könntest du genau diese Daten nutzen, um ein tiefgreifendes Verständnis für das Kauf- und Retourenverhalten deiner Kunden zu gewinnen.
Ohne diese Analyse gehst du das Risiko ein, dass beispielsweise Produkte mit einer hohen Retourenquote weiterhin bei Zielgruppen beworben werden, die sie überdurchschnittlich oft zurücksenden. Nutze deine Tools konsequent und schließe Kundengruppen, die deine Marge gefährden, vom Targeting aus. Bei durchschnittlichen Bearbeitungskosten von 5 bis 20 Euro pro Retoure – im komplexen Sortiment sogar bis zu 50 Euro – entstehen dir sonst erhebliche, aber vermeidbare Verluste.
Ein weiteres Beispiel für verpasste Chancen zeigt ein Blick auf die Rückgabepräferenzen. Demnach wünschen sich Frauen deutlich häufiger alternative Rückgabeoptionen als Männer (63 Prozent versus 53 Prozent). Ein klarer Hinweis darauf, dass Standardangebote hier weniger gut ankommen. Dennoch sprichst du in der Praxis vermutlich beide Zielgruppen identisch an.
Retourendaten als Marketing-Kompass
Die Lösung hast du paradoxerweise wahrscheinlich bereits im Haus: deine Retourendaten. Durch eine systematische und strategische Auswertung lassen sie sich als wertvolle Marketing-Intelligence nutzen. Ein zentraler Baustein sind datenbasierte Analysen, die Kaufhistorie, Kontaktpunkte, Retourenmuster sowie bevorzugte Produktkategorien verknüpfen.
Eine gezielte Steuerung der Kundenansprache und der Produktpositionierung nimmt unmittelbar Einfluss auf das Retourenverhalten. So wird es dir möglich, Produkte mit hoher Retourenquote für bestimmte Zielgruppen aus dem Fokus zu nehmen. Wird beispielsweise ein bestimmtes Schuhmodell bei den über 45-Jährigen überdurchschnittlich oft retourniert, solltest du es für diese Altersgruppe nicht mehr in Marketingkampagnen ausspielen.
Ebenso wie dein Produktportfolio kannst du auch deine Services an klare Kundenwünsche anpassen: 58 Prozent der Kunden wünschen sich neben der klassischen „Retoure gegen Erstattung“ auch andere Optionen wie Umtausch, Gutscheine oder Reparaturen. Diese Erkenntnis ermöglicht dir differenzierte, zielgruppengerechte Serviceangebote und schützt dich vor einem kompletten Umsatzverlust.
Auch eine datenbasierte Kanalbewertung wird möglich: Während 33 Prozent der 18- bis 34-Jährigen Social Commerce als Einkaufskanal nutzen, sind es bei den über 55-Jährigen nur rund 15 Prozent. Retourendaten zeigen dir präzise, welche Kanäle für bestimmte Produkte problematisch sind und wo du Budgets umschichten musst.
Erst eine konsequente Analyse der Retourengründe macht es dir möglich, Produktinformationen zu optimieren und Vertriebskanäle belastbar zu bewerten. Statt Millionen für Streuverluste auszugeben, kannst du deine Customer Journey gezielt verbessern.
Silos ade: Zusammenarbeit von Marketing, E-Commerce und Produktteams
Entscheidend für die optimale Nutzung dieser Einsichten ist der regelmäßige Austausch zwischen deinen Marketing-, E-Commerce- und Produktteams. Im Zusammenspiel können Erkenntnisse aus Retourengründen nahtlos in Produktbeschreibungen und Kampagnenbotschaften einfließen.
Wenn dein E-Commerce-Team beispielsweise feststellt, dass bestimmte Farbvarianten bei spezifischen Altersgruppen besonders oft mit dem Grund „sieht anders aus als erwartet“ retourniert werden, können Marketing und Produktentwicklung sofort reagieren: durch bessere Produktfotos, angepasste Beschreibungen und eine differenzierte Zielgruppenansprache.
Diese abteilungsübergreifende Verschränkung erfordert jedoch neue Prozesse: Wöchentliche Retourendaten-Reviews, gemeinsame KPIs und automatisierte Alerts bei auffälligen Retourenmustern sind Pflicht. Nur so wird aus der reaktiven Kostenstelle ein proaktives Steuerungsinstrument.
Daten bringen nachhaltigen Erfolg
Wenn du Retourendaten strategisch nutzt, sparst du nicht nur Kosten. Du steigerst die Konversion, senkst Streuverluste und reduzierst den Kundenfrust. Echter Erfolg stellt sich schließlich erst dann ein, wenn der Kunde sich nicht nur für den Kauf entscheidet, sondern das Produkt am Ende auch behält.
Begreife Retouren daher noch stärker als präzise Datenquelle für eine bessere Kundenbeziehung. Wenn du deine Retourendatenanalyse jetzt professionalisierst, verwandelst du den Kostenfaktor endgültig in deinen Marketing-Booster.
Der Autor Artjom Bruch ist CEO der Trusted Returns GmbH
StartingUp-Checkliste: So machst du deine Retourendaten zum Marketing-Booster
Prüfe dein aktuelles E-Commerce-Setup. Wie viele dieser Fragen kannst du bereits mit „Ja“ beantworten?
- [ ] Präzise Datenerfassung: Erfasst du detaillierte Retourengründe (über ein Dropdown-Menü im Retourenportal) statt nur eines pauschalen „Gefällt nicht“?
- [ ] Dynamisches Targeting: Schließt du Kunden oder Segmente, die ein bestimmtes Produkt überdurchschnittlich oft retournieren, automatisch von der weiteren Bewerbung dieses Artikels aus?
- [ ] Zielgruppengerechte Rückgabe-Optionen: Bietest du im Retourenprozess aktiv Alternativen wie Direkt-Umtausch, Store-Credit (Gutschein) oder Reparatur an, anstatt sofort den Kaufpreis zu erstatten?
- [ ] Kanal-Rentabilitäts-Check: Analysierst du, ob Kunden, die über Plattformen wie TikTok oder Instagram kaufen, eine signifikant höhere Retourenquote aufweisen als Käufer aus dem E-Mail-Marketing?
- [ ] Silos aufbrechen: Gibt es ein regelmäßiges (z. B. wöchentliches) Meeting zwischen Marketing, E-Commerce und Produktmanagement, um auffällige Retourenmuster zu besprechen?
- [ ] Automatisierte Warnsysteme: Erhält dein Team einen automatischen Alert, wenn die Retourenquote eines neu gelaunchten Produkts innerhalb der ersten 48 Stunden einen definierten Schwellenwert übersteigt?
Je mehr Haken du setzen kannst, desto näher bist du am profitablen Retouren-Management.
Warum internationale Unternehmen Österreich als F&E-Standort wählen
Weshalb internationale Unternehmen ihre F&E-Aktivitäten in Österreich ausbauen, welche Rolle Kooperationen mit Forschungseinrichtungen und Start-ups spielen und wie die Austrian Business Agency (ABA) dabei unterstützt, erzählen Martin Gruber (NXP Semiconductors), Stefan Poledna (TTTech Auto) und Gerald Seifriedsberger (GE HealthCare Austria) im Interview.
Österreich zählt zu den innovationsstärksten Ländern Europas und gehört im European Innovation Scoreboard zur Gruppe der „Strong Innovators“. „Maßgeblich zu unserer Position tragen internationale Unternehmen bei, die Österreich gezielt als Standort für Forschung und Entwicklung (F&E) nutzen und zahlreiche Innovationen hervorbringen. Die österreichischen Niederlassungen internationaler Konzerne leisten einen maßgeblichen Beitrag für den Innovationsstandort Österreich – sie sind mit 2,6 Milliarden Euro für mehr als die Hälfte der unternehmensfinanzierten F&E-Ausgaben verantwortlich”, so Marion Biber, Head of INVEST in AUSTRIA bei der Standortagentur ABA.
Österreich ist in den letzten Jahrzehnten generell viel innovativer geworden: Zwischen 2000 und 2023 wuchsen die F&E-Ausgaben hierzulande um 73 Prozent – deutlich stärker als im EU-Durchschnitt mit 24 Prozent.
Forschung und Entwicklung
Forschung und Entwicklung sind zentrale Treiber für wissenschaftlichen und technologischen Fortschritt. Österreich bietet für beide Bereiche optimale Rahmenbedingungen – nicht zuletzt durch ein europaweit einzigartiges Fördermodell, das direkte (durch die FFG) und indirekte Forschungsförderung (durch die Forschungsprämie) kombiniert.
Internationale Unternehmen treffen hier außerdem auf eine dichte Forschungslandschaft, und ein Ökosystem, in dem Zusammenarbeit mit Forschungseinrichtungen und Start-ups nicht Ausnahme, sondern Alltag ist.
Steirischer Ort mit globaler Wirkung
Viele der Unternehmen, die in Österreich forschen und entwickeln, agieren im B2B-Bereich und bleiben daher für Endkonsument*innen oft unsichtbar. Einer dieser Player ist NXP Semiconductors, ein niederländischer Halbleiterkonzern mit rund 35.000 Mitarbeitenden in über 30 Ländern. Einer der wichtigsten F&E-Standorte befindet sich im steirischen Gratkorn.
Dort arbeiten heute rund 650 Expert*vinnen aus 45 Nationen an Zukunftsthemen wie Edge AI, Cybersecurity und Post Quantum Cryptography. “Der Standort Österreich ist ganz essentiell für uns und für die Entwicklung von innovativen, neuartigen Halbleiterprodukten. NXP Österreich ist für uns als internationalen Konzern ein sehr wichtiger Forschungs- und Entwicklungsstandort”, so Martin Gruber, Vice President Corporate Strategy bei NXP Semiconductors. Besonders stark vertreten ist NXP im Mobility- und Automotive-Bereich, aber auch in Industrial- und IoT-Anwendungen.
Warum DeepTechs wie planqc und infrared.city auf Österreich setzen
Warum Österreich für führende DeepTech-Entrepreneure immer attraktiver wird, erklären planqc-CEO Alexander Glätzle und Angelos Chronis, CEO von infrared.city. Welche Rolle Forschungsexzellenz, Talente und die Unterstützung der Austrian Business Agency (ABA) dabei spielen, schildern sie im Interview.
Österreich entwickelt sich rasant zu einem Hotspot für DeepTech-Technologien, getragen von einem Innovationsökosystem, das hierzulande Forschung und Entwicklung vorantreibt. Von künstlicher Intelligenz über Quantentechnologien bis zur klimaresilienten Stadtentwicklung entsteht ein Ökosystem, das in Europa Maßstäbe setzt. Österreich hat sich hier in den vergangenen Jahren weit vorne positioniert.
Forschung und Anwendung wachsen eng zusammen
Vor allem in der Quantentechnologie zählt das Land zur internationalen Spitzengruppe. Die Universität Innsbruck, das IQOQI der Österreichischen Akademie der Wissenschaften, die Universität Wien und das ISTA sind seit Jahren wissenschaftliche Schwergewichte und ziehen Talente wie Unternehmen gleichermaßen an.
Diese Stärke spiegelt sich auch im Start-up-Ökosystem wider: 17 Prozent aller österreichischen Start-ups werden dem DeepTech-Bereich zugeordnet, womit rund jedes sechste junge Unternehmen auf besonders forschungsintensive Technologien setzt (brutkasten berichtete). Gleichzeitig zeigt sich die hohe Reife dieser Unternehmen in der Finanzierung: Laut dem aktuellen Austrian Startup Monitor haben 36 Prozent der DeepTech-Start-ups bereits mehr als 500.000 Euro an externem Kapital aufgenommen. Für immer mehr internationale Gründer*innen und Scale-ups positioniert sich Österreich damit nicht nur als exzellenter Forschungsstandort, sondern zunehmend als strategischer Unternehmens- und Skalierungshub.
Hohe Talent- und Forschungsdichte
Eines dieser Unternehmen ist planqc, ein Spin-off des Münchner Max-Planck-Instituts. Der Quantencomputing-Hersteller holte dafür im Juli 2024 ein Series-A-Investment in Höhe von 50 Millionen Euro (StartingUp berichtete). Für den Tiroler Co-Founder und CEO Alexander Glätzle war Innsbruck nicht nur eine emotionale, sondern eine fachliche Entscheidung: Er habe hier studiert und promoviert. „In dieser Zeit erlebte ich, wie stark die Quantenforschung in Österreich ist”, erzählt er im Interview mit brutkasten.
Rund um Universität und IQOQI sei eine Community entstanden, die weltweit Maßstäbe setze. Viele Ideen und Talente, auf denen planqc heute aufbaut, stammten genau aus diesem Umfeld, sagt Alexander. “Gleichzeitig ist der Talentpool in Österreich insgesamt außergewöhnlich stark, was für ein wachsendes Quantenunternehmen wie unseres ein großer Vorteil ist“.
Diese wissenschaftliche Dichte wirkt sich unmittelbar auf die Technologieentwicklung aus. Durch die enge Vernetzung mit heimischen Forschungsgruppen könne planqc laut Alexander in Innsbruck „direkt auf eines der weltweit führenden Ökosysteme für Quantenphysik zugreifen“. Viele Mitarbeitende kenne man seit Studienzeiten, gemeinsame Projekte beschleunigten den Transfer von Laborergebnissen in industrielle Anwendungen. Dadurch verkürze sich der Weg von einem Experiment zu einem einsatzfähigen Quantencomputer erheblich – ein zentraler Faktor für die internationale Wettbewerbsfähigkeit des Unternehmens.
Kollaborationsnetzwerke
Auch infrared.city hat in Österreich seinen Ursprung. Das Unternehmen entwickelte eine Software, mit der Städte, Architekt*innen und Planer*innen Mikroklimabedingungen wie Hitze, Wind, Schatten oder thermischen Komfort in Echtzeit simulieren können. Die Technologie wurde am AIT City Intelligence Lab entwickelt – ein Umfeld, das laut CEO Angelos Chronis entscheidend war. Wien habe die idealen Voraussetzungen geboten. “Das starke Forschungsökosystem der Stadt, kombiniert mit Österreichs unterstützender Infrastruktur für DeepTech-Innovation, ermöglichte es uns, den Schritt von der akademischen Forschung zu einer kommerziellen Plattform zu vollziehen – mit fortlaufendem Zugang zu erstklassigem Fachwissen und starken Kollaborationsnetzwerken”, erklärt der gebürtige Grieche.
Intralogistik skalieren ohne Chaos
Wie Start-ups Materialflüsse früh professionalisieren und so typische Stolperfallen vermeiden können.
Effiziente Intralogistik ist ein unterschätzter Erfolgsfaktor für wachsende Start-ups. Wer Materialflüsse erst optimiert, wenn das Lager überläuft, handelt zu spät. Schon in der Aufbauphase lassen sich Strukturen schaffen, die Wachstum ermöglichen, statt es zu bremsen. Transparente Prozesse, digitale Schnittstellen und ergonomische Abläufe senken nicht nur Kosten, sondern sichern auch Qualität und Liefertreue. Der folgende Leitfaden zeigt, wie junge Unternehmen ihre Intralogistik schrittweise professionalisieren und typische Stolperfallen vermeiden können.
Frühzeitige Planung schafft Spielräume
Ein häufiger Fehler junger Unternehmen ist, Lager und Logistik nur als Nebenaufgabe zu betrachten. Dabei werden hier die Grundlagen für Liefergeschwindigkeit und Kundenzufriedenheit gelegt. Wer früh Flächenbedarf, Materialflusswege und Schnittstellen plant, spart später hohe Anpassungskosten. Auch einfache Tools wie Prozessdiagramme oder Lagerlayouts helfen, Engpässe zu erkennen. Besonders in der Wachstumsphase lohnt sich der Austausch mit spezialisierten Anbietern wie Toppy Deutschland, um geeignete Lösungen für Palettenhandling und Materialumschlag zu identifizieren.
Skalierbare Prozesse statt Ad-hoc-Lösungen
Wachstum bringt Komplexität. Viele Start-ups kompensieren diese mit mehr Personal, statt Abläufe zu automatisieren. Das führt langfristig zu Ineffizienz. Besser ist es, skalierbare Prozesse zu schaffen, die auch bei steigenden Stückzahlen stabil bleiben. Automatische Fördertechnik, modulare Regalsysteme und digitale Lagerverwaltungssysteme können hier entscheidend sein. Wichtig ist, in Prozessketten zu denken: Wareneingang, Kommissionierung, Verpackung und Versand müssen aufeinander abgestimmt sein. Nur so entstehen reibungslose Abläufe, die ohne ständige manuelle Eingriffe funktionieren.
Ergonomie und Arbeitssicherheit als Produktivitätsfaktor
In der Intralogistik entscheidet nicht nur Technik über Effizienz, sondern auch die Gestaltung der Arbeitsplätze. Zu hohe oder zu tiefe Greifpositionen, schwere Lasten und unübersichtliche Laufwege führen schnell zu Fehlern oder Ausfällen. Ergonomische Lösungen steigern Produktivität, weil sie Mitarbeitende entlasten. Mobile Palettenwechsler, höhenverstellbare Tische und automatische Hubsysteme reduzieren körperliche Belastungen und steigern gleichzeitig den Durchsatz. Ein ergonomisches Lager ist keine Kostenstelle, sondern ein zentraler Baustein für nachhaltige Effizienzsteigerung.
Digitalisierung gezielt einsetzen
Nicht jede digitale Lösung lohnt sich für jedes Start-up. Wichtig ist, zunächst die Prozesse zu verstehen, bevor Software eingeführt wird. Ein digitales Lagerverwaltungssystem bringt nur dann Vorteile, wenn Stammdaten gepflegt und Abläufe klar definiert sind. Sensoren, Scanner oder mobile Endgeräte können Fehlerquoten senken und Bestände in Echtzeit sichtbar machen. Entscheidend ist die Schnittstellenfähigkeit: Systeme müssen Daten austauschen können, um Medienbrüche zu vermeiden.
Kennzahlen und kontinuierliche Verbesserung
Effiziente Intralogistik lebt von Messbarkeit. Nur wer Prozesse kennt, kann sie verbessern. Relevante Kennzahlen sind unter anderem Durchlaufzeiten, Kommissionierfehler, Flächenauslastung und Lagerumschlag. Diese Daten liefern wertvolle Hinweise, wo Bottlenecks entstehen. Regelmäßige Auswertungen und kleine Anpassungen verhindern, dass sich Ineffizienzen einschleichen. Ein einfacher PDCA-Zyklus (Plan–Do–Check–Act) hilft, systematisch zu optimieren und schnell auf Marktveränderungen zu reagieren.
Investitionsentscheidungen mit System treffen
Investitionen in Lagertechnik oder Automatisierung sollten nie aus dem Bauch heraus erfolgen. Eine strukturierte Entscheidungsbasis ist unverzichtbar. Dazu gehören Wirtschaftlichkeitsrechnungen, Vergleich von Alternativen und Berücksichtigung von Wartungs- und Schulungskosten. Leasingmodelle oder Mietoptionen können sinnvoll sein, um Liquidität zu schonen. Ein Business Case zeigt, wann sich Investitionen amortisieren und welche Produktivitätsgewinne realistisch sind.
Beispielhafte Prüfkriterien vor einer Anschaffung:
- Reduziert die Lösung manuelle Arbeit oder Durchlaufzeit?
- Ist sie modular erweiterbar?
- Wie hoch sind Schulungs- und Wartungsaufwände?
- Passt sie zu vorhandenen Systemen?
- Gibt es eine messbare Effizienzsteigerung?
Nachhaltigkeit und Ressourceneffizienz
Auch im Lager ist Nachhaltigkeit längst ein Wettbewerbsfaktor. Energieeffiziente Fördertechnik, Mehrwegverpackungen und kurze Wege sparen Ressourcen und senken Kosten. Moderne Anlagen erfassen Energieverbrauch und Laufzeiten automatisch, um Optimierungspotenziale sichtbar zu machen. Ebenso wichtig: Mitarbeiter sensibilisieren, Abfall vermeiden und Materialflüsse gezielt steuern. Wer Nachhaltigkeit in die Intralogistik integriert, stärkt nicht nur das eigene Image, sondern profitiert von langfristig stabilen Betriebskosten.
Zusammenarbeit zwischen Produktion und Logistik
Häufig arbeiten Produktion und Logistik nebeneinander statt miteinander. Dabei entsteht Wertschöpfung nur, wenn Materialfluss und Fertigungsplanung ineinandergreifen. Kurze Abstimmungswege, klare Verantwortlichkeiten und gemeinsame Kennzahlen schaffen Transparenz. In kleineren Teams kann schon eine wöchentliche Abstimmung große Effekte bringen. Besonders bei der Einführung neuer Produkte sollten Materialfluss, Verpackung und Lagerstrategie von Beginn an gemeinsam gedacht werden. So lassen sich spätere Korrekturen und teure Nachrüstungen vermeiden.
Skalierung als Daueraufgabe verstehen
Intralogistik ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess. Mit wachsendem Auftragsvolumen ändern sich Anforderungen, Lieferketten und Kundenerwartungen. Wer regelmäßig prüft, ob Prozesse und Technik noch passen, bleibt wettbewerbsfähig. Auch Schulungen und Wissenstransfer sind wichtig, damit Teams Veränderungen mittragen. Der Aufwand zahlt sich aus: Eine skalierbare, flexible Logistikstruktur ist die Basis für stabiles Wachstum.
Methoden und Didaktik im Führungstraining: Interessante Ansätze und spannende Fakten
Entdecken Sie spannende Ansätze und Fakten zu Methoden und Didaktik im Führungstraining.
Moderne Führungstrainings setzen auf eine neue Didaktik: wissenschaftlich fundiert, praxisnah und individuell. Statt Frontalunterricht dominieren heute interaktive Formate und maßgeschneiderte Lernpfade. Ziel ist es, Führungskompetenzen nicht nur theoretisch zu vermitteln, sondern im konkreten Handeln zu verankern – für bessere Führungsergebnisse und eine stärkere Mitarbeiterbindung.
Gerade in dynamischen Märkten wie Deutschland, wo Unternehmen wie Siemens, Bosch oder die Deutsche Telekom auf agile Strukturen setzen, gewinnt adaptives Lernen an Bedeutung. Blended Learning – die Kombination aus Präsenz- und Onlineformaten – bietet dabei maximale Flexibilität und berücksichtigt unterschiedliche Lerntypen.
Die folgenden Abschnitte zeigen, dass und wie erfolgreiche Führungstrainings Lernräume für Reflexion, Austausch und Feedback schaffen.
Maßgeschneiderte Führungskräfteseminare von flow
Gute Führung entscheidet über Motivation, Leistung und Wandel in Organisationen. Die maßgeschneiderten Führungskräfteseminare von flow sind praxisnah, wissenschaftlich fundiert und individuell auf Unternehmensziele abgestimmt.
Ob klassisches Seminar oder ganzheitliches Entwicklungsprogramm – Management- und Leadershipkompetenzen werden gezielt aufgebaut. Der Fokus liegt auf nachhaltigem Praxistransfer, klarer Rollenklärung und konkreten Alltagssituationen.
- Das PowerPotentialProfile® unterstützt bei der fundierten Analyse von Stärken und Entwicklungsfeldern.
- Persönlichkeitsentwicklung, Mindset-Arbeit und moderne Didaktik schaffen die Grundlage für wirksame Führung und starke Teams.
Dank eines erfahrenen Trainer-Teams und skalierbarer Programme lassen sich auch größere Entwicklungsmaßnahmen effizient umsetzen – national wie international.
Eine kostenlose Erstberatung bietet den idealen Einstieg in passgenaue Führungskräfteentwicklung.
Die Rolle der Didaktik in der Führungskräfteentwicklung: Was hat sich verändert?
Didaktik bezeichnet die gezielte Planung und Gestaltung von Lernprozessen – also, wie Wissen vermittelt und Kompetenzen aufgebaut werden. In der Entwicklung von Führungskräften bedeutet das, Lernformate so zu gestalten, dass sie Verhalten langfristig verändern.
Zentrale Elemente sind strukturierte Lernphasen: vom Wissenserwerb über die Anwendung bis hin zur Reflexion. Modelle wie das 70-20-10-Prinzip oder Kolbs Lernzyklus machen deutlich, wie wirkungsvolles Lernen gelingt – durch eine ausgewogene Kombination aus Erfahrung, Austausch und formaler Weiterbildung.
Entscheidend ist dabei die didaktische Kohärenz: Lernziele, Methoden und Evaluation greifen sinnvoll ineinander. Das schafft Klarheit, fördert Motivation und verbessert den Transfer in die Praxis. Empirische Studien belegen: Durchdachte Didaktik erhöht die Wirksamkeit von Trainings deutlich. Sie bildet damit die Grundlage für nachhaltige Führungskräfteentwicklung – praxisnah, fundiert und zukunftsorientiert und auch in Zeiten von Krisen.
Klassische und moderne Methoden im Vergleich: Ein „Besser“ oder „Schlechter“ gibt es nicht – oder doch?
Lange prägten klassische Formate wie Seminare und Vorträge die Weiterbildung. Sie eignen sich gut zur Vermittlung von Grundlagen, stoßen jedoch an Grenzen, wenn es um komplexe Handlungskompetenz geht.
Moderne Lernansätze setzen stärker auf Eigenverantwortung, Erfahrung und Kontext. Methoden wie Action Learning, Design Thinking oder Coaching fördern praxisnahes Lernen und kreative Problemlösung. Hybride Formate, die Theorie mit Anwendung verbinden, unterstützen einen wirksamen Lerntransfer – und steigern die Motivation.
Statt reiner Wissensvermittlung rücken Reflexion, Austausch und konkrete Anwendung in den Fokus. Simulationen, Fallstudien oder Peer-Learning schaffen Raum für gemeinsames Lernen und stärken soziale sowie kommunikative Kompetenzen.
Klassische Methoden, zum Beispiel auch rund um kritisches Hinterfragen, behalten ihren Wert – vorausgesetzt, sie sind didaktisch sinnvoll eingebettet. Entscheidend ist die Balance: Struktur und Flexibilität, Praxisnähe und Individualisierung. So entsteht ein Lernumfeld, das Führungskräfte befähigt, ihr Verhalten nachhaltig und authentisch weiterzuentwickeln.
Interaktive Lernformen und ihre Wirkung
Interaktive Lernformate wie Workshops, Planspiele oder Rollenspiele fördern aktives Mitdenken, Beteiligung und unmittelbares Feedback. Sie schaffen erfahrungsbasierte Lernräume, in denen neues Verhalten nicht nur verstanden, sondern auch erlebt und reflektiert wird.
Durch gemeinsame Aufgaben und Rückmeldungen entsteht ein vertieftes Verständnis für Führungsaufgaben. Simulationen – etwa von Konfliktgesprächen oder Entscheidungsprozessen – ermöglichen realitätsnahe Übungsszenarien, die Problemlösungsfähigkeit, Selbstreflexion und Teamverhalten stärken.
Wenn Teilnehmende eigene Erfahrungen einbringen, steigt nicht nur die Relevanz der Inhalte, sondern auch die Nachhaltigkeit des Lernens. Studien zeigen: Interaktive Formate aktivieren emotionale und kognitive Prozesse stärker als klassische Vermittlungsformate – mit spürbar höherer Motivation und langfristigerem Lernerfolg.
So entstehen lebendige Trainings, die nicht nur Wissen vermitteln, sondern echte Veränderung ermöglichen – wirkungsvoll, praxisnah und passgenau für moderne Führungsanforderungen.
Was hat die Digitalisierung in Bezug auf das Führungskräftetraining verändert?
Digitale Lernformate haben die Entwicklung von Führungskräften grundlegend verändert. Sie ermöglichen orts- und zeitunabhängiges Lernen – individuell, skalierbar und anschlussfähig an den Arbeitsalltag.
Hybride Konzepte verbinden Online-Lernen mit Präsenzformaten und schaffen so eine optimale Balance aus Flexibilität und persönlichem Austausch. Virtuelle Klassenzimmer, Video-Coachings und digitale Tools fördern Interaktion und Reflexion, auch im digitalen Raum.
Learning-Analytics unterstützen die gezielte Steuerung individueller Lernpfade und machen Fortschritte sichtbar. Digitale Lernökosysteme schaffen kontinuierlichen Zugang zu Inhalten und fördern eigenverantwortliches Lernen im Flow.
Wichtig bleibt: Technologie ersetzt nicht den zwischenmenschlichen Kontakt. Entscheidend ist die didaktische Qualität … also wie Inhalte strukturiert, angewendet und reflektiert werden. Nur so entsteht ein digitales Lernumfeld, das Führung stärkt, Innovation unterstützt und nachhaltige Entwicklung ermöglicht.
Nach wie vor: Feedback und Reflexion als wichtige Lerninstrumente
Reflexion und Feedback sind essenziell für eine wirksame Führungskräfteentwicklung. Sie fördern Selbsterkenntnis, schaffen Orientierung und unterstützen den Transfer in den Arbeitsalltag.
Professionelles Feedback – etwa durch Peer-Coaching, kollegiale Beratung oder strukturierte Rückmeldeschleifen – macht Stärken sichtbar und zeigt Entwicklungspotenziale auf. Reflexionsphasen ermöglichen es, Erfahrungen gezielt zu analysieren und in Handlungsstrategien zu überführen.
Die Verknüpfung von Theorie und Praxis wird gestärkt, nachhaltiges Lernen gefördert. Modelle wie der Lernzyklus nach Kolb veranschaulichen, wie regelmäßige Reflexion Lernprozesse vertieft und den Kompetenzaufbau unterstützt. Besonders wirkungsvoll sind Lernformate, die Feedback nicht als Bewertung, sondern als Entwicklungschance begreifen. Entscheidend ist eine offene Lernkultur, in der Fragen erlaubt und Fehler Teil des Prozesses sind.
So entstehen Führungspersönlichkeiten, die sich selbst und andere wirksam weiterentwickeln können.
Auch wichtig: Die Teamdynamik und gruppenbezogene Lernprozesse
Lernprozesse in Gruppen fördern wichtige soziale Kompetenzen und die Fähigkeit zur Zusammenarbeit. In Führungstrainings spielt die Dynamik innerhalb von Teams eine zentrale Rolle, da Führung stets im Zusammenspiel mit anderen erfolgt.
Gemeinsame Übungen, Projektarbeiten und kollektive Reflexionen schaffen ein Umfeld, in dem Vertrauen wächst und offener Austausch möglich ist. Durch das gemeinsame Lösen von Problemen entstehen neue Perspektiven und kreative Lösungsansätze.
Gruppenlernen macht Lernprozesse sichtbar und unterstützt gegenseitige Hilfe. Studien zeigen, dass das gemeinsame Lernen Motivation und Behaltensleistung deutlich verbessert. Modelle wie das Phasenmodell der Gruppenentwicklung – Forming, Storming, Norming, Performing – veranschaulichen, wie sich Gruppen im Lernprozess entwickeln und welchen Einfluss das auf den Lernerfolg hat.
Eine teamorientierte Didaktik verbindet den Wissensaufbau mit sozialem Lernen und stärkt so nachhaltig Führungsfähigkeiten und den Erfolg von Führungsteams.
Kulturelle und emotionale Faktoren: Welche Rolle spielen sie im Lernprozess?
Kulturelle und emotionale Aspekte beeinflussen maßgeblich, wie Führungskräfte lernen und handeln.
- Unterschiedliche Werte, Kommunikationsstile und Erwartungen formen Lernprozesse und erfordern eine bewusste Berücksichtigung kultureller Unterschiede, besonders in internationalen Trainings.
- Gleichzeitig spielt emotionale Intelligenz eine zentrale Rolle. Sie umfasst die Fähigkeit, eigene und fremde Gefühle zu erkennen und zu steuern, fördert Empathie, Selbstwahrnehmung und den Aufbau vertrauensvoller Beziehungen.
- Didaktische Konzepte, die emotionale Faktoren integrieren, ermöglichen intensivere Lernerfahrungen. Studien belegen, dass emotionale Aktivierung die Gedächtnisleistung und Motivation steigert, da sie wichtige neuronale Netzwerke aktiviert.
- Lernumgebungen, die Vertrauen, Offenheit und kulturelle Sensibilität fördern, also den bewussten Umgang mit verschiedenen Normen und Kommunikationsweisen, unterstützen die Entwicklung von Führungskompetenzen besonders effektiv.
So entsteht ein ganzheitliches Lernen, das kulturelle und emotionale Grenzen überwindet.
Wie wird sich das moderne Führungskräftetraining in Zukunft weiterentwickeln?
Die Führungskräftebildung der Zukunft wird geprägt von Personalisierung, technologischen Innovationen und einem Fokus auf Nachhaltigkeit. Adaptive Lernsysteme, künstliche Intelligenz und datenbasierte Analysen ermöglichen individuell zugeschnittene Lernwege und fördern kontinuierliches Lernen.
Gleichzeitig gewinnt sinnorientierte Unternehmensführung zunehmend an Bedeutung. Trainings zielen nicht nur auf den Kompetenzaufbau, sondern auch auf die Vermittlung von Werten ab.
Spielerische Elemente wie Gamification und virtuelle Realität erweitern die didaktischen Möglichkeiten und schaffen neue Lernerfahrungen. Kooperationen zwischen Wissenschaft und Praxis fördern innovative Forschungsansätze und Pilotprojekte.
Zukunftsorientierte Führungstrainings verbinden digitale Innovationen mit der persönlichen Entwicklung der Lernenden. Dieser Wandel erfordert eine flexible Didaktik, die Lernen als lebenslangen Prozess begreift. So bleibt die Führungsausbildung ein wesentlicher Erfolgsfaktor moderner Organisationen und Ausdruck einer lebendigen, lernenden Unternehmenskultur.
Abschließendes: Darum ist es so wichtig, das Thema „Führungskräftetraining“ immer wieder anzugehen
Führungskräftetraining ist ein unverzichtbarer Bestandteil erfolgreicher Organisationsentwicklung. Die Anforderungen an Führungskräfte verändern sich stetig – durch technologische Innovationen, globale Vernetzung und neue Werteorientierungen. Um den komplexen Herausforderungen gerecht zu werden, braucht es kontinuierliche Weiterbildung, die nicht nur Wissen vermittelt, sondern auch praktische Kompetenzen fördert. Nur so können Führungskräfte flexibel und wirksam agieren.
Zudem sorgt regelmäßiges Training dafür, dass Führungskräfte ihre eigene Rolle reflektieren, ihre sozialen Fähigkeiten stärken und sich auf wechselnde Teams und Märkte einstellen. Führung ist immer auch Beziehungsarbeit, die eine kontinuierliche Entwicklung verlangt. Wer diesen Prozess vernachlässigt, riskiert nicht nur den Erfolg der Organisation, sondern auch die Zufriedenheit und Motivation der Mitarbeitenden.
Deshalb ist es entscheidend, das Thema Führungskräftetraining immer wieder aufzugreifen und den Lernprozess als festen Bestandteil der Unternehmenskultur zu verankern.
Jetzt erst recht: Wie Krisen echte Gründer*innen hervorbringen
Deutschland erlebt ein Gründungs-Revival: 2024 wurden rund 585.000 neue Unternehmen registriert – ein Plus von 3 Prozent nach Jahren des Rückgangs. Dabei entstehen in Krisenzeiten oft die stärksten Innovationen: BioNTech, Flix oder 1komma5° wurden in Umbruchsphasen gegründet und sind heute Marktführer. Doch warum zögerten viele gerade während Pandemie und Energiekrise? Es fehlt nicht nur an Risikokapital, sondern auch am Mut, neue Wege zu gehen. Jetzt ist ein radikales Umdenken gefordert: weniger Angst vor dem Scheitern, mehr Fokus auf nachhaltige Geschäftsmodelle und Zukunftsmärkte. Warum Krisen der beste Zeitpunkt sind, um groß zu denken, liest du im Folgenden.
Inflation, Unsicherheit, Strukturwandel: Viele Menschen schrecken aktuell vor dem Schritt in die Selbstständigkeit zurück. Steigende Preise, schwankende Märkte und unklare Zukunftsaussichten lassen viele potenzielle Gründer*innen zögern. Doch genau in solchen Umbruchsphasen entstehen traditionell die stärksten Innovationen. Während der Finanzkrise 2008–2010 entstanden weltweit Startups wie Airbnb und Uber, die heute Milliardenunternehmen sind. Auch in Deutschland gibt es Beispiele: BioNTech (2008) stellte mitten in unsicheren Märkten die Weichen für mRNA-Forschung und rettete während Corona Millionen Leben. Flix (2013) nutzte die Krise und die Fernbus-Liberalisierung, um ein global führendes Mobilitätsunternehmen aufzubauen. Auch jüngere Unicorns wie Personio (HR-Tech) oder 1komma5° (Solar) zeigen: Krisen eröffnen enorme Chancen für diejenigen, die mutig handeln.
Paradox ist jedoch, dass ausgerechnet in den Hochzeiten der jüngsten Krisen – Pandemie, Energiepreisschock, geopolitische Unsicherheit – die Gründungsquote in Deutschland zunächst eingebrochen ist. Viele hielten sich zurück, aus Angst vor Risiko. Doch genau das macht die aktuelle Entwicklung so spannend: Nach Jahren des Rückgangs deutet sich eine Trendwende an. 2024 wurden in Deutschland rund 585.000 neue Unternehmen registriert – ein Plus von 3 Prozent gegenüber dem Vorjahr. Wenn alte Geschäftsmodelle ins Wanken geraten und bestehende Strukturen nicht mehr funktionieren, öffnet sich Raum für neue Ideen, kreative Geschäftsansätze und disruptive Technologien.
Wer heute gründet, baut nicht nur ein Unternehmen auf, sondern gestaltet aktiv die Zukunft mit. Die aktuelle Krise ist kein Hindernis, sondern ein Katalysator für Fortschritt. Doch warum ist die Gründungsquote in Deutschland in den Hochzeiten der letzten Krisen nicht gestiegen, sondern sogar gesunken? Die Gründe sind vor allem im Mindset zu sehen: zu viel Vorsicht, zu wenig Vertrauen in die eigenen Fähigkeiten. Viele lassen sich von gescheiterten Start-up-Stories entmutigen – anstatt von erfolgreichen Beispielen inspirieren. Hinzu kommt die Finanzierungslücke: Während in den USA oder UK auch Frühphasen-Investments leichter zugänglich sind, stoßen Gründer*innen hierzulande oft auf Hürden.
Ein neues Narrativ für Gründer*innen
Laut KfW-Gründungsmonitor 2025 bevorzugen 36 Prozent der 18- bis 29-Jährigen Selbständigkeit gegenüber einer Anstellung. Die Planungsquote für Gründungen ist nach einem Tief im Jahr 2023 wieder gestiegen – aktuell verfolgen 4,9 Prozent der Bevölkerung konkrete Gründungspläne. Gefordert ist ein Umdenken im Gründungsdiskurs: weg vom Businessplan-Dogma, hin zu Haltung, Resilienz und echten Netzwerken. „Zu viele bleiben in ihrer Idee stecken, anstatt ins Handeln zu kommen. Gerade in aktuellen Krisenzeiten zeigt sich, wer bereit ist, Systeme zu hinterfragen – und bessere aufzubauen. Wir brauchen Gründer*innen, die nicht nur an kurzfristigen Profit denken, sondern langfristig nachhaltige Unternehmen schaffen. Dabei zeigen die vergangenen Jahre, wie wertvoll Gründungen für eine ganze Volkswirtschaft sind. Weltweit wurden in Krisen neue Branchen geformt: Mobility (Flix), HealthTech (BioNTech), Renewable Energy (Enpal) oder HR-Tech (Personio). In unsicheren Zeiten wächst der Innovationsdruck dort am stärksten, wo alte Strukturen versagen – etwa im Gesundheitswesen, im Energiesektor oder in der digitalen Infrastruktur. Wer hier investiert, schafft nicht nur neue Geschäftsmodelle, sondern stärkt zentrale Zukunftsfelder.
Wirtschaftliche Bedeutung von Gründungen
Unternehmensgründungen sind weit mehr als individuelle Erfolgsgeschichten. Sie schaffen jedes Jahr Hunderttausende neuer Arbeitsplätze, treiben Innovationen voran und stärken den Wettbewerb – ganz nebenbei entlasten sie auch die öffentlichen Haushalte durch Steuererträge. Laut KfW Research tragen Start-ups entscheidend dazu bei, neue Technologien schneller in den Markt zu bringen und so die internationale Wettbewerbsfähigkeit Deutschlands zu sichern. Auf den Punkt gebracht: Wer gründet, schafft nicht nur für sich selbst neue Chancen, sondern immer auch für andere: Arbeitsplätze, Perspektiven und Impulse für ganze Branchen. Gründungen sind kein Nischenphänomen – sie sind ein zentraler Motor unserer Wirtschaft.
Auch im internationalen Vergleich zeigt sich Nachholbedarf: Nach OECD-Daten lag der Anteil von Venture Capital am deutschen Bruttoinlandsprodukt 2021 bei lediglich rund 0,11 Prozent – in den USA war er fast fünfmal so hoch. Wenn wir international mithalten wollen, müssen wir mutiger werden – und Krisen endlich als das sehen, was sie sind: der beste Zeitpunkt für neue Ideen und starke Unternehmen. Ich kenne diese Dynamik aus erster Hand: Mit meiner Beteiligung an GreenTech-Unternehmen wie Febesol und Thermondo will ich auch zeigen, dass nachhaltige Geschäftsmodelle gerade in Krisenzeiten enorme Relevanz gewinnen können – für die Umwelt, für Investor*innen und für ganze Wirtschaftszweige.
Generation Z denkt Gründen neu
Gerade die Generation Z bringt frischen Wind in die Gründungsszene. Studien zeigen, dass viele junge Menschen heute bereits unternehmerisch denken – aber zu eigenen Bedingungen: digital, flexibel und sinnorientiert. Laut der Bertelsmann-Studie „Pioneering Gen Z Entrepreneurs“ streben Gen Z-Gründer*innen bewusst nach Nachhaltigkeit, Anpassungsfähigkeit und kollaborativen Arbeitsweisen. Dabei verbinden sie wirtschaftlichen Erfolg mit Selbstbestimmung, Work-Life-Balance und Purpose – und schaffen so ein neues Gründer-Mindset.
Diese neuen Gründer*innen fragen nicht nur nach Rendite, sondern auch nach Sinn und Selbstbestimmung. Doch um dieses Potenzial freizusetzen, braucht es Rückenwind: weniger Bürokratie, bessere Förderprogramme, Steuererleichterungen, Zugang zu Risikokapital. Denn ohne den finanziellen Spielraum laufen viele gute Ideen Gefahr, in der Konzeptphase stecken zu bleiben. Deutschland kann es sich nicht leisten, Gründungstalente mit Purpose-Mindset zu verlieren. Wir brauchen mutige Anreize für die Generation, die bereit ist, Verantwortung zu übernehmen.
Der Autor Daniel Fellhauer ist Seriengründer, Transformationsexperte und Buchautor. 2009 gründete er während der Finanzkrise die FEBESOL GmbH und baute in den Folgejahren mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien auf. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO bei FEBESOL.
Das Einfamilienhaus: Investition in Unabhängigkeit und Lebensqualität
Das Einfamilienhaus bleibt ein Symbol für Freiheit, Stabilität und Individualität. Wie modernes Bauen neue Maßstäbe setzt.
Der Traum vom eigenen Haus ist nach wie vor lebendig. Gerade für Gründer*innen und unternehmerisch denkende Menschen steht das Einfamilienhaus sinnbildlich für Erfolg, Unabhängigkeit und Lebensqualität. Doch ein Eigenheim ist heute weit mehr als nur ein Dach über dem Kopf – es ist eine Investition in die eigene Zukunft und ein Ausdruck individueller Lebensentwürfe.
In einer Zeit, in der Werte wie Beständigkeit, Nachhaltigkeit und persönliche Freiheit an Bedeutung gewinnen, rückt das Einfamilienhaus als Lebens- und Arbeitsraum zunehmend in den Fokus.
Warum das eigene Haus mehr als nur ein Wohnraum ist
Ein Eigenheim bietet weitreichende Vorteile, die über das reine Wohnen hinausgehen:
- Unabhängigkeit: Keine Mietsteigerungen, keine Abhängigkeit von Vermieter*innen.
- Sicherheit: Eine Immobilie kann als wichtige Säule der Altersvorsorge dienen.
- Individualität: Architektur, Ausstattung und Raumaufteilung lassen sich den eigenen Vorstellungen anpassen.
- Wertsteigerung: Gerade in begehrten Lagen entwickeln sich Einfamilienhäuser oft positiv in ihrem Marktwert.
Nicht zuletzt schafft ein eigenes Haus Raum für Entfaltung – sei es für die Familie, für Hobbys oder für berufliche Aktivitäten im Homeoffice.
Moderne Anforderungen an das Einfamilienhaus
Der Anspruch an das Einfamilienhaus hat sich in den letzten Jahren deutlich verändert. Heute zählen nicht nur Größe und Lage, sondern auch:
- Energieeffizienz: Häuser sollen den Energieverbrauch minimieren und gleichzeitig den Wohnkomfort maximieren.
- Nachhaltige Baustoffe: Umweltbewusstes Bauen rückt stärker in den Fokus.
- Flexibilität: Grundrisse sollten an veränderte Lebensphasen anpassbar sein.
- Technische Ausstattung: Smart-Home-Technologien gehören zunehmend zum Standard.
Wer heute baut oder kauft, achtet darauf, dass das Haus nicht nur den aktuellen Bedürfnissen entspricht, sondern auch zukünftige Anforderungen abdeckt.
Wege zum eigenen Einfamilienhaus: Planung und Umsetzung
Der Weg zum Einfamilienhaus beginnt mit einer gründlichen Planung. Wichtige Schritte sind:
1. Bedarfsanalyse: Wie viele Räume werden benötigt? Welche Flächen sind gewünscht? Welche Zukunftsszenarien sollen berücksichtigt werden?
2. Budgetplanung: Neben den Baukosten müssen Nebenkosten wie Grunderwerbsteuer, Notargebühren und Außenanlagen einkalkuliert werden.
3. Grundstückssuche: Lage, Größe, Erschließung und Umfeld sind entscheidende Faktoren für den späteren Wert und die Lebensqualität.
4. Partnerwahl: Ob Architekt*in, Bauträger oder Fertighausanbieter – die Wahl der richtigen Partner*innen beeinflusst Zeitplan, Qualität und Kosten erheblich.
Viele Bauinteressierte setzen dabei auf erfahrene Anbieter, die nicht nur Bauleistungen liefern, sondern auch Unterstützung bei der Finanzierung, Fördermittelberatung und Bauabwicklung bieten.
Zukunftsfähiges Bauen: Nachhaltigkeit, Technik, Individualität
Das Einfamilienhaus von heute muss mehr können als nur Schutz bieten. Gefragt sind zukunftssichere Konzepte, die ökologisches Bauen, moderne Technik und persönliche Wünsche in Einklang bringen.
Wichtige Trends:
- Effizienzhaus-Standards: Wer heute baut, orientiert sich oft an Standards wie KfW-40 oder KfW-55, um von Förderprogrammen zu profitieren und Energiekosten dauerhaft zu senken.
- Smart Home: Intelligente Heizungs-, Licht- und Sicherheitssysteme sorgen für Komfort und optimieren den Energieverbrauch.
- Nachhaltige Materialien: Holz, Naturdämmstoffe und ressourcenschonende Bauweisen stehen hoch im Kurs.
- Flexible Nutzungskonzepte: Häuser mit Homeoffice-Möglichkeiten, Einliegerwohnungen oder variablen Grundrissen passen sich wandelnden Lebenssituationen an.
Besonders zukunftsorientierte Anbieter kombinieren diese Trends zu Gesamtkonzepten, die sowohl ökonomische als auch ökologische Aspekte berücksichtigen.
Herausforderungen und Chancen
Natürlich bringt der Bau eines Einfamilienhauses auch Herausforderungen mit sich:
- Baurechtliche Vorgaben können die Gestaltungsspielräume beeinflussen.
- Baukosten sind in den letzten Jahren deutlich gestiegen.
- Energie- und Klimaschutzauflagen erfordern vorausschauende Planung.
Doch die Chancen überwiegen: Wer sich intensiv vorbereitet, kluge Entscheidungen trifft und auf erfahrene Partner setzt, schafft Werte, die über Generationen Bestand haben können.
Gerade in wirtschaftlich unsicheren Zeiten bietet ein selbstgenutztes Einfamilienhaus eine stabile Grundlage und eröffnet neue Möglichkeiten – von familiärer Geborgenheit bis hin zur flexiblen Nutzung als Arbeitsplatz.
Das Einfamilienhaus als Fundament für die Zukunft
Das Einfamilienhaus bleibt ein zeitloser Klassiker – und entwickelt sich gleichzeitig weiter. Es vereint individuelle Freiheit, wirtschaftliche Stabilität und nachhaltige Lebensqualität unter einem Dach.
Ob als Lebensmittelpunkt, Wertanlage oder Rückzugsort: Wer heute in ein eigenes Haus investiert, investiert in seine Unabhängigkeit und die Gestaltung der eigenen Zukunft.
Dabei geht es nicht nur um Quadratmeter und Grundrisse, sondern um ein Zuhause, das mit den eigenen Lebensplänen mitwächst. Ein Einfamilienhaus bietet die Möglichkeit, persönliche Werte wie Nachhaltigkeit, Komfort und Beständigkeit in konkrete Architektur zu übersetzen – und schafft damit einen Ort, an dem sich Wohnen, Arbeiten und Leben harmonisch verbinden lassen.
Unternehmensbewertung: Der Zweck bestimmt den Wert
Das Thema Unternehmensbewertung wird spätestens dann für Gründer*innen relevant, wenn eine Finanzierungsrunde oder ein möglicher Verkauf des Unternehmens geplant wird. Dass es bei der Bewertung gravierende Unterschiede gibt, je nachdem, welchen Zweck die Eigentümer*innen verfolgen und wie sie ihr Unternehmen positionieren, ist längst nicht allen bewusst. Diese Details sollten Start-ups für ihre strategischen Überlegungen kennen.
Das Wichtigste zuerst: Kapitalerhöhungen sind keine (Anteils-)Verkäufe
Der essenzielle Unterschied zwischen der Bewertung bei Start-up-Finanzierungsrunden und Unternehmensverkäufen ist mit einer Analogie einfach zu erklären: Man stelle sich dazu ein Schiff (stellvertretend für ein Unternehmen) und einen Kapitän (stellvertretend für den Gründer oder die Gründerin) vor.
Finanzierungsrunde
Bei einer Start-up-Finanzierungsrunde handelt es sich strukturell um eine Kapitalerhöhung: Das heißt, das frische Kapital fließt in das Unternehmen, nicht an die Gründer*innen. Um nun innerhalb der Analogie zu bleiben: Der Kapitän geht auf Investor*innen zu und bietet diesen an, seine nächste große Handelsreise mit frischem Kapital zu finanzieren. Im Gegenzug dafür erhalten die Investor*innen zirka 20 Prozent der Anteile am Schiff samt aller Gewinne, die er durch den Handel der Waren auf allen zukünftigen Reisen erzielt. Das frische Kapital steht nun für die Finanzierung der Handelsreise, nicht jedoch für den privaten Gebrauch zur Verfügung. Die Zukunft des Schiffs liegt weiterhin in den Händen des Kapitäns, der nun durch die Investor*innen überwacht wird und ihnen regelmäßig Bericht erstatten muss.
Unternehmensverkauf
Bei einem Unternehmensverkauf handelt es sich strukturell um einen Anteils- oder unter Umständen auch Asset-Verkauf: Das heißt, das Geld fließt an die Eigentümer*innen, nicht an das Unternehmen. Um erneut unser maritimes Bild zu bemühen: Der Kapitän geht auf mögliche Käufer*innen zu und bietet diesen an, sein Schiff, seine Reisetagebücher, die über die Zeit entstandenen Karten und Aufzeichnungen sowie bestehende Handelsbeziehungen vollständig zu übernehmen. Dazu können die Käufer*innen auch die Crew übernehmen, wobei keine Garantie besteht, dass die Crew auch wirklich erneut an Bord gehen möchte. Das Kapital fließt in Form des Kaufpreises an den Kapitän, nicht aber in die nächsten Handelsreisen. Diese müssen die Käufer*innen selbst finanzieren. Die Zukunft des Schiffs liegt nun in den Händen der Käufer*innen, die damit tun und lassen können, was sie möchten, gleichzeitig aber auch alle Risiken tragen.
Anhand dieses kurzen Beispiels wird klar: Die Ausgangsbasis für die Bewertung bei Start-up-Finanzierungsrunden und Unternehmensverkäufen ist eine fundamental andere: Ob VC-Investor*innen zu 20 Prozent in einen „Kapitän mit Schiff“ investieren oder ob Käufer*innen ein „vollständiges Schiff ohne Kapitän“ kaufen, hat dementsprechend auch große Auswirkungen auf die Herleitung und Höhe der Bewertung.
Welche Faktoren haben Einfluss auf die Unternehmensbewertung?
Das Gründungsteam muss für mehrere Jahre incentiviert werden, die volle Energie in den Aufbau eines erfolgreichen Unternehmens mit Unicorn-Potenzial zu investieren. Ist die voraussichtliche Beteiligung am Exit-Erlös – gemessen am Arbeitsaufwand pro Kopf – zu gering, hat das Gründungsteam zu hohe Opportunitätskosten. Die Beteiligungsquote wird über die Pre-Money-Bewertung – also die Bewertung des Unternehmens vor der Finanzierung – und über die Beteiligungshöhe gesteuert.
Da diese meist dem geschätzten Kapitalbedarf für die nächsten 18 bis 24 Monate entspricht, kann nur eine verhältnismäßig hohe Pre-Money-Bewertung garantieren, dass das Gründungsteam – auch über mehrere aufeinander folgende Finanzierungsrunden – eine ausreichend hohe Beteiligungsquote behält und incentiviert bleibt, die Bewertung des Unternehmens bis zum Exit zu maximieren. Mitunter ist das einer der Gründe, warum Frühphasen-VC-Fonds unvorteilhaft strukturierte Cap Tables (meist ein in Tabellenform aufbereitetes Steuerungsinstrument zur Planung von Finanzierungsrunden bis hin zum Exit) von vornherein ablehnen. Um sich zusätzlich abzusichern, bestehen viele VC-Fonds zusätzlich auf ein Vesting (darin wird u.a. geregelt, was mit den Anteilen eines/einer Gründer*in geschieht, sobald er/sie das Start-up verlässt) der Anteile über einen festgelegten Zeitraum.
Die Investor*innen haben bei ihrer Investition keine operative Verantwortung. Diese liegt beim Gründungsteam, das für alle Beteiligten die Renditen über die nächsten Jahre erzielen soll und dafür (im Vergleich zum Unternehmensverkauf) mithilfe der höheren Bewertung kompensiert werden kann. Deshalb spielt im VC-Finanzierungszyklus eines Unternehmens auch die Signalwirkung einer hohen Bewertung eine wichtige Rolle. Ein maßgebliches Ziel für Frühphasen-Investor*innen ist die Gewinnung weiterer Investor*innen, die den Großteil des bis zum Exit benötigten Kapitals einbringen. Eine gute Bewertung professioneller Investor*innen zu einem frühen Zeitpunkt ist somit ein positives Signal an andere professionelle Investor*innen und erhöht die Chancen, dass ein Unternehmen erfolgreich bis zum Exit durchfinanziert werden kann.
Betrachtet man das auf Outlier (Ausreißererkennung) ausgerichtete Investitionsverhalten von VC-Fonds, ist eine niedrige Einstiegsbewertung viel weniger wichtig, als bei den richtigen Investments an Bord gewesen zu sein. Dieser Umstand führt zu mehr Akzeptanz bei den Investor*innen bezüglich höherer Bewertungen. Trotzdem müssen Unternehmer*innen weiter zwischen den sehr unterschiedlichen Vorhaben Unternehmensverkauf und Finanzierung differenzieren, um das Unternehmen angemessen bewerten zu können.
Warum werden Unternehmensverkäufe anders bewertet als Finanzierungsrunden?
Viele Eigentümer*innen etablierter Unternehmen halten die hohen Bewertungsniveaus bei Start-up-Finanzierungsrunden für nicht gerechtfertigt, wenn nicht sogar absurd. Dennoch geben sie sich oft der Versuchung hin, die hohen Bewertungen der „noch jungen, unausgereiften Unternehmen“ bei Finanzierungsrunden auf den Verkauf ihres profitablen, etablierten Unternehmens zu übertragen. Schließlich hat das eigene Unternehmen ja zu Teilen bereits erreicht, wovon das junge Start-up noch träumt. Dies führt in der Praxis dazu, dass viele Eigentümer*innen Bewertungsmultiples von „3-5x Umsatz“ – die durchaus bei Finanzierungsrunden vorkommen – auf ihr eigenes Unternehmen anwenden und mit unrealistischen Erwartungen in den Verkaufsprozess starten.
Beim Blick auf vergleichbare Unternehmenstransaktionen folgt dann die Ernüchterung, wenn statt „3-5x Umsatz“ eher „6-8x EBIT“ (das operative Ergebnis des Unternehmens) im Markt gezahlt werden. Der entscheidende Fehler liegt darin, dass Verkäufer*innen hier die sprichwörtlichen Äpfel mit Birnen vergleichen: Die Bewertungslogik eines Unternehmensverkaufs unterscheidet sich nun mal erheblich von der oben bereits skizzierten Bewertungslogik einer Kapitalerhöhung im Rahmen einer Finanzierungsrunde. Die Unterschiede liegen vor allem in den folgenden drei Punkten:
- Bei einem Unternehmensverkauf übernehmen die Käufer*innen üblicherweise die (deutliche) Mehrheit am Unternehmen. Damit liegt auch das operative Risiko der zukünftigen Unternehmensführung grundsätzlich bei den Käufer*innen. Viele Käufer*innen versuchen zudem, die Alteigentümer*innen von Unternehmen noch mindestens für 6 bis 24 Monate nach Verkauf an das Unternehmen zu binden, um einen erfolgreichen Übergang an eine neue Geschäftsführung zu gewährleisten. Dazu dienen mitunter auch Earn-Out-Strukturen, bei denen die Alteigentümer*innen teilweise erst bei Erreichung gewisser Meilensteine unter den neuen Eigentümer*innen (zum Beispiel Umsatz- und Ergebnissteigerungen) vollständig vergütet werden.
- Des Weiteren spielt der Verkaufsgrund eine maßgebliche Rolle. Die Frage, die allen Käufer*innen, oft auch direkt beim ersten Gespräch mit den Alteigentümer*innen, auf der Zunge brennt: Wenn Ihr Unternehmen so attraktiv ist, wie Sie sagen, wieso verkaufen Sie dann jetzt? Auch wenn es einige gute Gründe für Unternehmensverkäufe gibt, besteht meist nicht dasselbe Alignment (strategische Ausrichtung) zwischen beiden Parteien wie bei einer Finanzierungsrunde bzw. Kapitalerhöhung. Entsprechend skeptisch und vorsichtig agieren Käufer*innen – was sich zwangsläufig in niedrigeren Bewertungsniveaus äußert.
- Die Steigerungspotenziale in der Bewertung sind weniger stark ausgeprägt als bei Finanzierungsrunden: Während bei einem VC-finanzierten Start-up im Laufe der Zeit immer höhere Bewertungen im Zuge der folgenden Finanzierungsrunden erwartet werden, gestaltet sich das Steigerungspotenzial der Bewertung für Unternehmenskäufer*innen weniger kalkulierbar.
Fazit
Eigentümer*innen können im Verkaufsprozess einige Maßnahmen treffen, um die eigene Unternehmensbewertung zu optimieren. Hauptsächlich erreichen die Verkäufer*innen ihr Ziel, indem sie frühzeitig mit einer gesunden Erwartungshaltung in den Verkauf starten und dann die notwendigen Weichen stellen. Dazu lohnt es sich, saubere Controlling-Strukturen zu definieren, Wachstumspotenziale zu quantifizieren und SOPs (Standard Operating Procedures in Form eines Leitfadens) vorzubereiten.
Zu guter Letzt sollten Eigentümer*innen über qualifizierte M&A-Berater*innen gezielt potenzielle Käufer*innen mit hohem Synergiepotenzial ansprechen. So rückt die Vision eines erfolgreichen Unternehmensverkaufs zu einer attraktiven Bewertung in greifbare Nähe.
Der Autor Peter Nadolinski ist Gründer und Managing Partner bei Venture Advisory Partners und berät Wachstumsunternehmen bei der Finanzierung und erfolgreichen Umsetzung ihres Unternehmensverkaufs.
Den technologischen Wandel stemmen
Wie wir unsere Zukunft durch gezielte Fachausbildung in der Region sichern können.
Die Welt steht mitten in einem rasanten technologischen Wandel. Künstliche Intelligenz, Automatisierung und digitale Transformation prägen unsere Arbeitswelt und unseren Alltag. Die Frage, wie wir junge Menschen zu fähigen Fachkräften ausbilden können, wird immer drängender. Die technologischen Entwicklungen eröffnen auch für die Region und ihre Umgebung große Chancen, erfordern jedoch auch gezielte Bildungsangebote und ethisches Bewusstsein.
Regionale Perspektiven
Technologien wie maschinelles Lernen, Big Data, Robotik und das Internet der Dinge (IoT) eröffnen neue Möglichkeiten in der Industrie, im Dienstleistungssektor und darüber hinaus. Gleichzeitig verändern sie Berufsbilder grundlegend. Es ist daher von großer Bedeutung, die Weichen für eine zukunftsorientierte Ausbildung zu stellen.
In Kamen selbst gibt es keine eigenständige Hochschule, doch die Nähe zu Bildungseinrichtungen wie der Hochschule Hamm-Lippstadt (HSHL) und der Technischen Universität Dortmund bietet jungen Menschen Zugang zu innovativen Studiengängen mit technischem Fokus. Die HSHL bietet praxisnahe Studiengänge wie "Mechatronik" und "Angewandte Informatik", die auf die Anforderungen moderner Arbeitsmärkte abgestimmt sind. Die TU Dortmund hingegen überzeugt mit Studiengängen wie "Elektrotechnik und Informationstechnik" und "Maschinenbau". Diese Ausbildungen kombinieren theoretische Grundlagen mit praktischen Anwendungen und sind damit ein entscheidender Schlüssel zur Förderung von Fachkräften in der Region.
Ethische Fragen im neuen Zeitalter
Neben den Chancen, die der technologische Fortschritt bietet, werfen diese Entwicklungen auch ethische Fragen auf. Themen wie Datenschutz, digitale Regulierung und der Schutz vor einem “gläsernen Menschen“ werden immer wichtiger.
Ein Großteil der Datenerhebung findet bereits im alltäglichen Freizeitverhalten statt – oft, ohne dass sich die Nutzer dessen bewusst sind. Jede Interaktion im Internet hinterlässt Spuren: Beim Surfen akzeptieren viele Nutzer Cookies, die ihre Aktivitäten auf Webseiten verfolgen, um gezielte Werbung auszuspielen. Nur wenige bemühen sich, individuelle Einstellungen vorzunehmen, denn in Zeiten sofortiger Verfügbarkeit erwarten die meisten, dass alles im Handumdrehen geschehen soll.
Nicht zuletzt deswegen sind auch Registrierungsvorgänge bei Online-Diensten oder in Apps häufig unbeliebt. Dienstleister mit beschleunigten Verfahren, wie zum Beispiel Casinos ohne Anmeldung für schnelles Spielen, gewinnen an Beliebtheit. Außerdem sind hier umfassende Datenangaben nicht erforderlich und viele Nutzer fühlen sich dadurch wohler.
Auch in anderen Sektoren erfordern Anmeldeprozesse häufig die Preisgabe von persönlichen Daten wie Name, Geburtsdatum, Interessen und manchmal sogar Standortinformationen. Hinzu kommt die massive Datenerhebung durch mobile Geräte, die Bewegungsprofile aufzeichnen, Apps, die Zugriff auf Kontakte und Kameras fordern, und Sprachassistenten wie Alexa oder Google Assistant, die rund um die Uhr Sprachdaten sammeln können.
Solche Datenströme werden nicht nur für individuelle Dienste genutzt, sondern unter Umständen auch an Drittanbieter weitergegeben, was die Kontrolle über die eigenen Informationen erschwert. Mit der zunehmenden Nutzung von Daten zur Personalisierung von Dienstleistungen oder zur Effizienzsteigerung in Unternehmen wächst auch die Gefahr des Missbrauchs.
Ein weiterer bedenklicher Aspekt ist die gesellschaftliche Ungleichheit. Die digitale Transformation birgt die Gefahr, dass jene, die keinen Zugang zu moderner Technologie oder entsprechender Ausbildung haben, zurückgelassen werden. Daher müssen Ausbildungseinrichtungen nicht nur technische Kompetenzen vermitteln, sondern auch kritisches Denken und ethisches Bewusstsein fördern.
Lösungsansätze durch Bildung schaffen
Die Hochschulen der Region gehen hier mit gutem Beispiel voran: Die TU Dortmund bietet interdisziplinäre Ansätze, die ethische und gesellschaftliche Aspekte der Technologieentwicklung in den Fokus rücken. Die TU Dortmund legt großen Wert auf die Integration ethischer Reflexion in die Forschungspraxis. Auf Initiative von Prof. Dr. Christian Neuhäuser wird derzeit ein gemeinsamer Ethikrat für die Universitätsallianz Ruhr (UA Ruhr) vorbereitet, der die ethische Reflexion der Forschungspraxis fördern soll.
Zudem bietet die TU Dortmund Studiengänge und Projekte an, die über Fachgrenzen hinausgehen und ein Verständnis für komplexe Zusammenhänge fördern. Ein Beispiel hierfür ist das “studium oecologicum", ein Zertifikatsprogramm, das es Studierenden ermöglicht, sich intensiv und interdisziplinär mit Fragen der Nachhaltigkeit auseinanderzusetzen.
Studiengänge wie Soziologie oder Gesellschaftslehre an der Universität Duisburg-Essen und der Ruhr-Universität Bochum ermöglichen es, gesellschaftliche Veränderungen zu verstehen und aktiv mitzugestalten.
Diese Bildungsangebote sind von großer Bedeutung, da sie Studierenden nicht nur technisches Wissen, sondern auch ein tiefes Verständnis für die gesellschaftlichen und ethischen Implikationen der Technologieentwicklung vermitteln. Durch die Kombination von technischen und sozialwissenschaftlichen Studieninhalten werden zukünftige Fachkräfte darauf vorbereitet, technologische Innovationen verantwortungsbewusst zu gestalten und die gesellschaftlichen Auswirkungen ihrer Arbeit zu berücksichtigen.
Zukunft bewusst gestalten
Die jungen Menschen von heute stehen im Mittelpunkt dieses Wandels. Es ist unbedingt erforderlich, ihnen die Werkzeuge an die Hand zu geben, die sie benötigen, um nicht nur kompetente Fachkräfte, sondern auch verantwortungsbewusste Gestalterinnen und Gestalter der Zukunft zu werden.
Es bleibt die Aufgabe von Politik, Wirtschaft und Gesellschaft, diese Bemühungen zu unterstützen und den jungen Menschen eine Zukunftsperspektive zu bieten, die sowohl technologisch als auch ethisch nachhaltig ist.
10 Regeln fürs schnelle und günstige Testen von Ideen
Wer eine Geschäfts- oder Produktidee hat und diese schnell und ohne großen finanziellen Aufwand testen möchte, kommt am Lean-Ansatz kaum vorbei.
Der Lean-Ansatz zeichnet sich durch die ständige Wiederholung des Dreischritts Bauen-Messen-Lernen aus. Zunächst baut man ein Minimum Viable Product (MVP), also einen ersten, stark abgespeckten Prototypen des eigentlichen Produktes. Daran lassen sich dann verschiedene Parameter messen und man lernt, was funktioniert und was nicht. So lässt sich das Produkt verbessern und an die Anforderungen des Marktes anpassen. Die (Kunden-)Entwicklung erfolgt parallel zur Produktentwicklung, sodass eine optimale Kombination aus Kunde-Problem-Lösung entsteht.
Der Autor Kalle Eberhardt ist Mitgründer und Geschäftsführer einiger Unternehmen, die alle nach dem Lean-Ansatz ohne Startkapital gegründet wurden. Eines davon ist das IdeaCamp. Hier lernen die Teilnehmer in Wochenend-Workshops, wie man an nur einem Wochenende mit einer Idee durchstarten kann. Für StartingUp hat Eberhardt die 10 Grundregeln fürs schnelle und günstige Testen von neuen Ideen zusammengestellt.
Die 10 Grundregeln fürs schnelle und günstige Testen von Ideen
1. Schmeiße den Perfektionismus über Bord
Die erste und wichtigste Regel beim schnellen Testen von Ideen ist, dass du dich von Perfektionismus verabschiedest. Schnell testen und dabei keine Fehler machen, ist einfach unmöglich. Allerdings ist ein perfekter Markttest per se unmöglich, weil dein finales Produkt erst mit Hilfe des Kundenfeedbacks gebaut werden sollte. Verschwende also keine Zeit mit der perfekten Homepage, feile keine Stunden an Formulierungen auf der Seite und auch die Partneransprache und das Marketing werden sich mit der Zeit entwickeln. Sei schnell aber gründlich und passe dein Produkt und die Ausgestaltung der Idee anhand des Kundenfeedbacks an.
2. Mache erst Marketing, baue dann dein Produkt fertig
Ich persönlich habe noch nie das Produkt fertig gehabt, bevor ich es zum ersten Mal verkauft habe. Das heißt, ich baue eine Homepage für ein Produkt, wie ich es mir vorstelle. Das kann ein physisches Produkt sein, aber auch ein Event oder ähnliches. Dabei ist es natürlich wichtig, dass man nach den ersten Verkäufen, das Produkt auch wirklich relativ zeitnah bereitstellen kann. Da erst mit dem ersten Feedback von potenziellen Kunden wirklich feststeht, ob diese das Produkt wollen, biete ich das Produkt zunächst einmal an und definiere es dann final. Wenn kein Interesse besteht, muss ich das Angebot ändern oder das Projekt fallen lassen. So habe ich mir aber viel unnötige Zeit für die Produktentwicklung gespart, wenn niemand Interesse hat. Wenn allerdings Interesse besteht und Leute erstes Geld gezahlt haben, dann kann ich das Produkt fertig stellen und werde quasi für die Produkterstellung gezahlt. Und ist es nicht schöner Zeit in etwas zu stecken, wo du schon weißt, dass es funktioniert?
3. Marketing, Marketing, Marketing
Mindestens 80 Prozent der Start-ups scheitern meiner Erfahrung nach am Marketing. Die Angst, mit der eigenen Idee rauszugehen und sich angreifbar zu machen, ist oft unüberwindbar groß. Überwinde diese Angst und investiere 80 % deiner Zeit in Marketing. So weißt du schon nach ein paar Tagen, ob deine Idee tatsächlich ankommt, du kannst schon erste Umsätze erzielen und du erzielst schnelle Erfolgserlebnisse. Marketing macht sehr häufig den Unterschied zwischen Erfolg und Misserfolg eines Projektes aus. Wenn ich ein paar Monate an einer Homepage bastle, diese dann online stelle und kein Mensch meine Produkte kauft, darf ich nicht enttäuscht sein. Dann ist es eben die Aufgabe von Marketing Leute auf meine Seite zu bringen. Eine Homepage alleine lockt noch keine Leute an. Beim Marketing gilt vor allem eines: Mehr ist immer besser! Investiere also mehr Zeit in Marketing und weniger Zeit in die vielen kleinen Dinge, die anfallen, dich aber nicht wirklich voran bringen.
4. Suche Mitgründer
Alleine Arbeiten ist schwer und erfordert eine Menge Selbstdisziplin. Alleine Gründen ist noch ungleich schwerer, weil in der Gründungsphase häufig viele verschiedene Dinge auf dich einprasseln. Wenn du da niemanden hast, der das gemeinsam mit dir durchsteht, ist das ungleich schwieriger. Gerade in den kleinen (oder großen) Phasen des Misserfolges ist ein Partner Gold wert. Suche dir also Jemanden, der auch für die Idee brennt und mit dem du gern arbeitest. Ich habe selbst einmal vorher versucht ganz alleine zu gründen, fand es allerdings ziemlich schwierig und habe mir dann immer nachträglich einen Partner gesucht.
5. Hole Partner an Bord
Hier geht es nicht um Gründungsmitglieder, sondern um Menschen oder Firmen, die schon Zugang zu deinen Kunden haben. Es gibt Leute da draußen, die bereits deine Kunden haben. Nutze diese als Partner. So kannst du viel schneller eine größere Gruppe an Menschen erreichen. Mache dir dabei Gedanken, was du diesen Partnern anbieten kannst, dass sie gern mit dir zusammen arbeiten wollen. Das kann Geld sein, aber es gibt auch andere Möglichkeiten. Da kennst du dein Projekt und die Möglichkeiten am Besten. Sei da also kreativ und mache dir Gedanken, wie du gut das Angebot von Anderen ergänzen kannst oder wie du noch etwas dort draufsetzen kannst, was diese bisher noch nicht haben.
6. Telefoniere und erhalte direktes Feedback
Gerade in der Partnerakquise und in der Kontaktaufnahme von Journalisten ist der schnellste und einfachste Weg häufig übers Telefon. Am Telefon kannst du viel direkter deine Botschaft transportieren und dein Gegenüber muss direkt auf dich reagieren und kann dich nicht einfach ignorieren. So kommt man viel schneller zu Antworten und kann erste Erfolgserlebnisse feiern oder wertvolles Feedback einsammeln. Das erfordert für viele Leute einige Überwindung, Du solltest es aber trotzdem einmal probieren.
7. Hole Feedback ein und lerne
Sobald du auch nur darüber nachdenkst etwas zu starten, solltest du anfangen, Leuten davon zu erzählen, um erstes Feedback zu bekommen. So kannst du schon von Tag eins an anfangen, Ideen mit aufzunehmen, die dein Projekt oder dein Produkt besser machen.
8. Benutze kostenlose Tools
Da draußen gibt es eine Vielzahl an kostenlosen Tools, die du für einen ersten Markttest nutzen kannst. Mit Weebly kannst du zum Beispiel, komplett ohne Vorerfahrung, innerhalb von zwei Stunden eine erste funktionierende und gut aussehende Homepage bauen. Anstatt eines Kontaktformulars kann am Anfang vielleicht auch ein Google Form reichen und anstatt eines CRM Systems, kann man zum Start auch eine Excel-Liste oder Google Drive nutzen. Auch ein Büro ist am Anfang absolut unnötig. Entweder man arbeitet zum Start von zu Hause aus, in Cafés oder man mietet sich in einem Co-Working-Space ein. Mache alles so einfach wie möglich und professionalisiere mit der Zeit.
9. Habe Spaß
Das Wichtigste bei deiner Gründung ist, dass du damit Spaß hast. Genieße den Fortschritt, genieße es Aufmerksamkeit auf dein Projekt zu ziehen. Koste es aus, wenn du etwas Neues lernst. Nur wenn du dein Projekt liebst und Spaß daran hast, wirst du auch schwere Zeiten durchlaufen. Ohne Freude am Projekt ist es viel zu einfach aufzugeben, wenn es mal nicht so gut läuft. Wenn dir dein Projekt von Anfang an nicht viel Spaß macht, dann solltest du es gar nicht erst anfangen.
10. Feiere Erfolgserlebnisse
Wer viel Geld in eine Idee steckt, der ist zum Erfolg verdammt, aber es wird ihm oft auch leichter fallen, sich seine ersten Kunden zu kaufen. Wer ohne Geld an den Start geht, bei dem sind Erfolge noch etwas Spezielleres. Feiere diese Erfolge also entsprechend. Das gibt dir noch einmal einen Push und neue Motivation. Wer seine Erfolge richtig feiert, der kann danach auch mit schweren Zeiten besser umgeben. Geh also mit deinem Geschäftspartner raus und trinkt ein Bier oder lade deinen Freund oder deine Freundin gut zum Essen ein. Es wird sich auszahlen.
From free to fee
Die Monetarisierung einer Internet-Plattform ist eine der schwierigsten und zugleich faszinierendsten Aufgaben für Gründer.
Der einem Plattformunternehmen zugrunde liegende Wert besteht zunächst aus den Netzwerkeffekten, die es erzeugt. Die daraus resultierende Notwendigkeit, Netzwerkeffekte zu erzeugen und zu fördern, veranlasst die Plattformbetreiber, ihre Dienste zunächst einmal kostenlos anzubieten.
Den Usern einen Mehrwert bereitzustellen, ohne eine Gegenleistung dafür zu fordern, ist oft eine gute Methode, um Mitglieder anzuziehen und zur Teilnahme zu bewegen. Das Motto lautet: Erst die User, dann die Monetarisierung. Oder wie es der Plattformstratege des chinesischen Fertigungsunternehmens Haier Group ausgedrückt hat: „Man verlangt niemals zuallerst Geld.“
Soll heißen: Erst nachdem Werteinheiten erzeugt und ausgetauscht worden sind und das Ergebnis sowohl den Anbieter als auch den Kunden zufriedenstellt, sollte das Plattformunternehmen versuchen, einen Teile dieses Wertes einzubehalten. Es sind schon einige äußerst vielversprechende Plattformen erfolglos geblieben, weil sie diese Regel missachtet und stattdessen versucht haben, ihr Angebot verfrüht zu monetarsisieren.
Kosten sind Killerfaktoren
Die Monetarisierung stellt allerdings eine besondere Herausforderung für sich dar. Netzwerkeffekte beschreiben die Attraktivität einer Plattform, indem sie selbstverstärkende sog. Feedbackschleifen erzeugen, die die Userbasis vergrößern, häufig sogar ohne nennenswerten Aufwand auf Seiten des Betreibers. Eine umfassendere Wertschöpfung durch die Anbieter auf einer Plattform zieht weitere Kunden an, die ihrerseits neue Anbieter anlocken und so wiederum für zusätzliche Wertschöpfung sorgen. Dennoch gestaltet diese außerordentlich positive Wachstumsdynamik die Monetarisierung paradoxerweise sehr knifflig.
Jede Form von Kosten, die den Usern auferlegt werden, trägt dazu bei, dass diese möglicherweise ganz von einer Teilnahme an der Plattform absehen: Eine Gebühr für den Zugang zu einer Plattform zu erheben, könnte dazu führen, dass die User sie ganz meiden, während eine Nutzungsgebühr eine häufigere Teilnahme verhindern könnte. Gebührenzahlungen von Anbietern zu fordern, reduziert die Wertschöpfung und macht die Plattform für Kunden weniger attraktiv – und die Berechnung von Nutzungsgebühren wirkt sich nachteilig auf den Konsum aus und macht die Plattform folglich auch für Anbieter weniger attraktiv. Hierbei handelt es sich um genau das Dilemma, mit dem viele E-Commerce-Gründer heftig zu kämpfen haben.
From free to fee
Wie also monetarisiert man eine Plattform, ohne die Netzwerkeffekte, deren Aufbau so mühsam war, zu beeinträchtigen oder sogar zunichte zu machen? Manche Beobachter des Plattform-Business kommen zu dem Schluss, dass online vertriebene Waren und Dienstleistungen aufgrund der von Zusammenarbeit geprägten Art der Wertschöpfung im Internet naturgemäß kostenlos zu haben sein sollten. Allerdings wird ein Unternehmen, das für die Vorteile, die es bietet, kein Geld verlangt, natürlich kaum sehr lange überleben, da es keine für die Aufrechterhaltung oder Verbesserung der Geschäftstätigkeit erforderlichen Ressourcen generiert. Und für Investoren besteht kein Anreiz, das für ein Wachstum der Plattform benötigte Kapital bereitzustellen.
Razor-and-Blade
Manche Elemente einer solchen Gratiskultur können beim Aufbau von Netzwerkeffekten für ein Plattformunternehmen durchaus nützlich sein. Man sollte jedoch die verschiedenen Modelle kennen, in deren Kontext eine teilweise kostenlose Bereitstellung von Waren und Dienstleistungen das Wachstum vorantreiben kann. Jeder Student der Betriebswirtschaft kennt das Verkaufsmodell für Rasierapparate, das 1901 von dem Unternehmer King Gillette begründet wurde: Die Rasierapparate selbst werden verschenkt – oder zu einem sehr geringen, subventionierten Preis abgegeben –, die Rasierklingen kosten hingegen Geld.
Eine Untersuchung von Randal C. Picker, Rechtsprofessor an der University of Chicago Law School, stellt die wohlbekannte Geschichte von Gillettes Preisgestaltung für Rasierapparate und -klingen übrigens infrage: Picker konstatierte, dass weder die Zeitpunkte der Preisänderungen für Gillette-Rasierapparate und -Rasierklingen, noch das Ablaufdatum des Patents für Gillettes Sicherheitsrasierer die These belegen, dass sein Unternehmen das sog. Köder-und-Haken-Geschäftsmodell (auch Razor-and-Blade genannt) tatsächlich in der Form angewandt hat, wie man bislang annahm. Dessen ungeachtet symbolisiert die vertraute Geschichte jedoch in anschaulicher Weise eine Strategie, die in einer Reihe von Märkten verfolgt wird, beispielsweise auch im Druckersegment: Die Verkäufe der kostspieligen Tonerkartuschen erzielen höhere Gewinne als die im Verhältnis dazu preiswerten Drucker.
Freemium-Varianten
Eine andere Variante dieser Strategie ist das Freemium-Modell, bei dem die Grundausführung eines Dienstes bzw. Produkts zunächst einmal kostenlos zur Verfügung gestellt wird, um User anzulocken, während die vollumfängliche Nutzung sowie Erweiterungen kostenpflichtig sind. Viele Plattformen für Online-Dienste gehen auf diese Weise vor, z.B. Dropbox und MailChimp. Sowohl das Razor-and-Blade-Modell als auch das Freemium-Modell monetarisieren dieselbe Userbasis (oder Teile davon). Mitunter verhält es sich auch so, dass Plattformen einer bestimmten Usergruppe kostenlose oder subventionierte Dienste und Produkte anbieten, für die sie einem völlig anders zusammengesetzten Userkreis den vollen Preis berechnen. Durch diese Verfahrensweise wird die Gestaltung von Monetarisierungsmodellen allerdings verkompliziert, denn hierbei muss die Plattform gewährleisten, dass die auf der einen Seite verschenkten Werte auf der anderen Seite gewinnbringend einsetzbar sind.
Auf diesem Gebiet wurde bis heute beträchtliche wissenschaftliche Arbeit geleistet. Geoff Parker und Marshall Van Alstyne gehörten zu den Ersten, die eine Theorie der Preisgestaltung in zweiseitigen Märkten entwickelten. Diese Theorie führte unter anderem auch zu der Verleihung des Wirtschaftsnobelpreises 2014 an Jean Tirole, einen weiteren Wegbereiter auf dem Gebiet der Ökonomie zweiseitiger Märkte. Ein ausgewogenes Verhältnis für all die komplizierten Faktoren zu finden, die bei der Preisgestaltung in zweiseitigen Märkten eine Rolle spielen, ist nicht ganz einfach. Netscape, einer der Pioniere des Internetzeitalters, „verschenkte“ seine Browser in der Hoffnung, dadurch die hauseigenen Webserver zu verkaufen. Leider gab es jedoch keine proprietäre Verknüpfung zwischen Browsern und Servern, die das Unternehmen verlässlich hätte steuern können.
Stattdessen konnten die User genauso gut den Webserver von Microsoft oder den kostenlosen Apache-Webserver einsetzen – und deshalb ist es Netscape auch nie gelungen, die andere Seite des Browsergeschäfts zu monetarisieren. Wie dieses Beispiel zeigt, müssen Plattformunternehmen, deren Strategie eine teilweise kostenlose Bereitstellung ihrer Waren und Dienstleistungen vorsieht, gewährleisten können, dass die geschaffenen Werte, die sie zu monetarisieren hoffen, auch tatsächlich vollständig unter der Kontrolle der Plattform stehen.
Welche Werte bietest du?
Um die Herausforderung, welche die Monetarisierung einer Plattform darstellt, annehmen zu können, muss zuallererst eine Analyse der von der Plattform erzeugten Werte erstellt werden. Traditionelle Geschäftsmodelle ohne Plattformkonzept – sprich sog. Pipelines – liefern den Kunden Werte in Form von Produkten oder Dienstleistungen, das heißt, sie verlangen zum Beispiel für die Ware selbst Geld, wie es etwa die Firma Whirlpool tut, wenn sie einen Geschirrspüler verkauft, oder aber für den Gebrauch des Produkts, wie beispielsweise GE Aviations, die sich die Montage und regelmäßige Wartung ihrer Flugzeugtriebwerke bezahlen lässt. Ebenso wie Whirlpool und GE sind auch Plattformunternehmen mit der Gestaltung und Entwicklung von Technologie befasst. Doch statt die Technologie kostenpflichtig anzubieten, fordern sie die User auf, der Plattform beizutreten – und versuchen dann, Letztere zu monetarisieren, indem sie für die Werte, die die Plattformtechnologie den Usern bietet, eine Bezahlung verlangen.
(Mehr-)Wert-Quellen
Diese Werte lassen sich in vier umfassende Kategorien unterteilen:
Für User: Zugang zu den auf der Plattform erzeugten Werten. Für die Zuschauer sind die Videos auf YouTube von Wert. Android-User finden Gefallen an den verschiedenen Aktivitäten, die Apps ihnen ermöglichen. Und für Schüler stellen die bei Skillshare angebotenen Kurse einen Wert dar.
Für Anbieter oder Drittanbieter: Zugang zu einer Community oder einem Markt. Airbnb ist für Gastgeber von Wert, weil es den Zugang zu einem globalen Markt von Reisenden bereitstellt. LinkedIn ist für Personalvermittler wertvoll, weil es ihnen ermöglicht, mit potenziellen Arbeitskräften in Kontakt zu treten. Und Alibaba bringt Händlern einen Mehrwert, weil sie ihre Waren mithilfe dieser Plattform an Kunden in der ganzen Welt verkaufen können.
Sowohl für User als auch für Anbieter: Zugang zu Tools und Dienstleistungen, die Interaktionen ermöglichen. Plattformen erzeugen Werte, indem sie Reibungspunkte und Hürden abbauen, die Anbieter und User an der wechselseitigen Interaktion hindern. Kickstarter hilft kreativen Firmengründern dabei, Kapital für neue Projekte zu sammeln. eBay ermöglicht in Kombination mit PayPal jedem Interessierten, einen Online-Shop zu eröffnen, auf den User weltweit zugreifen können. YouTube gestattet es Musikern, ihre Fans mit Videos von ihren Auftritten zu versorgen, ohne physische Produkte (CDs oder DVDs) produzieren und über Zwischenhändler verkaufen zu müssen.
Sowohl für User als auch für Anbieter: Zugang zu Kuratierungsverfahren zur Qualitätsverbesserung von Interaktionen. Die User wissen den Zugang zu hochwertigen Waren und Dienstleistungen zu schätzen, die ihre persönlichen Bedürfnisse und Interessen bedienen. Für Anbieter ist wiederum der Zugang zu Usern von Wert, die auf ihre Angebote zugreifen möchten und bereit sind, dafür faire Preise zu bezahlen. Intelligent betriebene Plattformen entwickeln und pflegen sog. Kuratierungssysteme, die User schnell und einfach mit geeigneten Anbietern zusammenbringen.
Diese vier Wertarten könnten auch als die Quellen des außerordentlichen Mehrwerts beschrieben werden, den die Plattform generiert. Die meisten vernünftig gestalteten Plattformen erzeugen viel mehr Werte, als sie unmittelbar erfassen – und ziehen so eine große Zahl von Usern an, die sich darüber freuen, die Vorteile dieser „kostenlos“ dargebotenen Werte nutzen zu können. Eine clevere Strategie zur Monetarisierung berücksichtigt zunächst alle Wertarten und ermittelt dann, welche Quellen des außerordentlichen Mehrwerts von der Plattform genutzt werden können, ohne dass das kontinuierliche Wachstum der Netzwerkeffekte behindert wird.
Die Autoren dieses Beitrags – Geoffrey G. Parker, Marshall W. Van Alstyne und Sangeet P. Choudary – haben das Buch verfasst: Die Plattform Revolution – Methoden und Strategien für Start-ups und Unternehmen, ISBN: 978-3-958455-19-1, mitp 2017, 28 EUR
Strategiearbeit in Start-ups
Damit dein Start-up kein „Go-down“ wird. Worauf du bei deiner Strategiearbeit achten musst.
Start-ups sind innovativ, jung, experimentierfreudig und risikobereit. Das braucht es, um erfolgreich zu sein – zum einen. Zum anderen braucht es strukturiertes Vorgehen und Organisation. Start-ups stehen jedoch unter dem Druck, mit begrenzten Ressourcen schnell wachsen zu müssen. Die strategische Arbeit fällt dabei schnell hinten runter. Viele Jungunternehmen, die weitgehend blind starten, landen dabei schnell im Sand oder gar im Desaster. Wo liegen die größten Hindernisse und wo führt der Weg zu nachhaltigem Erfolg?
Bürokratie, unausgereifte Geschäftsmodelle mit nebligen Vorstellungen über künftige Kunden, unausgereifte Produkte und überhöhte Umsatzerwartungen sind häufig die Ursachen, dass Unternehmensgründungen schon bei der Planung scheitern oder Start-ups bereits in der Frühphase lautlos untergehen. Der DIHK-Gründerreport 2019 titelte aufgrund dessen: "Trotz regen Gründungsinteresses – der Funke zündet nicht".
367.000 Existenzgründungen zählte das Institut für Mittelstandsforschung (IfM) letztes Jahr. Mehr als die Hälfte der Unternehmen geben jedoch laut Statistik innerhalb der ersten drei bis fünf Jahre nach ihrer Gründung erschöpft auf. Die Gründe für das Scheitern mögen ganz unterschiedlich sein – dennoch gibt es durchaus Gemeinsamkeiten. Das konnte nicht nur ich als langjähriger strategischer Berater beobachten, sondern davon ist auch die Deutsche Industrie- und Handelskammer überzeugt.
„Ich habe eine tolle Idee“, reicht nicht
So macht fast die Hälfte der Gründer den Fehler, vor lauter Euphorie über die eigene Idee den Kunden zu vergessen. Braucht er das Produkt überhaupt und wenn ja, wer ist „der Kunde“? Wie groß ist die Zielgruppe und wo ist sie? Was unterscheidet das Produkt von der Konkurrenz? „Ich habe eine tolle Idee“, reicht nicht.
Wiederum knapp die Hälfte ist nach DHIK-Angaben nicht in der Lage, ihre Zielgruppe genau einzugrenzen, über ein Drittel der Gründer arbeiten mit einem zu kurzen Planungshorizont. Weitere Fehler in der Strategiearbeit sind Fehlinvestitionen, nicht kostendeckende Preise und ein riskantes Wachstum. Viele Start-ups verfolgen keine konsistente Strategie.
Schon mal Schach gespielt?
Der Erfolg deines Unternehmens hängt jedoch stark von deinen strategischen Entscheidungen ab. Schon mal Schach gespielt? Wie beim Schach ist es nicht genug, das Ziel zu benennen. „Ich will gewinnen“, braucht strategisches Denken.
Genauso wie beim Schachspiel nie das Ziel (den König zu schlagen) aus den Augen verloren wird, sollte der Unternehmer seine Vision stets im Blick behalten. Dabei ist ein vollständiger Überblick über die strategischen Optionen notwendig, um sich für den besten Schritt entscheiden zu können. Das gilt für den Schachspieler genauso wie für den Gründer bzw. Manager. Damit du nicht plötzlich überrascht im Schachmatt sitzt, solltest du deinen nächsten Zug also immer sorgfältig planen.
Merkmale erfolgreicher Strategiearbeit
Strategien gestalten die Zukunft deines Unternehmens. Die eine Strategie, die dich erfolgreich gründen lässt, gibt es nicht. Unternehmen sind so individuell wie die Menschen, die sie gründen. Aber es gibt typische Fehler, die für ein Scheitern verantwortlich sind und es gibt Merkmale erfolgreicher Strategiearbeit.
Deine Strategiearbeit sollte:
- die Vision deines Unternehmens in den Vordergrund stellen. Produkte und Strategie können sich häufig ändern. Die Vision deines Unternehmens jedoch nicht. Sie bildet das Entwicklungsfundament. Daher sollte die Frage nach der angestrebten einzigartigen strategischen Position deines Start-ups gründlich durchdacht und klar beantwortet sein;
- ambidextriefähig sein. Ambidextrie klingt zwar eher nach einer Krankheit, steht aber für eine Fähigkeit, die nur etwa ein Prozent der Weltbevölkerung besitzt. Jemand mit Ambidextrie, ist weder links- noch rechts-, sondern beidhändig. In der Wirtschaft soll der Begriff Ambidextrie darauf hinweisen, wie wichtig es ist, dass Unternehmen sowohl Exploration (Innovation / Erkundung von Neuem) als auch Exploitation (Effizienz / Ausnutzung von Bestehendem) integrieren. Diese unterschiedlichen Modi solltest du in deiner Strategiearbeit zulassen;
- in kurzen Zeitabschnitten (kurzfristige Strategieschleifen) stattfinden. Nur so kannst du agil reagieren und die Strategie ggf. an sich verändernde Umstände anpassen;
- sich auf Business Model Innovation konzentrieren. Du solltest dein Geschäftsmodell beständig infrage stellen und verbessern. Negativbeispiele zahlreicher global agierender Unternehmen wie AirBerlin, Kodak oder Nokia zeigen, wie Marktanteile an Konkurrenten mit innovativeren Geschäftsmodellen abgegeben werden mussten. Die Fähigkeit, ein innovatives Geschäftsmodell zu entwickeln und das bestehende Modell an die Umstände anzupassen, ist der Schlüssel für die erfolgreiche nachhaltige Wettbewerbsfähigkeit;
- kontinuierlich Aufmerksamkeit erhalten. Ein jährliches Strategiemeeting reicht in der sich schnell wandelnden Geschäftswelt nicht aus – Start-ups sollten daher routinemäßig in Meetings und Gesprächen immer wieder ihre Strategie überprüfen;
- in Geschichten erzählt werden können. Eine Strategie erarbeitet zu haben, ist das eine, das andere ist, sie „rüberzubringen“, um sie umzusetzen. „Rüber“ z. B. zu den Investoren (wenn Geld benötigt wird) und vor allem zu den Mitarbeitern. Das funktioniert nicht mit Power Point, sondern über Storytelling. Mit Geschichten, die mitreißen, überzeugen und involvieren;
- die für die Strategiearbeit nötigen Tools kontinuierlich nutzen. Als Gründer brauchst du das richtige strategische Gespür, das notwendige Wissen und die passenden methodischen Werkzeuge für deine Strategiearbeit.
Zu allen Punkten, die dich verunsichern, solltest du dir Wissen einholen oder dich beraten lassen. Mehr als neunzig Prozent der Existenzgründer starten ohne jegliche Beratung in die Selbständigkeit – „und tappt in typische Fallen“, heißt es im „Liquidationsreport Existenzgründung 2019“ des Instituts für Unternehmenserfolg. Unternehmen, die eine Beratungsleistung in Anspruch genommen haben, sind zu 80 Prozent erfolgreich. Je strategischer du vorgehst, desto sicherer wird dein Handeln – und desto mehr Spaß macht dir die Entwicklung deines Unternehmens!
Der Autor Claudio Catrini ist strategischer Berater und einer der führenden Verhandlungs- und Verkaufsexperten innerhalb der D-A-CH-Region.
