Datenqualität für KI verbessern – so geht‘s

Autor: Jens Kambor
44 likes

Damit Unternehmen durch künstliche Intelligenz (KI) korrekte und verwertbare Erkenntnisse erhalten, benötigen sie riesige Datenmengen in hoher Qualität innerhalb kurzer Zeit, und zwar unabhängig vom Format. Keine leichte Aufgabe, denn oftmals sind die Daten über verschiedene Standorte, Abteilungen, Datenbanken und Applikationen in der Firma verteilt und liegen in unterschiedlichen Formaten vor. Nur eine solide Strategie stellt sicher, dass die Daten stets verfügbar, präzise und konsistent sind. Die gute Nachricht: Datenmanagement kann dabei helfen, die KI ordentlich aufzusetzen und in der Praxis zu unterstützen.

Laut McKinsey fließen ganze 70 Prozent der Bemühungen bei der Entwicklung KI-basierter Lösungen in die Datenbereinigung und -abstimmung. Wie können Unternehmen also langfristig erfolgreich sein? Die folgenden sechs Tipps helfen dabei, die Datenqualität sicherzustellen.

1. Standards für die Datenqualität festlegen

Standards bilden die Grundlage für qualitativ hochwertige Daten. Dazu zählen Genauigkeit, Vollständigkeit, Konsistenz, Aktualität und Relevanz. Um diese präzise festzulegen, müssen alle relevanten Personen und Interessensgruppen im Unternehmen zusammenarbeiten und ihre unterschiedlichen Perspektiven, Bedürfnisse und Fachkenntnisse einbringen.

Datenqualitätsstandards bilden die Grundlage für eine effektive Data Governance, da sie klare Erwartungen und Richtlinien für die Erfassung, Speicherung, Nutzung und Sicherheit von Daten definieren. Standards vereinfachen zudem die Datenmigration und -integration, ohne Probleme durch Inkompatibilität oder Inkonsistenz zu verursachen. Außerdem stellen sie sicher, dass die Daten, die für KI-Modelle und Analysealgorithmen zum Einsatz kommen, verlässlich und aussagekräftig sind. Nur so entstehen genaue und gewinnbringende Ergebnisse.

Klare Datenqualitätsstandards geben Experten Richtlinien für die Überprüfung von Daten vor. Dies verdeutlicht allen Teams im Unternehmen die Bedeutung der Datenqualität und zeigt ihre Auswirkungen auf.

2. Data-Governance-Praktiken regeln

Data Governance bezieht sich auf den Prozess, die Rahmenbedingungen, Richtlinien und Kontrollmechanismen, die sicherstellen, dass Daten in einer Organisation effektiv verwaltet, geschützt, verfügbar gemacht und genutzt werden können.

Die Implementierung von Data-Governance-Praktiken definiert und dokumentiert unmissverständlich datenbezogene Aufgaben und Verantwortlichkeiten im gesamten Unternehmen. Dies trägt dazu bei, dass diese Aufgaben ernst genommen und eingehalten werden. Die Beschäftigten verstehen, dass das Datenmanagement ein wichtiger Bestandteil ihrer Verantwortlichkeiten ist und eine entscheidende Rolle spielt.

Ohne diesen wichtigen Schritt besteht die Gefahr, dass eine Kultur des Misstrauens entsteht. Die Mitarbeitenden könnten etwa Zweifel an der Genauigkeit, Integrität und Verlässlichkeit der Daten haben, die sie verwenden. Das wiederum kann zu einem Mangel an Vertrauen in die Daten und Entscheidungen, die auf ihnen basieren, führen.

Im schlimmsten Fall führt ein Fehlen von Data-Governance-Praktiken zu falschen Entscheidungen, die sich negativ auf den Ruf und den Gewinn des gesamten Unternehmens auswirken.

3. Mit Data Profiling Inkonsistenzen aufdecken

Die Qualität der Daten (Vollständigkeit, Genauigkeit, Konsistenz und Aktualität) sollte regelmäßigen Prüfungen unterliegen, um Probleme frühzeitig aufzudecken. Sonst könnten Entscheidungen fallen, die auf falschen Informationen beruhen. Wenn etwa Daten in verschiedenen Teilen eines Systems inkonsistent sind, führt dies zu Widersprüchen und Verwirrung. Unterschiedliche Datensätze können beispielsweise verschiedene Werte für dasselbe Merkmal enthalten. Auch die Missachtung von Vorschriften steht im Raum, was rechtliche und finanzielle Auswirkungen nach sich ziehen kann.

Zuständig für die Qualität der Daten sind Experten für Data Profiling und Datenvalidierung. Die Datenprofilierung ist der erste Schritt der Datenaufbereitung und verschafft einen Überblick darüber, über welche Informationen das Unternehmen überhaupt verfügt. So entsteht ein Verständnis für die grundlegenden Eigenschaften, Qualität und Struktur der Daten. Dieser Schritt spielt eine wichtige Rolle, da Daten oft in verschiedenen Tools und Anwendungen verstreut sind, etwa in der Customer-Data-Plattform, im ERP- oder dem Bezahlsystem. Mithilfe von Data Profiling gelingt es, das gesamte Unternehmensdatenökosystem zu durchforsten und herauszufinden, wo zum Beispiel überall Kundendaten gespeichert sind und welche Anwendungen sie nutzen.

Dieser Prozess deckt potenzielle Fehler oder Inkonsistenzen auf wie unterschiedliche Schreibweisen von Adressen oder Kontaktdaten. Data Profiling bringt ans Tageslicht, ob wichtige Informationen fehlen. Dazu zählt zum Beispiel, dass in einem anderen System Daten über den Familienstand eines Kunden vorliegen, die bisher nicht genutzt wurden und für gezielte Marketingaktionen in Form eines Familienrabatts eingesetzt werden. Fehlende Informationen können sich auch direkt auf die Zufriedenheit der Kunden auswirken und damit einen guten Kundenservice erschweren.

4. Auf Data Observability setzen

Data Observability bezieht sich auf die Fähigkeit, Daten in einem Informationssystem kontinuierlich zu überwachen, zu verstehen und zu steuern. Das soll gewährleisten, dass sie zuverlässig, konsistent und qualitativ einwandfrei vorliegen. Unternehmen gewinnen so die notwendigen Erkenntnisse, die bei der Verwaltung ihrer Datenprozesse helfen und potenzielle Risiken im Zusammenhang mit Datenqualität, Datenschutz und Compliance proaktiv identifizieren und mindern. So bleiben die Datensätze nicht nur zuverlässig und genau, sondern lassen sich auch zeitnah abrufen.

Data Observability baut ein System auf, das proaktiv auf Probleme aufmerksam macht. Es erkennt, wo Inkonsistenzen bestehen und ermöglicht ein frühzeitiges Gegensteuern. Zudem lassen sich damit Data-Governance-Praktiken verbessern sowie Datenpipelines und Daten-Workflows optimieren, indem es Einsicht in Performance-Metriken, Datenlatenz und Ressourcennutzung gewährt.

Auch hier kann die KI unterstützen, indem sie etwa automatisch Anomalien in Datenströmen erkennt, die auf Datenqualitätsprobleme, Leistungsprobleme oder Sicherheitsrisiken hinweist. Dies ermöglicht es Firmen, Datenprobleme proaktiv zu erkennen und schnell zu beheben.

5. Gemeinsame Datennutzung und Zusammenarbeit fördern

Experten tragen wesentlich dazu bei, eine gemeinsame Datennutzung und Zusammenarbeit zu fördern, insbesondere vor dem Hintergrund der stetig wachsenden Anzahl von Datenquellen und Nutzern. Sie verfügen über ein tiefes Verständnis für Datenmanagement, -analyse und -interpretation und können beispielsweise andere Angestellte im Umgang mit Daten schulen oder als Vermittler zwischen verschiedenen Abteilungen und Teams fungieren. So lassen sich Silos abbauen und der Informationsaustausch erleichtern.

Laut IDG Research greifen die meisten IT-Systeme von Unternehmen heutzutage auf 400 verschiedene Datenquellen zurück, wobei die großen Firmen sogar mit tausend oder mehr Datenquellen arbeiten. Deshalb sollten die Unternehmen auf einen Datenmarktplatz zum Austausch zwischen Datengebenden und Datennutzenden setzen.

Hier können Data Scientists, Analysten und weitere Fachleute auf eine Bandbreite an Datensätzen aus vielen verschiedenen Quellen zugreifen. Dies fördert die abteilungsübergreifende Zusammenarbeit und unterstützt dabei, neue Erkenntnisse und Lösungen durch Datennutzung und -analyse zu entwickeln. Zudem ergeben sich daraus zusätzliche Einnahmequellen und ein höherer ROI.

6. Selfservice-Datenzugriff anbieten

Nutzer sollten die Möglichkeit haben, genau dann auf die Daten zuzugreifen, wenn sie sie benötigen, ohne auf das IT-Team angewiesen zu sein. Die Vorteile liegen auf der Hand: Die Teams arbeiten so agiler und können besser auf neue Geschäftsanforderungen reagieren. Das führt zu mehr Eigenverantwortung und stellt den Zugriff auf sichere und zuverlässige Inhalte für sämtliche Nutzergruppen sicher, unabhängig von ihrem technischen Fachwissen. Außerdem kann sich das IT-Team so besser auf geschäftskritische, strategische Aufgaben konzentrieren.

Der Selfservice-Zugriff garantiert außerdem, dass Data-Governance- und Compliance-Vorgaben eingehalten werden, da jeder die Daten auf eine einheitliche und geregelte Art und Weise nutzt. Das revolutioniert die Datennutzung, erhöht die Produktivität und steigert die Arbeitsmoral.

Fazit

Mit diesen Empfehlungen befinden sich Unternehmen auf einem guten Weg, hochwertige Daten zu erhalten und für KI gewappnet zu sein: Sie können Daten auf jede mögliche Art und Weise nutzen und analysieren, um intelligentere Entscheidungen zu treffen, ihre KI- und Analytics-Projekte erfolgreich umzusetzen und Abläufe zu optimieren.

Der Autor Jens Kambor ist Vice President of Sales für Deutschland, Österreich und der Schweiz bei
Informatica. Das Unternehmen ist führend im Bereich Enterprise Cloud Data Management.

Diese Artikel könnten Sie auch interessieren:

Der bundesweite start2grow Gründungswettbewerb geht in eine neue Runde

Teilnehmer*innen profitieren von kostenlosen Coachings, Workshops sowie Netzwerk-Events. Am Ende des Wettbewerbs gewinnen die besten Businesspläne Preisgelder im Gesamtwert von 94.000€.

DU. DEINE IDEE. DEIN BUSINESS. Der start2grow Gründungswettbewerb zählt zu den traditionsreichsten Businessplan-Wettbewerben in Deutschland und startet am 29. Oktober 2025 in seine 25-jährige (!) Jubiläumsausgabe. Der bundesweite Wettbewerb richtet sich an Gründungsinteressierte und junge Start-ups, die an digital-technologischen Geschäftsmodellen arbeiten und Innovationen vorantreiben.

Die Teilnahme ist kostenfrei und eine Anmeldung ab sofort auf www.start2grow.de möglich. Als Teil der start2grow-Community profitierst du von zahlreichen Benefits

start2grow bietet attraktive Preisgelder

Bei start2grow werden Businesspläne für innovative und technologische Geschäftsmodelle prämiert, die beispielsweise den Prozess der Digitalisierung oder Dekarbonisierung vorantreiben. Nachdem alle eingereichten Businesspläne begutachtet wurden, erhält jedes Gründungsteam ein individuelles Feedback in Form eines schriftlichen Gutachtens. Die besten zwanzig Teams werden dann zum großen Finale nach Dortmund eingeladen, um vor Vertreter*innen aus Wissenschaft, Wirtschaft und Kapital zu pitchen. Der TOP 10 winken Preise im Gesamtwert von 94.000€:

1. Preis: 40.000€

2. Preis: 20.000€

3. Preis: 10.000€

Die Plätze 4 bis 10 erhalten einen Sachpreis im Wert von je 2.000€. Darüber hinaus vergibt der start2grow-Partner TechnologieZentrumDortmund einen Sonderpreis in Höhe von 10.000€, der zur Finanzierung von Mieten und Dienstleistungen am Standort Dortmund eingelöst werden kann. Weitere Infos zu den Preisgeldern und Teilnahmebedingungen finden Gründungsinteressierte, Gründer*innen und Start-ups auf www.start2grow.de.

Report: Quantencomputing

Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.

Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.

Herausforderungen

Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.

Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.

Trends

In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.

Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.

Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintritts­barrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.

Die Rolle von Start-ups

Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.

Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.

Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.

Deutsche QC-Start-ups mischen ganz vorne mit

Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.

Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

Indirekter Einkauf: Versteckter Kostenfresser oder unentdeckter Goldschatz?

Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.

In vielen Unternehmen wird der indirekte Einkauf häufig unterschätzt – dabei liegen hier oft erhebliche Einsparpotenziale verborgen. Durch die wachsende Digitalisierung und die zunehmende Verfügbarkeit von B2B eCommerce-Plattformen bestellen Mitarbeitende Waren und Dienstleistungen immer häufiger außerhalb klassischer Einkaufsprozesse. Diese Entwicklung bringt einerseits Flexibilität und Effizienz, stellt Unternehmen aber auch vor neue Herausforderungen: Wie lassen sich Ausgaben kontrollieren und Transparenz über die gesamte Einkaufskette sicherstellen?

Die beste Einkaufssoftware für den Mittelstand adressiert genau diese Herausforderungen. Hivebuy hat sich als moderne, benutzerfreundliche Lösung etabliert, die den indirekten Einkaufsprozess von der Bestellung bis zur Rechnungsprüfung digitalisiert und automatisiert. Die Software integriert sich nahtlos in bestehende ERP-, Buchhaltungs- und Kommunikationstools wie SAP, Microsoft Dynamics, Teams oder Slack – und das ohne aufwändige technische Implementierung.

Gegründet von erfahrenen Einkaufs- und Finanzexpert*innen aus Frustration über bisherige Lösungen, verfolgt Hivebuy die Mission, versteckte Kosten sichtbar zu machen, Budgets in Echtzeit zu kontrollieren und Einkaufsprozesse effizienter zu gestalten. Mit höchsten Sicherheitsstandards, inklusive ISO/IEC 27001-Zertifizierung und DSGVO-konformer Datenhaltung in Deutschland, schafft Hivebuy Transparenz und Vertrauen entlang der gesamten Einkaufskette.

Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.

StartingUp: Frau Fischer, viele Unternehmen sehen im indirekten Einkauf eher einen Kostenfaktor, der schwer zu kontrollieren ist. Was macht den indirekten Einkauf aus Ihrer Sicht zu einem versteckten Kostenfresser?

Bettina Fischer: Die große Herausforderung im indirekten Einkauf liegt darin, dass die einkaufenden Personen über das gesamte Unternehmen verteilt sind – anders als im direkten Einkauf, wo spezialisierte Einkaufsabteilungen tätig sind. Das bedeutet: Jede*r Mitarbeitende, der oder die einmal etwas bestellt, wird zum Einkäufer oder zur Einkäuferin – oft ohne die notwendige Erfahrung in Einkaufsprozessen.

Dadurch entstehen typische Muster: Es wird bei bekannten Lieferanten bestellt – oft aus dem privaten Umfeld, wie etwa Amazon Business – ohne Preisvergleiche, ohne Berücksichtigung von Lieferzeiten oder bereits verhandelten Konditionen. Das führt schnell zu ineffizienten und teuren Entscheidungen.

Hinzu kommt, dass im indirekten Einkauf eine hohe Produktvielfalt auf eine extrem heterogene Lieferantenlandschaft trifft. Das erschwert es, durch Bündelung bessere Konditionen zu erzielen. Es fehlt die klare, strategische Beziehung zu bestimmten Lieferanten – und genau dort entstehen die versteckten Kosten.

StartingUp: Wie hilft Hivebuy Mittelständlern konkret dabei, diese versteckten Kosten aufzudecken und zu reduzieren?

Bettina Fischer: Hivebuy verfolgt einen ganzheitlichen Ansatz, um die Herausforderungen des indirekten Einkaufs zu lösen. Zum einen ermöglichen wir es Mitarbeitenden, direkt über integrierte Lieferanten zu bestellen. Das bedeutet: Die Bestellungen erfolgen zentral über Hivebuy – ohne Umwege über externe Plattformen oder individuelle Beschaffungswege. Die Bestellübermittlung ist automatisiert und erfolgt effizient über unser System.

Darüber hinaus bietet Hivebuy einen integrierten Preisvergleich für B2B-Webshops. So wird sichergestellt, dass stets der beste Preis und die optimalen Lieferzeiten berücksichtigt werden – ein entscheidender Hebel zur Kostensenkung.

Ein weiterer zentraler Punkt ist die Budgetkontrolle: Sobald eine Bestellanforderung erstellt wird, sehen Budgetverantwortliche sofort die Auswirkungen auf ihr Budget – in Echtzeit. Dadurch lassen sich Entscheidungen schnell, fundiert und transparent treffen.

Auch die Freigabeprozesse sind flexibel und konfigurierbar: Mitarbeitenden wird Freiheit für alltägliche Bestellungen gegeben, während bei kritischen oder kostenintensiven Vorgängen automatische Eskalationen und Genehmigungen greifen.

Nicht zuletzt ermöglicht Hivebuy dem Einkauf, sein Wissen an die Organisation weiterzugeben. Vorverhandelte Verträge, Katalogartikel oder bevorzugte Lieferanten sind direkt im System sichtbar – wie ein digitaler Einkaufsberater im Hintergrund. So treffen selbst unerfahrene Nutzer bessere Entscheidungen – ganz im Sinne von Kostenkontrolle und Prozesssicherheit.

StartingUp: Ihre Software ist bekannt für ihre Nutzerfreundlichkeit. Wie schaffen Sie es, auch nicht-einkaufserfahrene Mitarbeitende einzubinden?

Bettina Fischer: Benutzerfreundlichkeit steht bei Hivebuy an oberster Stelle. Wann immer wir eine neue Funktion entwickeln, testen wir diese gemeinsam mit unseren Nutzerinnen und Nutzern – direkt aus der Praxis. Unser Ziel ist es, dass Hivebuy genauso intuitiv bedienbar ist wie eine Online-Überweisung: Jeder soll auf Anhieb verstehen, was zu tun ist.

Mit Funktionen wie unserem B2B-Preisvergleich und dem sogenannten Guided Buying führen wir Mitarbeitende gezielt durch den Einkaufsprozess – Schritt für Schritt, ganz ohne Schulungsaufwand. So wird selbst komplexes Einkaufswissen einfach zugänglich gemacht.

Für Freigabeverantwortliche haben wir zusätzlich eine besonders komfortable Lösung geschaffen: Freigaben können direkt über Messenger-Apps wie Microsoft Teams erteilt werden – ohne sich ins System einloggen zu müssen. Die relevanten Informationen kommen automatisch dorthin, wo man ohnehin schon arbeitet – aufs Handy oder den Desktop. Das senkt die Einstiegshürden enorm und sorgt für eine breite Akzeptanz im gesamten Unternehmen.

StartingUp: Welche Rolle spielen Transparenz und Echtzeit-Reporting in der Budgetkontrolle?

Bettina Fischer: Wir sind überzeugt: Budgetkontrolle funktioniert nur in Echtzeit. Es bringt wenig, wenn Budgetübersichten nur monatlich, quartalsweise oder gar halbjährlich zur Verfügung stehen. Entscheidungen im Einkauf werden täglich getroffen – also muss auch die Budgettransparenz jederzeit aktuell sein.

Deshalb haben wir bei der Entwicklung von Hivebuy besonderen Fokus auf eine unmittelbare Budgeteinsicht gelegt. Sobald eine Bestellung angefragt wird, sieht der oder die Budgetverantwortliche sofort, wie sich diese auf das verfügbare Budget auswirkt. Diese Echtzeit-Transparenz ist ein zentrales Element unserer Software.

Gleichzeitig möchten wir Mitarbeitende befähigen, innerhalb ihrer Befugnisse selbstständig Entscheidungen zu treffen. Nicht jede Anfrage muss durch mehrere Instanzen laufen. Vielmehr setzen wir auf smarte, automatisierte Prozesse – kombiniert mit dem Vertrauen in die Souveränität der Nutzer. Das spart nicht nur Zeit, sondern steigert auch die Effizienz und Zufriedenheit im Unternehmen.

StartingUp: Die Einführung neuer Software bedeutet oft hohen Aufwand. Wie gestaltet sich die Implementierung von Hivebuy?

Bettina Fischer: Ich habe selbst über viele Jahre ERP- und Einkaufssoftwareprojekte geleitet – und ehrlich gesagt: Es war jedes Mal ein enormer Aufwand. Genau diese Erfahrungen haben mich dazu motiviert, Hivebuy so zu entwickeln, dass Implementierung eben nicht zur Belastung wird.

Unsere Lösung ist bewusst so aufgebaut, dass sie schnell, unkompliziert und ohne großen IT-Aufwand eingeführt werden kann. Neue Unternehmen können innerhalb kürzester Zeit starten – oft sogar innerhalb eines Tages mit einem eigenen Testsystem.

Die Einführung begleiten wir durch leicht verständliche Videotutorials und Onboarding-Materialien. Darüber hinaus gibt es persönliche Sessions, in denen die Nutzer befähigt werden, das System selbstständig für ihr Unternehmen zu konfigurieren. Schnittstellen zu ERP-Systemen wie SAP, Microsoft Dynamics oder DATEV richten wir in der Regel innerhalb weniger Stunden bis Tage ein.

Wenn beide Seiten fokussiert an das Projekt herangehen, können wir bei Unternehmen mit mehreren tausend Mitarbeitenden innerhalb von acht Wochen vollständig live gehen – inklusive Integration, Schulung und Rollout.

StartingUp: Wie unterstützt Hivebuy IT-Teams und technische Entscheider bei der Integration?

Bettina Fischer: Unsere größte Stärke in der Zusammenarbeit mit IT-Teams ist unsere Schnelligkeit. Bereits im ersten Kick-Off mit der IT tauschen wir alle relevanten technischen Dokumentationen aus, klären die Rahmenbedingungen und ermöglichen in kürzester Zeit die Integration in ein Testsystem. Wir verzichten bewusst auf langwierige Business-Blueprint-Phasen und setzen stattdessen auf eine praxisnahe, direkte Umsetzung.

Hivebuy verfolgt eine klare Integration-First-Strategie. Das bedeutet: Unsere Lösung ist von Grund auf so konzipiert, dass sie sich schnell und flexibel in bestehende ERP-Systeme und IT-Landschaften integrieren lässt. Für alle gängigen Systeme – ob SAP, Microsoft Dynamics, DATEV oder NetSuite – stellen wir vollständige Schnittstellen-Dokumentationen zur Verfügung.

Mein Mitgründer Stefan Kiehne bringt aus seiner Zeit bei PwC tiefes technisches Know-how mit und hat zahlreiche ERP-Implementierungen verantwortet. Dieses Wissen fließt direkt in unsere Projekte ein. Inzwischen haben wir Hivebuy in so viele verschiedene Systeme integriert, dass kaum noch Überraschungen aufkommen. Für IT-Verantwortliche bedeutet das: minimale Unsicherheiten, schnelle Umsetzung und maximale Kompatibilität.

StartingUp: Wie sieht die Zukunft des indirekten Einkaufs aus? Welche Trends beobachten Sie?

Bettina Fischer: Ich sehe im indirekten Einkauf ganz klar einen Wandel hin zu intelligenter Automatisierung und echter Transparenz. Schon heute beobachten wir den Trend in Richtung „Agent AI“ – also digitale Einkaufsassistenten, die Nutzer durch Prozesse begleiten und Entscheidungen mit datenbasierten Empfehlungen unterstützen. Das wird sich in den nächsten Jahren deutlich verstärken.

Was mich persönlich schon lange wundert: Im B2C-Bereich haben wir mit Plattformen wie Idealo längst Preis- und Konditionsvergleiche. Im B2B gibt es das kaum. Deshalb war es uns wichtig, mit Hivebuy eine Lösung zu schaffen, die genau das möglich macht – inklusive der hinterlegten, unternehmensspezifischen Konditionen. Das ist ein echter Gamechanger.

In Zukunft wird der indirekte Einkauf zunehmend automatisiert ablaufen – von der Bedarfserkennung bis hin zur Bestellung. Vergleichbar mit einem intelligenten Kühlschrank, der automatisch Milch nachbestellt, wird auch im Unternehmen vieles automatisch geschehen: Bedarfe erkennen, Angebote vergleichen, Bestellungen auslösen – ganz ohne manuelles Zutun.

Strategische Beschaffung wird dabei zur Grundlage. Das Ziel ist nicht, jede Bestellung individuell zu behandeln, sondern Prozesse zu standardisieren, auf Unternehmensziele auszurichten und individuelle Bedarfe intelligent einzubinden.

Und auch die Rückseite des Einkaufs wird sich stark verändern: Rechnungsprüfung, Buchung und Zahlungsfreigabe werden zunehmend automatisiert ablaufen. In einer idealen Zukunft brauchen wir keine manuelle Rechnungserfassung mehr – weil alles systemgestützt, regelbasiert und transparent funktioniert.

StartingUp: Vielen Dank für das Gespräch, Frau Fischer. Ihre Einblicke verdeutlichen, wie entscheidend es für Unternehmen ist, den indirekten Einkauf transparent und effizient zu gestalten. Mit Lösungen wie Hivebuy können Mittelständler versteckte Kosten sichtbar machen und ihre Beschaffungsprozesse nachhaltig optimieren. Wir wünschen Ihnen weiterhin viel Erfolg bei Ihrer Mission, Einkaufsteams bestmöglich zu unterstützen.

EU AI Act: Status quo

Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.

Überblick: Der AI Act

Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten Hochrisiko­Systeme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.

Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.

Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.

Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.

Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.

Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produkt­regulierung und Marktüberwachung.

Was fehlt? Guidance und Governance

Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.

Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.

Und wo steht Deutschland?

Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.

Reallabore

Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.

Reaktionen

Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.

Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschied­liche Informationen und Compliance-Nachweise verfügbar sind.

Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.

Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.

Fazit

Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.

Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Her­ausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.

Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München

Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen

Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.

Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.

Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede

Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.

Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.

Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?

Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.

Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.

Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?

Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.

Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.

Expertise als wichtiger Faktor für den Kauf einer Luxusuhr

So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.

Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.

Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.

Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.

Ein Ausblick auf die (mögliche) langfristige Wertentwicklung

Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.

Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.

Die Rolle von natürlichem Licht in modernen Architekturkonzepten

Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.

Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.

Das wachsende Bewusstsein für Lichtqualität

In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.

Architektonische Vielfalt dank Tageslicht

Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.

Energieeffizienz und Gesundheit

Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.

Materialauswahl und technologische Innovationen

Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.

Planungsaspekte für moderne Gebäude

Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.

Gestalterische Freiheit durch Tageslichtlösungen

Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.

Inspirierende Beispiele aus der Gegenwart

Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.

Ausblick auf künftige Entwicklungen

Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.

„Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing“

Mit planqc verfolgt Dr. Alexander Glätzle die Mission, hochskalierbare Quantencomputer für wirtschaftliche Anwendungen zu bauen. Warum das Unternehmen dabei auf Standorte wie München und Innsbruck setzt und welche Rolle Österreichs Talentpool spielt, verrät er im Interview.

Dr. Alexander Glätzle ist Quantenphysiker und Mitgründer von planqc. Er studierte und promovierte an der Universität Innsbruck, forschte an renommierten Instituten wie Oxford, Harvard sowie in Singapur und war als Unternehmensberater tätig. 2022 gründete er planqc als Ausgründung aus dem Max-Planck-Institut in München.

Herr Dr. Glätzle, wie entstand die Unternehmensidee und welche Meilensteine haben Sie mit planqc bisher erreicht?

Die Idee zu planqc ist bereits während meines Studiums an der Universität Innsbruck entstanden. Dort habe ich intensiv im Bereich Quantentechnologie geforscht und das enorme Potenzial erkannt, aus diesen Erkenntnissen ein Start-up zu gründen. Bis zur Gründung hat es allerdings noch einige Jahre gedauert – nicht zuletzt, weil die technologische Entwicklung im Labor ebenfalls voranschreiten musste. 2022 sind wir dann als Ausgründung aus dem Max-Planck-Institut offiziell gestartet. Zu den wichtigsten Meilensteinen zählen zwei große öffentlich geförderte Projekte: Für das Deutsche Zentrum für Luft- und Raumfahrt bauen wir einen Quantencomputer mit einem Volumen von 30 Mio. EUR, ein weiteres Projekt mit dem Leibniz-Rechenzentrum umfasst 20 Mio. EUR, beide mit Abschluss bis Ende 2026 bzw. 2027. Dann werden an diesen beiden Standorten voll funktionsfähige Quantencomputer von planqc installiert sein.

Sie haben bereits Venture Capital mit an Bord. Wer zählt zu Ihren Investoren?

Gestartet sind wir 2022 mit einer Seed-Runde, an der unter anderem UVC Partners, Speedinvest und Apex Ventures beteiligt waren – also bereits starke Partner auch aus Österreich. Diese Basis konnten wir in der Series-A im letzten Jahr weiter ausbauen. Die CATRON Holding, ein Wiener Family Office, ist als Lead-Investor eingestiegen. Dazu kamen weitere Partner wie der DeepTech & Climate Fonds sowie Bayern Kapital. Besonders erfreulich ist, dass auch unsere Bestandsinvestoren erneut signifikant investiert haben. Damit verfügen wir über eine starke, rein mitteleuropäische, deutsch-österreichische Investorenbasis – was in unserem Sektor tatsächlich selten ist.

Ihr Headquarter befindet sich in der Nähe von München. Was hat Sie dazu bewegt, zusätzlich einen Standort in Innsbruck zu eröffnen?

Ursprünglich haben wir planqc in München gegründet – als Ausgründung aus dem Max-Planck-Institut. Doch bereits innerhalb eines Jahres haben wir ein zweites Büro in Innsbruck eröffnet. Der Grund liegt auf der Hand: Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing. Mit renommierten Instituten wie dem Institut für Quantenoptik und Quanteninformation (IQOQI) und Persönlichkeiten wie Peter Zoller und Rainer Blatt gibt es dort eine kritische Masse an international anerkannten Wissenschaftlern. Zudem ist es in der Praxis oft schwierig, hochqualifizierte Talente aus der Region nach München zu bringen. Deshalb haben wir entschieden, ihnen vor Ort ein attraktives Arbeitsumfeld zu bieten – mit einem eigenen Standort in Innsbruck.

Welche Vorteile bietet der Standort Österreich speziell für Unternehmen im Bereich Quantencomputing?

Österreich hat eine lange und starke Tradition in der Quantenphysik. Universitäten wie Innsbruck und Wien, das IQOQI und eine ganze Generation exzellenter Wissenschaftler prägen diese Landschaft. Viele bahnbrechende theoretische und experimentelle Arbeiten wurden hier in den vergangenen Jahren geleistet. Gerade für junge Start-ups bietet das Land enorme Vorteile: Der Talentpool ist außergewöhnlich – mit hervorragend ausgebildeten, dynamischen Fachkräften. Darüber hinaus ist die Nähe zu sogenannten „Industry First Movern“ gegeben, was den Standort besonders spannend macht. Und nicht zuletzt hat Österreich eine historische Verbindung zur Physik – Namen wie Schrödinger, Pauli oder Hess stehen sinnbildlich für diese wissenschaftliche Tiefe.

Welche Unterstützung erhielten Sie bei der Ansiedlung durch die Austrian Business Agency?

Die Austrian Business Agency sowie die Standortagentur Tirol haben uns außerordentlich engagiert unterstützt – sei es bei der Suche nach Büroflächen, bei der Eröffnung des ersten Bankkontos oder in bürokratischen Fragen. Sie standen uns nicht nur beratend zur Seite, sondern haben uns tatkräftig geholfen, Hürden aus dem Weg zu räumen. Genau so stelle ich mir die Zusammenarbeit mit einer lokalen Agentur vor: nah dran, lösungsorientiert und mit exzellentem Netzwerk. Wir hatten wirklich großes Glück mit der Unterstützung vor Ort.

Sie selbst sind in Österreich geboren, haben in Innsbruck promoviert und weltweit Forschungsaufenthalte absolviert – bevor Sie als Unternehmensberater und Gründer nach München gingen. Mit welchen Qualitäten punktet Österreich allgemein, auch als Arbeits- und Wohnort?

Ich habe viele Jahre im Ausland gelebt und gearbeitet – in Oxford, Singapur und Deutschland. Was Innsbruck und Tirol für mich besonders macht, ist die Kombination aus wissenschaftlicher Exzellenz und hoher Lebensqualität. Die Stadt liegt inmitten der Alpen, bietet eine hervorragende Infrastruktur und ein ausgewogenes Verhältnis zwischen Studierenden und Einwohnern. Das schafft ein inspirierendes Umfeld – zum Leben, Forschen und Arbeiten gleichermaßen.

Dr. Alexander Glätzle, vielen Dank für das Gespräch.

Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin

“Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit”

„Made in Steel. Built on Data.“ Mit diesem Leitsatz positioniert sich die EMR Dynamics GmbH als strategische Antwort auf die zunehmende Komplexität globaler Lieferketten – und auf die wachsenden Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Wertschöpfungsnetzwerken.

Unter der Leitung von Emrullah Görsoy geht EMR Dynamics aus einem Berliner Familienunternehmen hervor, das seit 2005 als verlässlicher Partner für mechanische Komponenten in Europa etabliert ist. Nun markiert das Unternehmen den nächsten Entwicklungssprung der Unternehmensgeschichte: von der Fertigung zur Plattform.

Fragen dazu an Emrullah Görsoy, Managing Director at EMR:

Seit mehr als 20 Jahren seid ihr mit EMR am Markt. Man könnte sagen, ihr macht vieles richtig – Wie lautet euer Erfolgsrezept?

Unser Erfolgsrezept liegt in der konsequenten Weiterentwicklung. Wir haben uns nie auf bestehenden Strukturen ausgeruht, sondern das Unternehmen immer wieder neu gedacht – operativ, strategisch und technologisch. Besonders in Zeiten des Wandels war unser pragmatischer Unternehmergeist entscheidend. Dabei kombinieren wir mittelständische Robustheit mit einer agilen Denkweise – anpassungsfähig, resilient und wachstumsorientiert.

Zeitnah startet ihr mit eurer Neugründung EMR Dynamics am Markt. Was steckt dahinter?

EMR Dynamics ist unsere Antwort auf ein fragmentiertes Marktumfeld und wachsende Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Lieferketten. Wir verbinden vertikal integrierte Fertigungskompetenz mit einer digitalen Prozessarchitektur – eine B2B-Plattform für die intelligente Steuerung und Vermittlung industrieller Produktions- und Beschaffungsprozesse. Das Ziel: maximale Skalierbarkeit, reduzierte Time-to-Market und durchgängige Prozesssicherheit für unsere Kunden.

Damit schlagen wir die Brücke zwischen Mittelstand und digitaler Ökonomie – resilient, effizient und kundennah. Wir wollen EMR Dynamics als Plattformmarke im industriellen Mittelstand etablieren – mit eigener Fertigung, digitalem Backbone und strategischer Nähe zum Kunden.

An wen richtet sich euer Angebot?

Unsere Zielgruppen sind OEMs, Tier-1-Zulieferer und Systempartner aus hoch regulierten und qualitätskritischen Industrien – etwa Rail, Aerospace, Defense oder Industrial Tech. Wir liefern nicht nur Komponenten, sondern vernetzen Prozesse, sichern Supply Chains ab und schaffen Plattformlösungen für beschleunigte Wertschöpfung – alles aus einer Hand.

Wie unterscheidet sich euer Angebot von klassischen Fertigungsdienstleistern?

Wir sind kein reiner Teilelieferant. Wir verstehen uns als Lösungsanbieter entlang der industriellen Wertschöpfung – von Co-Engineering und Prototyping über skalierbare Serienfertigung bis hin zur integrierten Lieferkette. Durch die Plattformlogik können wir unsere Prozesse mit denen unserer Kunden synchronisieren und so Time-to-Market und Lieferperformance signifikant verbessern – gerade für komplexe und hochqualifizierte Baugruppen.

Seit mehreren Jahren bist du Geschäftsführer des Unternehmens EMR Industrial. Wie fühlt es sich an, als Young Professional bereits in einer solchen verantwortungsvollen Rolle zu sein?

Herausfordernd, aber erfüllend. Ich hatte das Privileg, früh Verantwortung zu übernehmen – besonders während der Transformation von EMR in der Pandemie. Die Krise 2020 hat uns gezwungen, unser gesamtes Geschäftsmodell zu pivotieren. Diese Erfahrung hat mich geprägt: Strategisch zu denken, unternehmerisch zu handeln und nie den Kontakt zur operativen Realität zu verlieren.

Welche Bedeutung hat die Digitalisierung aus deiner Sicht für den Mittelstand und was können sich Mittelständler von Start-ups abschauen?

Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit. Der Mittelstand kann von Start-ups besonders eines lernen: den Mut, Prozesse radikal neu zu denken – und den Fokus auf Geschwindigkeit, Automatisierung und User Experience.

Emrullah Görsoy, Danke für die Insights

DefenseTech-Report 2025

Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Wie DefTech-Start-ups Sicherheit und Verteidigung durch Innovationskraft, Agilität und Flexibilität revolutionieren.

Der russische Überfall auf die Ukraine im Februar 2022 markierte einen Wendepunkt für die deutsche Verteidigungspolitik. Der Bundeskanzler rief die „Zeitenwende“ aus – einen Kurswechsel, der u.a. ein Sondervermögen von 100 Mrd. Euro für die Bundeswehr einschloss. Seither rücken technologische Innovationen für die Verteidigung verstärkt in den Fokus. DefenseTech-Start-ups (auch DefTechs genannt) – also junge Technologieunternehmen mit rein militärischen oder Dual-Use-Anwendungen (zivil und militärisch) – erleben seitdem einen Aufschwung. Die USA haben deutlich signalisiert, dass ihre Bereitschaft, als Arsenal der Demokratie unbegrenzt westliche Verteidigung zu finanzieren, nachlässt. Europa, Deutschland im Besonderen, muss also eigene Innovationskraft mobilisieren, um wirksam abschrecken zu können.

Start-ups im Gefechtsfeld der Zukunft: Lehren aus dem Ukraine-Krieg

Der russische Angriffskrieg offenbart, welche Technologien und Akteur*innen auf dem Gefechtsfeld der Zukunft dominieren werden. Auffällig ist, wie ein verteidigungsnahes Innovationsökosystem aus Tech-Start-ups und Dual-Use-Technologien in der Ukraine binnen kurzer Zeit Lösungen hervorbrachte, die Russlands konventionelle Überlegenheit teilweise neutralisierten.

Die ukrainischen Streitkräfte setzen neue Taktiken und Waffensysteme zudem mit einer Agilität ein, die westliche Armeen – mit ihren oft jahrelangen Beschaffungszyklen – nicht erreichen.

Im Ukraine-Krieg haben sich vor allem Drohnen als Gamechanger erwiesen. First-Person-View-(FPV)-Drohnen fungieren gleichsam als „Infanterie“ der Drohnenkriegsführung – sie sind zu einer tragenden Säule von Kiews Kriegsanstrengungen geworden und verursachen Schätzungen zufolge bis zu 80 Prozent der russischen Verluste auf dem Gefechtsfeld.

Ukrainische Herstellende – vielfach kleine Firmen – produzieren aktuell rund 200.000 FPV-Drohnen pro Monat und ersetzen zunehmend importierte Bauteile durch eigene Entwicklungen. Solche billigen Mini-Drohnen können aber Panzer oder Radaranlagen im Wert von Millionen zerstören – ein eklatantes Kosten-Nutzen-Missverhältnis zu Ungunsten klassischer Wehrtechnik. Daneben prägen Loitering Munitions (umherschweifende „Kamikaze-Drohnen“) den Konflikt.

Überhaupt redefiniert die Ukraine den Drohneneinsatz: Wie Forbes berichtete, wurde entlang der Front ein rund 25 km breiter „Kill-Zone“-Streifen eingerichtet, patrouilliert von Schwärmen kleiner Drohnen, der feindliche Truppenansammlungen nahezu unmöglich macht – die NATO erwägt bereits eine ähnliche „Drone Wall“ zum Schutz ihrer Ostflanke. Die Allgegenwart von Drohnen rief freilich elektronische Gegenmaßnahmen auf den Plan: Beide Seiten überziehen sich mit immer neuen Electronic-Warfare-Taktiken, vom Stören und Spoofen von GPS- und Funkverbindungen bis hin zu improvisierten physischen Schutzgittern („cope cages“) an Fahrzeugen. Im Gegenzug werden jetzt verstärkt per Glasfaser ferngelenkte Drohnen entwickelt, die gegen Funk-Jamming immun sind. Auch im Cyber-Raum tobt der Schlagabtausch, der jedoch trotz einzelner schwerer Angriffe offenbar bislang keine strategisch entscheidenden Wirkungen erzielte.

Den größten Wert haben Cyber-Operationen daher bislang für Aufklärung und Störung gegnerischer Kommunikation. Insgesamt gilt dieser Krieg auch als erster großer Konflikt, in dem kommerzielle Technik so umfassend militärisch genutzt wird, dass Beobachtende bereits vom ersten „kommerziellen Raumfahrtkrieg“ sprechen. Private Satelliten liefern der Ukraine rund um die Uhr Geodaten und Aufklärung, während tausende Starlink-Terminals ein robustes Kommunikationsnetz auf dem Gefechtsfeld sicherstellen. Ebenso werden zivil verfügbare Drohnen, handelsübliche 3D-Drucker und KI-Software in militärische Anwendungen überführt. Mit erschwinglichen Geräten und Software lässt sich realisieren, was früher teuren Spezialkräften vorbehalten war. Die Kehrseite ist, dass die Trennung zwischen zivilem und militärischem Bereich zunehmend verschwimmt, was ethische und sicherheitspolitische Fragen aufwirft.

Die Rolle von Start-ups

Viele dieser Innovationen wurden nicht von Rüstungsriesen ersonnen, sondern von kleinen, agilen Akteur*innen. In der Ukraine stützt man sich auf eine lebhafte Tech-Start-up-Szene und eine flexible Rüstungsindustrie, um Russlands zahlenmäßige Vorteile auszugleichen. Die Iterationsgeschwindigkeit ist beeindruckend: Die Entwicklungszyklen für neue Lösungen sind von Jahren auf Monate, Wochen oder gar Tage geschrumpft. Agile Start-ups und Entwickler*innen-Teams an der Front reagieren in Echtzeit auf Bedrohungen. Sie fügen ständig neue Gegenmaßnahmen und Verbesserungen hinzu, um der Gegenseite immer einen Schritt voraus zu sein.

Dieser direkte Innovationsloop vom Gefechtsfeld in die Werkstatt und zurück beschleunigt den Fortschritt enorm. So schießen etwa ukrainische Drohnen-Workshops buchstäblich in Kellern und umfunktionierten Supermärkten aus dem Boden, um Produktion und Entwicklung selbst unter Beschuss aufrechtzuerhalten. Start-ups bringen eine Kultur der schnellen Iteration ein, die klassische Rüstungsbetriebe so nicht kennen. Das Ergebnis: 500-US-Dollar-Drohnen werden im Feld per Trial-and-Error optimiert und können anschließend einen 5-Mio.-US-Dollar-Panzer ausschalten.

Gründungs-Boom im Verteidigungssektor

Auch außerhalb der Ukraine hat der Krieg einen Gründungs-Boom ausgelöst. Wagniskapital fließt so stark wie nie in europäische Verteidigungs- und Sicherheits-Technologie: 2024 wurden in diesem Sektor 5,2 Mrd. US-Dollar investiert – ein Allzeithoch. Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Einige staatlich unterstützte VC-Fonds in Europa, wie z.B. SmartCap aus Estland, fördern mittlerweile explizit Rüstungsinvestments. Zwar ist die europäische VC-Branche aufgrund vertraglicher Bindungen insgesamt noch zögerlich, doch die Zurückhaltung wirkt 2025 überholt. Schließlich zeigt der Ukraine-Krieg, dass technologische Innovation das Kriegsgeschehen entscheidend beeinflusst – eine Wahrheit, die in den vergangenen Friedensdekaden in Vergessenheit geriet.

Auch in Deutschland entsteht ein dynamisches Ökosystem, das viele Technologiefelder abdeckt. Die wichtigsten sind künstliche Intelligenz und autonome Systeme, Quantentechnologien, Human Enhancement, Hyperschalltechnologien, neuartige Materialien und Fertigungsverfahren, Raumfahrttechnologien, Advanced Manufacturing sowie resiliente Energiesysteme. Die Bitkom befragte kürzlich 44 deutsche DefTech- und Dual-Use-Start-ups, aber die Dunkelziffer dürfte höher liegen, da inzwischen viele DeepTech-Start-ups mit dem Verteidigungsmarkt liebäugeln.

So hat das Digital Hub Security & Defense BASED während der letzten Münchner Sicherheitskonferenz 80 DefTech-Start-ups auf dem „Sicherheitsfrühstück“ einer fast ebenso großen Zahl an Investor*innen vorgestellt. BASED hat sich auf die Fahnen geschrieben, DefTech-Start-ups „investment ready“ zu machen. Und viele Gründer*innen und Talente entscheiden sich angesichts der Bedrohungslage auch „mission driven“ für die Verteidigung, um einen Beitrag zum Schutz unserer Demokratie zu leisten.

Ein Beispiel für ein erfolgreiches europäisches Verteidigungs­Start-ups ist neben ARX Robotics (mehr dazu liest du hier in der Coverstory unserer Magazin-Ausgabe 02/25) oder Quantum Systems aus München auch das Unicorn Helsing, das den HX-2-Drohnenjäger entwickelte und Produktionskapazitäten in Deutschland aufbaut, um monatlich vierstellige Stückzahlen zu liefern. Solche Newcomer zeigen, wie Innovationskraft, Tempo und Skalierung im Ernstfall aussehen können – und dass Start-ups mit unkonventionellen Ansätzen binnen kurzer Zeit Fähigkeiten bereitstellen könnten, für deren Entwicklung traditionelle Rüstungsprogramme in der Vergangenheit Jahrzehnte gebraucht haben. Nicht zuletzt hat der Krieg die Produktionslogik verändert: Entscheidend ist nicht mehr, ein Waffensystem mit allen erdenklichen Sonderwünschen als „Goldrandlösung“ zu perfektionieren, sondern es schnell und robust in großen Stückzahlen bereitzustellen. Auch deutsche Rüstungsfirmen wie Hensoldt sprechen von einem Paradigmenwechsel: weg von der früheren „Boutique“-Fertigung hin zur Massenproduktion. Geschwindigkeit schlägt Sonderanfer­tigung: Statt monatelanger Feintuning-Schleifen gilt nun, was an der Front sofort wirkt.

Lehren für den Westen und Deutschland

Was bedeuten diese Erfahrungen für die Bundeswehr und ihre Partner*innen? Zunächst, dass Beschaffungsbürokratien und veraltete Prozesse zum Sicherheitsrisiko werden. In der Ukraine hat sich der traditionell träge Militärapparat unter existenziellem Druck rasant gewandelt. Westliche Länder müssen diese Lektionen proaktiv aufgreifen. Im Schnitt dauern Rüstungsprojekte in Deutschland sechs bis sieben Jahre – eine so lange Durststrecke überlebt kein Start-up in der schnelllebigen Tech-Welt. In der Vergangenheit haben sich talentierte Gründer*innen und Investor*innen daher lukrativeren Branchen zugewandt, statt jahrelang auf einen Durchbruch im Verteidigungssektor zu hoffen. Wollen staatliche Stellen die Innovationskraft der Start-up-Welt nutzen, müssen sie nun zu verlässlichen und schnelleren Kund*innen werden. Dazu gehört, Vergabeverfahren radikal zu verschlanken, mehr Wettbewerb und Transparenz zu schaffen und nicht-traditionelle Anbieter*innen aktiv einzubinden.

Die Politik hat dies erkannt: In Berlin hat sich die neue Koalition vorgenommen, die langsamen Beschaffungsabläufe grundlegend zu reformieren. Eine Analyse des Wirtschaftsministeriums (BMWK) identifizierte bereits 2023 Bremsklötze: übermäßige parlamentarische Einmischung bei jedem Auftrag über 25 Mio. Euro, komplizierte Regulierung sowie zu enge Grenzen bei der Forschungsförderung. Diese Hürden führen dazu, dass Innovationen im „Tal des Todes“ versickern – dem Übergang von Prototypen in die Serienbeschaffung. Durch bürokratische Verzögerungen verliert neue Technik dort kritische Zeit und Schwung, bisweilen verschwindet sie ganz. Um das zu verhindern, muss es strukturelle Änderungen geben: von der Verstetigung von Innovationsbudgets über beschleunigte Genehmigungswege bis hin zur besseren Verzahnung von zivilen Talenten mit militärischen Bedarfsträger*innen. Kurz: Die Streitkräfte dürfen nicht länger in Friedensroutine verharren.

Zugleich müssen Produktionskapazitäten hochgefahren werden. Der Krieg lehrt, dass eine industriell-logistische Mobilmachung nötig ist, um im Ernstfall genug Material bereitstellen zu können – seien es Munition, Drohnen oder Ersatz­teile. Dafür braucht es auch neue Geschäftsmodelle und modulare „Factories“ in Europa, die bei Bedarf binnen kürzester Zeit die Ausstoßzahlen hochskalieren können. Auch Abhängigkeiten von langen und störanfälligen Lieferketten im Bereich der Rohstoffe und Komponenten müssen reduziert werden.

Generell sollten westliche Regierungen verstärkt Kapital in junge Verteidigungsfirmen lenken – etwa durch Wagniskapitalfonds oder Innovationsprogramme – und verhindern, dass große Rüstungskonzerne vielversprechende Neulinge bloß aufkaufen, um deren Technologien vom Markt zu nehmen. Die Innovationsökosysteme rund um Verteidigung müssen sorgfältig kultiviert werden, damit die aktuelle Aufbruchsstimmung nicht abrupt endet. Dazu gehört auch ein Mentalitätswandel bei Investor*innen: Die Jahrzehnte währende Scheu vor Wehrtechnik-Investments ist nicht mehr zeitgemäß – letztlich hängt die Sicherheit Europas von unserer technologischen Stärke ab.

Fazit

Der Ukraine-Krieg führt vor Augen, wie künftig Kriege entschieden werden: durch Geschwindigkeit und Innovationskraft. Günstige, flexibel einsetzbare Technologien – oft entwickelt von neuen Akteur*innen – können hochgerüstete Gegner*innen ins Wanken bringen. Start-ups avancieren hierbei zum strategischen Faktor. Sie liefern Agilität, frische Ideen und die Fähigkeit, sich im Kriegsverlauf iterativ anzupassen.

Die Autorin Prof. Dr. Rafaela Kraus ist Professorin für Unternehmens- und Personalführung soeir ehem. Vizepräsidentin der Universität der Bundeswehr München und hat dort u.a. das Entrepreneurship-Center founders@unibw ins Leben gerufen. Als Defense-Innovation-Expertin ist sie Initiatorin von BASED, dem Münchner Digital Hub Security & Defense

fünfeinhalb Funksysteme: Echtzeit-WLAN für die Industrie

Das 2023 als Ausgründung aus der TU Dresden gegründete Start-up fünfeinhalb Funksysteme stellt mit BlitzFunk eine 5G-Alternative für industrielle Anwendungen vor.

Die Einführung des Mobilfunkstandards 5G sollte die drahtlose Kommunikation nicht nur für den Consumer-Markt revolutionieren, sondern auch den Weg hin zur Industrie 4.0 mit vollvernetzten, intelligenten Fabriken ebnen. Doch bis heute können kommerzielle 5G- sowie zahlreiche WLAN-Systeme die Echtzeitanforderungen industrieller Anforderungen meist nicht erfüllen: Verzögerungen in der Datenübertragung (Latenzen) führen zu oft zu Systemstopps und Ausfällen ganzer Anlagen. Das Dresdner Start-up fünfeinhalb Funksysteme GmbH hat es sich zum Ziel gesetzt, dies zu ändern. Mit BlitzFunk, einem Echtzeit-WLAN-System mit berechenbaren Latenz-Garantien sowie latenzfreiem Roaming, ist ihm dies gelungen.

Fünfeinhalb Funksysteme wurde 2023 als Ausgründung aus der TU Dresden gegründet, mit dem Ziel, die nicht eingehaltenen Versprechen des Mobilfunkstandards 5G einzulösen und für Anwendungen im industriellen Umfeld nutzbar zu machen. Dafür hat das fünfköpfige Gründerteam rund um Geschäftsführer Dr. Lucas Scheuvens BlitzFunk entwickelt. Das Funksystem – bestehend aus Access Points und Clients – ist so konzipiert, dass es als eine koordinierte Einheit agiert. Die Anwendergeräte (Maschinen, Steuerungen oder Sensoren) werden über Ethernet mit dem System verbunden.

Latenzfreies Roaming ohne Unterbrechung

Einen der größten USPs des Funksystems fasst Dr. Lucas Scheuvens wie folgt zusammen: „Bei einem klassischen Roaming-Prozess, der in räumlich größeren Netzwerken immer nötig ist, ist der Client jeweils mit nur einem Access Point verbunden. Bevor er dessen Reichweite verlässt, muss er mit dem nächsten Access Point verknüpft werden. Das heißt, dass dort die Verbindung zum ersten Access Point ab- und zum nächsten Access Point neu wieder aufgebaut wird. Verschiedene Lösungen können dies zwar besonders schnell, aber es gibt immer einen zeitlichen Break. Bei Blitzfunk ist das nicht so, da unsere Access Points sich koordinieren und somit latenzfreies Roaming garantieren. Dabei koordinieren sie sich im Hintergrund automatisch so, dass sie sich nicht gegenseitig stören. Da das Roaming im BlitzFunk-System keinerlei negative Auswirkungen hat, entfällt auch die aufwendige und kostenintensive Funknetzplanung.“

Entwickelt für die Anforderungen der Industrie 4.0

BlitzFunk garantiert eine schnelle Datenübertragung – selbst bei mehreren verbundenen Geräten (Clients): Für 99,9999 Prozent aller Sendeversuche liegt die Latenz – so das Unternehmen – nachweislich bei maximal 2 × (N + 1) Millisekunden, wobei N die Anzahl der gleichzeitig aktiven Geräte ist – und das bei maximaler Ethernet-Framegröße von 1500 Bytes. Ein einzelner Client im System hat demnach eine garantierte Latenz von 4 Millisekunden, bei zehn Clients sind demnach 22 Millisekunden erwartbar, usw. Diese Garantie gilt auch für den Roaming-Fall, was vollständig unterbrechungsfreie Datenverbindungen für anspruchsvollste Industrie-Anwendungen ermöglicht.

Doch das Funksystem hat noch weitere Vorteile: es verhält sich wie ein verteilter Ethernet-Switch und bietet somit Plug&Play-Kompatibilität mit allen Ethernet-basierten Protokollen, inklusive Profinet, Profisafe, EtherNet/IP, CIP Safety und MQTT. Dazu kommen seine einfache Inbetriebnahme und Verwaltung über einen Webbrowser, was beides ohne spezielle technische Kenntnisse möglich ist. Ein weiterer Pluspunkt ist das eingebaute Troubleshooting, dank dem sich das Funksystem als Fehlerquelle eindeutig identifizieren (z.B. bei Überlastung) oder ausschließen lässt. Nicht zuletzt punktet das Funksystem auch in Bezug auf die Security mit geräteindividueller, quantensicherer Verschlüsselung sowie Authentifizierung.

Gemacht für mobile Anwendungen in der Logistik und Fertigungsbranche

Fünfeinhalb Funksysteme richtet sich insbesondere an Hersteller bzw. Systemintegratoren, die eine mobile Vernetzung ihrer Maschinen benötigen, die genauso zuverlässig funktioniert wie eine Kabelverbindung. Scheuvens erklärt dazu: „Obwohl sich mit BlitzFunk auch existierende Kabelinstallationen ersetzen lassen, ist das nicht unser Hauptanspruch. Konzipiert wurde das System hauptsächlich für Einsatzszenarien in der Fertigung, die mobile Roboter oder Fahrzeuge umfassen. Aber auch für Schlittensysteme und rotierende Elemente ist BlitzFunk geeignet – bzw. generell überall dort, wo Kabel stören oder technisch nicht sinnvoll einsetzbar sind“. Zu den zahlreichen, bereits erfolgreich durchgeführten Projekten zählen Vernetzungen von Schweißrobotern, Deckenkränen und fahrerlosen Transportfahrzeugen – sowohl im Safety- als auch Non-Safety-Bereich.

Blick in die Zukunft: Noch mehr Leistung

Gefragt nach einem Blick in die Zukunft des Unternehmens antwortet Scheuvens: „Aktuell basiert BlitzFunk auf klassischen, für den breiten Massenmarkt konzipierten Standard-Komponenten. Das macht die Lösung sofort und mit einem großen Mehrwert gegenüber anderen Systemen einsetzbar, demonstriert aber nur einen Bruchteil dessen, was möglich ist. Aktuell arbeiten wir an einem komplett integrierten Echtzeit-WLAN-System, das dann selbst BlitzFunk in den Kategorien Größe, Anzahl der gleichzeitig unterstützten Geräte, Zuverlässigkeit, Latenz und Energieverbrauch noch jeweils um den Faktor zwei bis zehn verbessern kann. Wir freuen uns auf die Reise!“

Digitaler Vorreiter: Wie Bootsschule1 die Sportboot-Ausbildung umkrempelt

Bootsschule1 überzeugt mit SmartLearn™-Plattform, AllInclusivePaketen, hoher Qualität und bundesweiter Praxis – digital, transparent und risikofrei.

Der Weg zum Sportbootführerschein galt lange als bürokratisch, zeitraubend und unflexibel – geprägt von Präsenzunterricht, Papierbergen und Prüfungsstress. Wer beruflich eingespannt ist oder außerhalb von Metropolregionen lebt, sah sich oft mit logistischen Hürden konfrontiert. Genau an diesem Punkt setzt Bootsschule1 an – und definiert die Ausbildung auf dem Wasser neu. Nicht mit leeren Marketingversprechen, sondern mit einem durchdachten Gesamtkonzept, das sich konsequent an den Bedürfnissen moderner Lerner orientiert.

Was einst nach trockener Theorie und starren Kurszeiten roch, verwandelt sich hier in ein digitales Lernsystem, das in punkto Nutzerfreundlichkeit und Didaktik Maßstäbe setzt. Im Zentrum steht eine selbst entwickelte Lernplattform, die Inhalte in kurzen, präzise aufbereiteten Videolektionen vermittelt – ergänzt durch realistische Prüfungssimulationen und ein umfassendes All-Inclusive-Paket, das vom Navigationsbesteck bis zur persönlichen Betreuung reicht. Transparente Preise, flexible Praxisstandorte und eine Geld-zurück-Garantie zeigen: Hier geht es nicht um den schnellen Schein, sondern um nachhaltige Qualität.

Dieser Artikel beleuchtet, wie Bootsschule1 mit technischer Präzision, durchdachten Services und didaktischer Klarheit nicht nur mit alten Konventionen bricht, sondern ein neues Kapitel in der Ausbildung für Wassersportbegeisterte aufschlägt – nah am Alltag, weit entfernt vom Schulbank-Gefühl.

Moderne Lernplattform mit smarten Tools

Die digitale Bootsschule von Bootsschule1 übernimmt in Deutschland eine Vorreiterrolle, wenn es um eine moderne Bootsführerschein-Ausbildung geht. Die selbst entwickelte SmartLearn™Lernplattform bildet das Herzstück dieses Konzepts. Sie bietet über 50 Videolektionen in hochwertiger 4K-Qualität und einen MultipleChoiceFragentrainer, die den gesamten Stoff für Sportbootführerscheine strukturiert abdecken. Die Videos dauern meist zwischen drei und fünf Minuten – ideal, um Inhalte gezielt und ohne Zeitdruck zu konsumieren: Sei es unterwegs beim Pendeln, in der Mittagspause oder abends auf dem heimischen Sofa. Dieses modulare Format erlaubt es, einzelne Themen effizient zu wiederholen oder gezielt Vertiefungen abzurufen.

Doch Bootsschule1 bietet weit mehr als reine Videospots: Ein interaktiver Prüfungssimulator integriert alle 15 offiziellen Prüfungsbögen. Nutzer*innen können die komplette Prüfungssituation durchspielen, inklusive Originalfragen und zeitlicher Vorgabe – so entsteht ein realistisches Trainingserlebnis. Dieser praxisnahe Ansatz führt weg vom bloßen Auswendiglernen hin zu gezielter Vorbereitung, mit hoher Trefferquote bei der echten Prüfung. Durch regelmäßiges Simulations-Training werden Schwachstellen sichtbar und lassen sich gezielt bearbeiten – ein entscheidender Vorteil gegenüber herkömmlichen Kursformaten.

AllInclusiveAngebot statt versteckter Kosten

Ein echtes Alleinstellungsmerkmal ist das AllInclusiveVersprechen. In einer einzigen Kursbuchung sind enthalten: Lernplattform, hochwertige Lernvideos, Kursmaterialien wie Kurs und Anlegedreieck, Zirkel sowie Tampen und Klampe, dazu die praktische Ausbildung inklusive einer kostenfreien 1:1Betreuung. Ergänzt wird das Ganze durch ein freiwilliges ExkursPaket mit über 25 zusätzlichen Lektionen mit einem Gegenwert von 119 €, das Kunden gratis erhalten.

Der Preis erscheint dabei vergleichsweise günstig: Ein Kombiangebot für SBF See & Binnen kostet gerade mal 445 € statt ursprünglich 495 € – inklusive ExkursPaket. Durch Aktionen mit Rabattcodes lässt sich die Summe weiter reduzieren – ohne unerwartete Zusatzkosten. Transparenz ist hier Programm.

Risikofrei dank GeldzurückGarantie

Bootsschule1 gibt Anfängern besonderen Rückhalt: Innerhalb von 14 Tagen nach Buchung kann man bei Nichtgefallen rückabwickeln – sofern bislang keine Praxisstunde gebucht und maximal 60 % der Kursinhalte absolviert wurden. Darüber hinaus gibt es eine Garantie für den Prüfungserfolg: Wer den TheorieTeil bestanden, aber in der Praxisprüfung durchfällt, erhält anteilig die Kursgebühr zurück. Das reduziert das finanzielle Risiko und lässt den Kurs zu einer sicheren Investition werden.

Flexible praktische Ausbildung in ganz Deutschland

Ein weiterer wichtiger Aspekt, in dem Bootsschule1 überzeugt, ist der bundesweite Zugang zur praktischen Ausbildung. Mehr als 100 Prüfzentren und zahlreiche Praxispartner ermöglichen es, Theorie online zu lernen und die Bootsfahrstunden lokal zu absolvieren. Unter anderem gibt es Angebote in großen Städten wie Berlin, Hamburg oder entlang des Rheins (z.B. Bonn, Koblenz, Köln).

Praktische Einheiten dauern meist 60 Minuten und reichen oft aus, um die Fahrpraxis für die Prüfung zu erlangen. Zudem übernimmt die Plattform die Terminbuchung, Organisation und Anmeldung bei der Prüfung – der gesamte Papierkram liegt in digitaler Hand, was Zeit und Aufwand spart.

Umfangreiche Kursvarianten für jeden Bedarf

Bootsschule1 deckt sämtliche Sportbootführerscheine ab: getrennte Kurse für SBF See, SBF Binnen sowie Kombikurse See & Binnen. Darüber hinaus werden spezielle Qualifikationen angeboten, etwa das Bodenseeschifferpatent, der SRC- und UBI-Funkschein sowie Fachkundenachweise (FKN/SKN).

  • Das Bodenseeschifferpatent ist als Ergänzung zum SBF günstig kombinierbar (145 € Theorie oder Kombipreis von € 590).
  • Der SRCFunkschein wird mit gleicher SmartLearn™Plattform vorbereitet – inklusive OnlineTraining und praktischer Prüfung in einem Prüfungszentrum (127,88 € Prüfungsgebühr).

Wer nur den Funkschein machen möchte, erhält dafür bis zu 365 Tage Zugriff auf Lernmaterial und Praxisaufgaben.

Qualitativ hochwertiger Unterricht

Bootsschule1 legt klar Wert auf hohe Produktionsqualität: Einzelne Videolektionen entstehen aus bis zu 200 Stunden Rohmaterial, das anschließend mehr als 100 Stunden postproduziert und mit 3DAnimationen sowie CGIEffekten angereichert wird. Das Ergebnis ist eine visuell ansprechende und fachlich präzise Darstellung, die man in vielen herkömmlichen Kursen vergeblich sucht. Ergänzt wird das durch profunde Fahrsessions per Videochat und persönliche Unterstützungsangebote.

Medizinischer Beleg und gesundheitliche Voraussetzungen

Vor Prüfungsanmeldung ist ein ärztliches Attest nötig. Dieses umfasst Sehtest (DIN 58220, Sehschärfe ≥ 0,8), Farbunterscheidung und Hörtest. Brillenträger schaffen den Führerschein problemlos – die Vermerkpflicht auf der Fahrerlaubnis ist im Einklang mit Vorschriften. Empfehlenswert ist es, frühzeitig die optionalen Testangebote bei Optikern zu nutzen, um die ärztliche Bescheinigung vorzubereiten.

Prüfung mit digitaler Unterstützung

Bootsschule1 nimmt Interessierten den bürokratischen Aufwand ab: Prüfterminbuchung, Anmeldeunterlagen und Zertifikatrecherche übernimmt das Team. Nach Bestehen der Prüfung erreicht man den Führerschein binnen zwei Wochen bequem per Post. Wer beim ersten Mal nicht besteht, kann Theorie und Praxis beliebig oft wiederholen – zusätzliche Kosten entstehen nur durch behördliche Prüfungsgebühren.

Fazit

Bootsschule1 präsentiert ein Konzept, bei dem Technik und didaktischer Anspruch eng miteinander verbunden sind: Die Lernplattform mit qualitativ hochwertigen Videos, Prüfungssimulationen und smartem Fragebetrieb bildet das Rückgrat der Ausbildung. Zeitgleich liefern AllInclusivePakete inklusive 1:1Betreuung, bundesweite Praxis sowie Garantien echte Mehrwerte.

In einer Zeit, in der Flexibilität und Qualität gefragt sind, liefert Bootsschule1 eine Antwort auf praktische Herausforderungen. Es ist kein theoretisches Referenzmodell, sondern ein funktionierendes System, das vielen den Zugang zum Wassersport erleichtert – und dabei ganz klar zeigt, wie moderne Bildung in der Praxis aussehen kann. Somit liefert der Anbieter im Sportbootbereich das, was bei Autofahrschulen schon länger Realität ist.

Podcast: Die Peter Thiel Story

Tipp der Redaktion: Ab 28. Mai 2025 in der Deutschlandfunk App verfügbar – der sechsteilige Podcast „Die Peter Thiel Story“.

Peter Thiel ist mit PayPal und Facebook reich geworden und hat die Gedankenwelt des Silicon Valleys wie kaum ein zweiter geprägt. Der Tech-Milliardär ist ein Architekt des neuen rechten Amerikas, ist Strippenzieher und bestens vernetzt im radikalkonservativen und -libertären Amerika.

Mit dem sechsteiligen Podcast „Die Peter Thiel Story“ beleuchtet der Deutschlandfunk jetzt die Hintergründe des geheimnisvollen Investors, der trotz seines enormen Einflusses vielen kaum bekannt ist.

Host und Autor Fritz Espenlaub zeichnet nach, wie ein in Deutschland geborener Philosophiestudent im Silicon Valley aufstieg. Er zeigt das intellektuelle Fundament – geprägt von Carl Schmitt, René Girard und Ayn Rand – sowie das Netzwerk, das heute Schlüsselpositionen in Wirtschaft und Politik besetzt.

Die Serie dokumentiert dabei auch Thiels Visionen: Die Errichtung schwimmender libertärer Städte, die Entwicklung fortschrittlicher Überwachungstechnologie und seine Suche nach dem ewigen Leben.

Die Peter Thiel Story“ bietet Einblicke in das Leben des Mannes, der ewig leben und alles verändern will.

Die Peter Thiel Story

Sechsteilige Erzählserie jeweils ca. 30 Minuten

ab 28. Mai 2025 in der Deutschlandfunk App

KI-Übergangsphase: Fluch und Segen

Zwischen Wundermaschine und Blackbox – Warum wir gerade in einer KI-Übergangsphase leben und was das generell für das Marketing bedeutet.

Künstliche Intelligenz (KI) verändert gerade in rasantem Tempo unsere Welt. Sie automatisiert Prozesse, entlastet Teams, liefert Analysen in Echtzeit und ermöglicht einen bisher nicht gekannten Grad an Personalisierung. Wer heute im Marketing arbeitet, kommt an KI nicht mehr vorbei – sei es beim Texten von Werbebotschaften, beim Targeting, in der Bildgenerierung oder der Erfolgsmessung.

KI verspricht Effizienz, Präzision und neue kreative Möglichkeiten. Doch die Euphorie wird zunehmend begleitet von einer neuen, ernüchternden Erfahrung: Künstliche Intelligenz kann auch Nutzererlebnisse verschlechtern, Prozesse intransparent machen – oder gar ganze Geschäftsmodelle gefährden. Der technologische Fortschritt ist zweifellos da, doch gesellschaftlich, wirtschaftlich und kulturell befinden wir uns noch mitten in einer Übergangsphase. Und das birgt Risiken – nicht nur für Plattformen, sondern auch für Unternehmen, die sie nutzen.

Beispiel Pinterest: Wenn der Algorithmus plötzlich entscheidet

Ein aktuelles Beispiel liefert Pinterest: Die visuelle Such- und Inspirationsplattform setzt verstärkt auf KI, um Inhalte effizient zu kategorisieren, Hassrede zu erkennen, urheberrechtlich geschützte Werke zu markieren oder Spam zu unterbinden. Was auf dem Papier sinnvoll und zukunftsgerichtet klingt – ein moderner „Content Safety Stack“ mit automatisierter Moderation –, hat in der Praxis zahlreiche Creator*innen und Unternehmen auf dem falschen Fuß erwischt.

Accounts wurden gelöscht, Pins blockiert oder ganze Seiten unsichtbar gemacht – oft ohne erkennbare Begründung. Was ist passiert? Die KI-Modelle bei Pinterest wurden darauf trainiert, problematische Inhalte automatisiert zu erkennen und Plattformregeln durchzusetzen. Doch wie in vielen KI-Systemen liegt der Teufel im Detail: Die Modelle sind noch nicht präzise genug, um zwischen legitimen und grenzwertigen Inhalten zuverlässig zu unterscheiden – vor allem in einem visuellen Umfeld wie Pinterest. Besonders problematisch wird es, wenn Nutzer*innen keine Möglichkeit haben, die Entscheidungen nachzuvollziehen oder effektiv dagegen vorzugehen.

Für Unternehmen, die Pinterest als Marketingplattform nutzen, ist das ein unkalkulierbares Risiko. Wer auf Sichtbarkeit und Reichweite angewiesen ist, kann es sich kaum leisten, dass automatisierte Systeme ohne Vorwarnung Inhalte sperren. Der Vertrauensschaden ist enorm.

Im Spannungsfeld der KI-Nutzung

Dieser Fall steht exemplarisch für ein zentrales Spannungsfeld der KI-Nutzung: Auf der einen Seite die große Hoffnung auf Automatisierung, Kostenersparnis und Kontrolle – auf der anderen Seite die Realität einer noch nicht vollständig ausgereiften Technologie, die häufig wie eine Blackbox agiert. Für Nutzer*innen bedeutet das: weniger Transparenz, weniger Kontrolle, mehr Frustration. Ähnliche Phänomene beobachten wir auch bei großen Social-Media-Plattformen wie Meta oder TikTok. Auch hier sorgen KI-basierte Moderationssysteme regelmäßig für Unmut – sei es durch falsch erkannte Verstöße, Einschränkungen der Reichweite oder Verzögerungen im Kundenservice, der durch automatisierte Antworten ersetzt wurde. Dabei geht es nicht um generelle Ablehnung von KI – sondern um die Art und Weise, wie sie implementiert und kommuniziert wird.

Gute KI ist unsichtbar – weil sie funktioniert

Das Marketing der Zukunft soll nicht nur effizient, sondern muss auch verantwortungsvoll sein. Es wird davon abhängen, wie gut Unternehmen die Balance finden zwischen Automatisierung und menschlicher Kontrolle. Zwischen der Verlockung, Prozesse zu beschleunigen, und der Notwendigkeit, Vertrauen zu erhalten. Gute KI ist unsichtbar – weil sie funktioniert. Sie analysiert, aber entscheidet nicht alleine. Zukunftsfähiges Marketing ist also geprägt von einer Kombination aus technologischer Intelligenz und menschlicher Relevanz. KI, Automatisierung und Datenanalyse ermöglichen eine bisher unerreichte Präzision: Zielgruppen werden individueller angesprochen, Inhalte in Echtzeit ausgespielt und Customer Journeys automatisiert optimiert. Personalisierung ist dabei kein Zusatz mehr, sondern Standard.

Gleichzeitig verändern sich die Erwartungen der Konsument*innen: Sie wollen authentische Marken, klare Haltung, Datenschutz und echte Mehrwerte – keine leeren Werbeversprechen. Deshalb wird Marketing künftig nicht nur effizient, sondern auch ethisch und wertebasiert sein müssen. Vertrauen wird zur zentralen Währung. Auch deshalb ist das Marketing der Zukunft vor allem Inhouse zu verorten. Agenturen befinden sich auf dem absteigenden Ast – sie sind teuer und liefern nicht die Ergebnisse, die Unternehmen und Marken wirklich benötigen. Zu dieser Entwicklung gehört auch, dass Inhouse-Marketing-Verantwortliche umfassend geschult werden müssen, damit sich der Einsatz von KI maximal einfach gestaltet und gleichzeitig äußerst produktiv ist.

KI ist weder Fluch noch Segen – sie ist ein mächtiges Werkzeug, das mit Bedacht eingesetzt werden muss. Wer KI einfach laufen lässt, riskiert Vertrauensverluste. Wer sie aber erklärt, einbettet und begleitet, kann gewinnen – an Effizienz, Qualität und Glaubwürdigkeit. Das Marketing der Zukunft ist nicht einfach KI-gesteuert. Es ist menschenzentriert – mit KI als starkem, aber verantwortungsbewusstem Assistenten.

Der Autor Bastian Sens gründete Sensational Marketing im Jahr 2010 – zunächst als klassische Onlinemarketing-Agentur. Im Laufe der Jahre kristallisierte sich jedoch ein alternativer Weg heraus, sodass sich das Unternehmen zu einer Onlinemarketing-Academy wandelte.

CampfireFM: Social-Audio-App feiert Launch auf dem OMR Festival

CampfireFM – die Plattform, die Podcasts zu einem interaktiven Community-Erlebnis machen will –, startet mit prominenten Gründer*innen und Podcaster*innen.

Vor rund 7.000 Besucher*innen des OMR Festivals in Hamburg wurde heute (7.Mai 2025) die Social-Audio-App CampfireFM gestartet. Mit CampfireFM sollen Podcasts social werden, etwa so, wie Instagram es für Fotos und YouTube für Videos vorgemacht hat. CampfireFM soll der bisher schmerzlich vermisste Ort werden, wo sich die Community eines Podcasts trifft und diskutiert.

In der App für iOS und Android werden Podcasts dadurch zu einem interaktiven Hörerlebnis, bei dem sich Nutzer*innen mit anderen Fans direkt in ihrem Lieblings-Podcast austauschen können und exklusiven Zusatz-Content erhalten – auch von den Podcast-Hosts selbst. Neue Podcast-Episoden werden Startpunkte für Gespräche, Reaktionen und Emotionen. Zwischen den Episoden entsteht eine Timeline mit Begleitmaterialien, kurzen Sprachnachrichten, Umfragen oder Community-Diskussionen. Um Podcasts herum sollen auf CampfireFM so Communities entstehen.

Künstliche Intelligenz wird eine Reihe von Funktionen ermöglichen, mit denen auf CampfireFM zum Beispiel automatisch die besten Podcast-Zitate erkannt und mit einem Klick in sozialen Medien geshared werden können.

Über das CampfireFM-Gründungsteam

Hinter CampfireFM stehen Tobias Bauckhage, Benjamin Kubota und Jon Handschin (Gründer der größten deutschen Film-Community Moviepilot und Mitgründer von Studio Bummens, einem der größten unabhängigen Podcast-Publisher in Deutschland), Autor, Unternehmer und Podcaster Sascha Lobo und ein Team von ehemaligen Soundcloud Entwicklern und Produktleuten. Das Team wird unterstützt von einer Reihe von Podcaster*innen und Angel-Investor*innen wie Toni und Felix Kroos, Klaas Heufer-Umlauf, Jakob Lundt, Thomas Schmitt, Micky Beisenherz, Oliver Merkel (Ex Flink), Kai Bolik (GameDuell) oder David Fischer (Highsnobiety).

Zum Launch der neuen App sind einige der reichweitenstärksten Podcasts in Deutschland mit dabei: der Unterhaltungs-Podcast „Baywatch Berlin“ mit Klaas Heufer-Umlauf, Jakob Lundt und Thomas Schmitt, der Fußball-Podcast „Einfach mal Luppen“ mit Toni und Felix Kroos, der Nachrichten-Podcast „Apokalypse & Filterkaffee – Presseklub“ mit Micky Beisenherz und Markus Feldenkirchen, der Business-Podcast „OMR Podcast“ mit Philipp Westermeyer, der History-Podcast „Geschichten aus der Geschichte“ mit Daniel Meßner und Richard Hemmer und der Talk-Podcast „Dudes“ mit Niklas van Lipzig und David Martin.

Weitere Shows sollen in den nächsten Wochen folgen: u.a. die Interview-Podcasts „Hotel Matze“ und „Alles gesagt“ oder der Nachrichten-Podcast „Table Today“.

Eine Plattform für Nutzer*innen, Podcaster*innen und Werbetreibende

CampfireFM ist nicht nur eine neue Plattform für Nutzer*innen, sondern auch für Podcaster*innen und Werbetreibende: Bisher nicht vernetzte, passive Hörer*innen werden zu einer aktiven und wertvollen Community, die Feedback und echte Emotionen hinterlässt. Statt einer wöchentlichen Podcast-Veröffentlichung ohne Feedback-Möglichkeit entsteht bei CampfireFM für jeden Podcast ein kontinuierlicher, täglicher Stream an Interaktionen und Diskussionen. Dadurch bleibt die Podcast-Community aktiv und die Podcasts wachsen organisch. Eine lebendige Community schafft auch neue Vermarktungsmöglichkeiten: Ob Tickets, Merchandise oder exklusive Inhalte – alles kann direkt und effektiv über die App promotet werden. Auf CampfireFM werden Fans direkt und ungefiltert erreicht, die Abhängigkeit von den Algorithmen der großen Podcast-Plattformen sinkt.

Toni Kroos, Investor bei CampfireFM:„Ich glaube sehr an die Kraft der Community – was wären Fußballvereine ohne ihre Fans? Unser EM-Testlauf mit CampfireFM letztes Jahr war ein Volltreffer. Wir freuen uns, dass es jetzt richtig losgeht.”

Tobias Bauckhage, Co-Gründer von CampfireFM, Studio Bummens und Moviepilot: „CampfireFM bringt endlich Community und soziale Interaktionen in die Welt des Podcasting. Wir machen Podcasts zu aktiven, gemeinschaftlichen Erlebnissen, erzeugen das Gefühl von Gleichzeitigkeit und schaffen einen Raum, in dem sich Hörer:innen begegnen und austauschen können.”

Sascha Lobo, Co-Gründer von CampfireFM: „Ich caste seit vielen Jahren begeistert pod – aber vermisse dabei oft die wichtigste Erfindung unseres Social-Media-Jahrhunderts: den Rückkanal, den einen Ort, wo man nachschauen kann, worüber die Community diskutiert. Der Grund übrigens, warum es das bisher nicht gibt: Es geht nur mit generativer Künstlicher Intelligenz. ”

Die Betaversion der App ist ab sofort für iOS und Android verfügbar. Weitere Infos auf www.joincampfire.fm