Swapfiets – mehr Zirkularität beim Fahrrad-Abo-Anbieter


44 likes

Der europaweit agierende Fahrrad-Abo-Anbieter Swapfiets forciert den Wandel der veralteten Wegwerfwirtschaft hin zu einer nutzungsorientierten Kreislaufwirtschaft.

Die Financial Times hat das 2014 in den Niederlanden gegründete Start-up Swapfiets kürzlich in die Top 10 der am schnellsten wachsenden Unternehmen Europas aufgenommen. Jetzt gibt das weltweit erste "Bicycle as a Service"-Unternehmen, das seit 2018 auch in Deutschland aktiv ist, bekannt, in Zukunft auch deutlich nachhaltiger werden zu wollen. Während das Fahrrad-Abo weiter in Europa expandiert, sollen bis zum Jahr 2025 sämtliche Fahrräder der Flotte vollständig zirkulär im Sinne der Kreislaufwirtschaft werden.

Den Herausforderungen unserer Zeit zu begegnen

Mit dem Schließen des Kreislaufs von Reparaturen, Wiederverwendung, Instandsetzung und Recycling will Swapfiets beweisen, dass auch Fahrräder zirkulärer und nachhaltiger werden und damit zu lebenswerteren Städten beitragen können. Eine kürzlich von Swapfiets durchgeführte Produktlebenszyklusanalyse ergab eine Zirkularität von 88 Prozent, deutlich mehr als vergleichbare Premium-Citybikes der Linearwirtschaft erreichen können.

Doch vollständige Zirkularität bleibt eine Herausforderung. Die verbleibenden 12 Prozent beziehen sich auf Abfälle wie Sättel und Bremskabel sowie Neumaterialien wie abgebaute Mineralien, die für Bauteile, Schmiermittel und mehr verwendet werden. Das Start-up kann schon jetzt einen Produktlebenszyklus ohne jegliche Gummiabfälle für sämtliche Fahrräder vorweisen, doch prüft das Unternehmen weitere Lösungen und sucht die Zusammenarbeit mit Experten, um die Zirkularität der Fahrräder weiter zu verbessern.

Ziel: Bis 2025 vollständig zirkulär

Richard Burger, Gründer von Swapfiets: „Unsere Fahrräder bis 2025 vollständig zirkulär im Sinne der Kreislaufwirtschaft zu machen ist ein großes Ziel und eine gleichsam enorme Herausforderung, da wir den gesamten Produktlebenszyklus von der Produktion bis zum Recycling berücksichtigen müssen. Doch wenn wir wirklich unseren Beitrag für eine bessere Zukunft leisten wollen, sehen wir in unserem Segment keine Alternative als ein Abonnement für Fahrräder und sinnvolle Mikromobilität anzubieten. Das sind die ökologisch sinnvollsten Transportmittel in Städten. Wir beweisen, dass wir mit einem nachhaltigeren Produkt einen hervorragenden Service bieten können, und fordern andere dazu auf, das Gleiche zu tun.“

Swapfiets will mit seinen aktuell fast 220.000 Mitgliedern die führende Mitgliedschaft für Mikromobilitätslösungen werden. In den letzten sechs Monaten beschleunigte das Unternehmen seine Expansion in Italien, Frankreich, Großbritannien und bietet jetzt das Fahrrad-Abo auch in Barcelona, Lyon, Straßburg, Nantes und Toulouse. In Kürze kommt Wien hinzu.

Diese Artikel könnten Sie auch interessieren:

HR-Trends 2026

Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.

Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.

Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.

1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise

Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.

2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?

Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360GradFeedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.

3. Mensch und KI – zwei Seiten der HR-Medaille

2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.

4. Führung neu denken – Managementpositionen verlieren an Attraktivität

Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.

5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt

Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.

Fazit

Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.

Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Report: Quantencomputing

Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.

Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.

Herausforderungen

Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.

Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.

Trends

In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.

Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.

Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintritts­barrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.

Die Rolle von Start-ups

Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.

Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.

Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.

Deutsche QC-Start-ups mischen ganz vorne mit

Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.

Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.

eleQtron: It's MAGIC

In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.

Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“

Es war ein ungewöhnlicher Ort für eine bahnbrechende

Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.

Von der Universität ...

Im Jahr 2020, als das globale Interesse an Quantentechnolo­gien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.

Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quanten­programme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.

In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.

... zum technologischen Durchbruch

Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer so­genannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikro­wellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“

Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.

Wachstumsschub und strategische Entwicklung

2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.

„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.

Indirekter Einkauf: Versteckter Kostenfresser oder unentdeckter Goldschatz?

Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.

In vielen Unternehmen wird der indirekte Einkauf häufig unterschätzt – dabei liegen hier oft erhebliche Einsparpotenziale verborgen. Durch die wachsende Digitalisierung und die zunehmende Verfügbarkeit von B2B eCommerce-Plattformen bestellen Mitarbeitende Waren und Dienstleistungen immer häufiger außerhalb klassischer Einkaufsprozesse. Diese Entwicklung bringt einerseits Flexibilität und Effizienz, stellt Unternehmen aber auch vor neue Herausforderungen: Wie lassen sich Ausgaben kontrollieren und Transparenz über die gesamte Einkaufskette sicherstellen?

Die beste Einkaufssoftware für den Mittelstand adressiert genau diese Herausforderungen. Hivebuy hat sich als moderne, benutzerfreundliche Lösung etabliert, die den indirekten Einkaufsprozess von der Bestellung bis zur Rechnungsprüfung digitalisiert und automatisiert. Die Software integriert sich nahtlos in bestehende ERP-, Buchhaltungs- und Kommunikationstools wie SAP, Microsoft Dynamics, Teams oder Slack – und das ohne aufwändige technische Implementierung.

Gegründet von erfahrenen Einkaufs- und Finanzexpert*innen aus Frustration über bisherige Lösungen, verfolgt Hivebuy die Mission, versteckte Kosten sichtbar zu machen, Budgets in Echtzeit zu kontrollieren und Einkaufsprozesse effizienter zu gestalten. Mit höchsten Sicherheitsstandards, inklusive ISO/IEC 27001-Zertifizierung und DSGVO-konformer Datenhaltung in Deutschland, schafft Hivebuy Transparenz und Vertrauen entlang der gesamten Einkaufskette.

Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.

StartingUp: Frau Fischer, viele Unternehmen sehen im indirekten Einkauf eher einen Kostenfaktor, der schwer zu kontrollieren ist. Was macht den indirekten Einkauf aus Ihrer Sicht zu einem versteckten Kostenfresser?

Bettina Fischer: Die große Herausforderung im indirekten Einkauf liegt darin, dass die einkaufenden Personen über das gesamte Unternehmen verteilt sind – anders als im direkten Einkauf, wo spezialisierte Einkaufsabteilungen tätig sind. Das bedeutet: Jede*r Mitarbeitende, der oder die einmal etwas bestellt, wird zum Einkäufer oder zur Einkäuferin – oft ohne die notwendige Erfahrung in Einkaufsprozessen.

Dadurch entstehen typische Muster: Es wird bei bekannten Lieferanten bestellt – oft aus dem privaten Umfeld, wie etwa Amazon Business – ohne Preisvergleiche, ohne Berücksichtigung von Lieferzeiten oder bereits verhandelten Konditionen. Das führt schnell zu ineffizienten und teuren Entscheidungen.

Hinzu kommt, dass im indirekten Einkauf eine hohe Produktvielfalt auf eine extrem heterogene Lieferantenlandschaft trifft. Das erschwert es, durch Bündelung bessere Konditionen zu erzielen. Es fehlt die klare, strategische Beziehung zu bestimmten Lieferanten – und genau dort entstehen die versteckten Kosten.

StartingUp: Wie hilft Hivebuy Mittelständlern konkret dabei, diese versteckten Kosten aufzudecken und zu reduzieren?

Bettina Fischer: Hivebuy verfolgt einen ganzheitlichen Ansatz, um die Herausforderungen des indirekten Einkaufs zu lösen. Zum einen ermöglichen wir es Mitarbeitenden, direkt über integrierte Lieferanten zu bestellen. Das bedeutet: Die Bestellungen erfolgen zentral über Hivebuy – ohne Umwege über externe Plattformen oder individuelle Beschaffungswege. Die Bestellübermittlung ist automatisiert und erfolgt effizient über unser System.

Darüber hinaus bietet Hivebuy einen integrierten Preisvergleich für B2B-Webshops. So wird sichergestellt, dass stets der beste Preis und die optimalen Lieferzeiten berücksichtigt werden – ein entscheidender Hebel zur Kostensenkung.

Ein weiterer zentraler Punkt ist die Budgetkontrolle: Sobald eine Bestellanforderung erstellt wird, sehen Budgetverantwortliche sofort die Auswirkungen auf ihr Budget – in Echtzeit. Dadurch lassen sich Entscheidungen schnell, fundiert und transparent treffen.

Auch die Freigabeprozesse sind flexibel und konfigurierbar: Mitarbeitenden wird Freiheit für alltägliche Bestellungen gegeben, während bei kritischen oder kostenintensiven Vorgängen automatische Eskalationen und Genehmigungen greifen.

Nicht zuletzt ermöglicht Hivebuy dem Einkauf, sein Wissen an die Organisation weiterzugeben. Vorverhandelte Verträge, Katalogartikel oder bevorzugte Lieferanten sind direkt im System sichtbar – wie ein digitaler Einkaufsberater im Hintergrund. So treffen selbst unerfahrene Nutzer bessere Entscheidungen – ganz im Sinne von Kostenkontrolle und Prozesssicherheit.

StartingUp: Ihre Software ist bekannt für ihre Nutzerfreundlichkeit. Wie schaffen Sie es, auch nicht-einkaufserfahrene Mitarbeitende einzubinden?

Bettina Fischer: Benutzerfreundlichkeit steht bei Hivebuy an oberster Stelle. Wann immer wir eine neue Funktion entwickeln, testen wir diese gemeinsam mit unseren Nutzerinnen und Nutzern – direkt aus der Praxis. Unser Ziel ist es, dass Hivebuy genauso intuitiv bedienbar ist wie eine Online-Überweisung: Jeder soll auf Anhieb verstehen, was zu tun ist.

Mit Funktionen wie unserem B2B-Preisvergleich und dem sogenannten Guided Buying führen wir Mitarbeitende gezielt durch den Einkaufsprozess – Schritt für Schritt, ganz ohne Schulungsaufwand. So wird selbst komplexes Einkaufswissen einfach zugänglich gemacht.

Für Freigabeverantwortliche haben wir zusätzlich eine besonders komfortable Lösung geschaffen: Freigaben können direkt über Messenger-Apps wie Microsoft Teams erteilt werden – ohne sich ins System einloggen zu müssen. Die relevanten Informationen kommen automatisch dorthin, wo man ohnehin schon arbeitet – aufs Handy oder den Desktop. Das senkt die Einstiegshürden enorm und sorgt für eine breite Akzeptanz im gesamten Unternehmen.

StartingUp: Welche Rolle spielen Transparenz und Echtzeit-Reporting in der Budgetkontrolle?

Bettina Fischer: Wir sind überzeugt: Budgetkontrolle funktioniert nur in Echtzeit. Es bringt wenig, wenn Budgetübersichten nur monatlich, quartalsweise oder gar halbjährlich zur Verfügung stehen. Entscheidungen im Einkauf werden täglich getroffen – also muss auch die Budgettransparenz jederzeit aktuell sein.

Deshalb haben wir bei der Entwicklung von Hivebuy besonderen Fokus auf eine unmittelbare Budgeteinsicht gelegt. Sobald eine Bestellung angefragt wird, sieht der oder die Budgetverantwortliche sofort, wie sich diese auf das verfügbare Budget auswirkt. Diese Echtzeit-Transparenz ist ein zentrales Element unserer Software.

Gleichzeitig möchten wir Mitarbeitende befähigen, innerhalb ihrer Befugnisse selbstständig Entscheidungen zu treffen. Nicht jede Anfrage muss durch mehrere Instanzen laufen. Vielmehr setzen wir auf smarte, automatisierte Prozesse – kombiniert mit dem Vertrauen in die Souveränität der Nutzer. Das spart nicht nur Zeit, sondern steigert auch die Effizienz und Zufriedenheit im Unternehmen.

StartingUp: Die Einführung neuer Software bedeutet oft hohen Aufwand. Wie gestaltet sich die Implementierung von Hivebuy?

Bettina Fischer: Ich habe selbst über viele Jahre ERP- und Einkaufssoftwareprojekte geleitet – und ehrlich gesagt: Es war jedes Mal ein enormer Aufwand. Genau diese Erfahrungen haben mich dazu motiviert, Hivebuy so zu entwickeln, dass Implementierung eben nicht zur Belastung wird.

Unsere Lösung ist bewusst so aufgebaut, dass sie schnell, unkompliziert und ohne großen IT-Aufwand eingeführt werden kann. Neue Unternehmen können innerhalb kürzester Zeit starten – oft sogar innerhalb eines Tages mit einem eigenen Testsystem.

Die Einführung begleiten wir durch leicht verständliche Videotutorials und Onboarding-Materialien. Darüber hinaus gibt es persönliche Sessions, in denen die Nutzer befähigt werden, das System selbstständig für ihr Unternehmen zu konfigurieren. Schnittstellen zu ERP-Systemen wie SAP, Microsoft Dynamics oder DATEV richten wir in der Regel innerhalb weniger Stunden bis Tage ein.

Wenn beide Seiten fokussiert an das Projekt herangehen, können wir bei Unternehmen mit mehreren tausend Mitarbeitenden innerhalb von acht Wochen vollständig live gehen – inklusive Integration, Schulung und Rollout.

StartingUp: Wie unterstützt Hivebuy IT-Teams und technische Entscheider bei der Integration?

Bettina Fischer: Unsere größte Stärke in der Zusammenarbeit mit IT-Teams ist unsere Schnelligkeit. Bereits im ersten Kick-Off mit der IT tauschen wir alle relevanten technischen Dokumentationen aus, klären die Rahmenbedingungen und ermöglichen in kürzester Zeit die Integration in ein Testsystem. Wir verzichten bewusst auf langwierige Business-Blueprint-Phasen und setzen stattdessen auf eine praxisnahe, direkte Umsetzung.

Hivebuy verfolgt eine klare Integration-First-Strategie. Das bedeutet: Unsere Lösung ist von Grund auf so konzipiert, dass sie sich schnell und flexibel in bestehende ERP-Systeme und IT-Landschaften integrieren lässt. Für alle gängigen Systeme – ob SAP, Microsoft Dynamics, DATEV oder NetSuite – stellen wir vollständige Schnittstellen-Dokumentationen zur Verfügung.

Mein Mitgründer Stefan Kiehne bringt aus seiner Zeit bei PwC tiefes technisches Know-how mit und hat zahlreiche ERP-Implementierungen verantwortet. Dieses Wissen fließt direkt in unsere Projekte ein. Inzwischen haben wir Hivebuy in so viele verschiedene Systeme integriert, dass kaum noch Überraschungen aufkommen. Für IT-Verantwortliche bedeutet das: minimale Unsicherheiten, schnelle Umsetzung und maximale Kompatibilität.

StartingUp: Wie sieht die Zukunft des indirekten Einkaufs aus? Welche Trends beobachten Sie?

Bettina Fischer: Ich sehe im indirekten Einkauf ganz klar einen Wandel hin zu intelligenter Automatisierung und echter Transparenz. Schon heute beobachten wir den Trend in Richtung „Agent AI“ – also digitale Einkaufsassistenten, die Nutzer durch Prozesse begleiten und Entscheidungen mit datenbasierten Empfehlungen unterstützen. Das wird sich in den nächsten Jahren deutlich verstärken.

Was mich persönlich schon lange wundert: Im B2C-Bereich haben wir mit Plattformen wie Idealo längst Preis- und Konditionsvergleiche. Im B2B gibt es das kaum. Deshalb war es uns wichtig, mit Hivebuy eine Lösung zu schaffen, die genau das möglich macht – inklusive der hinterlegten, unternehmensspezifischen Konditionen. Das ist ein echter Gamechanger.

In Zukunft wird der indirekte Einkauf zunehmend automatisiert ablaufen – von der Bedarfserkennung bis hin zur Bestellung. Vergleichbar mit einem intelligenten Kühlschrank, der automatisch Milch nachbestellt, wird auch im Unternehmen vieles automatisch geschehen: Bedarfe erkennen, Angebote vergleichen, Bestellungen auslösen – ganz ohne manuelles Zutun.

Strategische Beschaffung wird dabei zur Grundlage. Das Ziel ist nicht, jede Bestellung individuell zu behandeln, sondern Prozesse zu standardisieren, auf Unternehmensziele auszurichten und individuelle Bedarfe intelligent einzubinden.

Und auch die Rückseite des Einkaufs wird sich stark verändern: Rechnungsprüfung, Buchung und Zahlungsfreigabe werden zunehmend automatisiert ablaufen. In einer idealen Zukunft brauchen wir keine manuelle Rechnungserfassung mehr – weil alles systemgestützt, regelbasiert und transparent funktioniert.

StartingUp: Vielen Dank für das Gespräch, Frau Fischer. Ihre Einblicke verdeutlichen, wie entscheidend es für Unternehmen ist, den indirekten Einkauf transparent und effizient zu gestalten. Mit Lösungen wie Hivebuy können Mittelständler versteckte Kosten sichtbar machen und ihre Beschaffungsprozesse nachhaltig optimieren. Wir wünschen Ihnen weiterhin viel Erfolg bei Ihrer Mission, Einkaufsteams bestmöglich zu unterstützen.

Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen

Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.

Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.

Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede

Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.

Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.

Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?

Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.

Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.

Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?

Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.

Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.

Expertise als wichtiger Faktor für den Kauf einer Luxusuhr

So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.

Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.

Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.

Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.

Ein Ausblick auf die (mögliche) langfristige Wertentwicklung

Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.

Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.

Kurz mal die Welt retten

Wie GreenTech-Start-ups aus dem DACH-Raum dazu beitragen, die Auswirkungen des Klimawandels zu mildern.

Ist es bereits zu spät, den Klimawandel aufzuhalten? Während diese Frage unablässig für hitzige Debatten sorgt, arbeiten Start-ups unermüdlich an Lösungen für die dringendsten Umweltprobleme. Die DACH-Region erlebt einen rasanten Anstieg von GreenTech-Start-ups, angetrieben durch technologische Innovationen und zunehmenden regulatorischen Druck. Dies zeigt u.a. das DACH GreenTech Software Mapping 2025 von Hi Inov und veranschaulicht, welche vielversprechenden Ansätze und Technologien die Zukunft des GreenTech-Ökosystems in Europa prägen.

Mapping der Herausforderungen und Lösungen

Das Mapping bietet einen umfassenden Überblick über die Softwarelösungen von GreenTech-Start-ups im DACH-Raum. Sie umfassen eine Vielzahl von Ansätzen, um den Anstieg der globalen Temperaturen einzudämmen und die damit einhergehenden wirtschaftlichen und gesellschaftlichen Herausforderungen zu bewältigen.

1. Messung und Optimierung des CO2-Fußabdrucks

Fortgeschrittene Techniken zur Datenerfassung und KI-gesteuerte Analysen helfen Organisationen, ihre Effizienz zu steigern und ihren CO-Fußabdruck zu reduzieren. Sie helfen Unternehmen, jährlich Emissionen von über 216.000 Tonnen CO-Äquivalenten zu vermeiden. Horizon­tale Plattformen bieten allgemeine Monitoring-Tools für branchen­übergreifende Messdienste. Vertikale Lösungen wie die für die Immobilienbranche maßgeschneiderte ESG-Datenplattform Deepki integrieren branchenspezifische Anforderungen.

2. Beschleunigung der Energiewende

Softwarelösungen spielen eine entscheidende Rolle bei der Optimierung der Standortauswahl für die Produktion erneuerbarer Energien, der vorausschauenden Wartung von Infrastruktur und der Verbesserung der Energiespeicherung. Sie können die Schwankungen in der Stromeinspeisung erneuerbarer Energien mindern und somit die Abhängigkeit von fossilen Brennstoffen reduzieren. Das Stuttgarter Start-up metergrid ermöglicht es beispielsweise Mieter*innen in Mehrfamilienhäusern, umweltfreundlichen Solarstrom zu nutzen, der im selben Gebäude produziert wird (mehr dazu in der StartingUp 01/25).

3. Förderung der Kreislaufwirtschaft und Ressourcenoptimierung

Digitale Lösungen erleichtern die Schonung von natürlichen Ressourcen durch intelligentes Ressourcenmanagement, indem sie die Planung und Nutzung von Ressourcen verbessern. Durch den Einsatz von KI lassen sich viele Prozesse optimieren, darunter Recycling, Landwirtschaft und Wassermanagement. So reduziert das Berliner Start-up Freshflow Abfall, indem es die Nachbestellung von frischen Lebensmitteln mit Machine Learning automatisiert und optimiert. Darüber hinaus verbinden digitale Markt­plätze Produzent*innen überschüssiger Ware mit potenziellen Abnehmer*innen, um Ressourcen effizierter zu nutzen.

4. Förderung von Nachhaltigkeitsinitiativen in Unternehmen

Unternehmen nutzen digitale Werkzeuge, um ihre Nachhaltigkeit über die regulatorischen Anforderungen hinaus zu verbessern. Zu den eingesetzten Lösungen zählen CO-Kreditbörsen, die es Organisationen ermöglichen, Emissionen durch strukturierte Märkte auszugleichen, und Mitarbeiterengagement-Plattformen, die die Teilnahme der Belegschaft an ESG-Initiativen fördern. Start-ups wie das Hamburger CarbonStack unterstützen Unternehmen bei der Erstellung von Nachhaltigkeitsberichten und dabei die relevanten Richtlinien einzuhalten.

Die Entwicklung von 2023 bis heute

Insgesamt zeigt das Mapping ein reiferes und strukturierteres GreenTech-Ökosystem, das Europas Position als Pionier in digitalen Klimaschutzlösungen stärkt. Die Entwicklung zwischen den Mappings aus den Jahren 2023 und 2025 verdeutlicht drei wichtige Trends:

1. Anstieg der Anzahl der angebotenen Softwarelösungen

Die steigende Nachfrage nach nachhaltigkeitsorientierten Innovationen in verschiedenen Branchen hat das Wachstum des GreenTech-Ökosystems beschleunigt und zu einem rasanten Anstieg der angebotenen Softwarelösungen geführt.

2. Regulatorisch getriebene Fortschritte

Aufgrund des zunehmenden regulatorischen Drucks wächst der Anteil der angebotenen Lösungen, die auf Compliance-Bedürfnisse wie CSRD, die Rückverfolgbarkeit von Produkten und transparente CO-Buchhaltung eingehen. Es werden zunehmend vertika­lisierte Monitoring-Tools entwickelt, um spezialisierte Datensätze und branchenspezifische Algorithmen zu erstellen.

3. Einfluss von generativer KI

Der Einsatz von generativer KI nimmt zu. Neue Anwendungsfälle im Bereich Nachhaltigkeit umfassen verbesserte Datenanalyse, automatisierte Com­pliance-Berichterstattung, sowie die Echtzeit-Optimierung von CO-Fußabdrücken und Ressourcenmanagement.

Fazit: Ein florierendes Ökosystem mit starker europäischer Führung

Der Klimawandel stellt eine immense Herausforderung dar, deren Bewältigung innovative technologische Lösungen erfordert. Das GreenTech Mapping 2025 verdeutlicht die führende Rolle Europas bei der Entwicklung dieser Lösungen und zeigt ein reiferes GreenTech-Ökosystem mit großer Dynamik. Durch den Einsatz fortschrittlicher Datenana­lysen, KI und Automatisierung sind Start-ups in der DACH­Region gut positioniert, um sowohl wirtschaftlichen als auch ökologischen Mehrwert zu schaffen. Sie werden Unternehmen und politischen Entscheidungsträger*innen dabei helfen, den Übergang zu einer nachhaltigeren Wirtschaft zu beschleunigen und die Folgen des Klimawandels einzudämmen.

Der Autor Dr. Wolfgang Krause leitet als Managing Partner das Deutschlandgeschäft des auf B2B-Digital­lösungen spezialisierten VC-Fonds von Hi Inov.

Die Rolle von natürlichem Licht in modernen Architekturkonzepten

Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.

Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.

Das wachsende Bewusstsein für Lichtqualität

In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.

Architektonische Vielfalt dank Tageslicht

Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.

Energieeffizienz und Gesundheit

Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.

Materialauswahl und technologische Innovationen

Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.

Planungsaspekte für moderne Gebäude

Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.

Gestalterische Freiheit durch Tageslichtlösungen

Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.

Inspirierende Beispiele aus der Gegenwart

Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.

Ausblick auf künftige Entwicklungen

Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.

Was sollten Eigentümer in Bezug auf Gewerbeimmobilien beachten?

Entdecken Sie wichtige Tipps für Gewerbeimmobilien-Eigentümer. Infos und wichtige Details.

Gewerbeimmobilien stellen eine wichtige Anlageklasse dar, die sowohl attraktive Renditen als auch besondere Herausforderungen mit sich bringt. Der deutsche Gewerbeimmobilienmarkt erlebt derzeit nicht nur einen zyklischen Abschwung, sondern einen dauerhaften strukturellen Wandel durch die Zinswende. Diese Entwicklung verändert die Rahmenbedingungen für Eigentümer grundlegend und erfordert eine Anpassung der Investitionsstrategien.

Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen neue Aspekte wie Nachhaltigkeit, Energieeffizienz und regulatorische Anforderungen zunehmend an Bedeutung. Eine fundierte Kenntnis aller relevanten Faktoren ist daher essentiell für erfolgreiche Gewerbeimmobilien-Investments. Die folgenden Abschnitte liefern eine praktische Übersicht.

Frühzeitig Verpflichtungen rund um das Thema Gebäude prüfen

Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen auch technische und infrastrukturelle Aspekte zunehmend an Bedeutung. Insbesondere Kanalservicearbeiten, wie die Wartung und Instandhaltung der unterirdischen Versorgungsnetze, spielen eine wesentliche Rolle bei der Sicherstellung der langfristigen Werthaltigkeit von Gewerbeimmobilien.

Unter anderem liefert das Kanalservice Magazin hierzu wertvolle Informationen rund um Anbieter und Co. Regelmäßige Inspektionen und Reparaturen von Abwasser- und Entwässerungssystemen sind nicht nur aus rechtlichen und sicherheitstechnischen Gründen wichtig, sondern auch für die Betriebskosten und die Nutzungseffizienz einer Immobilie entscheidend.

Eigentümer sollten sich daher frühzeitig mit den Anforderungen an den Kanalservice auseinandersetzen und sicherstellen, dass diese regelmäßig und vorausschauend durchgeführt werden, um teure Notfalleinsätze und mögliche Wertverluste zu vermeiden.

Steuerliche Vorteile optimal nutzen: Abschreibungen und Umsatzsteuer

Gewerbeimmobilien bieten gegenüber Wohnimmobilien deutliche steuerliche Vorteile, die Eigentümer unbedingt nutzen sollten. Der wichtigste Vorteil liegt in der höheren Abschreibungsrate von 3% jährlich statt der üblichen 2% bei Wohnimmobilien. Diese zusätzliche Abschreibung reduziert die Steuerlast erheblich und verbessert die Rendite nachhaltig.

Ein weiterer bedeutender Vorteil ist die Möglichkeit der 19% Umsatzsteuer-Erstattung beim Erwerb der Immobilie. Voraussetzung hierfür ist die ordnungsgemäße Anmeldung als Unternehmer und die entsprechende Verwendung der Immobilie.

Diese Steuervorteile können die Wirtschaftlichkeit einer Gewerbeimmobilie maßgeblich beeinflussen und sollten bereits in der Planungsphase berücksichtigt werden. Eine professionelle steuerliche Beratung ist dabei unerlässlich. Besonders praktisch ist es in diesem Zusammenhang natürlich auch, dass Studien zufolge aktuell Gründungen in verschiedenen deutschen Städten generell vergleichsweise günstig sind.

Neue Heizungspflicht: Vorgaben rund um erneuerbare Energien seit 2024

Seit 2024 müssen neu installierte Heizungen zu 65% mit erneuerbaren Energien betrieben werden – eine Regelung, die erhebliche Auswirkungen auf Gewerbeimmobilien hat. Diese Vorgabe betrifft sowohl Neubauten als auch den Austausch bestehender Heizungsanlagen und erfordert eine frühzeitige Planung.

Mögliche Lösungen umfassen:

  • Wärmepumpen
  • Fernwärme
  • Biomasseheizungen
  • Hybrid-Systeme

Die Investitionskosten sind oft höher als bei konventionellen Systemen, jedoch können staatliche Förderungen einen Teil der Mehrkosten abfedern.

Langfristig ergeben sich durch niedrigere Betriebskosten und steigende CO2-Preise wirtschaftliche Vorteile. Eigentümer sollten rechtzeitig prüfen, welche Technologie für ihre Immobilie am besten geeignet ist, und entsprechende Budgets einplanen. Eine professionelle Energieberatung hilft bei der optimalen Lösung.

Photovoltaik-Potenziale: Chancen und rechtliche Hürden

Die geplante Verdreifachung des Photovoltaik-Ausbaus bis 2030 eröffnet Gewerbeimmobilien-Eigentümern interessante Chancen zur zusätzlichen Wertschöpfung. Gewerbedächer bieten oft ideale Voraussetzungen für Solaranlagen: große, unverschattete Flächen und hoher Eigenverbrauch während der Tagesstunden.

Die Eigenverbrauchsquote kann bei Gewerbeimmobilien deutlich höher liegen als bei Wohngebäuden, was die Wirtschaftlichkeit verbessert. Allerdings bestehen auch rechtliche Hürden, insbesondere bei der Direktvermarktung von Strom an Mieter. Das Mieterstromgesetz und energierechtliche Bestimmungen schaffen komplexe Rahmenbedingungen.

Trotz dieser Herausforderungen können Photovoltaik-Anlagen die Attraktivität einer Gewerbeimmobilie steigern und zusätzliche Einnahmen generieren. Eine sorgfältige Prüfung der rechtlichen und wirtschaftlichen Aspekte ist dabei unerlässlich. Der Faktor „Nachhaltigkeit“ spielt generell aber auch in vielerlei Hinsicht eine wichtige Rolle. So entscheiden sich nicht nur im privaten, sondern auch im gewerblichen Bereich viele dafür, nicht direkt neu zu kaufen, sondern zu reparieren. Ideal für alle, die den ökologischen Fußabdruck ihres Betriebes reduzieren möchten.

Erfolgreich investieren: Wichtige Erkenntnisse für Gewerbeimmobilien-Eigentümer

Erfolgreiche Gewerbeimmobilien-Investments erfordern heute mehr denn je eine ganzheitliche Betrachtung aller relevanten Faktoren. Die steuerlichen Vorteile mit 3% Abschreibung und Umsatzsteuer-Erstattung bleiben wichtige Argumente für diese Anlageklasse.

Gleichzeitig steigen die Anforderungen durch neue Regelungen wie die Heizungspflicht und ESG-Kriterien erheblich. Der strukturelle Wandel des Marktes erfordert angepasste Strategien und eine sorgfältige Auswahl der Immobilien.

Chancen ergeben sich insbesondere in zukunftsorientierten Segmenten wie Logistik und bei der Integration erneuerbarer Energien. Eine professionelle Beratung und kontinuierliche Marktbeobachtung sind unerlässlich. Das Kanalservice Magazin bietet hierfür wertvolle Unterstützung mit fundierten Informationen und praktischen Tipps für alle Aspekte des Gewerbeimmobilien-Investments.

“Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit”

„Made in Steel. Built on Data.“ Mit diesem Leitsatz positioniert sich die EMR Dynamics GmbH als strategische Antwort auf die zunehmende Komplexität globaler Lieferketten – und auf die wachsenden Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Wertschöpfungsnetzwerken.

Unter der Leitung von Emrullah Görsoy geht EMR Dynamics aus einem Berliner Familienunternehmen hervor, das seit 2005 als verlässlicher Partner für mechanische Komponenten in Europa etabliert ist. Nun markiert das Unternehmen den nächsten Entwicklungssprung der Unternehmensgeschichte: von der Fertigung zur Plattform.

Fragen dazu an Emrullah Görsoy, Managing Director at EMR:

Seit mehr als 20 Jahren seid ihr mit EMR am Markt. Man könnte sagen, ihr macht vieles richtig – Wie lautet euer Erfolgsrezept?

Unser Erfolgsrezept liegt in der konsequenten Weiterentwicklung. Wir haben uns nie auf bestehenden Strukturen ausgeruht, sondern das Unternehmen immer wieder neu gedacht – operativ, strategisch und technologisch. Besonders in Zeiten des Wandels war unser pragmatischer Unternehmergeist entscheidend. Dabei kombinieren wir mittelständische Robustheit mit einer agilen Denkweise – anpassungsfähig, resilient und wachstumsorientiert.

Zeitnah startet ihr mit eurer Neugründung EMR Dynamics am Markt. Was steckt dahinter?

EMR Dynamics ist unsere Antwort auf ein fragmentiertes Marktumfeld und wachsende Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Lieferketten. Wir verbinden vertikal integrierte Fertigungskompetenz mit einer digitalen Prozessarchitektur – eine B2B-Plattform für die intelligente Steuerung und Vermittlung industrieller Produktions- und Beschaffungsprozesse. Das Ziel: maximale Skalierbarkeit, reduzierte Time-to-Market und durchgängige Prozesssicherheit für unsere Kunden.

Damit schlagen wir die Brücke zwischen Mittelstand und digitaler Ökonomie – resilient, effizient und kundennah. Wir wollen EMR Dynamics als Plattformmarke im industriellen Mittelstand etablieren – mit eigener Fertigung, digitalem Backbone und strategischer Nähe zum Kunden.

An wen richtet sich euer Angebot?

Unsere Zielgruppen sind OEMs, Tier-1-Zulieferer und Systempartner aus hoch regulierten und qualitätskritischen Industrien – etwa Rail, Aerospace, Defense oder Industrial Tech. Wir liefern nicht nur Komponenten, sondern vernetzen Prozesse, sichern Supply Chains ab und schaffen Plattformlösungen für beschleunigte Wertschöpfung – alles aus einer Hand.

Wie unterscheidet sich euer Angebot von klassischen Fertigungsdienstleistern?

Wir sind kein reiner Teilelieferant. Wir verstehen uns als Lösungsanbieter entlang der industriellen Wertschöpfung – von Co-Engineering und Prototyping über skalierbare Serienfertigung bis hin zur integrierten Lieferkette. Durch die Plattformlogik können wir unsere Prozesse mit denen unserer Kunden synchronisieren und so Time-to-Market und Lieferperformance signifikant verbessern – gerade für komplexe und hochqualifizierte Baugruppen.

Seit mehreren Jahren bist du Geschäftsführer des Unternehmens EMR Industrial. Wie fühlt es sich an, als Young Professional bereits in einer solchen verantwortungsvollen Rolle zu sein?

Herausfordernd, aber erfüllend. Ich hatte das Privileg, früh Verantwortung zu übernehmen – besonders während der Transformation von EMR in der Pandemie. Die Krise 2020 hat uns gezwungen, unser gesamtes Geschäftsmodell zu pivotieren. Diese Erfahrung hat mich geprägt: Strategisch zu denken, unternehmerisch zu handeln und nie den Kontakt zur operativen Realität zu verlieren.

Welche Bedeutung hat die Digitalisierung aus deiner Sicht für den Mittelstand und was können sich Mittelständler von Start-ups abschauen?

Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit. Der Mittelstand kann von Start-ups besonders eines lernen: den Mut, Prozesse radikal neu zu denken – und den Fokus auf Geschwindigkeit, Automatisierung und User Experience.

Emrullah Görsoy, Danke für die Insights

fünfeinhalb Funksysteme: Echtzeit-WLAN für die Industrie

Das 2023 als Ausgründung aus der TU Dresden gegründete Start-up fünfeinhalb Funksysteme stellt mit BlitzFunk eine 5G-Alternative für industrielle Anwendungen vor.

Die Einführung des Mobilfunkstandards 5G sollte die drahtlose Kommunikation nicht nur für den Consumer-Markt revolutionieren, sondern auch den Weg hin zur Industrie 4.0 mit vollvernetzten, intelligenten Fabriken ebnen. Doch bis heute können kommerzielle 5G- sowie zahlreiche WLAN-Systeme die Echtzeitanforderungen industrieller Anforderungen meist nicht erfüllen: Verzögerungen in der Datenübertragung (Latenzen) führen zu oft zu Systemstopps und Ausfällen ganzer Anlagen. Das Dresdner Start-up fünfeinhalb Funksysteme GmbH hat es sich zum Ziel gesetzt, dies zu ändern. Mit BlitzFunk, einem Echtzeit-WLAN-System mit berechenbaren Latenz-Garantien sowie latenzfreiem Roaming, ist ihm dies gelungen.

Fünfeinhalb Funksysteme wurde 2023 als Ausgründung aus der TU Dresden gegründet, mit dem Ziel, die nicht eingehaltenen Versprechen des Mobilfunkstandards 5G einzulösen und für Anwendungen im industriellen Umfeld nutzbar zu machen. Dafür hat das fünfköpfige Gründerteam rund um Geschäftsführer Dr. Lucas Scheuvens BlitzFunk entwickelt. Das Funksystem – bestehend aus Access Points und Clients – ist so konzipiert, dass es als eine koordinierte Einheit agiert. Die Anwendergeräte (Maschinen, Steuerungen oder Sensoren) werden über Ethernet mit dem System verbunden.

Latenzfreies Roaming ohne Unterbrechung

Einen der größten USPs des Funksystems fasst Dr. Lucas Scheuvens wie folgt zusammen: „Bei einem klassischen Roaming-Prozess, der in räumlich größeren Netzwerken immer nötig ist, ist der Client jeweils mit nur einem Access Point verbunden. Bevor er dessen Reichweite verlässt, muss er mit dem nächsten Access Point verknüpft werden. Das heißt, dass dort die Verbindung zum ersten Access Point ab- und zum nächsten Access Point neu wieder aufgebaut wird. Verschiedene Lösungen können dies zwar besonders schnell, aber es gibt immer einen zeitlichen Break. Bei Blitzfunk ist das nicht so, da unsere Access Points sich koordinieren und somit latenzfreies Roaming garantieren. Dabei koordinieren sie sich im Hintergrund automatisch so, dass sie sich nicht gegenseitig stören. Da das Roaming im BlitzFunk-System keinerlei negative Auswirkungen hat, entfällt auch die aufwendige und kostenintensive Funknetzplanung.“

Entwickelt für die Anforderungen der Industrie 4.0

BlitzFunk garantiert eine schnelle Datenübertragung – selbst bei mehreren verbundenen Geräten (Clients): Für 99,9999 Prozent aller Sendeversuche liegt die Latenz – so das Unternehmen – nachweislich bei maximal 2 × (N + 1) Millisekunden, wobei N die Anzahl der gleichzeitig aktiven Geräte ist – und das bei maximaler Ethernet-Framegröße von 1500 Bytes. Ein einzelner Client im System hat demnach eine garantierte Latenz von 4 Millisekunden, bei zehn Clients sind demnach 22 Millisekunden erwartbar, usw. Diese Garantie gilt auch für den Roaming-Fall, was vollständig unterbrechungsfreie Datenverbindungen für anspruchsvollste Industrie-Anwendungen ermöglicht.

Doch das Funksystem hat noch weitere Vorteile: es verhält sich wie ein verteilter Ethernet-Switch und bietet somit Plug&Play-Kompatibilität mit allen Ethernet-basierten Protokollen, inklusive Profinet, Profisafe, EtherNet/IP, CIP Safety und MQTT. Dazu kommen seine einfache Inbetriebnahme und Verwaltung über einen Webbrowser, was beides ohne spezielle technische Kenntnisse möglich ist. Ein weiterer Pluspunkt ist das eingebaute Troubleshooting, dank dem sich das Funksystem als Fehlerquelle eindeutig identifizieren (z.B. bei Überlastung) oder ausschließen lässt. Nicht zuletzt punktet das Funksystem auch in Bezug auf die Security mit geräteindividueller, quantensicherer Verschlüsselung sowie Authentifizierung.

Gemacht für mobile Anwendungen in der Logistik und Fertigungsbranche

Fünfeinhalb Funksysteme richtet sich insbesondere an Hersteller bzw. Systemintegratoren, die eine mobile Vernetzung ihrer Maschinen benötigen, die genauso zuverlässig funktioniert wie eine Kabelverbindung. Scheuvens erklärt dazu: „Obwohl sich mit BlitzFunk auch existierende Kabelinstallationen ersetzen lassen, ist das nicht unser Hauptanspruch. Konzipiert wurde das System hauptsächlich für Einsatzszenarien in der Fertigung, die mobile Roboter oder Fahrzeuge umfassen. Aber auch für Schlittensysteme und rotierende Elemente ist BlitzFunk geeignet – bzw. generell überall dort, wo Kabel stören oder technisch nicht sinnvoll einsetzbar sind“. Zu den zahlreichen, bereits erfolgreich durchgeführten Projekten zählen Vernetzungen von Schweißrobotern, Deckenkränen und fahrerlosen Transportfahrzeugen – sowohl im Safety- als auch Non-Safety-Bereich.

Blick in die Zukunft: Noch mehr Leistung

Gefragt nach einem Blick in die Zukunft des Unternehmens antwortet Scheuvens: „Aktuell basiert BlitzFunk auf klassischen, für den breiten Massenmarkt konzipierten Standard-Komponenten. Das macht die Lösung sofort und mit einem großen Mehrwert gegenüber anderen Systemen einsetzbar, demonstriert aber nur einen Bruchteil dessen, was möglich ist. Aktuell arbeiten wir an einem komplett integrierten Echtzeit-WLAN-System, das dann selbst BlitzFunk in den Kategorien Größe, Anzahl der gleichzeitig unterstützten Geräte, Zuverlässigkeit, Latenz und Energieverbrauch noch jeweils um den Faktor zwei bis zehn verbessern kann. Wir freuen uns auf die Reise!“

KI clever eingesetzt: Können deutsche Entwickler ihre App-Ideen mit Vibe Coding umsetzen?

Wie Vibe Coding, eine neue KI-gestützte Methode der App-Entwicklung, es heute deutlich einfacher macht, aus einer Idee ein funktionierendes digitales Produkt entstehen zu lassen.

Die Zeiten, in denen man für die Umsetzung einer App monatelang ein Entwicklerteam zusammenstellen, riesige Budgets planen und unzählige Meetings überstehen musste, scheinen langsam zu verblassen. Vibe Coding, eine neue KI-gestützte Methode der App-Entwicklung, macht es Gründern und kreativen Köpfen in Deutschland heute deutlich einfacher, aus einer Idee ein funktionierendes digitales Produkt entstehen zu lassen.

Was steckt hinter Vibe Coding?

Vibe Coding nutzt künstliche Intelligenz, um auf Basis einfacher Sprache Code zu erzeugen. Statt eine App Zeile für Zeile zu programmieren, beschreibt man, was sie können soll. Die KI wandelt diese Wünsche in Code um, der sich dann weiter anpassen und verfeinern lässt. Anders als bei klassischen No-Code-Plattformen entstehen keine bloßen Baukastenlösungen, sondern anpassbarer, individuell nutzbarer Code.

Im Unterschied zu Low-Code-Ansätzen braucht es keine aufwendige UI und keine grafische Umgebung, in der man mühsam Komponenten zusammensetzt. Stattdessen genügt es, der KI präzise zu erklären, welches Ergebnis angestrebt wird. Das spart nicht nur Zeit, sondern eröffnet auch Menschen ohne tiefgehendes Technikverständnis ganz neue Möglichkeiten.

Aktuell eignet sich dieser Ansatz besonders für die Entwicklung von Prototypen, Minimum Viable Products und überschaubaren Business-Apps. Wer dagegen komplexe Anwendungen mit tiefen Backend-Strukturen, Hochsicherheitsanforderungen oder extrem hoher Nutzerlast plant, stößt mit Vibe Coding derzeit noch an natürliche Grenzen. Doch für den ersten Schritt in die App-Welt ist dieses Werkzeug so vielversprechend wie kaum ein anderes.

Wie KI-basierte Entwicklung neue Möglichkeiten für Gründer eröffnet

In der Praxis bedeutet das: Was früher ein ganzes Entwicklerteam beschäftigt hätte, kann heute oft in wenigen Tagen oder sogar Stunden entstehen. Vibe Coding verkürzt die Entwicklungszeiten deutlich, die ersten funktionsfähigen Entwürfe stehen schneller zur Verfügung als je zuvor.

Nicht zu unterschätzen ist dabei auch die finanzielle Seite. Wo man früher fünfstellige Summen investieren musste, genügt heute oft ein Bruchteil davon, um einen ersten lauffähigen Prototypen zu testen. Damit wird der Einstieg in die App-Entwicklung auch für Gründer ohne Tech-Hintergrund realistischer. Kein Zwang mehr, einen CTO an Bord zu holen oder teure Agenturen zu engagieren.

Gerade in Deutschland, wo Gründungsteams häufig an fehlender Entwicklerkapazität scheitern, eröffnet diese Entwicklung eine völlig neue Dynamik. Wer eine gute Idee hat, kann sie dank Vibe Coding sehr viel leichter in die Realität umsetzen. Das fördert die Innovationskultur und macht Platz für mehr mutige Experimente.

Ein Beispiel, das hier besonders hervorsticht, ist die Founders Foundation in Ostwestfalen-Lippe. Mit gezielten Programmen und Workshops unterstützt sie Gründerinnen und Gründer dabei, KI-gestützte Methoden sinnvoll einzusetzen und so eigene digitale Produkte schneller auf die Straße zu bringen. Genau solche Impulse tragen dazu bei, dass sich der Trend immer stärker durchsetzt.

Welche deutschen Start-ups zeigen bereits, was mit KI und No-Code möglich ist?

Dass das alles keine Theorie mehr ist, sondern in deutschen Gründungszentren längst gelebt wird, zeigen einige aktuelle Beispiele sehr anschaulich. Leaping AI aus Berlin etwa entwickelt Voicebots, die im Kundenservice 70 Prozent aller Anfragen automatisiert beantworten. Eine Anwendung, die ohne moderne KI-Tools in dieser Geschwindigkeit und Qualität wohl kaum möglich wäre.

Auch qru aus Stuttgart beweist, was möglich ist. Mit ihren Videomarketing-Tools, die auf einem cleveren Mix aus Low-Code und KI basieren, können selbst kleinere Unternehmen ihre Marketingprozesse automatisieren und professionell gestalten, ohne dafür eine eigene IT-Abteilung zu benötigen.

Ein drittes Beispiel: Paul’s Job, ein Berliner Startup, das HR-Prozesse mit agentischer KI unterstützt. Recruiting und Personalverwaltung laufen dort in weiten Teilen automatisiert, was Gründern wie Personalabteilungen jede Menge Zeit und Nerven spart.

Diese und ähnliche Projekte zeigen deutlich, dass Vibe Coding und vergleichbare Methoden längst ihren Weg in die praktische Nutzung gefunden haben. Die Technologie entwickelt sich dabei so schnell weiter, dass immer mehr Gründer den Mut fassen, ihre App-Ideen mit solchen Ansätzen umzusetzen.

Warum die App-Entwicklung perspektivisch günstiger wird

Ein Blick auf die allgemeine Marktentwicklung macht schnell deutlich: App-Entwicklung wird in den kommenden Jahren noch günstiger und einfacher werden. Mit jedem Fortschritt der KI sinken die Kosten für die technische Umsetzung, gleichzeitig steigen die Möglichkeiten, individualisierte Lösungen zu entwickeln.

Das hat Folgen, insbesondere für kleinere und spezialisierte Anbieter. Wo früher nur große Unternehmen eigene Apps auf den Markt bringen konnten, öffnet sich der Zugang nun auch für kleinere Player. Gerade in Nischenmärkten entstehen so neue Chancen.

Ein besonders interessantes Feld ist aktuell der Gambling-Sektor. Lange Zeit galten die hohen Entwicklungskosten als Einstiegshürde für viele Anbieter. Inzwischen zeigt sich jedoch, dass speziell in diesem Bereich vermehrt Apps auf den Markt kommen, weil die technische Umsetzung dank KI-Tools deutlich günstiger geworden ist.

Aber nicht nur im Glücksspiel-Markt tut sich etwas. Health und Fitness, E-Learning, Content Creation sowie regionale Dienstleistungen profitieren in ähnlicher Weise von den neuen Möglichkeiten. Über Smartphones und Tablets gelangen viele dieser Lösungen direkt zu den Nutzern und ermöglichen eine viel engere Bindung als klassische Webanwendungen.

Wo klassische Entwicklerkompetenz weiterhin unverzichtbar bleibt

Natürlich hat auch Vibe Coding seine Grenzen. Gerade wenn es um anspruchsvolle Architektur, komplexe Backend-Systeme oder hochskalierbare Anwendungen geht, kommt man ohne erfahrene Entwickler nach wie vor nicht aus.

KI generiert Code auf Basis von Wahrscheinlichkeiten, was in der Praxis immer wieder zu fehlerhaften oder ineffizienten Strukturen führen kann. Qualitätssicherung, Testing und fundiertes Architekturwissen bleiben deshalb unerlässlich, sobald eine App mehr sein soll als ein einfaches MVP.

Auch bei Themen wie Performance, Sicherheit und Datenschutz kann KI derzeit noch nicht mithalten. Hier braucht es das Know-how klassischer Entwickler, um Anwendungen stabil und vertrauenswürdig zu machen.

Gerade für Anwendungen im Finanz- oder Gesundheitsbereich, wo hohe regulatorische Standards erfüllt werden müssen, bleibt der menschliche Faktor entscheidend. Vibe Coding ist ein fantastisches Werkzeug für den schnellen Einstieg und die Umsetzung erster Ideen, doch auf dem Weg zu einem ausgereiften Produkt wird klassisches Engineering weiterhin eine tragende Rolle spielen.

Vibe Coding bringt frischen Wind in die App-Entwicklung

Vibe Coding verändert die Art, wie in Deutschland Apps entstehen, in rasantem Tempo. Prototypen und erste marktfähige Tools lassen sich heute so schnell und günstig umsetzen wie nie zuvor. Für viele Gründer ohne Tech-Hintergrund eröffnen sich dadurch Möglichkeiten, die es vor wenigen Jahren schlicht nicht gab.

Die Beispiele aus der Startup-Szene zeigen eindrucksvoll, wie die neuen Werkzeuge bereits eingesetzt werden. Gleichzeitig bleibt klar: Für echte Skalierung, Sicherheit und Performance führt an klassischem Entwicklerwissen kein Weg vorbei.

Die Zukunft gehört wahrscheinlich zu einem hybriden Ansatz, bei dem KI als mächtiges Assistenzwerkzeug fungiert und Entwickler sich auf das konzentrieren, was KI noch nicht zuverlässig beherrscht. So entsteht Raum für mehr Innovation, mehr mutige Ideen und letztlich mehr spannende Apps. Und genau das dürfte der deutschen Tech-Szene mehr als guttun.

Circunomics startet eigenes Batterie-Testlabor

Die Circunomics-Gründer Felix Wagner und Jan Born haben sich das Ziel gesetzt, eine zirkuläre Batteriewirtschaft zu etablieren, indem sie einen digitalen Marktplatz für den Second-Life-Einsatz und das Recycling gebrauchter Batterien bieten. Mit der Einrichtung des eigenen Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort.

„Die Kreislaufwirtschaft ist in Zukunft von immer größerer Bedeutung. Dies ist für uns die große Chance, mit dem digitalen Marktplatz für gebrauchte Batterien, Module und Zellen eine herausragende Position einzunehmen“, sagt Felix Wagner, Co-Founder und CEO von Circunomics. „Im Jahr 2030 werden alleine im Automobilsektor zwischen 200 und 300 Millionen Elektrofahrzeuge auf den Straßen der Welt unterwegs sein. Das bedeutet, dass dann jedes Jahr etwa sechs Millionen gebrauchte Batterien als Rückläufer aus Altfahrzeugen auf den Markt kommen. Diese wiederzuverwenden oder gezielt zu recyclen ist eine Mega-Aufgabe, die gelöst werden muss. Schließlich haben wir alle ein Ziel: Weniger CO2 zu produzieren und weniger der wertvollen, seltenen Rohstoffe zu verbrauchen.“

Battery Lifecycle Management Solution

Die Ergebnisse KI-basierter Analysen von gebrauchten Batterien, die beispielsweise in elektrischen Fahrzeugen verwendet werden, mit selbst ermittelten Laborwerten aus einer Real-Life-Simulation abgleichen, trainieren und verifizieren: Das ist die Aufgabe des neuen Batterie-Testlabors, das vom Start-up Circunomics in Roßdorf bei Darmstadt eingerichtet wurde und jetzt seinen Betrieb vollumfänglich aufgenommen hat.

Die 2019 gegründete Circunomics GmbH ist damit in der Lage, eine Datenbasis für die selbst entwickelte Software aufzubauen, die wiederum genutzt wird, um den Gesundheitszustand (State of Health) einer gebrauchten Batterie während und nach einer Erstverwendung (First Life) sehr präzise zu ermitteln. Vielmehr aber kann detailliert simuliert und hochgerechnet werden, wie sich die gebrauchte Batterie bei einer Zweitverwendung (Second Life) zum Beispiel in einem stationären Speichersystem verhält. Zudem kann eine Empfehlung ausgesprochen werden, welche Batterien für das jeweilige Projekt am besten geeignet sind.

Mit der Einrichtung des Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort, die nach einer erfolgreich durchgeführten Series-A-Finanzierungsrunde möglich ist. Zu Jahresbeginn 2025 hatte Circunomics von Investor*innen über acht Millionen Euro erhalten.

Real-Life-Simulation im Testlabor

Im neuen Batterie-Testlabor in Roßdorf können je nach Bedarf und Programm verschiedene Zellen gleichzeitig in einer sicher abgeschirmten Prüfeinrichtung untergebracht und unterschiedlichsten Belastungen ausgesetzt werden. Es erfolgt eine umfangreiche Real-Life-Simulation täglicher Batterienutzungssituationen beispielsweise in einem Elektrofahrzeug: Schnell oder langsam aufeinander folgende Ladezyklen, unterschiedliche Ladestromstärken mit bis zu 300 Ampere Gleichstrom, verschiedene Degradierungszustände der Batterie und das Ganze – wenn notwendig – bei unterschiedlichen Temperaturen. Möglich ist eine Temperaturspanne von minus 20 bis plus 60 Grad Celsius. Die jeweiligen Tests der Zellen können über einen kurzen, mittleren oder längeren Zeitraum durchgeführt werden. Das können wenige Tage, Wochen und Monate, aber auch bis zu zwei Jahre sein.

„Bisher haben wir die Zellen von einem externen Dienstleister analysieren lassen. Diese Aufgaben nehmen wir jetzt selbst in die Hand, erhöhen damit unsere Effizienz, sind schneller mit dem Abgleich von Daten, wodurch wir in der Lage sind, unsere Simulationen und Hochrechnungen für eine Verwendung im Second Life noch genauer und zuverlässiger anbieten zu können“, erklärt Jan Born, Co-Founder und CTO von Circunomics. Und ergänzt: „Wir haben einerseits Millionen von Daten, die während des First Life einer Batterie gesammelt werden und die uns zur Verfügung gestellt werden. Auf dieser Basis haben wir bisher mit der KI-unterstützten Software am Computer analysiert, was die gebrauchte Batterie noch im Stande ist, im Second Life zu leisten, bevor sie dann endgültig dem Recycling zugeführt wird. Im neuen Labor und mit den eigenen Analysen sehen wir nun, wie sich eine Zelle im simulierten Batterieleben verhält und wir können die dabei ermittelten Ergebnisse, mit denen aus der Software abgleichen und verifizieren.“