Aktuelle Events
Geschäftsideen Wurst: Viel Eiweiß, kaum Fett
Die Wurst für Fitnesssportler
Nachdem der Lebensmitteltechniker Marcel Stöffler auf einer Grillparty seine neuen Wurstkreationen präsentierte, die im Rahmen seiner Studienarbeit entstanden, stand für ihn, seinen Bruder Manuel und Freund Michael Ziegler fest, dass sie mit einer neuen Geschäftsidee die "Wurstrevolution" starten würden.
Die Würste der drei zeichnen sich durch einen sehr niedrigen Fettgehalt (5 Prozent), einen hohen Eiweißgehalt (20 Prozent) und den Verzicht auf jegliche Zusatzstoffe aus. Damit wollen die drei das "Geschmacksvakuum zwischen Steak und Wurst füllen" und auch ganz neue Zielgruppen ansprechen, wie Fitnesssportler – die Grillido Sport besteht zu 55 Prozent aus Eiweiß! –, und in naher Zukunft auch Veganer und Vegetarier. Eine gesunde Geschäftsidee!
Diese Artikel könnten Sie auch interessieren:
Niedersachsens Labor der Zukunft ist digital
Zwei mit dem niedersächsischen DurchSTARTer-Preis 2025 ausgezeichnete Spin-offs aus Göttingen zeigen, wie hochkomplexe Forschung zu marktreifer Technologie wird – und dass Niedersachsen sich zu einem Knotenpunkt der Biomedizin entwickelt.
Die medizinische Diagnostik steht an einem Wendepunkt. Digitale wissenschaftliche Werkzeuge helfen beispielsweise dabei, Tumore besser und schneller zu erkennen sowie gezielter zu therapieren. Zwei mit dem niedersächsischen DurchSTARTer-Preis 2025 ausgezeichnete Spin-offs aus Göttingen, Histomography und GliTTher, zeigen, wie hochkomplexe Forschung zu marktreifer Technologie wird – und dass Niedersachsen sich zu einem Knotenpunkt der Biomedizin entwickelt.
Histomography digitalisiert komplette Pathologie-Proben zerstörungsfrei in 3D. Dazu nutzt das Laborsystem Röntgen-Phasenkontrast-Tomographie, eine Technologie, die feinste Strukturen sichtbar macht – ohne Gewebe zu färben oder zu schneiden. Die entstehenden 3D-Datensätze lassen sich direkt im Browser erkunden und auswerten. So werden kleinste Veränderungen und Tumore im Gewebe erkannt, die in 2D-Schnitten leicht übersehen werden. Histomography entwickelt dafür eine durchgängige Plattform: kompakter 3D-Scanner, Cloud-Infrastruktur und KI-gestützte Analysen greifen nahtlos ineinander. Langfristig soll die Technologie in Kliniken Routineuntersuchungen standardisieren – und die Diagnostik von der subjektiven Mikroskopie zu objektiven, datengetriebenen Entscheidungen führen.
Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung
Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.
Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“
Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.
Automatisiertes und datenbasiertes Pflanzenwachstum
Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“
Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.
Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren
Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“
DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau
Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.
GreenTech – der Boom geht zu Ende
Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.
Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.
Der Boom geht zu Ende
„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze. „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“
Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich. Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“
Herausforderungen im deutschen GreenTech-Sektor
Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte. Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“
Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit
„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“
Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“
Politik und Wirtschaft in gemeinsamer Verantwortung
Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“
Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.
HR-Trends 2026
Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.
Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.
Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.
1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise
Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.
2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?
Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360‑Grad‑Feedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.
3. Mensch und KI – zwei Seiten der HR-Medaille
2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.
4. Führung neu denken – Managementpositionen verlieren an Attraktivität
Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.
5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt
Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.
Fazit
Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.
Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.
eleQtron: It's MAGIC
In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.
Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“
Es war ein ungewöhnlicher Ort für eine bahnbrechende
Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.
Von der Universität ...
Im Jahr 2020, als das globale Interesse an Quantentechnologien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.
Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quantenprogramme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.
In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.
... zum technologischen Durchbruch
Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer sogenannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikrowellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“
Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.
Wachstumsschub und strategische Entwicklung
2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.
„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.
EU KI-Gesetz wird scharf gestellt
Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.
Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.
Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:
- Strafmaßnahmen bei Nichteinhaltung
- Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
- Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene
Strafen bis zu 35 Millionen Euro
Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.
Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen
GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.
GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.
Aufsicht und Governance
Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.
Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.
Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.
Was bedeutet das für Personalabteilungen und Arbeitnehmende?
Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.
- Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
- Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
- Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
- Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.
Fazit
Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.
Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.
Start-ups gegen Plastikmüll
Während die Verhandlungen zu einem globalen Plastikabkommen ergebnislos bleiben, entwickeln Start-ups weltweit innovative Technologien gegen Plastikmüll. Wir stellen eine Auswahl davon vor.
Die jüngsten Verhandlungen in Genf über ein globales Plastikabkommen sind wieder ohne Ergebnis geblieben. Die mehr als 180 verhandelnden Nationen konnten sich nicht einigen. Seit mehr als 50 Jahren sind die Gefahren durch Plastikmüll bekannt – und doch wird immer mehr davon produziert. Jedes Jahr entstehen rund 460 Millionen Tonnen Plastik, weniger als 10 Prozent davon werden recycelt und über 30 Millionen Tonnen gelangen in die Ozeane.
Auf politischer Ebene zeichnet sich bislang keine Lösung ab, auf die man sich global einigen könnte. Neue Vorgaben wie die Pflicht zu fixierten Flaschendeckeln in der EU sorgen eher für Frust. „Seit Jahrzehnten reden wir über das Plastikproblem. Um es zu lösen braucht es technologische Ansätze“, sagt Dr. Carsten Gerhardt, Vorsitzender der gemeinnützigen Circular Valley Stiftung. Solche Ansätze liegen längst auf dem Tisch. „Start-ups aus aller Welt zeigen, dass Innovation schneller sein kann als Verhandlungen.“
Start-ups aus aller Welt arbeiten an Lösungen
Einige dieser Unternehmen hat der Circular Economy Accelerator der Circular Valley Stiftung bereits unterstützt. Das Start-up PROSERVATION etwa stellt Polsterverpackungen aus Nebenprodukten der Getreideindustrie her, BIOWEG ersetzt Mikroplastik durch Biomaterialien aus Lebensmittelabfällen und das Unternehmen Biomyc verwendet Myzel-Verbundwerkstoffe aus Pilzwurzeln und Pflanzen.
Daüber hinaus stellt NYUNGU AFRIKA Damenhygieneprodukte aus Ananasblatt- und Maisschalenfasern her, Midwest Composites nutzt Ernteabfälle für die Herstellung von Textilien und Vlastic bietet eine Alternative zu geschäumten Kunststoffen auf Flachsbasis.
Wenn Produkte das Ende ihrer Lebensdauer erreichen, können sie durch Recycling ein zweites erhalten. Ecoplastile verwandelt Abfälle in langlebige Dachziegel, Gescol macht Bauplatten aus Schuhsohlen und Novoloop nutzt schwer zu recycelndes Polyethylen zur Produktion von thermoplastischen Hochleistungs-Polyurethanen.
Chemisches Recycling zerlegt Kunststoffe in molekulare Bausteine. Das Unternehmen CARBOLIQ verwendet ein katalytisches Niedertemperaturverfahren, um gemischte Kunststoffe in Öl umzuwandeln, das fossile Rohstoffe ersetzen kann; Radical Dot extrahiert Monomere, um sie erneut verwenden zu können.
Zu chemischem Recycling hat Circular Valley in diesem Jahr einen Informationsfilm veröffentlicht, der die Möglichkeiten dieser Methode erklärt und verdeutlicht.
Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen
Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.
Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.
Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede
Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.
Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.
Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?
Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.
Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.
Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?
Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.
Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.
Expertise als wichtiger Faktor für den Kauf einer Luxusuhr
So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.
Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.
Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.
Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.
Ein Ausblick auf die (mögliche) langfristige Wertentwicklung
Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.
Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
Zeit für ein neues Leistungsnarrativ
Warum wir Ambitionen neu denken müssen. Ein Kommentar von Benedikt Sons, Co-Founder und CEO der Cansativa Group.
In Deutschland ist Leistung ein stilles Versprechen. Man bringt sie, spricht aber selten darüber. Wer es doch tut, wird schnell als selbstverliebt, unsolidarisch oder toxisch abgestempelt. Ambition? Gilt bei uns oft als Ego-Trip.
Dabei trifft genau das Gegenteil zu: Ambitionen sind der Motor des Fortschritts. Will heißen – ohne Ambitionen treten wir auf der Stelle. Können wir uns das, können wir uns ein Denken, dass Leistung ein Ego-Trip ist, heute noch erlauben? In einer Zeit, die von multiplen geopolitischen Spannungen geprägt ist?
Wir diskutieren über die Vier-Tage-Woche. Obwohl wir international an Boden verlieren und andere Länder Tempo machen, Innovation finanzieren und mutig skalieren. Deutschland? Spricht über „Entschleunigung“ und über Work-Life-Balance als übergeordnetes Ziel. Dabei geht es meiner Meinung nach nicht um weniger Arbeit, sondern um die Frage: Wofür lohnt es sich, Leistung zu bringen – und wie schaffen wir es, das Beste aus Menschen herauszuholen, ohne sie zu verheizen?
Also: Wie kommen wir da hin, dass sich Leistung wieder gut anfühlt?
Leistung: Zwischen Burnout-Mythos und Selbstoptimierungswahn
Das gegenwärtige Leistungsbild pendelt zwischen zwei Polen: Auf der einen Seite der ausgebrannte Consultant, der sein Leben für ein Projekt opfert. Auf der anderen Seite die Influencer-Ästhetik, in der jeder Tag „High Performance“ verspricht, solange die richtige Morgenroutine stimmt.
Beides ist Unsinn. Beides ist egozentriert. Beides ignoriert, worum es wirklich geht: Leistung als kollektives Ziel, als Ausdruck von Sinn, von Teamgeist, von etwas, das größer ist als man selbst. Wenn wir es schaffen, Leistung als etwas Verbindendes zu begreifen, als Teamgedanken – nicht als Konkurrenz –, dann entsteht neben Erfolg auch Identifikation.
Ambitionen sind kein Makel – sie sind Orientierung
Wir müssen wieder lernen, uns mit ambitioniertem Handeln zu identifizieren. Deutschland ist ein Land voller Talente – aber oft auch voller Zweifel. Was fehlt, ist ein klarer Rahmen: Wo wollen wir hin? Wer sind unsere Vorbilder? Und warum lohnt es sich überhaupt, den Sprint aufzunehmen?
Diese Fragen betreffen unser gesamtes Wirtschaftsverständnis. Wir brauchen mehr Mut, klare Ziele zu formulieren. Und wir brauchen den Willen, sie offen zu verfolgen.
Start-up-Kultur: Hardcore oder Heilsbringer?
Start-ups sind Meister darin, ein klares, übergeordnetes Ziel zu formulieren – und mit dem unerschütterlichen Antrieb einer Rakete arbeiten sie gerade zu Beginn mit vollem Schub darauf hin. Gleichzeitig sind Start-ups der Inbegriff von Überforderung: lange Tage, kurze Nächte, wenig Absicherung. Manche glorifizieren diesen Zustand, andere verdammen ihn. Die Wahrheit ist: Start-up ist ein Überlebenskampf, aber auch eine Schule für Fokus, Disziplin und Priorisierung. Mein alter Physiklehrer sagte: „Leistung ist Arbeit pro Zeit.“ Und genau darum geht es. Nicht um den Dauer-Hustle, sondern um kluge, fokussierte Arbeit.
Daher braucht die deutsche Wirtschaft ein Ökosystem, das Hochleistung fördert – ohne Burnout zu belohnen. In dem man mit hoher Schlagzahl arbeitet, aber nicht daran zerbricht. Studien zeigen: Ja, die Belastung im Start-up-Sektor ist hoch – längere Arbeitszeiten, geringere Gehälter, weniger Sicherheit. Besonders Frauen sind oft benachteiligt.
Aber: Die Offenheit für neue Arbeitsmodelle ist ebenfalls höher. Viele Start-ups bieten flexiblere Strukturen, Homeoffice, Fokus-Zeiten, Purpose-getriebenes Arbeiten – also eine Umgebung, die mehr bietet als den klassischen „9-to-5“-Job. Damit machen sie einen entscheidenden Unterschied gegenüber Traditionsunternehmen, die eher auf feste Arbeitszeiten und Bürokultur setzen.
Innovation braucht Raum, kein Sicherheitsdenken
Apropos Traditionsunternehmen: Ich glaube, dass in einem überregulierten Ökosystem die Innovation auf der Strecke bleibt. Wer bei jedem Schritt Angst vor Fehlern hat, wird keine Risiken eingehen. Doch Innovation ohne Risiko gibt es nicht. Unternehmen, die keine Fehler machen wollen, machen auch keine Fortschritte.
Hier ist ein Umdenken gefragt – auch politisch. Wer heute in Deutschland ein Unternehmen gründet, sieht sich mit einer Bürokratie konfrontiert, die oft mehr lähmt als schützt. Gleichzeitig verlieren wir im internationalen Wettbewerb – weil andere Länder schneller, pragmatischer und technologieoffener agieren. Innovation verlangt Raum, Geschwindigkeit – und eine Kultur für Gründer*innen und Investor*innen, in der sie schnell skalieren können.
Europas Chance: Der Weg der Qualität
Der Inbegriff für schnelles Skalieren sind China und die USA. Während China auf Masse setzt und die USA auf Kommerzialisierung, hat Europa die Chance, einen eigenen Weg zu gehen: mit Qualität und gesellschaftlicher Einheit als Alleinstellungsmerkmal. Europa ist eine der wenigen Regionen, in der wirtschaftlicher Erfolg mit sozialer Verantwortung verbunden wird. Wir haben Zugang zu Spitzenforschung, zu klugen Köpfen, zu funktionierenden Institutionen. Was uns fehlt, ist der Mut zur schnellen Umsetzung.
Wir brauchen mehr Kommerzialisierung, ohne unsere Werte zu verlieren. Wir brauchen mehr Tempo, ohne Menschen zu überfordern. Und wir benötigen ein neues Narrativ, das Leistung nicht als toxisch, sondern als Teil einer starken Gesellschaft begreift.
Warum der Leistungsanspruch tief im Unternehmen verankert sein muss
Mehr Tempo, kluge Köpfe, ein Team: Wie gut dieser Dreiklang für mehr Leistung funktioniert, zeigt die Geschichte von Cansativa selbst. 2017 mit wenig Kapital gegründet, haben mein Bruder Jakob und ich früh auf Geschwindigkeit und Umsetzung gesetzt. Während andere noch in Businessplänen dachten, organisierten wir die ersten Importe von Medizinalcannabis, navigierten durch eine regulatorisch hochkomplexe Landschaft und bauten eine Plattform auf, die heute Marktführer in Deutschland ist.
Dass wir vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) den Zuschlag für die Distribution von in Deutschland angebautem Cannabis erhielten, war kein Zufall, sondern Ergebnis von Expertise, strategischer Schärfe und kompromissloser Arbeit. Inzwischen haben wir über 2500 B2B-Kund*innen, ein eigenes Produktportfolio, ein starkes Partnerschaftsnetzwerk und wachsen mit jeder regulatorischen Veränderung weiter. Nicht weil wir Glück hatten, sondern weil wir Leistung als Haltung verstehen.
Ambition braucht Anerkennung
Deshalb fordere ich: Deutschland muss lernen, Ambitionen nicht zu fürchten, sondern zu fördern. Denn wer Leistung immer nur mit Egoismus, Selbstausbeutung oder Ellenbogenmentalität gleichsetzt, nimmt sich die Chance auf echten Fortschritt. Leistung ist kein Selbstzweck – sie ist ein Beitrag zum Wirtschaftswachstum Europas. Sie ist Ausdruck von Haltung, Verantwortung und dem Willen, Dinge besser zu machen. Gefragt ist ein gesellschaftliches Klima, in dem es willkommen ist, Großes zu wollen. Und in dem diejenigen, die sich anstrengen, auch Rückenwind bekommen – nicht Gegenwind.
Unser Unternehmen ist nur ein Beispiel dafür, was möglich ist, wenn Menschen Verantwortung übernehmen und mit einem klaren Ziel handeln. Der Erfolg ist kein Zufall, sondern das Ergebnis einer gelebten Leistungskultur, die nicht auf Kontrolle, sondern auf Klarheit basiert. Und auf dem Mut weiterzumachen, gerade wenn der Weg steinig ist.
Es ist Zeit, dass wir in Deutschland – und in Europa – ein neues Kapitel aufschlagen. Eines, in dem Ambition der Antrieb ist, in dem Leistung nicht verdächtig, sondern wertvoll ist. Und in dem wir verstehen: Zukunft entsteht dort, wo Menschen nicht fragen, was gerade bequem, sondern was möglich ist.
Was Unternehmen über KI-Agenten wissen müssen
Künstliche Intelligenz in Form autonomer Agenten gewinnt rasant an Bedeutung. Doch wie arbeiten diese KI-Agenten? Was ist bei der Umsetzung zu beachten? Hier gibt's die Antworten.
Die Idee, dass autonome Systeme eng mit Menschen zusammenarbeiten und sie gezielt unterstützen, ist keine Vision mehr, sondern Realität. Während bisher eine umfassende Problemlösungskompetenz im Hintergrund fehlte, bringen KI-Agenten genau diese Fähigkeit mit und übernehmen zunehmend vielfältige Aufgaben in der Arbeitswelt. Wir erklären, was Unternehmen über KI-Agenten wissen müssen.
Was sind KI-Agenten und auf welcher Technologie basieren sie?
KI-Agenten sind Softwaresysteme, die eigenständig Aufgaben ausführen, aus Erfahrungen lernen und dynamisch mit ihrer Umgebung interagieren. Ihr Ziel ist es, Aufgaben autonom zu lösen, ohne dass ein kontinuierliches menschliches Eingreifen notwendig ist. Im Unterschied zu herkömmlichen Automatisierungslösungen bewältigen KI-Agenten selbst komplexe Anforderungen, indem sie sich an neue Bedingungen anpassen. Auch werden sie im Gegensatz zu universellen LLMs in der Regel fein abgestimmt, um Relevanz und Datenschutz zu gewährleisten. Sinnvoll ist eine kontextbezogene Architektur, die kausale KI, Document AI und multimodale Logik kombiniert und damit optimal auf geschäftliche Anwendungsfälle zugeschnitten ist.
In welchen Bereichen der Arbeitswelt entfalten KI-Agenten ihr Potenzial?
KI-Agenten finden in nahezu allen Unternehmensbereichen Einsatzmöglichkeiten – von der Beantwortung einfacher Anfragen bis hin zur Steuerung komplexer Prozesse. Eingebettet in CRM-Plattformen analysieren sie riesige Datenmengen, die Unternehmen manuell nicht mehr auswerten können. Anstatt die Ergebnisse lediglich zu präsentieren oder Kontakte nach Prioritäten zu sortieren, qualifizieren KI-Agenten auch noch automatisch Leads, schlagen passende Angebote vor und beantworten Kundenanfragen. Oder anders formuliert: Während herkömmliche Tools in der Regel auf statischen Wenn-dann-Regeln basieren, führt die neue Generation hyperpersonalisierte Aktionen nahezu in Echtzeit aus. Diese Entwicklung entlastet Mitarbeiter von Routineaufgaben und gibt ihnen Raum, sich auf strategisch wichtige Aufgaben zu konzentrieren. Unternehmen wiederum können ohne großen Aufwand Tausende von Kunden individuell betreuen.
Werden KI-Agenten den Arbeitsmarkt verändern?
Diese Frage lässt sich nicht pauschal beantworten. Es entstehen durch den verstärkten Einsatz von KI-Lösungen neue Berufsfelder – insbesondere bei der Entwicklung, Integration und Wartung solcher Agentensysteme werden qualifizierte Fachkräfte benötigt. Gleichzeitig stellt sich die Herausforderung, bestehende Mitarbeitende gezielt im Umgang mit diesen Technologien weiterzubilden und deren digitale Kompetenzen auszubauen. Eines muss klar sein: Das Ziel von KI-Agenten ist es nicht, menschliche Arbeitskraft zu ersetzen, sondern deren Fähigkeiten zu erweitern. Mitarbeitende können sich somit stärker auf komplexe Kundeninteraktionen oder die Entwicklung innovativer Kampagnen konzentrieren, während ihnen die KI zur Hand geht.
Worauf müssen Unternehmen bei der Auswahl von KI-Agenten-Lösungen achten?
In erster Linie benötigen sie eine digital ausgereifte Umgebung mit einheitlichen Datenformaten, optimierten Prozessen und regelbasierten Automatisierungen, um den ROI steigern zu können. Anschließend müssen sie sicherstellen, dass ihre KI-Systeme den geltenden Datenschutzbestimmungen entsprechen und sensible Kund*innendaten optimal geschützt sind. Transparenz und Nachvollziehbarkeit der KI-Entscheidungen sind ebenfalls essenziell, um das Vertrauen von Kunden und Mitarbeitenden nicht zu gefährden. Auf technischer Seite ist eine interoperable Lösung notwendig, die sich so nahtlos wie möglich in die bestehende IT-Umgebung integrieren lässt. Zu den weiteren Aspekten zählen die Priorisierung der kontextuellen Abstimmung, da Agenten geschäftsspezifische Arbeitsabläufe und Datenformate verstehen müssen, sowie die Nutzung eines Federated-Model-Ansatzes statt einheitlicher LLM-Frameworks, um Effizienz, Erklärbarkeit und Kosten zu optimieren.
Wie binden Unternehmen ihre Mitarbeitenden am besten ein?
Zunächst einmal ist ein grundlegendes Change Management erforderlich. Die Mitarbeiterinnen und Mitarbeiter müssen verstehen, dass die KI ihnen nicht die Arbeit wegnimmt, sondern sie unterstützen soll. Sinnvoll ist auch ein Low-Code-Ansatz: Maßgeschneiderte KI-Applikationen und automatisierte Workflows steigern die Arbeitseffizienz in Abteilungen um ein Vielfaches – sogar Mini-Anwendungen, die lediglich einfache Aufgaben übernehmen. Jedoch können zentrale IT-Abteilungen, die mit Entwicklungsanfragen aus verschiedenen Abteilungen überhäuft werden, diese kaum bewältigen. Mit einer Low-Code-Application-Plattform (LCAP) können auch Mitarbeiter ohne Programmierkenntnisse einfache KI-Anwendungen selbst erstellen. Möglich machen das einfache Drag-and-Drop-Optionen und vorgebaute Module, die je nach Wunsch kombinierbar sind.
Fazit
KI-Agenten sind als kollaborative Partner zu verstehen, nicht als Ersatz für den Menschen. Künftig werden wir eine Multi-Agent Collaboration sehen. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um selbst die komplexesten Herausforderungen effizient zu lösen.
Der Autor Sridhar Iyengar ist Managing Director von Zoho Europe.
ARX Robotics: Tech for Defense
Wie die ARX-Robotics-Gründer Maximilian Wied, Marc A. Wietfeld und Stefan Röbel Europas führendes DefTech-Start-up für unbemannte autonome Landsysteme gebaut haben.
Ein Start-up aus München denkt Europas Sicherheit neu – mit modularen Robotern, digitalen Aufklärungssystemen und einem iterativen Entwicklungsansatz, der hinsichtlich Flexibilität und Geschwindigkeit in der Branche neue Maßstäbe setzt. „Wir nutzen das transformative Potenzial von Robotik und KI, um die Leistungsfähigkeit der europäischen Landstreitkräfte zu stärken“, sagt Marc A. Wietfeld, Mitgründer und CEO von ARX Robotics in München. „Mit unserem Betriebssystem Mithra OS ermöglichen wir fernoperierbare, kettenbetriebene Landfahrzeuge sowie die Digitalisierung bestehender Flotten.“
Die Roboter entstehen auf einer einheitlichen technologischen Plattform mit flexiblem, modularem Aufbau. Sie lassen sich einfach anpassen und aufrüsten, was das Einsatzspektrum enorm erweitert. „Unsere Plattform ist wie das Schweizer Taschenmesser für Militäreinsätze“, so der Gründer. Neben der Hardware und dem KI-gestützten Betriebssystem liefert das Start-up auch Schnittstellen, um bestehende analoge Rüstungstechnologie und softwaregetriebene Systeme zu integrieren.
Drei Offiziere nehmen die Entwicklung selbst in die Hand
Gegründet wurde ARX Robotics von drei ehemaligen Bundeswehroffizieren. Marcs Weg begann mit einer Schlosserlehre, bevor er 2010 für den Wehrdienst eingezogen wurde. Damals konnte er kaum glauben, wie veraltet die Technologie der Truppe war. „Eine Playstation hatte bessere Software als viele Waffensysteme, und Drohnen aus dem Elektrofachmarkt waren leistungsfähiger als die im Kampfeinsatz.“ Während Marc in New York ein militärisches Programm absolvierte, lernte er Maximilian (Max) Wied kennen, der zu dieser Zeit an der Militärakademie West Point studierte. Beide hatten den Innovationsstau jahrelang erlebt und durch ihre Zeit in der Kampftruppe die Realität von Häuser-, Wald- und Grabenkämpfen hautnah kennengelernt.
In Robotik und Automatisierung sahen sie enormes ungenutztes Potenzial, um Soldat*innen zu schützen und Einsätze effizienter zu gestalten. „Am Anfang ging es uns gar nicht darum, Roboter zu bauen“, so Marc, „sondern darum, wie wir neue Technologie schneller in die Hand der Soldatinnen und Soldaten bekommen.“ Rund zwei Jahre arbeiteten sie am Konzept und an der Umsetzung. Die ersten Prototypen entstanden in Eigenregie, finanziert aus privaten Mitteln.
Stefan Röbel stieß dazu, als klar wurde, dass aus dem Projekt ein Unternehmen werden sollte. Neben dem militärischen Hintergrund bringt er Erfahrung im Aufbau und in der Skalierung von Start-ups mit. Zuvor war Stefan bereits bei Tech-Unternehmen an Bord, darunter Amazon, ASOS und Grover, wo er den Weg von der Series-A-Finanzierung bis zum Unicorn begleitete.
Als die Ersparnisse aufgebraucht waren, erhielt das Gründungsteam Unterstützung vom Innovation Hub der Bundeswehr und der Universität der Bundeswehr in München. Ende 2022 gründeten die drei schließlich ihr Unternehmen.
Die Brücke zur vernetzten Zukunft des Militärs
ARX Robotics füllt eine kritische Lücke in der militärischen Technologielandschaft, zwischen der analogen Vergangenheit und der softwaregesteuerten Zukunft. Viele bestehende Systeme wie etwa Panzer, Transportfahrzeuge und Helikopter operieren noch weitgehend analog und damit isoliert voneinander. Doch bewaffnete Konflikte werden heute vernetzt, KI-gestützt und mithilfe unbemannter Systeme entschieden. Die militärische Ausrüstung ist in vielen Ländern Europas noch nicht auf der Höhe der Zeit. „Mit unseren Lösungen bauen wir die Brücke zwischen den beiden Welten“, sagt Marc.
ARX Robotics überträgt die moderne technologische Architektur auf bestehende Militärfahrzeuge. Die analogen Bestandssysteme werden damit robotisiert, sodass sie mit modernen Drohnen und digitalen Einheiten zusammenarbeiten können – ein entscheidender Faktor für die Digitalisierung der Landstreitkräfte und Interoperabilität. „Früher war das Militär die Technologieschmiede der Gesellschaft, doch in den 1980er-Jahren hat die zivile Forschung die Streitkräfte überholt, auch bei den sicherheitsrelevanten Anwendungen“, so Marc.
Die etablierte Verteidigungsindustrie hat sich unterdessen auf immer komplexere und schwerfällige Großsysteme konzentriert. Bei einem größeren militärischen Entwicklungsprojekt ist in der Regel der gesamte militärische Apparat involviert, mit Planungs- und Beschaffungsämtern, langen Prozessen und seitenlangen Anforderungskatalogen. Erhält ein Ausrüster den Zuschlag, bekommt dieser Steuergelder, um einen Prototyp zu bauen „Die Entwicklung neuer Plattformen dauert dadurch oft ein Jahrzehnt, und die Produktion braucht weitere fünf Jahre“, sagt Marc. Schon bei der Indienststellung ist das Material zwangsläufig technologisch veraltet. ARX Robotics will den Prozess vom Kopf auf die Füße stellen. „Wir sind davon überzeugt, dass unsere Systeme den Soldatinnen und Soldaten im Einsatz sofort Mehrwert liefern“, so Marc. „Darum übertragen wir die neuen Technologien so schnell wie möglich ins Militär.“
Zurückhaltende Investor*innen und hohe Eintrittsbarrieren
Der Weg zur ersten externen Finanzierung war jedoch alles andere als einfach. „Kaum ein Risikokapitalgeber hat sich 2022 für DefenseTech und Hardware interessiert“, sagt Marc. Unter europäischen VCs dominierte das Dogma, dass nur Software skalierbar sei, idealerweise als SaaS-Modell. „Als Start-up mit einer physischen Technologie, noch dazu geführt von drei Soldaten ohne Gründungserfahrung, passten wir nicht ins Schema“, erinnert sich Marc.
Zudem war das Thema Verteidigung als Investment noch sehr negativ behaftet. VCs wollten nicht in Systeme investieren, die potenziell im Kampfeinsatz genutzt werden können. Sie sorgten sich um das öffentliche Bild und mögliche Bedenken institutioneller Geldgeber*innen. Mitte 2023 konnte ARX Robotics dann mit dem Risikokapitalgeber Project A Ventures als Lead Investor die Seed-Finanzierungsrunde schließen.
„Die anfänglich größte Hürde für uns war, nicht als Start-up, sondern als ernstzunehmender Anbieter wahrgenommen zu werden“, so Marc. Der Rüstungsmarkt ist stark konsolidiert und protektiv. Etablierte Player wie Rheinmetall, BAE Systems oder Krauss-Maffei Wegmann arbeiten seit Jahrzehnten fest mit ihren Kund*innen zusammen und bewegen sich in gewachsenen Strukturen. „Das Vertrauen der Streitkräfte zu gewinnen und die Beteiligung an einem großen Rüstungsprojekt zu erhalten, ist eine Schallmauer, die nur sehr wenige Start-ups durchbrechen“, sagt Marc.
Iterative Entwicklung und Tests im Feld
ARX Robotics punktet im Markt unter anderem mit dem radikal nutzer*innenzentrierten Entwicklungsansatz. Das Team setzt auf schnelle Iterationen mit voll funktionsfähigen Prototypen. Diese werden von Soldat*innen zeitnah getestet, häufig direkt in der Kampfzone. Das Feedback fließt sofort in die Weiterentwicklung ein, sodass in kürzester Zeit gebrauchsfertige Systeme entstehen. Der Fokus in der Entwicklung liegt stets auf der Software. „Das Betriebssystem ist der Kern unserer Lösungen, ob es am Ende einen Roboter oder einen Panzer steuert, ist zweitrangig“, sagt Marc.
Anders als der Wettbewerb setzt ARX Robotics auf offene Schnittstellen, modulare Komponenten und flexible Integration. Die großen Rüstungsfirmen mit ihren etablierten, geschützten Ökosystemen können dieses Modell nur schwer adaptieren. Stattdessen setzen sie auf Partnerschaften.
Mit Rheinmetall zum Beispiel arbeiten die Gründer derzeit an mehreren Projekten, und Daimler nutzt die ARX-Technologie, um die gesamte militärische Fahrzeugflotte zu digitalisieren. Um sicherzustellen, dass das Know-how und die Technologie in europäischer Hand bleiben, hat das Team frühzeitig den NATO Innovation Fund mit ins Boot geholt.

