Aktuelle Events
Daniel Ek und die Spotify-Story
Neue Serie: Mega-Gründer und ihre Erfolgsgeheimnisse
Wie der Schwede Daniel Ek Spotify aufbaute und die Angriffe von Apple und der Musikindustrie kontert.
„Eigentlich habe ich mich nie als Entrepreneur gesehen, sondern als jemand, der viele interessante Probleme in der Welt erkennt, und fortwährend davon genervt ist, dass es hierfür noch keine Lösung gibt. Und dann habe ich festgestellt, dass es noch mehr Leute gibt, die diese Defizite als störend empfunden haben. Ok, habe ich gesagt, was machen wir also? Und nachdem sonst niemand diese Dinge angepackt hat, dachte ich: Dann muss ich das eben selbst angehen.“ So äußerte sich Daniel Ek in einem Gespräch mit KPCB-Venture-Capitalist Chi-Hua Chien an der Stanford University im Mai 2012.
Im Jahr 1997, Daniel war 14 Jahre, und hatte gerade seine erste Firma in Ragsved, einem Stockholmer Arbeitervorort, gestartet, verlangten Beratungsfirmen in Europa bis zu 50.000 Dollar, um eine Webseite zu programmieren. Daniel dachte sich: Das ist nun wirklich nicht so schwer, und begann Webseiten für seine ersten Kunden zu bauen. Seinen Mitschülern, die gut in Mathe waren, brachte er HTML bei und jenen, die gut zeichnen konnten, Photoshop. Am Ende war fast die ganze Klasse nach Unterrichtsschluss damit beschäftigt, Webseiten für Daniels Kunden zu entwickeln. „Ich habe das gar nicht so sehr als Firma betrachtet, ich wollte nur gute Ergebnisse erzielen“, sagt Daniel heute. Gleichzeitig hatte er das erste Mal in seinem Unternehmerleben das gute alte Tom-Sawyer-Prinzip angewandt: Das Anstreichen von Gartenzäunen nicht mehr als Arbeit darzustellen, sondern als Privileg. Man könnte auch sagen: Daniel hat auf höchstem Niveau delegiert.
Daniels Gründermarathon
Eks Eckdaten genügen für eine lebenslange Unternehmer-Biographie, aber das erste große Kapitel spielt sich in weniger als zehn Jahren ab: Nach seiner ersten Firmengründung mit 14 Jahren, verkaufte er seine Webagentur mit 19 und stieg – bereits Millionär – mit 21 als CTO bei Stardoll ein, einem heute noch verbreiteten Dress-Up-Game für Teenies, die hier ihre virtuellen Puppen ankleiden. Im Alter von 22 wurde Daniel CEO von uTorrent, einer Filesharing- und Streaming-Technologie, die auch von Piratenportalen genutzt wurde. Dazwischen fielen noch die Gründung und der Verkauf von Advertigo, einer Online-Marketing-Firma. Für rund 1,2 Millionen Dollar ging das Unternehmen an Tradedoubler, dessen CEO Martin Lorentzon später Daniels Co-Founder bei Spotify wurde. Nicht zu vergessen, da gab es noch Tradera, eine Auktionsplattform, die später von Ebay übernommen wurde.
Tech-Veteran mit 23 Jahren
Als Daniel sich mit 23 Jahren, das war 2006, an Spotify machte, war er bereits Multimillionär – und quasi ein Tech-Veteran mit knapp zehn Berufsjahren auf dem Buckel. Dem US-Musikmagazin Billboard erzählte er: „Ich war eigentlich noch ein Kind, ließ den Champagner fließen, fuhr schnelle Sportwagen und machte einen Haufen unanständige Dinge. Eines Morgens wachte ich auf, neben mir eine Frau – ich wusste nicht, wer sie war – und ich hatte nicht die geringste Erinnerung an die letzten drei Tage. Ich fühlte mich völlig leer.“
Daniel musste wieder runterkommen, fokussieren und zog in ein kleines Haus in der Nähe seiner Mutter, die ihn allein erzogen hatte, spielte Gitarre und plante seinen nächsten Schachzug. Seine Gedanken drehten sich um Napster, das er ja selbst nutzte, um Metallica-Tracks zu suchen und seinen ersten Led-Zeppelin-Song zu hören, „Kashmir“. Napster hatte ihn schon mit 14 Jahren fasziniert. Auf der einen Seite erkannte er, wie sich der Musikkonsum immer mehr in Richtung Piraterie verschob, und dass bereits eine halbe Milliarde Menschen weltweit illegal Musik hörten. Gleichzeitig sah er, dass die Musiker ums Überleben kämpften, und nicht mehr von ihrer Musik leben konnten. Apple verkaufte damals im iTunes-Store kopiergeschützte Musikfiles mit einer Qualität von 160 kBit/sek, während man zu PirateBay oder Kazaa gehen konnte, und hier die gleiche Datei fast ebenso schnell ohne Qualitätseinschränkung und ohne Kopierschutz herunterladen konnte. Also war klar, dass erstmalig ein Piratenprodukt dem legalen Produkt überlegen war. Kein Wunder, dass die Leute Piratenseiten nutzten.
Der Weg zu Spotify
Daniels Idee: Einen Musik-Service zu entwickeln, der mindestens so groß und bedienungsfreundlich wie Napster sein sollte, der aber legal betrieben werden sollte und der für die Übertragung der Rechte Geld an die Musikindustrie bezahlt. „Mein Ziel war es, mit Spotify einen Service zu bieten, der besser war als all die Piratenprodukte. Es sollte einfacher sein, Musik zu entdecken und zu teilen. Ich erkannte, dass wir mit einem derartigen Service die Chance hatten, rund 500 Millionen Menschen zu erreichen. Und zwar alle die, die Musik illegal konsumierten. Gleichzeitig war es das Ziel, wieder Wachstum in die Musikindustrie zu bringen und den Künstlern damit die Chance zu geben, weiter ihre Musik zu machen, die uns allen Freude macht. Ich wollte mit der Musikindustrie arbeiten, nicht gegen sie.“
Das aber erwies sich als extrem schwer. Daniels Freemium-Geschäftsmodell, das vorsah, sämtliche Musik dieser Welt legal und kostenlos zur Verfügung zu stellen, löste größte Bedenken bei den Managern der großen Plattenlabels wie Universal Music Group, Warner oder Sony aus. Vergeblich versprach Daniel Einnahmen über Werbefinanzierung zu generieren und kostenpflichtige Premium-Accounts zu verkaufen. Vergeblich versprach er vor allem, die angeschlagene Musikindustrie mit diesem Konzept wieder auf Wachstumskurs zu bringen. Das Trauma des Niedergangs und der Umsatzhalbierung der gesamten Sparte zwischen 1997 und 2005 in Folge der digitalen Veränderung war längst noch nicht verarbeitet, und Daniels Karriere bei uTorrent, dem Anbieter für illegale Streaming-Software, natürlich bekannt. Es musste so kommen: Daniel erhielt bei den großen Labels in New York zunächst eine Absage nach der anderen. „Ich war 25 und fühlte mich, als wäre mein Leben zu Ende“, erzählte er in einem Radio-Interview des schwedischen Rundfunks.
Dass er es doch schaffte, kann Daniel auch seiner Herkunft verdanken: Der Start in Schweden, einem vergleichsweise kleinen Musikmarkt, erwies sich als Vorteil für Spotify. Die schwedische Musikindustrie hatte nicht viel zu verlieren, war quasi am Boden durch die Piraterie, und so konnte Daniel seinen Proof of Concept in diesem kleinen Testmarkt erbringen, bevor er zunächst das übrige Europa und den US-Markt ins Visier nahm, Märkte in denen es für Spotify allerdings viel zu verlieren gab. Tatsächlich konnte der schwedische Musikmarkt, der infolge der Musikpiraterie praktisch tot war, ab ca. 2010 wieder zulegen, und sogar an die goldenen Zeiten vor 2001 anknüpfen. „Mehr und mehr andere Märkte wollten uns jetzt“ so Daniel.
Glücksfall Schweden – es gab noch weitere Gründe, die Daniel einen Standortvorteil einbrachten: Zum einen die starke Engineering-Tradition des Landes, zum anderen war der frühe Breitband-Ausbau der Netzinfrastruktur in Schweden ein wichtiger Faktor. Schon 2001 stand Daniel eine 100-Mbit-Download-Leitung zur Verfügung, also eine selbst nach heutigen Maßstäben hervorragende Infrastruktur. Dies inspirierte Daniel, er fragte sich: Wofür können wir dies nutzen? „Das Laden einer Webseite dauerte zwei Sekunden, also fingen wir an, größere Sachen zu laden, wie Videos und Musik, und das war neu.“
Eks Rezept: 95 Prozent Ausführung – 5 Prozent Idee
Was ist das Geheimnis, wenn man in komplexen „alten“ Branchen wie der Musikszene mit einem neuen Geschäftsmodell erfolgreich sein will? „Wenn ich von einer Sache überzeugt bin, gebe ich nie auf“, sagt Daniel. Ganz viel Geduld ist nötig, vor allem in Branchen, die von traditionellen Platzhirschen dominiert sind. Auch dass er all dies in so jungen Jahren gestartet hat, betrachtet Daniel heute als wesentlich für den Erfolg. „Ich war naiv, als ich Spotify startete. Zum Beispiel wusste ich am Anfang nicht, dass man zum Streamen Lizenzen von den Plattenfirmen brauchte, das habe ich erst später verstanden. Also sah ich nur die Lösungen, nicht die Schwierigkeiten auf dem Weg dahin, und dachte: Hey, das kann ja nicht so schwer sein. Leute mit entsprechender Erfahrung sagen über viele innovative Geschäftsideen, das funktioniert nicht, und zwar aus den Gründen XYZ. Tatsächlich aber stellt sich dann oft heraus, dass die meisten Sachen doch irgendwie möglich sind.“
Als Visionär oder Genie sieht sich Daniel dennoch nicht. „Immer wieder kommen Leute zu mir und fragen mich nach neuen Geschäftsideen, die sie umsetzen könnten, und ich sage: Ganz ehrlich, ich habe keine Ahnung, was funktionieren wird und was nicht, ich bin nicht der Prophet, der voraussagt, was der nächste große Erfolg sein wird.“ Zum Beispiel hatte Daniel um 2004 die Chance, sich bei Skype zu engagieren, doch er dachte, das wird nie was und lehnte ab. Überzeugt ist er allerdings, dass die Ausführung alles ist, die Ideen hingegen fast nichts. 95 Prozent Ausführung gegenüber fünf Prozent Idee, so beschreibt Daniel die Verhältnisse.
Rasantes Streaming-Wachstum
Was macht ein Software-Produkt gut, nach welchen Grundsätzen werden Anwendungen bei Spotify entwickelt? „Ich habe zwar als Techniker gestartet, aber bin wohl heute eher ein lausiger Programmierer. Aber ich denke lösungsorientiert“, sagt Daniel. „Das half mir.“ Daniel äußert sich, wie er Interfaces beurteilt: „Ich frage mich: Wozu ist es da? Was ist der Zweck des Interfaces? Und ich denke viel darüber nach, welches der kürzeste Weg von Punkt A nach Punkt B ist.“ Das zwingt zu Iterationen, zu Wiederholungsschleifen im Design und zu Tests. Bei Spotify sind es oft drei bis vier Versionen, die den Usern vorgelegt werden, bevor eine Entscheidung getroffen wird. Im Mittelpunkt steht die Frage: „Welches Problem will ich hier lösen, da muss man viel drüber nachdenken“, sagt Daniel.
Viele aktuelle Zahlen belegen, dass die meisten Überlegungen richtig waren. Der Wert von Spotify wird heute auf rund 8 Milliarden Dollar geschätzt. An den Standorten in neun Städten, u.a. London, New York und Stockholm, arbeiten knapp 1400 Leute und vor allem: Rund 75 Millionen Menschen in 58 Ländern nutzen den Streaming-Dienst, gut ein Viertel davon per kostenpflichtigem Abo zum Preis von 9,99 Dollar pro Monat. Von diesen Einnahmen sowie den Werbeerlösen aus den freien Accounts hat Spotify nach eigenen Angaben bislang mehr als drei Milliarden Dollar an die Musikindustrie ausbezahlt. Allein im ersten Jahresviertel 2015 betrugen demnach die Ausschüttungen für die Labels 300 Millionen Dollar.
Und so werden die Streaming-Umsätze für die Musikunternehmen immer wichtiger: Machten sie 2010 nur drei Prozent der globalen Gesamteinnahmen aus, stieg dieser Wert bis 2014 auf 15 Prozent. Gleichzeitig sank der Umsatz aus CD-Verkäufen von 54 Prozent auf 36 Prozent. Auch der Umsatz aus Downloads sinkt, wie eine Studie des Bundesverbands der Musikwirtschaft aus dem Jahr 2014 belegt. Hier heißt es: „Die Mutter des Digitalgeschäfts, der Downloadbereich, entwickelt sich tendenziell rückläufig.“ Streaming hingegen wächst rasant: In den letzten Wochen des Jahres 2014 wurden fast doppelt so viele Streams gezählt wie im Vergleichszeitraum des Vorjahres. Derzeit nutzen rund 11 Millionen Menschen in Deutschland Streamingdienste für ihren Musikkonsum, bis 2018 sollen es nach einer GfK-Studie 22 Millionen sein.
Schwarze Zahlen – Fehlanzeige!
Trotz glänzender Aussichten: Schwarze Zahlen hat Spotify noch nie geschrieben: Bei Einnahmen von rund 1,25 Milliarden Euro im Jahr 2014 verbuchte das Unternehmen 165 Millionen Euro Verlust. Und auch bei den Künstlern bleibt wenig Zählbares hängen: Pro Stream erhält ein Musiker im besten Fall nur 0,164 Cent ausbezahlt – dies rechnete der Hessische Rundfunk 2013 aus. Für ein gesamtes gestreamtes Album sind es zwei Cent, während die Erlöse für ein klassisch verkauftes Album durchaus drei Euro erreichen können. Das bedeutet: Das Album eines Künstlers muss etwa 150 Mal gestreamt werden, bis es Erlöse in der Höhe eines Verkaufs einspielt.
Manche Künstler spielen da nicht mehr mit. Prominentestes Beispiel ist die US-Sängerin Taylor Swift, Darling des amerikanischen Publikums, die ihr Portfolio Ende 2014 bei Spotify entfernen ließ: „Spotify feels to me like a grand experiment. I’m not willing to contribute my life’s work to an experiment that I don’t feel fairly compensates the writers, producers, artists and creators of this music.“ Das hat natürlich geschadet, mancher fragt sich: was bringt mir ein Streaming-Abo, wenn die aktuellen Hits nicht zu hören sind?
Ganz klar, Daniel Ek steht unter Druck. Der Typ, der immer in der Vorwärtsbewegung war, der die Musikbranche wie kein anderer zur Disruption zwang, der Offensivspieler im Strafraum dieser Industrie, er muss plötzlich Defensivaufgaben vor dem eigenen Tor übernehmen. Denn da wären noch mehr Fronten: Nicht nur die Künstler, auch die Musikindustrie macht Druck. Das Freemium-Modell ist vielen großen Playern ein Dorn im Auge. Und schließlich ist da seit Sommer 2015 ein noch mächtigerer Gegner, der mächtigste und reichste unserer Zeit: Apple mit seinem neuen Streaming-Dienst Apple Music.
Die mächtigen Spotify-Gegner
Keine Frage: Der Entrepreneur Daniel Ek muss sich neu beweisen. Nicht mehr Disruption, ganz andere Fähigkeiten sind gefragt. Wie macht er das, wird er das schaffen, und wenn ja, wie? Beginnen wir mit dem Problem Taylor Swift: Was schreibt Daniel Ek in seinem Blog? „Taylor Swift hat Recht. Musik ist Kunst, Kunst hat hohen Wert, und Künstler verdienen es, bezahlt zu werden. Wir starteten Spotify, weil wir Musik lieben und weil die Piraterie die Musik killte. Der Vorwurf, Spotify würde auf dem Rücken der Künstler Geld machen, regt mich auf.“ Und weiter, adressiert an alle Künstler: „Unser ganzes Business ist darauf ausgerichtet, den Wert Ihrer Musik zu maximieren.“ Dass Taylor Swifts Titel nach Löschung aus Spotify ganz oben in den Rankings von PirateBay und YouTube standen, war natürlich Daniels Killer-Argument zum Schluss dieser Apologie.
Nächstes Thema – die großen Player der Musikindustrie. Sony, Warner, UMG – sie alle halten mittlerweile ihre Anteile an Spotify, dank ihrer Verhandlungsposition als Rechteinhaber, kein Wunder. Doch das hindert sie nicht daran, Spotify offen in Frage zu stellen: Auf der Code/Media Konferenz im Frühjahr 2015 musste Spotify zwei vernichtende Urteile seiner wichtigsten Rechtelieferanten einstecken: Lucian Grainge, UMG-Chairman, sagte, auf lange Sicht sei das kostenlose, werbefinanzierte on-demand-Streaming nicht nachhaltig, und Sonys Music Entertainment CEO Doug Morris meinte gar: „In general, free is death.“
Freemium-Debatte und Börsengeflüster
Spotifys Umsätze aus Werbung sind nach wie vor gering, entsprechend auch die Tantiemen daraus für Labels und Künstler. Folglich drängen die großen Anbieter auf eine Beschneidung des Gratis-Services, etwa durch Drosselung von Qualität oder Nutzungszeit. Doch Spotify verteidigt das Freemium-Modell, in der Hoffnung Free-User noch zu Bezahl-Usern zu konvertieren. Daniels Entgegnung auf diesen Punkt: Die Freemium-Debatte gab es „von Anfang an. Glauben Sie, dass es künftig auch kein kostenloses Radio mehr gibt?“ Und dann kommt natürlich – gebetsmühlenartig – der Hinweis auf die Piraten, Daniels stärkste Waffe. Aber er hat noch ein anderes Ass im Ärmel: Den möglichen Börsengang von Spotify, über den immer wieder spekuliert wird. Vor allem seit Barry McCarthy im Sommer 2015 neuer Finanzvorstand von Spotify wurde, ein Spezialist für IPOs, der auch schon Netflix an die Börse gebracht hatte. Daniel weiß: Beim Börsengang wollen die großen Labels auch Kohle machen, ganz hart werden sie ihn vorher nicht fallen lassen.
Apple Music contra Spotify
Tja, und dann Apple. Apple Music, gelauncht Anfang Juli 2015, ist die Antwort auf sinkende Download-Zahlen in iTunes und auf den wachsenden Streaming-Markt. Es ist eine mächtige Replik. Denn auch Apples Streaming-Dienst bietet von Anfang an 30 Millionen Songs, ebenfalls zum Preis von 9,99 Dollar bzw. Euro pro Monat und für Familien sogar für nur 14,99 Dollar bzw. Euro. Die ersten drei Monate kann man kostenlos testen, ein Angebot, das nach einem Bericht der New York Post ca. 15 Millionen User weltweit angenommen haben und das für viele im Herbst 2015 ausläuft. Jetzt entscheidet es sich: Zwei bezahlte Streaming-Dienste parallel ergeben keinen Sinn, daher stellt sich die Frage: Gibt es eine Kündigungswelle für Spotify?
Letztlich stimmen die User ab, welche Plattform ihnen sympathischer ist. Apple kann eine Menge Argumente ins Feld führen: Spannend ist vor allem die kuratierte Musikauswahl, die sich genau an den Geschmack und die Hörgewohnheiten des Users anpasst. Außerdem: Die App ist auf Apple-Geräten vorhanden, man muss sie nicht mehr installieren, im Gegensatz zu Spotify. Doch Spotify besitzt einen ansehnlichen Vorsprung, und Jeff Levick, Chief Revenue Officer von Spotify, äußerte sich Anfang Oktober positiv, das gesteckte Ziel, nämlich 100 Millionen User, bis Ende 2015 zu erreichen.
Das ist auch die Haltung von Ek: Skandinavisch cool federt er den Angriff ab. Bereits legendär ist seine Reaktion auf Twitter zu Apple Music: „Oh, ok.“ Und auf der IAB MIXX Konferenz Anfang Oktober 2015 ergänzte er: „Für uns ist es wirklich großartig, dass Leute in diesen Bereich investieren, um die Musik nach vorn zu bringen, und dass wir nicht die einzigen sind, die sagen: Streaming ist die Zukunft.“ Und er fügte hinzu, dass es genug „Platz am Tisch gibt, weil das Streaming von Musik ganz am Anfang“ stehe. Außerdem, so Daniel in einem Videointerview mit Jason Calacanis: „Der einzige Weg in dieser sich schnell drehenden Welt zu gewinnen – und sie bewegt sich jeden Tag schneller, es gibt soviel Innovation weltweit – besteht darin, super-fokussiert auf ein bestimmtes Problem zu sein und das besser und schneller zu lösen als alle anderen.“ Allerdings: Dieses Statement steht in gewissem Widerspruch zu Daniels Aussage, am Tisch sei genug Platz für mehrere Anbieter ...
Spotify in allen Lebenslagen?
Zum Schluss der Ausblick, nur einige Details: Spotify setzt auf die Kombi Musik und Shows und bindet zunehmend Videos ein, dazu gehören auch Nachrichten, Unterhaltungsclips und Podcasts. Anwendungen wie Spotify Running wollen ein noch individuelleres Nutzererlebnis ermöglichen und machen Musikvorschläge, die sich genau dem Lauftempo des Users anpassen. Auch das Auto spielt bei Spotifys Plänen eine große Rolle. In Apple CarPlay und Android Auto ist Spotify bereits integriert. Nun kommt eine Kooperation mit Uber hinzu. Als Fahrgast hörte man bislang die Musik, die der Fahrer hörte. In Uber-Autos soll der Fahrgast mit Spotify-Account seinen eigenen Sound auflegen. Überhaupt, das ist Daniels Vision: Spotify soll für uns alle zum Bestandteil des täglichen Lebens werden. Wir werden mit Spannung verfolgen, ob Daniels Plan aufgeht und ob tatsächlich genug Platz am Tisch für alle ist.
Diese Artikel könnten Sie auch interessieren:
KI-Trends 2026: Reifer, realer, relevanter
2026 tritt KI in eine neue Phase ein: weniger Hype, mehr Haltung. Expert*innen aus Technologie, Kommunikation und Mittelstand zeigen, wie künstliche Intelligenz Prozesse transformiert, Entscheidungen präziser macht und Marken stärkt – aber auch neue Risiken schafft, von Voice-Cloning bis Abhängigkeiten großer Plattformen. Klar wird: KI entfaltet ihr Potenzial dort, wo Unternehmen sie verantwortungsvoll einsetzen, Transparenz schaffen und menschliche Kompetenz stärken.
Zwischen Dynamik und Verantwortung: KI braucht gemeinsame Sichtweisen
„KI schafft keine perfekten Lösungen auf Knopfdruck, sondern eröffnet neue Wege, Herausforderungen besser zu bewältigen. Die größten Chancen liegen darin, Wissensverlust zu vermeiden, Reibungsverluste zu reduzieren und individueller auf Menschen einzugehen – im Gesundheitswesen genauso wie in HR, Bildung und Produktion. Gleichzeitig besteht die größte Herausforderung darin, eine gemeinsame Sichtweise auf KI zu entwickeln: Alle reden darüber, aber oft über völlig Unterschiedliches. Das gelingt nur über kleine Schritte, viel Kommunikation und eine Annäherung auf Augenhöhe. Zugleich zeichnet sich ein klarer Trend ab: die Fragmentarisierung der KI-Landschaft und eine problematische Abhängigkeit von US-Anbietern, die neue, eigene Handlungswege erfordert. Wer diese Dynamik versteht und verantwortungsvoll gestaltet, erschließt das Potenzial von KI von automatisierten medizinischen Leistungen über effizientere Produktionsprozesse bis hin zu deutlich schnelleren Innovationszyklen.“
revel8: Mit Human Firewalls gegen KI-Angriffe
Wie die revel8-Gründer Robert Seilbeck, Tom Müller und Julius Muth KI-gestützte Cyberattacken mithilfe „menschlicher Schutzschilde“ abwehren und Unternehmen zu mehr Cyberresilienz verhelfen.
Das Ingenieurbüro Arup wurde im vergangenen Jahr Opfer eines spektakulären Deepfake-Betrugs. Ein Mitarbeiter aus Hongkong betrat eine Videokonferenz mit vermeintlichen Mitgliedern des Managements – tatsächlich handelte es sich um täuschend echte KI-Imitationen der Führungskräfte, die eine scheinbar legitime, vertrauliche M&A-Transaktion diskutierten. Der arglose Mitarbeiter überwies den Betrügern 25 Millionen US-Dollar. „Der Fall ist ein typisches Beispiel für sogenanntes Social Engineering und eine neue Ära von Cyberangriffen“, sagt Julius Muth, Co-Founder und CEO von revel8 in Berlin.
Das 2024 gegründete Start-up betreibt eine Software-Plattform, um Menschen und damit auch Unternehmen gegen solche Bedrohungen zu schützen. „Kriminelle nutzen heute die neuesten KI-Technologien für konzertierte Angriffe“, so Julius. Aus frei verfügbaren Datenquellen identifizieren sie Schwachstellen und nutzen diese mit realistisch wirkenden Deepfake-Audios oder -Videos gnadenlos aus. Sie erzeugen damit eine Illusion von Authentizität, welche die klassischer Phishing-E-Mails bei Weitem übersteigt – und kein Unternehmen ist davor sicher.
Jede(r) Mitarbeitende ist eine potenzielle Schwachstelle
Mitunter können die Schäden noch höher ausfallen und Unternehmen aller Größen in Existenznot bringen. Am 31. August 2025 musste beispielsweise der Automobilhersteller Jaguar Land Rover nach einem Cyberangriff alle IT-Systeme herunterfahren. Die Produktion stand wochenlang still. Der Schaden beläuft sich bislang auf über zwei Milliarden Euro, das Unternehmen erhielt sogar staatliche Hilfe. Doch selbst das ist nur die Spitze des Eisbergs, denn laut Expert*innen waren von dem Angriff über 5000 Organisationen betroffen – wer hinter der Attacke steckt, ist nach wie vor unklar. Viele Unternehmen möchten solche Angriffe aus Imagegründen nicht offenlegen, die Dunkelziffer ist entsprechend hoch. Die Einfallstore für solche Attacken sind meistens die Mitarbeitenden. „Chief Information Security Officers (CISOs) betrachten bei der IT-Sicherheit typischerweise die Dimensionen Technologie, Prozesse und Menschen“, so Julius. „Der Mensch ist dabei von zentraler Bedeutung. Denn mit der richtigen Unterstützung können Mitarbeitende zum wichtigsten Resilienzfaktor im Unternehmen werden.“
Klassische E-Learning-Ansätze seien nicht geeignet, um Mitarbeitende angemessen für die Gefahren zu sensibilisieren und ihnen effektiv Kompetenzen im Umgang damit zu vermitteln. Standardisierte Phishing-E-Mails und konventionelle Trainingsformate können weder aktuelle Angriffsformen abbilden noch zuverlässig die nötigen Lerninhalte vermitteln. Hier setzt revel8 an und trainiert Mitarbeiter realitätsnah mit Replika tatsächlicher Angriffe, wie zum Beispiel Voice Phishing mit der Stimme eines bekannten Kollegen“, so Julius. Besonders die automatische Anreicherung mit öffentlich verfügbarem Kontext (OSINT) erhöhe die Relevanz und den Lerneffekt. So hilft revel8 Unternehmen dabei, die Widerstandsfähigkeit gegen Cyberbedrohungen zu stärken und darüber hinaus auch einschlägige Compliance-Anforderungen wie NIS2 und ISO 27001 zu erfüllen.
Individuelle Playlists mit neuesten Cyberattacken
„Wir setzen Menschen gezielt den aktuellen Angriffsmustern aus, sodass sie im Ernstfall richtig handeln können“, so Julius. Ein aktuell häufig zu beobachtender Angriff ist die Clickfix-Attacke. Dabei wird der/die Nutzer*in über eine täuschend echte Phishing-E-Mail auf eine gefälschte CAPTCHA-Seite gelotst. Sobald der/die Nutzer*in sich verifiziert, wird unbemerkt ein Schadcode in die Zwischenablage kopiert. Viele Ahnungslose fügen diesen Code später unbewusst zum Beispiel im Terminal ein und aktivieren damit den Angriff. Der/die Nutzer*in bemerkt den Schaden erst, wenn es schon zu spät ist.
Damit das nicht passiert, spielt revel8 zu Trainingszwecken genau solche Attacken aus. Tappt jemand die Falle, folgt sofort eine detaillierte Auswertung. Die Person erfährt, worauf sie hätte achten sollen, welche Hinweise es gab, und wie sich solche Vorfälle künftig vermeiden lassen. Da die Cyberkriminellen zunehmend sehr gezielt und hochgradig personalisiert angreifen, lassen sich auch die Trainingsinhalte bis ins Detail auf die User*innen zuschneiden. „Jeder Nutzer erhält von uns eine individuell auf seine Rolle zugeschnittene Playlist von Cyberattacken“, so Julius.
Praxisnahe Angriffssimulationen im Unternehmensalltag
Revel8 unterscheidet zwischen Nutzer*innen mit einem geringen Risiko und Hochrisikonutzer*innen, etwa im Management oder in der Finanzabteilung, und allgemein solchen Personen, die Zugang zu kritischen Daten haben. Julius beobachtet, dass die ohnehin stark gefährdeten Hochrisikonutzer*innen aktuell noch mehr ins Visier geraten. Ob SMS, WhatsApp, Teams oder LinkedIn – die Angreifenden orchestrieren ihre Attacken perfekt über mehrere Plattformen hinweg. „Zuerst ruft ein täuschend echter Stimmklon an, danach kommt die passende E-Mail“, sagt Julius. „Oder jemand schreibt dir auf LinkedIn, macht dir ein Jobangebot und schickt dir dann noch das Gehaltsangebot – da klickt man natürlich gern drauf.“
Um stets auf der Höhe der Zeit zu sein, kooperiert revel8 eng mit seinen Kund*innen. Das Training basiert auf echten Vorfällen aus deren Systemen. Jede erkannte Attacke wird kategorisiert, realistisch nachgebaut und gezielt ausgespielt. Trifft zum Beispiel eine Clickfix-Attacke Software Developer mit einem Mac in der Slowakei, fließt sie direkt in die Trainings-Playlist der betroffenen Zielgruppe ein. Das Ziel ist kontinuierliches Lernen, ohne zu überfordern. „Es ist wichtig, dass wir die Menschen nicht nerven“, erklärt Julius, „und wer gut reagiert, wird auch belohnt.“ Gamification-Elemente, wie zum Beispiel firmeninterne Rankings, halten das Training spielerisch und die Motivation hoch.
Keimzelle Celonis
Julius’ Karriere begann nach seinem Mathematikstudium in Darmstadt, bevor ihn sein Weg nach München zu Celonis führte. Das Unternehmen ist spezialisiert auf die Optimierung von Unternehmensprozessen und aktuell das wertvollste deutsche Start-up-Unicorn. Sein Job startete in Madrid, wo er zunächst ganz allein im Office saß. Doch das Team wuchs rasant, nach nur drei Jahren arbeiteten 500 Menschen am Standort. In dieser Zeit lernte er seine späteren Mitgründer kennen. Tom Müller ist gelernter Maschinenbauer, Robert Seilbeck war als Software-Engineer von Anfang an bei Celonis dabei. „Diese unglaubliche Dynamik, die wir in Madrid erlebt haben, hat uns motiviert, etwas eigenes aufzubauen“, erinnert sich Julius.
Markttests und Durchbruch mit Stihl
Bevor sich die Gründer auf Cybersecurity fokussierten, überprüften sie abends und an Wochenenden unterschiedliche Märkte auf ihr Potenzial. Jeden Monat testeten sie eine neue Branche mit jeweils 100 persönlichen Briefen. Die Rücklaufquote lag in der Regel bei ein bis zwei Prozent und bestand überwiegend aus Absagen. „Beim Thema Cybersicherheit hatten wir plötzlich zehn Rückmeldungen – und eine Firma lud uns direkt nach München ein“, so Julius. Am folgenden Wochenende entwickelte das Team eine vorläufige Produktversion und handelte drei Monate Zeit heraus, bis das Projekt starten sollte. Es war der inoffizielle Startschuss für revel8.
Im Februar 2024 bezog Julius die erste Bürofläche in Berlin, Tom folgte im Mai. Zu diesem Zeitpunkt hatte revel8 bereits erste zahlende Kund*innen. „Weil Kunden im Softwarebereich typischerweise jährlich und im Voraus zahlen, konnten wir erste Freelancer engagieren – wir selbst haben auf Gehalt verzichtet und von unserem Ersparten gelebt“, sagt Julius. Das Team testete Ansätze mit kleineren Unternehmen. Einige sicher geglaubte Kund*innen sprangen trotz mündlicher Zusage wieder ab, sodass eingeplante Umsätze plötzlich wegfielen. „Für ein Start-up ist sowas Gift“, so Julius, „und das war für uns eine echte Herausforderung.“ Der Durchbruch kam mit dem Unternehmen Stihl. Der damalige CISO war sofort begeistert und unterstützte das Team nach Kräften. In enger Zusammenarbeit mit dem Werkzeughersteller entstand das heutige Konzept, Mitarbeitende realitätsnah auf digitale Angriffsszenarien vorzubereiten. Im Oktober stieß Robert nach zehn Jahren bei Celonis fest zum revel8-Team dazu.
Sprung auf Enterprise-Level
Im September 2024 stellte revel8 den ersten Praktikanten ein. Die Kombination der Themen Cybersecurity und KI weckte auch das Interesse von Investor*innen. „Unsere Seed-Finanzierung kam nicht durch klassisches Fundraising zustande, sondern dank einer frühzeitigen Initiative von Merantix Capital, die unsere Vision verstanden und teilten“, so Julius. Anfang 2025 gewann revel8 die ersten Großkund*innen. Heute nutzen Unternehmen wie der FC Bayern, OBI und mehrere DAX-Konzerne die Plattform. Mitunter trainiert revel8 dabei zehntausende Mitarbeitende. „Dass wir unser Angebot innerhalb eines Jahres auf Enterprise-Level gebracht haben, ist für uns ein Riesenerfolg“, sagt Julius.
Einen wichtigen Beitrag dazu leisten rund 20 Profis aus dem Cybersecurity-Umfeld, darunter mehrere ehemalige CISOs, die als Business Angels mit an Bord sind. Ihre Expertise ermöglicht es unter anderem, neue Ideen und Ansätze schnell zu validieren. „Die meisten von ihnen sind nicht nur Sparringspartner, sondern auch finanziell investiert und profitieren so von unserem Wachstum“, erzählt Julius. Im September 2025 schloss revel8 die Seed-Finanzierungsrunde mit einem Gesamtvolumen von 5,7 Millionen Euro, angeführt vom Berliner VC Peak Capital. Zudem investierten u.a. Fortino Capital und weitere Business Angels, darunter der Fußballspieler Mario Götze und der CISO von Adidas, Michael Schrank.
Gesucht: Lernwillige Teamplayer
Heute beschäftigt revel8 knapp 30 Mitarbeitende. Bei der Weiterentwicklung des Teams setzen Julius und seine Mitgründer auf lernwillige Talente: „Wir suchen Teamplayer, die klar denken und eigenverantwortlich handeln können – den Rest bringen wir ihnen bei.“ An Bewerbungen mangele es nicht, schließlich komme das Thema Cybersecurity gerade bei jungen Menschen sehr gut an. Doch mit der dynamischen Entwicklung gehen mitunter auch Wachstumsschmerzen einher. „Wir merken das zum Beispiel daran, dass wir nun auch mal unangenehme Gespräche führen müssen.“ Auch die Dauerbelastung, der man sich als Gründer aussetze, sei nicht zu unterschätzen. „Anfangs haben wir monatelang durchgearbeitet, oft bis tief in die Nacht“, so Julius. Für den langfristigen Erfolg sei es jedoch wichtig, für Ausgleich zu sorgen sowie seine Gesundheit und Leistungsfähigkeit zu erhalten – und dem eigenen Team ein Vorbild zu sein.
Schnelligkeit als Wettbewerbsvorteil
Der Markt für KI-gestützte Security-Trainings und damit auch die Zahl neuer Anbieter*innen wächst schnell. Durch die Konkurrenz sehen sich die Gründer von revel8 bestätigt. „Wir stehen durchaus auch in Kontakt mit anderen Gründern und Wettbewerbern“, so Julius. Eine wichtige Benchmark sei das Unternehmen Adaptive Security aus den USA, das mit 55 Millionen US-Dollar von OpenAI finanziert wurde. Im Tagesgeschäft treffe man jedoch kaum auf andere Start-ups, sondern vielmehr auf etablierte Anbieter*innen wie etwa KnowBe4. „Diese Wettbewerber operieren auf alten Plattformen, sie entwickeln sich langsam und inkrementell“, so Julius. „Wir dagegen können unsere Ideen binnen Stunden validieren und umsetzen.“ Vor dem Hintergrund, dass IT-Abteilungen immer ausgefeiltere Deepfakes und KI-basierte Social-Engineering-Angriffe erkennen und abwehren müssen, sei das ein echter Wettbewerbsvorteil.
Umzug und neue Produkte
Ab dem kommenden Jahr soll die Plattform vollautomatisiert laufen und auch kleineren Unternehmen sowie Firmen ohne dezidiertes IT-Team dienen. Betriebe wie Notariate oder Arztpraxen seien besonders gefährdet, sagt Julius: „Die Frontdesks öffnen jeden Tag unzählige PDF-Dokumente und beantworten laufend externe Anfragen, da kann ein falscher Klick den gesamten Betrieb lahmlegen.“ Anfang 2026 wird revel8 nach München umziehen, wo Tom und Robert ursprünglich herstammen. Das gesamte Team wird mitkommen. Das ehemalige Flixbus-Office wird der neue Firmensitz. Von hier aus wird die Plattform weiterentwickelt und sollen die neuen Produkte gelauncht werden.
„Aktuell wird uns das Training für externe Kräfte mit Systemzugriff, zum Beispiel Call-Center-Teams, aus der Hand gerissen“, sagt Julius. Das Produkt entstand zunächst als Pilot mit einer globalen Versicherung – heute trifft es einen wunden Punkt vieler Unternehmen. Anfang 2025 wurde zum Beispiel bei Marks & Spencer über ein externes Dienstleisterteam ein Ransomware-Angriff eingeschleust – der Schaden betrug über 300 Millionen britische Pfund. „Darum bleiben wir in Bewegung“, so Julius, „damit Unternehmen auch künftig solche Angriffe erkennen und abwehren können.“
Pflanzentheke: Vertical-Farming-Start-up erhält DBU-Förderung
Das 2022 gegründete Start-up Pflanzentheke ermöglicht vertikales Gemüsewachstum in nährstoffreichem Wasser statt in Erde und wird dafür mit 175.000 Euro durch die Deutsche Bundesstiftung Umwelt (DBU) gefördert.
Der Großteil des in Deutschland konsumierten Obsts und Gemüses wird importiert. Laut Zahlen des Bundesministeriums für Ernährung, Landwirtschaft und Heimat (BMLEH) liegt die Selbstversorgungsrate – also der Anteil der im Land produzierten im Vergleich zu den insgesamt verbrauchten Gütern – für Gemüse bei 36 Prozent, für Obst lediglich bei 20 Prozent. Besonders große Städte sind auf die Versorgung durch Lebensmittellieferungen über weite Distanzen angewiesen. DBU-Generalsekretär Alexander Bonde: „Nahrungsmittelanbau nah an urbanen Zentren mit hohem Bedarf spart teure und klimaschädliche Transportwege. Das geht jedoch nur mit einer effizienten Nutzung der knappen Flächen.“
Genau dieses Ziel verfolgt das 2022 von Dr. Michael Müller, Dr. Julia Dubowy, Lasse Olliges und Leon Welker gegründete Start-up Pflanzentheke aus dem hessischen Lorsch mit sogenannten Vertical-Farming-Systemen für den geschützten Anbau – also dem vertikalen Anbau von Lebensmitteln in geschlossenen Anlagen wie Gewächshäusern oder Folientunneln. Pflanzentheke-Mitgründer Leon Welker: „Das Gemüse wächst in A-förmigen Regalen in einem sogenannten hydroponischen System – Pflanzen gedeihen also in nährstoffhaltigem Wasser anstatt in Erde auf im Schnitt sieben Stufen pro Anlage.“ Nun nimmt das Unternehmen mit der DBU-Förderung in Höhe von 175.000 Euro die Automatisierung des Systems ins Visier – für einen effizienteren Einsatz von Zeit, Ressourcen und Energie.
Automatisiertes und datenbasiertes Pflanzenwachstum
Nach den Worten von Welker erfolgte die Bestückung mit Jungpflanzen der vertikalen Anlagen sowie die Ernte bislang manuell. Nun arbeitet das Start-up an einer vollständigen Automatisierung des Produktionsprozesses – bei minimalem Energieverbrauch und niedrigen Betriebskosten. „Wir setzen auf praxisnahe Automatisierungsschritte, die konkret dort ansetzen, wo kleine und mittlere Betriebe heute an ihre Grenzen stoßen: bei Ernte, Wiederbepflanzung und Systempflege“, so Welker. Das Ziel sei, die tägliche Arbeit „deutlich zu erleichtern – mit einem modularen System, das ressourcenschonend arbeitet, Wasser spart und Arbeitszeit reduziert“. Welker: „Damit machen wir effiziente Hydroponik auch für kleinere Betriebe wirtschaftlich zugänglich.“
Dazu werde das vorhandene A-förmige Anbaumodell in Bewegung versetzt und an eine intelligente Steuerung angeschlossen. „Mit Sensoren zur Überwachung werden die Pflanzenreihen mit den passenden Nährstoffen für die jeweilige Wachstumsphase versorgt – vollständig datenbasiert“, so der Mitgründer. Jede Reihe beherberge ein Gemüse in einem anderen Wachstumsstadium. Welker: „Durch die bewegliche Anlage optimieren wir auch den Zugang zum Sonnenlicht je nach Reifegrad.“ Schließlich könne eine Reihe geerntet und wiederbestückt werden, während die anderen Pflanzen durch die Umpositionierung ungestört wachsen.
Anlage soll Böden schonen sowie Wasser- und Düngerverbrauch reduzieren
Die von dem Start-up entwickelte Anlage ermöglicht Welker zufolge, Böden zu schonen, den Wasser- und Düngerverbrauch zu reduzieren und auf kleinen Flächen möglichst viele Lebensmittel anzubauen. „Das System kommt bei gleichem Ertrag mit rund 90 Prozent weniger Wasser und 85 Prozent weniger Dünger aus als die konventionelle Landwirtschaft,“ so der Pflanzentheke-Mitgründer. „Wir verbinden die Vorteile des Indoor-Vertical-Farmings – etwa bei Nährstoffnutzung und Wassereffizienz – mit einem entscheidenden Plus: Unsere Anlagen nutzen natürliches Sonnenlicht und kommen daher mit einem Bruchteil der Energiekosten aus“, sagt Welker. „Das macht den ressourcenschonenden Anbau wirtschaftlich tragfähig – auch ohne energieintensive Beleuchtungssysteme.“ Welker weiter: „Weite Transporte erzeugen hohe Mengen klimaschädlicher Treibhausgase. Der Anbau nah an Städten mithilfe solcher Vertical-Farming-Systeme reduziert die Lieferwege sowie die je nach Lebensmittel energieintensiven Kühlketten.“
DBU-Förderung ermöglicht klima- und umweltschonenden Lebensmittelanbau
Das Start-up war bereits bis Ende 2024 Teil der Green Startup-Förderung der DBU. Dadurch wurde nach Welkers Worten die Marktreife des Produkts erfolgreich erreicht. Die Entwicklung der Anlage sei zudem mit fachlicher Unterstützung durch die Hochschule Osnabrück erfolgt. „Die Automatisierung ist nun ein neues, zeitintensives Forschungsprojekt – eine Entwicklung, die wir im laufenden Betrieb nicht leisten könnten“, so Welker. Die erneute Förderung ermögliche mehr klima- und umweltschonenden Lebensmittelanbau mithilfe der automatisierten Pflanzentheke-Anlagen. Zielgruppen sind dem Unternehmen zufolge vor allem kleine und mittelgroße Betriebe. „Die Pflanzentheken sind schnell installierbar, da sie an bestehender Infrastruktur befestigt werden können“, so Welker. Neben den ökologischen Vorteilen des Systems solle die Automatisierung auch den steigenden Fachkräftemangel im Gartenbau in Teilen kompensieren.
GreenTech – der Boom geht zu Ende
Zwar zählt Deutschland rund 3000 Start-ups aus dem GreenTech-Bereich, doch viele kämpfen mit Kapitalmangel, Fachkräftedefizit und einer überlasteten Infrastruktur. Der Boom ist vorbei – eine Einschätzung von Seriengründer und Transformationsexperte Daniel Fellhauer.
Die deutsche Wirtschaft steht vor einer ihrer größten Transformationen seit der Industrialisierung. Jahrzehntelang galten Auto- und Stahlindustrie als Rückgrat des Wohlstands. Nun rückt Nachhaltigkeit in den Mittelpunkt. Daniel Fellhauer sieht die GreenTech-Branche an einem kritischen Punkt: „GreenTech ist kein Hype, sondern Realität mit echten Herausforderungen. Die Frage ist: Wer bleibt übrig, wenn die Subventionen verschwinden?“ Seine Aussage bringt auf den Punkt, was viele Brancheninsider beschäftigt: der Übergang von gefördertem Wachstum zu marktwirtschaftlicher Reife. Jetzt entscheidet sich, welche Unternehmen Innovation und Wirtschaftlichkeit in Einklang bringen können – und wer an überzogenen Erwartungen scheitert.
Der Boom geht zu Ende
„Der Anteil grüner Gründungen ist zuletzt deutlich gesunken“, sagt Daniel Fellhauer. „Vor zwei Jahren war noch jedes dritte neue Start-up nachhaltig ausgerichtet. Heute ist es nicht einmal mehr jedes Vierte. Das ist ein deutliches Warnsignal. Der Markt sortiert sich, Kapital wird selektiver, und viele Ideen schaffen es nicht mehr über die Pilotphase hinaus.“ In den vergangenen fünf Jahren flossen zwar rund 11,7 Milliarden Euro in grüne Start-ups – etwa ein Viertel aller deutschen Risikoinvestitionen –, doch das Geld konzentriert sich zunehmend auf wenige, große Player. „Das zeigt eine Reifung, aber auch eine gefährliche Schieflage“, so Fellhauer. „Wir brauchen Breite, nicht nur Leuchttürme. Wenn die Finanzierungsströme versiegen, bevor Skalierung einsetzt, kippt der ganze Innovationspfad.“ Hinzu kommen steigende Zinsen, langwierige Genehmigungen und überlastete Netze. „Viele unterschätzen, wie stark Infrastruktur über Wachstum entscheidet“, erklärt er. „Eine Solarfirma kann heute Aufträge für 1.000 Anlagen im Jahr haben. Aber wenn der Netzanschluss neun Monate dauert, bleibt sie auf halber Strecke stehen.“
Deutschland ist längst auf dem Weg zur nachhaltigen Wirtschaft – doch der Anstieg wird steiler. Die entscheidende Frage lautet: Wird GreenTech zum Fundament der nächsten industriellen Ära, oder zur vertanen Chance einer Generation? Laut einer aktuellen Analyse fließt ein erheblicher Teil staatlicher Investitionen und Subventionen in Deutschland weiterhin in fossile Strukturen – über 60 Milliarden Euro jährlich. Da-bei hatte sich die Bundesregierung bereits 2009 gemeinsam mit anderen Industrieländern verpflichtet, ineffiziente Förderungen für fossile Energieträger bis 2025 zu beenden. Ein Ziel, das laut Fachleuten von Fraunhofer ISI, ZEW und Umweltbundesamt klar verfehlt wird. Daniel Fellhauer warnt: „Das ist kein ideologisches, sondern ein ökonomisches Problem. Solange Kapital und Fördermittel in alte Industrien gelenkt werden, anstatt in skalierbare GreenTech-Lösungen, bleibt Deutschland in der Vergangenheit verhaftet.“
Herausforderungen im deutschen GreenTech-Sektor
Trotz technologischer Fortschritte wird das Wachstum der Branche weiterhin durch strukturelle Probleme gebremst. Zu den größten Hindernissen zählen laut Fellhauer vor allem die unzureichende Netzinfrastruktur, die hohe Kapitalintensität sowie fragmentierte Märkte. Hochqualifizierte Arbeitskräfte in den Bereichen Energie, Elektronik und Software sind rar, wodurch die Entwicklung und Umsetzung neuer Technologien verlangsamt wird. Gleichzeitig behindert der schleppende Ausbau der Strom- und Wärmenetze eine schnelle Skalierung innovativer Lösungen. Daniel Fellhauer erklärt: „Hinzu kommt, dass viele GreenTech-Unternehmen aufgrund langer Entwicklungszeiten und hoher Anfangsinvestitionen auf beträchtliches Kapital angewiesen sind. Schließlich sorgen unterschiedliche Förderprogramme und komplexe regulatorische Vorgaben dafür, dass Innovationen und Markteintritte ausgebremst werden. Diese Faktoren erschweren nicht nur das Wachstum bereits bestehender Firmen, sondern machen auch den Einstieg für neue Gründerinnen und Gründer deutlich schwieriger.“
Zweite Generation der Nachhaltigkeit für mehr wirtschaftliche Tragfähigkeit
„Nur wer wirtschaftlich denkt, kann nachhaltig handeln“, sagt Daniel Fellhauer. Für ihn ist klar: Die nächste Phase der GreenTech-Bewegung entscheidet sich nicht an Visionen, sondern an Umsetzungsdisziplin. „Wir haben die Ideen, die Technologien und den gesellschaftlichen Rückhalt – jetzt geht es um Strukturen, Prozesse und betriebswirtschaftliche Fitness.“ Er spricht damit vor allem zu Gründerinnen und Gründern, die gerade überlegen, in den Markt einzusteigen. „Ich sehe viele junge Teams, die voller Energie starten – aber ohne belastbares Geschäftsmodell. Das ist gefährlich, weil GreenTech kapitalintensiv ist und die Anlaufphase oft Jahre dauert. Wer heute gründet, braucht einen klaren Plan für Cashflow, Partnerschaften und Skalierung, nicht nur für Storytelling.“
Fellhauer plädiert für eine zweite Generation der Nachhaltigkeit: weniger Ideologie, mehr Industriekompetenz. „Wir müssen wieder lernen, wie man produziert, automatisiert und skaliert, nicht nur, wie man pitcht. Nachhaltigkeit ist kein Marketingbegriff, sondern eine Frage des industriellen Könnens.“ Er empfiehlt, früh Kooperationen mit etablierten Mittelständlern oder Industriebetrieben zu suchen, um Skaleneffekte und Erfahrung zu nutzen. Statt auf Subventionen zu bauen, rät er zu robusten Wertschöpfungsmodellen, die auch ohne politische Förderung bestehen können. „Die besten Green-Tech-Firmen der nächsten Jahre werden die sein, die unabhängig funktionieren – weil sie echte Marktprobleme lösen, nicht weil sie im Förderdschungel überleben.“
Politik und Wirtschaft in gemeinsamer Verantwortung
Damit Nachhaltigkeit tatsächlich zum tragfähigen Standbein der deutschen Wirtschaft wird, braucht es planbare Rahmenbedingungen – aber auch Eigeninitiative. Fellhauer betont, dass Gründerinnen und Gründer nicht auf die perfekte Politik warten dürfen. „Wir brauchen beides: verlässliche Energie- und Förderpolitik und unternehmerischen Pragmatismus.“ Politik müsse langfristige Investitionen ermöglichen, den Kapitalzugang vereinfachen und Fachkräfte mobilisieren. Fellhauer nennt staatlich unterstützte Risikokapitalfonds und europäische GreenTech-Programme als zentrale Hebel, damit Innovationen nicht im Frühstadium scheitern. Zugleich müsse Deutschland die Infrastruktur modernisieren: Netze, Standards, Digitalisierung. „Solange ein Windpark genehmigt, aber nicht ans Netz angeschlossen werden kann, bleibt das alles Theorie“, warnt er. Sein Fazit fällt entsprechend klar aus: „GreenTech wird die neue industrielle Basis – wenn wir sie als solche behandeln. Gründer müssen rechnen, Politiker müssen liefern, und die Gesellschaft muss akzeptieren, dass Nachhaltigkeit ein Geschäftsmodell braucht, keinen Idealismuspreis.“
Daniel Fellhauer hat mehrere Unternehmen im Bereich Solar, Wärmepumpen und erneuerbare Energien erfolgreich aufgebaut. Heute ist er Chief Transformation Officer bei Thermondo und eingesetzter CEO seiner ursprünglich gegründeten Firma FEBESOL.
HR-Trends 2026
Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.
Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.
Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.
1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise
Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.
2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?
Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360‑Grad‑Feedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.
3. Mensch und KI – zwei Seiten der HR-Medaille
2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.
4. Führung neu denken – Managementpositionen verlieren an Attraktivität
Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.
5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt
Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.
Fazit
Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.
Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.
Hamburger FoodTech-Start-up goodBytz bringt Roboterküchen in den Mittelstand
Das Tech-Start-up goodBytz, das führend in der Entwicklung autonomer Roboterinfrastruktur für bessere Lebensmittelversorgung ist, geht eine Partnerschaft mit avitea Industrieservice, einem auf Logistik-, Facility- und Produktionsservices spezialisierten Industrie-Dienstleister ein, um automatisierte Verpflegungslösungen im industriellen Mittelstand voranzutreiben.
Gegründet wurde goodBytz 2021 von Dr. Hendrik Susemihl, Kevin Deutmarg und Philipp von Stürmer. Die Unternehmer lernten sich zuvor beim Robotik-Unternehmen NEURA kennen, wo sie mehrere Jahre gemeinsam an innovativen Technologien gearbeitet haben. Seit der Gründung hat sich goodBytz nach eigenen Angaben zum weltweit am schnellsten wachsenden Unternehmen für Lebensmittelautomatisierung entwickelt.
Die modularen Automatisierungssysteme betreiben aktuell zahlreiche Verpflegungslösungen im B2B-Catering und in der Systemgastronomie. Als Herzstück dient eine intelligente Middleware Software, eine hardwareunabhängige, flexible Plattform, die die Effizienz in traditionellen Küchenumgebungen maximiert. GoodBytz verfolgt die Mission, frische Lebensmittel jederzeit und für jede(n) zugänglich zu machen und treibt damit den technologischen Wandel in der Gastronomiebranche voran.
Neue Chancen für den deutschen Mittelstand
Mit der strategischen Partnerschaft mit avitea Industrieservice, einem auf Logistik-, Facility- und Produktionsservices spezialisierten Industrie-Dienstleister, erschließt goodBytz ein neues Marktsegment: Viele Produktionsbetriebe arbeiten im Drei-Schicht-System und stoßen bei der Versorgung von Mitarbeitenden an ihre Grenzen. Durch die Kombination aus aviteas Marktzugang und dem technologischen Know-how von goodBytz soll diese Lücke künftig geschlossen werden. Gerade für den deutschen Mittelstand ergeben sich daraus enorme Chancen – das Potenzial liegt bei über 10.000 möglichen Installationen.
Als Operations-Partner betreibt avitea künftig Roboterküchen direkt bei seinen Kund*innen. So sind Unternehmen in der Lage, ihren Mitarbeitenden zu jeder Tages- und Nachtzeit eine gesunde, planbare und abwechslungsreiche, regelmäßig wechselnde sowie stets frische Küche anzubieten – ganz ohne eigenes Küchenpersonal und mit komfortabler Vorbestellbarkeit.
„Das Konzept von goodBytz hat uns sofort überzeugt“, ergänzt Markus Humpert, Geschäftsführer von avitea Industrieservice. „Gerade dort, wo sich der Betrieb einer Kantine wirtschaftlich nicht rechnet oder Personal fehlt, können wir gemeinsam eine echte Lücke schließen. Die Qualität der Gerichte ist hervorragend, der Ansatz innovativ. Als Dienstleister und Flexibilisierungspartner für industrielle Kunden können wir gemeinsam mit goodBytz für genau diese Betriebe eine innovative Lösung für tägliche Herausforderungen bieten.“
Robotik schlägt Brücke zwischen Industrie und Alltag
Nils Tersteegen, Marketingleiter der FANUC Deutschland GmbH, sagt dazu: „Für FANUC ist es schön zu sehen, wie unsere bewährte Industrierobotik immer näher an den Alltag der Menschen rückt. GoodBytz schlägt eine Brücke zwischen Industrie und Alltag und zeigt, wie Robotik echten Mehrwert für Mitarbeitende schaffen kann. Viele avitea-Kund*innen setzen bereits heute auf FANUC-Roboter in der Produktion. Wenn künftig einer dieser Roboter für sie das Mittagessen zubereitet, schließt sich auf besonders schöne Weise ein Kreis. Durch Automation kann dem Fachkräftemangel in der Industrie schon heute wirksam begegnet werden. Wenn künftig auch in der Küche Roboter unterstützen, zeigt das, welches Potenzial in dieser Technologie noch steckt.“
Als nächster Schritt ist eine erste Umsetzung im Hotelumfeld geplant, um das Betriebskonzept zu verfeinern und Kund*innen den Mehrwert der Lösung zu zeigen. Anschließend wird der Marktausbau mit weiteren Industrieunternehmen fortgesetzt.
Durch die Kooperation mit avitea will goodBytz Verpflegung zum festen Bestandteil moderner Industrieprozesse machen. Die automatisierten Roboterküchen zeigen, wie sich Effizienz, Gesundheit und Arbeitgeberattraktivität in der industriellen Arbeitswelt verbinden lassen.
„Mit avitea Industrieservice haben wir einen Partner gewonnen, der den industriellen Mittelstand seit Jahrzehnten begleitet und direkten Zugang zu Produktionsbetrieben mit großem Versorgungsbedarf hat“, sagt Dr. Hendrik Susemihl, CEO und Co-Founder von goodBytz. „Gemeinsam verbinden wir unsere Technologie mit dem Marktzugang und der operativen Erfahrung von avitea. So entsteht eine Partnerschaft, die den breiten Einsatz automatisierter Verpflegungslösungen im industriellen Mittelstand ermöglicht und Unternehmen im Wettbewerb um Fachkräfte stärkt.“
EU KI-Gesetz wird scharf gestellt
Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.
Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.
Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:
- Strafmaßnahmen bei Nichteinhaltung
- Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
- Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene
Strafen bis zu 35 Millionen Euro
Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.
Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen
GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.
GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.
Aufsicht und Governance
Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.
Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.
Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.
Was bedeutet das für Personalabteilungen und Arbeitnehmende?
Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.
- Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
- Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
- Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
- Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.
Fazit
Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.
Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.
Start-ups gegen Plastikmüll
Während die Verhandlungen zu einem globalen Plastikabkommen ergebnislos bleiben, entwickeln Start-ups weltweit innovative Technologien gegen Plastikmüll. Wir stellen eine Auswahl davon vor.
Die jüngsten Verhandlungen in Genf über ein globales Plastikabkommen sind wieder ohne Ergebnis geblieben. Die mehr als 180 verhandelnden Nationen konnten sich nicht einigen. Seit mehr als 50 Jahren sind die Gefahren durch Plastikmüll bekannt – und doch wird immer mehr davon produziert. Jedes Jahr entstehen rund 460 Millionen Tonnen Plastik, weniger als 10 Prozent davon werden recycelt und über 30 Millionen Tonnen gelangen in die Ozeane.
Auf politischer Ebene zeichnet sich bislang keine Lösung ab, auf die man sich global einigen könnte. Neue Vorgaben wie die Pflicht zu fixierten Flaschendeckeln in der EU sorgen eher für Frust. „Seit Jahrzehnten reden wir über das Plastikproblem. Um es zu lösen braucht es technologische Ansätze“, sagt Dr. Carsten Gerhardt, Vorsitzender der gemeinnützigen Circular Valley Stiftung. Solche Ansätze liegen längst auf dem Tisch. „Start-ups aus aller Welt zeigen, dass Innovation schneller sein kann als Verhandlungen.“
Start-ups aus aller Welt arbeiten an Lösungen
Einige dieser Unternehmen hat der Circular Economy Accelerator der Circular Valley Stiftung bereits unterstützt. Das Start-up PROSERVATION etwa stellt Polsterverpackungen aus Nebenprodukten der Getreideindustrie her, BIOWEG ersetzt Mikroplastik durch Biomaterialien aus Lebensmittelabfällen und das Unternehmen Biomyc verwendet Myzel-Verbundwerkstoffe aus Pilzwurzeln und Pflanzen.
Daüber hinaus stellt NYUNGU AFRIKA Damenhygieneprodukte aus Ananasblatt- und Maisschalenfasern her, Midwest Composites nutzt Ernteabfälle für die Herstellung von Textilien und Vlastic bietet eine Alternative zu geschäumten Kunststoffen auf Flachsbasis.
Wenn Produkte das Ende ihrer Lebensdauer erreichen, können sie durch Recycling ein zweites erhalten. Ecoplastile verwandelt Abfälle in langlebige Dachziegel, Gescol macht Bauplatten aus Schuhsohlen und Novoloop nutzt schwer zu recycelndes Polyethylen zur Produktion von thermoplastischen Hochleistungs-Polyurethanen.
Chemisches Recycling zerlegt Kunststoffe in molekulare Bausteine. Das Unternehmen CARBOLIQ verwendet ein katalytisches Niedertemperaturverfahren, um gemischte Kunststoffe in Öl umzuwandeln, das fossile Rohstoffe ersetzen kann; Radical Dot extrahiert Monomere, um sie erneut verwenden zu können.
Zu chemischem Recycling hat Circular Valley in diesem Jahr einen Informationsfilm veröffentlicht, der die Möglichkeiten dieser Methode erklärt und verdeutlicht.
Humanoide Roboter: Vision und Realität
Der Weltroboterverband IFR veröffentlicht sein Positionspapier zu Trends, Chancen und möglichen Grenzen rund um das Thema humanoide Roboter.
Menschenähnliche Roboter gelten als die nächste große Innovation in der Robotik: Der weltweit größte Markt für Industrieroboter, China, hat bereits konkrete Pläne für die Massenproduktion von Humanoiden festgelegt. Gleichzeitig kündigten Technologieunternehmen in den USA und Europa große Investitionsvorhaben in diesem Bereich an. Die Vision ist, Allzweckroboter zu entwickeln, die auf menschlicher Mechanik basieren. Einblicke in Trends, Chancen und mögliche Grenzen humanoider Roboter bietet das neue Positionspapier der International Federation of Robotics.
„Futuristisch anmutende humanoide Roboter, die in unserem Zuhause, in Unternehmen und in der Öffentlichkeit arbeiten, faszinieren die Menschen“, sagt Takayuki Ito, Präsident der International Federation of Robotics. „Da die Welt in der wir leben auf den menschlichen Körper zugeschnitten ist, liegt die Idee eines schnellen, universellen Helfers in der Produktion und bei Dienstleistungen auf der Hand. Ob und wann es aber zu einer massenhaften Nutzung von Humanoiden kommen wird, bleibt ungewiss. Nicht zu erwarten ist jedenfalls, dass Humanoide in Zukunft die derzeit auf dem Markt befindlichen Robotertypen ersetzen. Stattdessen werden sie bestehende Technologien ergänzen und erweitern.“
Einsatz von Humanoiden in den Regionen
In den Vereinigten Staaten arbeiten Tech-Unternehmen wie NVIDIA, Amazon und Tesla intensiv an KI- und Robotertechnologien. Neben der Finanzierung durch das Militär wird diese Entwicklung auch durch zahlreiche private Investitionen unterstützt. Das führt zu einer bedeutenden Start-up-Szene, die sich auf humanoide Roboter spezialisiert. Besonders groß ist das Interesse an Humanoiden in Branchen wie der Logistik und in der Fertigung. Dabei werden humanoide Roboter weniger als soziale Begleiter gesehen, sondern eher als Werkzeuge, die dabei helfen, Produktivität und Effizienz zu steigern. So liegt der Schwerpunkt verstärkt auf praktischen Anwendungen und weniger auf der Integration von Robotern in das tägliche soziale Leben.
In China nehmen die Humanoiden eine zentrale Stellung in der nationalen Robotik-Strategie ein. Die Regierung möchte in diesem Technologiebereich Kompetenz und globale Wettbewerbsfähigkeit unter Beweis stellen. Der Einsatzschwerpunkt liegt dabei im Dienstleistungssektor, beispielsweise für die Kundenbetreuung. Die Automatisierung von Produktionslinien in der Fertigung und der Einsatz von Humanoiden, um weniger von menschlichen Arbeitskräften abhängig zu sein, scheint nur auf zweiter Ebene wichtig zu sein. Kernelement der chinesischen Strategie ist der Aufbau einer skalierbaren Lieferkette für Schlüsselkomponenten.
Japan ist ein Pionier in der Entwicklung humanoider Roboter. Als frühes Beispiel wurde Hondas Asimo bereits im Oktober 2000 vorgestellt. Roboter werden in Japan eher als Gefährten, denn als bloße Werkzeuge gesehen. Humanoide Roboter wie Pepper und Palro sind demzufolge in erster Linie als Sozialroboter konzipiert und kommen in Bildungseinrichtungen, Geschäften und Altenpflegeeinrichtungen zum Einsatz. Diese Ausrichtung spiegelt die Nachfrage einer alternden Gesellschaft wider, mit der Japan konfrontiert ist. Ein wichtiger Schwerpunkt der Projekte liegt auf Robotern, die harmonisch mit Menschen zusammenleben können und als Teil der Gesellschaft akzeptiert sind. Führende Unternehmen wie Kawasaki entwickeln humanoide Roboter als eine Forschungsplattform.
In Europa wird auf die ethischen Implikationen von Robotik und KI besonderes viel Wert gelegt. Im Fokus stehen kollaborative Roboter, die im industriellen Umfeld mit Menschen zusammenarbeiten. Kernthemen sind die Verbesserung der Sicherheit und Effizienz und die Nachahmung menschlicher Fähigkeiten. Die Arbeitskraft von Menschen zu kompensieren, steht dagegen nicht im Fokus. Der Schwerpunkt liegt vielmehr auf einem menschenzentrierten Design und den sozialen und gesellschaftlichen Auswirkungen von Robotern. Die europäischen Unternehmen stehen dem Einsatz von Humanoiden generell eher zurückhaltend gegenüber, wenn es um die kurz- bis mittelfristigen Automatisierungsaufgaben im Fertigungs- und Dienstleistungssektor geht.
+++ Ein bahnbrechendes Robotik Start-up aus Deutschland ist NEURA-Robotics: Hier geht’s zu unserer Gründerstory von NEURA Robotics +++
Ausblick
Dank ihrer menschenähnlichen Geschicklichkeit und Anpassungsfähigkeit sind die Humanoiden prädestiniert, komplexe Aufgaben zu automatisieren, mit denen heutige Roboter durch herkömmliche Programmiermethoden Schwierigkeiten haben. Einen massenhaften Einsatz als universelle Haushaltshelfer dürfte es jedoch kurz- bis mittelfristig nicht geben.
Das POSITION PAPER Humanoid Robots - Vision and Reality von IFR gibt's hier zum freien Download
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
„Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing“
Mit planqc verfolgt Dr. Alexander Glätzle die Mission, hochskalierbare Quantencomputer für wirtschaftliche Anwendungen zu bauen. Warum das Unternehmen dabei auf Standorte wie München und Innsbruck setzt und welche Rolle Österreichs Talentpool spielt, verrät er im Interview.
Dr. Alexander Glätzle ist Quantenphysiker und Mitgründer von planqc. Er studierte und promovierte an der Universität Innsbruck, forschte an renommierten Instituten wie Oxford, Harvard sowie in Singapur und war als Unternehmensberater tätig. 2022 gründete er planqc als Ausgründung aus dem Max-Planck-Institut in München.
Herr Dr. Glätzle, wie entstand die Unternehmensidee und welche Meilensteine haben Sie mit planqc bisher erreicht?
Die Idee zu planqc ist bereits während meines Studiums an der Universität Innsbruck entstanden. Dort habe ich intensiv im Bereich Quantentechnologie geforscht und das enorme Potenzial erkannt, aus diesen Erkenntnissen ein Start-up zu gründen. Bis zur Gründung hat es allerdings noch einige Jahre gedauert – nicht zuletzt, weil die technologische Entwicklung im Labor ebenfalls voranschreiten musste. 2022 sind wir dann als Ausgründung aus dem Max-Planck-Institut offiziell gestartet. Zu den wichtigsten Meilensteinen zählen zwei große öffentlich geförderte Projekte: Für das Deutsche Zentrum für Luft- und Raumfahrt bauen wir einen Quantencomputer mit einem Volumen von 30 Mio. EUR, ein weiteres Projekt mit dem Leibniz-Rechenzentrum umfasst 20 Mio. EUR, beide mit Abschluss bis Ende 2026 bzw. 2027. Dann werden an diesen beiden Standorten voll funktionsfähige Quantencomputer von planqc installiert sein.
Sie haben bereits Venture Capital mit an Bord. Wer zählt zu Ihren Investoren?
Gestartet sind wir 2022 mit einer Seed-Runde, an der unter anderem UVC Partners, Speedinvest und Apex Ventures beteiligt waren – also bereits starke Partner auch aus Österreich. Diese Basis konnten wir in der Series-A im letzten Jahr weiter ausbauen. Die CATRON Holding, ein Wiener Family Office, ist als Lead-Investor eingestiegen. Dazu kamen weitere Partner wie der DeepTech & Climate Fonds sowie Bayern Kapital. Besonders erfreulich ist, dass auch unsere Bestandsinvestoren erneut signifikant investiert haben. Damit verfügen wir über eine starke, rein mitteleuropäische, deutsch-österreichische Investorenbasis – was in unserem Sektor tatsächlich selten ist.
Ihr Headquarter befindet sich in der Nähe von München. Was hat Sie dazu bewegt, zusätzlich einen Standort in Innsbruck zu eröffnen?
Ursprünglich haben wir planqc in München gegründet – als Ausgründung aus dem Max-Planck-Institut. Doch bereits innerhalb eines Jahres haben wir ein zweites Büro in Innsbruck eröffnet. Der Grund liegt auf der Hand: Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing. Mit renommierten Instituten wie dem Institut für Quantenoptik und Quanteninformation (IQOQI) und Persönlichkeiten wie Peter Zoller und Rainer Blatt gibt es dort eine kritische Masse an international anerkannten Wissenschaftlern. Zudem ist es in der Praxis oft schwierig, hochqualifizierte Talente aus der Region nach München zu bringen. Deshalb haben wir entschieden, ihnen vor Ort ein attraktives Arbeitsumfeld zu bieten – mit einem eigenen Standort in Innsbruck.
Welche Vorteile bietet der Standort Österreich speziell für Unternehmen im Bereich Quantencomputing?
Österreich hat eine lange und starke Tradition in der Quantenphysik. Universitäten wie Innsbruck und Wien, das IQOQI und eine ganze Generation exzellenter Wissenschaftler prägen diese Landschaft. Viele bahnbrechende theoretische und experimentelle Arbeiten wurden hier in den vergangenen Jahren geleistet. Gerade für junge Start-ups bietet das Land enorme Vorteile: Der Talentpool ist außergewöhnlich – mit hervorragend ausgebildeten, dynamischen Fachkräften. Darüber hinaus ist die Nähe zu sogenannten „Industry First Movern“ gegeben, was den Standort besonders spannend macht. Und nicht zuletzt hat Österreich eine historische Verbindung zur Physik – Namen wie Schrödinger, Pauli oder Hess stehen sinnbildlich für diese wissenschaftliche Tiefe.
Welche Unterstützung erhielten Sie bei der Ansiedlung durch die Austrian Business Agency?
Die Austrian Business Agency sowie die Standortagentur Tirol haben uns außerordentlich engagiert unterstützt – sei es bei der Suche nach Büroflächen, bei der Eröffnung des ersten Bankkontos oder in bürokratischen Fragen. Sie standen uns nicht nur beratend zur Seite, sondern haben uns tatkräftig geholfen, Hürden aus dem Weg zu räumen. Genau so stelle ich mir die Zusammenarbeit mit einer lokalen Agentur vor: nah dran, lösungsorientiert und mit exzellentem Netzwerk. Wir hatten wirklich großes Glück mit der Unterstützung vor Ort.
Sie selbst sind in Österreich geboren, haben in Innsbruck promoviert und weltweit Forschungsaufenthalte absolviert – bevor Sie als Unternehmensberater und Gründer nach München gingen. Mit welchen Qualitäten punktet Österreich allgemein, auch als Arbeits- und Wohnort?
Ich habe viele Jahre im Ausland gelebt und gearbeitet – in Oxford, Singapur und Deutschland. Was Innsbruck und Tirol für mich besonders macht, ist die Kombination aus wissenschaftlicher Exzellenz und hoher Lebensqualität. Die Stadt liegt inmitten der Alpen, bietet eine hervorragende Infrastruktur und ein ausgewogenes Verhältnis zwischen Studierenden und Einwohnern. Das schafft ein inspirierendes Umfeld – zum Leben, Forschen und Arbeiten gleichermaßen.
Dr. Alexander Glätzle, vielen Dank für das Gespräch.
Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin
Was Unternehmen über KI-Agenten wissen müssen
Künstliche Intelligenz in Form autonomer Agenten gewinnt rasant an Bedeutung. Doch wie arbeiten diese KI-Agenten? Was ist bei der Umsetzung zu beachten? Hier gibt's die Antworten.
Die Idee, dass autonome Systeme eng mit Menschen zusammenarbeiten und sie gezielt unterstützen, ist keine Vision mehr, sondern Realität. Während bisher eine umfassende Problemlösungskompetenz im Hintergrund fehlte, bringen KI-Agenten genau diese Fähigkeit mit und übernehmen zunehmend vielfältige Aufgaben in der Arbeitswelt. Wir erklären, was Unternehmen über KI-Agenten wissen müssen.
Was sind KI-Agenten und auf welcher Technologie basieren sie?
KI-Agenten sind Softwaresysteme, die eigenständig Aufgaben ausführen, aus Erfahrungen lernen und dynamisch mit ihrer Umgebung interagieren. Ihr Ziel ist es, Aufgaben autonom zu lösen, ohne dass ein kontinuierliches menschliches Eingreifen notwendig ist. Im Unterschied zu herkömmlichen Automatisierungslösungen bewältigen KI-Agenten selbst komplexe Anforderungen, indem sie sich an neue Bedingungen anpassen. Auch werden sie im Gegensatz zu universellen LLMs in der Regel fein abgestimmt, um Relevanz und Datenschutz zu gewährleisten. Sinnvoll ist eine kontextbezogene Architektur, die kausale KI, Document AI und multimodale Logik kombiniert und damit optimal auf geschäftliche Anwendungsfälle zugeschnitten ist.
In welchen Bereichen der Arbeitswelt entfalten KI-Agenten ihr Potenzial?
KI-Agenten finden in nahezu allen Unternehmensbereichen Einsatzmöglichkeiten – von der Beantwortung einfacher Anfragen bis hin zur Steuerung komplexer Prozesse. Eingebettet in CRM-Plattformen analysieren sie riesige Datenmengen, die Unternehmen manuell nicht mehr auswerten können. Anstatt die Ergebnisse lediglich zu präsentieren oder Kontakte nach Prioritäten zu sortieren, qualifizieren KI-Agenten auch noch automatisch Leads, schlagen passende Angebote vor und beantworten Kundenanfragen. Oder anders formuliert: Während herkömmliche Tools in der Regel auf statischen Wenn-dann-Regeln basieren, führt die neue Generation hyperpersonalisierte Aktionen nahezu in Echtzeit aus. Diese Entwicklung entlastet Mitarbeiter von Routineaufgaben und gibt ihnen Raum, sich auf strategisch wichtige Aufgaben zu konzentrieren. Unternehmen wiederum können ohne großen Aufwand Tausende von Kunden individuell betreuen.
Werden KI-Agenten den Arbeitsmarkt verändern?
Diese Frage lässt sich nicht pauschal beantworten. Es entstehen durch den verstärkten Einsatz von KI-Lösungen neue Berufsfelder – insbesondere bei der Entwicklung, Integration und Wartung solcher Agentensysteme werden qualifizierte Fachkräfte benötigt. Gleichzeitig stellt sich die Herausforderung, bestehende Mitarbeitende gezielt im Umgang mit diesen Technologien weiterzubilden und deren digitale Kompetenzen auszubauen. Eines muss klar sein: Das Ziel von KI-Agenten ist es nicht, menschliche Arbeitskraft zu ersetzen, sondern deren Fähigkeiten zu erweitern. Mitarbeitende können sich somit stärker auf komplexe Kundeninteraktionen oder die Entwicklung innovativer Kampagnen konzentrieren, während ihnen die KI zur Hand geht.
Worauf müssen Unternehmen bei der Auswahl von KI-Agenten-Lösungen achten?
In erster Linie benötigen sie eine digital ausgereifte Umgebung mit einheitlichen Datenformaten, optimierten Prozessen und regelbasierten Automatisierungen, um den ROI steigern zu können. Anschließend müssen sie sicherstellen, dass ihre KI-Systeme den geltenden Datenschutzbestimmungen entsprechen und sensible Kund*innendaten optimal geschützt sind. Transparenz und Nachvollziehbarkeit der KI-Entscheidungen sind ebenfalls essenziell, um das Vertrauen von Kunden und Mitarbeitenden nicht zu gefährden. Auf technischer Seite ist eine interoperable Lösung notwendig, die sich so nahtlos wie möglich in die bestehende IT-Umgebung integrieren lässt. Zu den weiteren Aspekten zählen die Priorisierung der kontextuellen Abstimmung, da Agenten geschäftsspezifische Arbeitsabläufe und Datenformate verstehen müssen, sowie die Nutzung eines Federated-Model-Ansatzes statt einheitlicher LLM-Frameworks, um Effizienz, Erklärbarkeit und Kosten zu optimieren.
Wie binden Unternehmen ihre Mitarbeitenden am besten ein?
Zunächst einmal ist ein grundlegendes Change Management erforderlich. Die Mitarbeiterinnen und Mitarbeiter müssen verstehen, dass die KI ihnen nicht die Arbeit wegnimmt, sondern sie unterstützen soll. Sinnvoll ist auch ein Low-Code-Ansatz: Maßgeschneiderte KI-Applikationen und automatisierte Workflows steigern die Arbeitseffizienz in Abteilungen um ein Vielfaches – sogar Mini-Anwendungen, die lediglich einfache Aufgaben übernehmen. Jedoch können zentrale IT-Abteilungen, die mit Entwicklungsanfragen aus verschiedenen Abteilungen überhäuft werden, diese kaum bewältigen. Mit einer Low-Code-Application-Plattform (LCAP) können auch Mitarbeiter ohne Programmierkenntnisse einfache KI-Anwendungen selbst erstellen. Möglich machen das einfache Drag-and-Drop-Optionen und vorgebaute Module, die je nach Wunsch kombinierbar sind.
Fazit
KI-Agenten sind als kollaborative Partner zu verstehen, nicht als Ersatz für den Menschen. Künftig werden wir eine Multi-Agent Collaboration sehen. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um selbst die komplexesten Herausforderungen effizient zu lösen.
Der Autor Sridhar Iyengar ist Managing Director von Zoho Europe.

