Aktuelle Events
KI für echte Nachhaltigkeit
Wie künstliche Intelligenz (KI) bei der Nachhaltigkeitstransformation helfen kann.
Wie nur wenige andere Technologien ist künstliche Intelligenz von geradezu magischen Versprechungen umgeben, die sich gut in die seit Langem bestehende Erzählung von der bevorstehenden digitalen Revolution einfügen, die durch ein scheinbar aktuelles Zitat von Hubert L. Dreyfus beschrieben wurde: „Jeden Tag lesen wir, dass digitale Computer Schach spielen, Sprachen übersetzen, Muster erkennen und bald in der Lage sein werden, unsere Arbeit zu übernehmen. In der Tat scheint dies heute ein Kinderspiel zu sein.“ Die Tatsache, dass das Zitat aus dem Jahr 1972 stammt, zeigt, wie notwendig eine nuancierte Analyse des KI-Bereichs ist.
Ursprünglich bezog sich der Begriff KI auf ein Gebiet der Informatik, das zunächst den trockenen Namen Automatentheorie trug. Die Informatiker John McCarthy und Marvin Minsky waren jedoch der Meinung, dass der Begriff Artificial Intelligence (Deutsch: künstliche Intelligenz) passender wäre, vor allem im Hinblick auf die Popularität und Finanzierbarkeit des Fachgebiets, und benannten es anlässlich eines Workshops im Jahr 1955 entsprechend um.
KI ist keine eigenständige Technologie, sondern ein vielschichtiger Bereich innerhalb der Informatik. Lange Zeit stellten KI-Systeme Wissen explizit dar oder „symbolisierten“ es, indem sie logische Schlussfolgerungen und Entscheidungsbäume ermöglichten. Diese symbolischen Ansätze ermöglichen formale Schlussfolgerungen wie „alle süßen Dinge sind klebrig und Marmelade ist süß, also ist Marmelade klebrig“.
In den 1980er-Jahren kamen die sogenannten subsymbolischen Ansätze auf, wie künstliche neuronale Netze (ANN), genetische Algorithmen oder andere statistische und heuristische Annäherungen. Diese Ansätze erfordern eine Vorkonfiguration mit großen Datenmengen in vielen Iterationen, die oft als Training bezeichnet werden und bei denen das Wissen nur implizit repräsentiert wird und schwer zu überprüfen ist. Aktuelle Bilderkennungs- und große Sprachmodelle sowie Übersetzungssysteme arbeiten auf diese Weise.
Starke, schwache und Zeitgeist-KI
In der akademischen KI-Diskussion werden gewöhnlich zwei Arten von KI unterschieden: starke KI und schwache KI. Ich möchte jedoch einen dritten Typus hinzufügen, den ich Zeitgeist-KI nenne. Starke KI, auch bekannt als Artificial General Intelligence (AGI), bezieht sich auf ein System, das über eine allgemeine und flexible Intelligenz verfügt, Fragen stellen kann und echte Kreativität, vielleicht sogar Bewusstsein, aufweist. Ein solches System könnte eigenständig handeln, hätte möglicherweise eigene Ziele und müsste daher die Verantwortung für sein Handeln übernehmen. Diese Art von KI existiert nur im Bereich der Science-Fiction, und in der technischen KI-Forschung gibt es keine Anzeichen dafür, dass sich dies in absehbarer Zeit ändern wird.
Schwache KI, auch als Artificial Narrow Intelligence (ANI) bekannt, bezieht sich auf ein System, das nur eng definierte, hoch spezialisierte und domänenspezifische Aufgaben ausführen kann. Es kann nicht die Domäne wechseln oder eigene Ziele setzen; es ist ein Werkzeug, wenn auch ein sehr komplexes. Zu dieser Kategorie gehören Systeme, die Muster erkennen (visuelle und akustische Objekterkennung oder Datenanalyse wie die Optimierung der Ressourcennutzung, z.B. des Strom- und Wasserverbrauchs) oder automatisch andere domänenspezifische Aufgaben mit klaren Zielen ausführen (z.B. Go spielen, abgeleitete Texte oder Bilder produzieren). Alle aktuellen KI-Systeme fallen in diese Kategorie, einschließlich der aktuellen großen Sprachmodelle.
Drittens möchte ich Zeitgeist-KI als ein diskursives Phänomen definieren, bei dem sich politische, gesellschaftliche und sogar akademische Akteure auf KI beziehen, obwohl sie eigentlich alles meinen, was mit komplexen digitalen Technologien wie Algorithmen, Big Data, Software, Programmen, Computersystemen, Automatisierung, IT, tatsächlicher KI, Statistik und sogar Digitalisierung im Allgemeinen zu tun hat. Mit einem derart vagen KI-Konzept sind ernsthafte und fruchtbare KI-Debatten schwierig, weshalb sie regelmäßig eingedämmt werden müssen.
Präzise Sprache
Darüber hinaus ist bei der Wahl der Sprache für die Diskussion über KI große Vorsicht geboten, da viele der vorherrschenden Fachbegriffe historisch gesehen auf menschliche Tätigkeiten und Fähigkeiten verweisen, aber nicht als Analogien verstanden werden sollten. Die Begriffe handeln, entscheiden, erkennen, verstehen, (selbst)lernen, wissen, trainieren, Autonomie, vorhersagen und sogar Intelligenz sind höchst irreführend. Falsche Begriffe wecken falsche Assoziationen, schüren unbegründete technologische Fiktionen und implizieren unsinnige oder sogar (gesellschaftlich) schädliche Anwendungen. Geeignete Begriffe wurden vorgeschlagen, z.B. bewegen, ausführen, erkennen, den Erwartungen entsprechen, dynamische Konfiguration, Daten/Information, Vorkonfiguration, Automatisierung, Projektion und komplexe Daten/Informationsverarbeitung. Solche Begriffe sind besonders in interdisziplinären Kontexten oder in der Wissenschaftskommunikation relevant.
Was KI nicht gut kann
KI-Systeme können bestimmte Aufgaben effektiv erledigen, für die klare Regeln, geeignete Modelle, spezifische Ziele und geeignete Daten zur Verfügung stehen. Zu diesen Aufgaben gehören die vorausschauende technische Wartung (z.B. für rotierende Teile), die Optimierung des Ressourcenverbrauchs (z.B. Wasserverbrauch in der Landwirtschaft, Energieverbrauch in Rechenzentren), Sprach-/Bilderkennung (z.B. Sprache, Landmarken und Tiere) und Sprach-/Bildsynthese. Darüber hinaus kann KI eingesetzt werden, um beliebige Daten nach Mustern zu durchsuchen (Kompartimentierung, Clustering usw.). Es gibt auch beeindruckende generative KI-Anwendungen in den Bereichen Bild, Sprache und Musik, aber sie lösen keine spezifischen Aufgaben und haben bisher nur explorativen Wert.
Viele der Eigenschaften, die der KI zugeschrieben werden, sind oft klassische Methoden der Informatik, gerade Zeitgeist-KI oder auch nur menschliche Arbeit im globalen Süden. Doch um das Potenzial von KI richtig zu diskutieren, müssen wir differenzieren, wovon wir sprechen. Zwei aufschlussreiche Beispiele:
1. Der Kern des automatisierten Fahrens (AD) ist nicht KI, da KI bisher nur für die Bilderkennung (z.B. Verkehrszeichenerkennung) zuständig ist, der Rest ist keine KI. Daher würde die Finanzierung von KI nicht unbedingt AD verbessern.
2. KI-Systeme können per se keine Prognosen erstellen. Was KI leisten kann, ist die statistische Analyse vergangener Daten und die daraus resultierende Berechnung einer mathematischen Prognose. Ob das berechnete Ergebnis eine sinnvolle Vorhersage ist, hängt jedoch stark vom Themenbereich ab. Wetterdaten unterscheiden sich grundlegend von sozialen Daten. Daher funktionieren „Vorhersagen“ im sozialen Bereich nur, wenn eine soziale Physik angenommen wird, was in Theorie und Praxis höchst umstritten ist. Nicht nur im Bereich der Kriminalität, z.B. bei der vorausschauenden Polizeiarbeit oder der Rückfallprognose, sind solche Vorhersageversuche im Allgemeinen gescheitert. Bevor wir also KI anwenden können, müssen wir den betreffenden Bereich erst einmal verstehen.
Selbst wenn der Bereich mathematisch gut verstanden ist, wollen wir als Gesellschaft oft nicht einmal korrekte „unvoreingenommene“ Vorhersagen auf der Grundlage der Vergangenheit als Grundlage für unser Handeln treffen. Eine rein mathematisch begründete Kreditvergabe auf der Grundlage des Einkommens beispielsweise würde, wenn sie korrekt angewandt würde, lediglich das geschlechtsspezifische Lohngefälle reproduzieren und systematisch niedrigere Kredite an Frauen vergeben. In diesem Fall wären mathematisch korrekte Ergebnisse ungerecht, und gerechte Ergebnisse wären mathematisch falsch. Um es anschaulich zu formulieren: Vorhersagen mit KI zu treffen, ist wie Autofahren, bei dem man ausschließlich in den Rückspiegel schaut. Trotz der großen Anstrengungen zur Bekämpfung von Vorurteilen in diesem Bereich gibt es eine prinzipielle Grenze für die Neutralität und Fairness, die KI verspricht.
KI und Digitalisierung als Organisationsmittel
Im Lichte der Überlegungen zu den Möglichkeiten von KI wird deutlich, dass das im Zusammenhang mit KI häufig aufgeworfene Thema „Mensch versus Maschine“ ein Pseudoproblem ist, das nur in der Science-Fiction vorkommt. Gegenwärtig existierende und denkbare KI hat keine persönlichen Ziele oder Motivationen – selbst wenn sie in Form von Robotern auftritt – und muss daher als ein komplexes Werkzeug verstanden werden.
Die Betrachtung von KI als mächtiges Werkzeug erfordert jedoch eine Ausweitung der Analyse von der ausschließlichen Konzentration auf spezifische KI-Techniken, so interessant und einzigartig sie auch sein mögen, auf die Organisationen, die sie entwickeln, implementieren und verbreiten. Werkzeuge werden von Akteuren eingesetzt, um Interessen und Ziele zu verfolgen, möglicherweise gegen andere Organisationen oder Einzelpersonen.
Zeitgeist-KI (einschließlich KI) ist immer eine Erweiterung einer Organisation. Wenn überhaupt, entstehen KI-Konflikte entlang der Linie „Organisation gegen Organisation“, weshalb die Interessen der beteiligten Akteure immer im Mittelpunkt von KI-Analysen stehen sollten. Wenn also das Interesse einer Organisation nicht die Nachhaltigkeit umfasst, wird KI nicht dafür eingesetzt werden (oder auf den Rebound-Effekt stoßen).
Diese organisatorische Sichtweise ist besonders wichtig und spezifisch für KI, da diese in der Regel datenintensive Technologien umfasst und damit – der Vergleich mit der Kernkraft drängt sich auf – eine machtzentrierende Wirkung hat. Die Tatsache, dass große Unternehmen ihre KI-Frameworks und -Dienste frei zur Verfügung stellen, ändert nichts daran, dass KI ohne die entsprechenden und immensen Datengrundlagen kaum einen wirklichen Nutzen haben kann. KI ist daher nur die jüngste Entwicklung des digitalen Feudalismus, bei dem nur wenige große KI-Anbieter*innen ihre Dienste vermieten.
KI für die Nachhaltigkeit
Grundsätzlich ist es wünschenswert, wenn KI für Nachhaltigkeit, „gesellschaftliches und ökologisches Wohlergehen“ (EU High-Level Expert Group on Artificial Intelligence) oder für den Naturschutz (Art. 20a Grundgesetz) eingesetzt wird. Allerdings muss bei jedem durchdachten Einsatz von Technik eine ganzheitliche Betrachtung erfolgen, insbesondere bei so ressourcenintensiven und zentralisierenden Technologien, wie sie unter dem Oberbegriff KI zusammengefasst werden.
Der gesamte Lebenszyklus von KI darf keinen großen ökologischen Fußabdruck an anderer Stelle auf dem Planeten hinterlassen. Andernfalls würde die KI-Anwendung selbst, trotz guter Absichten, zur Zerstörung unserer Lebensgrundlagen beitragen. Es muss also immer ein positiver Nettonutzen angestrebt werden, auch wenn dieser manchmal kaum abschließend bewertet werden kann. Es gibt viele Beispiele, wie bestimmte KI-Systeme konkret zum Schutz von Ressourcen, Biodiversität und Natur eingesetzt werden können, und mit einem breiten Verständnis von Nachhaltigkeit lassen sich weitere Anwendungen hinzufügen. In diesen Bereichen sind gute Ergebnisse zu erwarten.
Wenn das Versprechen, dass KI die Nachhaltigkeit verändern wird, eingelöst werden soll, muss jedoch immer eine ernsthafte Frage gestellt werden: Ist KI die beste Lösung, um bei einem bestimmten Problem voranzukommen? Wissen wir derzeit zu wenig über die genaue Anzahl bestimmter Insekten, die beste Art, Autos in Städten zu parken, oder den Stromverbrauch von Rechenzentren? Werden neue Daten aus der KI eine Informationslücke schließen und somit Maßnahmen ermöglichen?
Wenn ja, dann sollten wir weitermachen. Lautet die Antwort jedoch, dass wir in dem betreffenden Bereich bereits genug wissen, dann verbraucht der Einsatz von KI lediglich wichtige Ressourcen, lenkt den politischen Fokus ab und dient letztlich als Ausrede für Untätigkeit, während die Zeit abläuft. Schließlich würde eine AGI mit echter Intelligenz uns wahrscheinlich empfehlen, viele Dinge, die wir bereits wissen, schnell zu tun, von der Nutzung 100 Prozent erneuerbarer Energien über Fahrradstädte bis hin zur konsequenten Entkolonialisierung; warum also nicht eine Abkürzung nehmen und bereits damit beginnen?
Dieser Beitrag wurde ursprünglich in Englisch veröffentlicht und stammt aus der Publikation: Jankowski, P., Höfner, A., Hoffmann, M. L., Rohde, F., Rehak, R. & Graf, J. (Eds.) (2023), Shaping Digital Transformation for a Sustainable Society. Contributions from Bits & Bäume. TU Berlin
Dieses Werk ist lizenziert unter einer Creative Commons Namensnennung 4.0 International License (CC BY 4.0). Es steht allen frei, das Material in jedem Medium oder Format weiterzugeben, zu bearbeiten und zu veröffentlichen unter folgenden Bedingungen: Nötig sind 1) eine angemessene Urheber- und Rechteangabe, 2) ein Link zur Lizenz (https://creativecommons.org/licenses/by/4.0/deed.de) und 3) eine Angabe, ob und welche Änderungen vorgenommen wurden.
Diese Artikel könnten Sie auch interessieren:
Die Wächter des Firmengedächtnisses
Wie das 2025 von Christian Kirsch und Stefan Kirsch gegründete Start-up amaiko den Strukturwandel im Mittelstand adressiert.
Der demografische Wandel und eine erhöhte Personalfluktuation stellen mittelständische Unternehmen zunehmend vor die Herausforderung, internes Know-how zu bewahren. Viele Unternehmen stehen vor der Schwierigkeit, dass Firmenwissen fragmentiert vorliegt. Informationen sind häufig in unterschiedlichen Systemen oder ausschließlich in den Köpfen der Mitarbeitenden gespeichert. Verlassen langjährige Fachkräfte den Betrieb in den Ruhestand oder wechseln jüngere Arbeitnehmerinnen und Arbeitnehmer kurzfristig die Stelle, gehen diese Informationen oft verloren. Zudem bindet die Suche nach relevanten Dokumenten in verwaisten Ordnerstrukturen Arbeitszeit, die in operativen Prozessen fehlt.
Das 2025 gegründete Start-up amaiko aus Niederbayern setzt hierbei auf einen technischen Ansatz, der auf die Einführung neuer Plattformen verzichtet und stattdessen eine KI-Lösung direkt in die bestehende Infrastruktur von Microsoft Teams integriert. Vor diesem Hintergrund entwickelten die Brüder Christian und Stefan Kirsch mit amaiko eine Softwarelösung, die spezifisch auf die Ressourcenstruktur mittelständischer Betriebe ausgelegt ist.
Integration statt neuer Insellösungen – und die Abgrenzung zu Copilot
Ein wesentliches Merkmal des Ansatzes ist die Entscheidung gegen eine separate Software-Plattform. Christian Kirsch, Geschäftsführer von PASSION4IT und amaiko, positioniert die Lösung als „Teams-native“. Das bedeutet, dass der KI-Assistent technisch in Microsoft Teams eingebettet wird – jene Umgebung, die in vielen Büros bereits als primäres Kommunikationswerkzeug dient. Ziel ist es, die Hürden bei der Implementierung zu senken, da Nutzer ihre gewohnte Arbeitsumgebung nicht verlassen müssen.
Angesichts der Tatsache, dass Microsoft mit dem „Microsoft 365 Copilot“ derzeit eine eigene, tief integrierte KI-Lösung ausrollt, stellt sich die Frage nach der Positionierung. Christian Kirsch sieht hier jedoch keine direkte Konkurrenzsituation, sondern eine klare Differenzierung: Copilot sei eine sehr breite, Microsoft-zentrische KI-Funktion. Amaiko hingegen verstehe sich als spezialisierter, mittelstandsorientierter Wissensassistent, der Beziehungen, Rollen, Prozesse und Unternehmenslogik tiefgreifend abbildet.
Ein entscheidender Vorteil liegt laut Kirsch zudem in der Offenheit des Systems: „Während Copilot naturgemäß an Microsoft‑Systeme gebunden ist, lässt sich amaiko herstellerunabhängig in eine viel breitere Softwarelandschaft integrieren – vom ERP über CRM bis zu Branchenlösungen. Unser Ziel ist nicht, Copilot zu kopieren, sondern reale Mittelstandsprozesse nutzbar zu machen“, so der Co-Founder.
Funktionsweise, Sicherheit und Haftung
Funktional unterscheidet sich das System von herkömmlichen Suchmasken durch eine agentenähnliche Logik. Die Software bündelt Wissen aus internen Quellen wie Richtlinien oder Projektdokumentationen und stellt diese kontextbezogen zur Verfügung. Ein Fokus liegt dabei auf der Datensouveränität. Hierbei betont Christian Kirsch, dass Kundendaten nicht in öffentlichen Modellen verarbeitet werden: „Die Modelle laufen in der europäischen Azure AI Foundry, unsere eigenen Dienste auf deutschen Servern. Die Daten des Kunden bleiben on rest vollständig im jeweiligen Microsoft‑365‑Tenant. Es findet kein Training der Foundation Models mit Kundendaten statt – weder bei Microsoft noch bei uns. Grundlage dafür sind die Azure OpenAI Non‑Training Guarantees, die Microsoft in den Product Terms sowie in SOC‑2/SOC‑3‑ und ISO‑27001‑Reports dokumentiert.“
Auch rechtlich zieht das Start-up eine klare Grenze, sollte die KI einmal fehlerhafte Informationen, sogenannte Halluzinationen, liefern. „Amaiko generiert Vorschläge, keine rechts‑ oder sicherheitsverbindlichen Anweisungen. Das stellen wir in unseren AGB klar: Die Entscheidungshoheit bleibt beim Unternehmen. Wir haften für den sicheren Betrieb der Plattform, nicht für kundenseitig freigegebene Inhalte oder daraus abgeleitete Maßnahmen. Es geht um eine saubere Abgrenzung – technische Verantwortung bei uns, inhaltliche Verantwortung beim Unternehmen“, so Christian Kirsch.
Geschäftsmodell und Markteintritt
Seit der Vorstellung der Version amaiko.ai im Juli 2025 wird das System nach Angaben des Unternehmens mittlerweile von über 200 Anwendern genutzt. Durch die Integration in die bestehende Microsoft-365-Landschaft entfällt für mittelständische Kunden eine aufwendige Systemmigration, was die technische Eintrittsbarriere gering hält.
Passend zu diesem Ansatz ist amaiko als reines SaaS-Produkt konzipiert, das Unternehmen ohne Einstiegshürde direkt online buchen können. Laut Kirsch sind keine Vorprojekte, individuellen Integrationspfade oder teuren Beratungspflichten notwendig: „Die Nutzung ist selbsterklärend und leichtgewichtig. Wer zusätzlich Unterstützung möchte – etwa zur Wissensstrukturierung oder Governance – kann sie bekommen. Aber die technische Einführung selbst ist bewusst so gestaltet, dass Mittelständler ohne Implementierungsaufwand starten können.“
Unterm Strich liefert amaiko damit eine pragmatische Antwort auf den drohenden Wissensverlust durch den demografischen Wandel: Statt auf komplexe IT-Großprojekte zu setzen, holt das bayerische Start-up die Mitarbeitenden dort ab, wo sie ohnehin kommunizieren. Ob sich die „Teams-native“-Strategie langfristig gegen die Feature-Macht von Microsoft behauptet, bleibt abzuwarten – doch mit dem Fokus auf Datensouveränität und mittelständische Prozesslogik hat amaiko gewichtige Argumente auf seiner Seite, um sich als spezialisierter Wächter des Firmengedächtnisses zu etablieren.
Der industrielle Wasserkocher: Wie das Start-up SYPOX die Chemie grün färbt
Die chemische Industrie hat ein massives Emissionsproblem, denn ihre Prozesse verschlingen Unmengen an Erdgas. Das 2021 geründete Start-up SYPOX, ein Spin-off der TUM will das ändern – mit einer Technologie, die so simpel wie genial klingt: Ein riesiger, elektrischer Tauchsieder soll die fossile Verbrennung ersetzen. Nun meldet das junge Unternehmen den ersten Durchbruch auf dem Weltmarkt.
Wenn Dr. Martin Baumgärtl erklären will, wie er die chemische Industrie revolutionieren möchte, wählt er ein Bild, das jeder versteht: „Im Grunde ist es wie ein Wasserkocher in der heimischen Küche – nur im industriellen Maßstab.“ Baumgärtl ist CTO von SYPOX, und was er beschreibt, könnte einer der wichtigsten Hebel für die Dekarbonisierung einer der schmutzigsten Branchen der Welt sein.
Die chemische Industrie ist süchtig nach Energie. Um Basischemikalien wie Methanol oder Ammoniak herzustellen, wird sogenanntes Synthesegas benötigt – eine Mischung aus Wasserstoff und Kohlenmonoxid. Die Herstellung geschieht in gewaltigen Hochtemperaturprozessen. Bisher wird die dafür nötige Hitze fast ausschließlich durch das Verbrennen von Erdgas oder Öl erzeugt. Die Folge: Gigantische CO₂-Emissionen.
Strom statt Flamme
Genau hier setzt SYPOX an. Das 2021 in Freising gegründete Unternehmen ersetzt die offenen Gasflammen durch elektrischen Strom. In ihren Reaktoren, die von außen wie gewöhnliche Druckbehälter aussehen, stecken hochkomplexe elektrische Heizelemente, die direkt hinter den Katalysatoren platziert sind.
Der Effekt ist enorm: „In konventionellen Verfahren entfallen rund 40 Prozent der Emissionen allein auf die Wärmeerzeugung aus fossilen Energieträgern“, rechnet Baumgärtl vor. Durch die Elektrifizierung des Reaktors fallen diese Emissionen weg – vorausgesetzt, der Strom kommt aus erneuerbaren Quellen. Zudem lässt sich der Prozess laut den Gründern präziser und sicherer steuern.
Der Anti-Trend im Silicon Valley
Doch nicht nur technologisch, auch ökonomisch schwimmt SYPOX gegen den Strom. In der Tech-Szene ist es üblich, dass Start-ups jahrelang Verluste schreiben und sich von einer Venture-Capital-Runde zur nächsten hangeln, getrieben von Investoren, die schnelles Wachstum fordern.
Die bayerischen Gründer wählten einen konservativeren, fast schon mittelständischen Ansatz. „Es entsprach nicht unserem Stil, Geld einzuwerben – wir haben vielmehr von Anfang an versucht, auf Basis unserer Technologie ein tragfähiges Geschäft aufzubauen“, erklärt CEO Dr. Gianluca Pauletto. Man wolle bodenständig bleiben und sich aus Umsätzen finanzieren, statt sich in Abhängigkeiten zu begeben.
Vom Container im Altmühltal zum Großkunden
Die Wurzeln des Unternehmens liegen an der Technischen Universität München (TUM). Die Idee brachte Pauletto aus seiner Zeit in Montréal mit, an der TUM fand er in Prof. Johannes Lercher und dem damaligen Doktoranden Martin Baumgärtl die wissenschaftlichen Mitstreiter.
Der Weg zum marktreifen Produkt war – typisch für „Deep Tech“ – langwierig. „Vier Jahre Forschung und zahlreiche Versuchsreihen waren notwendig“, erinnert sich Lercher. Während andere Software im Co-Working-Space programmierten, baute das SYPOX-Team eine Pilotanlage in einem einfachen Stahlcontainer auf dem Gelände einer Biogasanlage im ländlichen Dollnstein (Altmühltal).
Diese Beharrlichkeit zahlt sich nun aus. Das Start-up hat, unterstützt durch den Spezialchemie-Konzern Clariant, seinen ersten Großkunden an Land gezogen. Ab 2026 soll eine erste industrielle Anlage in Betrieb gehen, die täglich 150 Tonnen Synthesegas produziert. „Das ist nicht nur ein Meilenstein für uns, sondern auch ein starkes Signal an die gesamte chemische Industrie“, so Baumgärtl.
Für das Team, das inzwischen in Langenbach bei Freising sitzt und weiterhin Labore auf dem Forschungscampus Garching betreibt, ist das der Beweis: Die Elektrifizierung der Chemie ist keine Zukunftsmusik mehr, sie beginnt jetzt.
Social Engineering auf dem Vormarsch
Wie Deepfakes die Sicherheit von Führungskräften stärker in den Fokus rücken.
Fotorealistische KI liefert innerhalb von kürzester Zeit realistische Visuals. Was in vielerlei Hinsicht den Arbeitsalltag erleichtert, bedeutet für Social Engineering jedoch eine neue Eskalationsstufe, wie nicht zuletzt die hitzige Debatte um massenhaft sexualisierte Deepfakes von realen Personen durch Grok eindrücklich vor Augen führte.
Auch Personen in leitenden Funktionen in Unternehmen sind vor solchen Manipulationen nicht gefeit. Zunehmend zielen Angriffe auf Menschen mit Zugriffsrechten und Entscheidungsbefugnissen, deren Freigaben unmittelbare Wirkung auf die Sicherheit einer ganzen Organisation haben. „Fotorealistische KI und hybride Social-Engineering-Kampagnen erhöhen den Druck auf Schlüsselpersonen. Daher brauchen Unternehmen belastbare Verifikationsprozesse, Krisenroutinen und integrierte Schutzkonzepte“, erklärt Markus Weidenauer, geschäftsführender Gesellschafter der SecCon Group GmbH.
Deepfakes zielen auf privates Umfeld
Nach Angaben des Bundesamts für Sicherheit in der Informationstechnik (BSI) lassen sich Deepfakes als Verfahren beschreiben, die gezielt Spear-Phishing und andere Social-Engineering-Angriffe nutzen, um Vertrauen aufzubauen und Autorität zu simulieren. Generative KI fungiert dabei als zentraler technischer Enabler, da sie die realistische Erzeugung manipulativer Audio-, Video- und Textinhalte erstmals in industriellem Maßstab ermöglicht. „Die eigentliche Bedrohung ergibt sich dabei nicht aus einzelnen KI-generierten Inhalten, sondern aus deren koordinierter Nutzung“, weiß der Sicherheitsexperte.
Infolge der steigenden Qualität und der zunehmenden Verfügbarkeit generativer KI wird es darüber hinaus zunehmend schwieriger, Fakt von Fiktion zu unterscheiden „Zwar können isolierte Inhalte für sich betrachtet zweifelhaft sein, doch das konsistente Zusammenspiel mehrerer manipulierter Medieninhalte erhöht die wahrgenommene Glaubwürdigkeit erheblich“, ergänzt der Profi und weist darauf hin, dass sich diese Entwicklung in der Praxis zuspitzt. „Social Engineering, Deepfakes und digitale Erpressung werden immer häufiger mit Observationen des privaten Umfelds sowie Angriffen auf die Heim-IT kombiniert. Durch diese Eskalation der Angriffsmittel bauen Täter gezielt psychologischen Druck auf, der die Widerstandsfähigkeit der Betroffenen weiter reduziert.“
Risiken kennen, Wege einüben
Kompromittierte Schlüsselpersonen mit Steuerungs- und Entscheidungsfähigkeiten bergen hohes Schadenspotenzial für Betriebe. Das reicht von unmittelbaren finanziellen Verlusten bis zu dauerhaften Reputationsschäden. Dieses Risiko wird insbesondere dort verstärkt, wo organisatorische und prozessuale Absicherungen fehlen. „Resilienz bedeutet aber, auch in potenziellen Krisensituationen sichere Entscheidungen treffen zu können“, betont Markus Weidenauer. Trotzdem mangelt es vielen Unternehmen sowohl an speziellen Trainings zum Thema Social Engineering als auch an Meldewegen, klaren Freigabeprozessen, die auch unter Druck funktionieren, sowie alternativen Kommunikationskanälen. „Nur wenn Mitarbeiter diese Strukturen kennen und regelmäßig einüben, entsteht eine Kultur, in der eine frühzeitige Eskalation in der Meldekette als notwendiger Beitrag zur Sicherheit des gesamten Betriebs wahrgenommen wird“, fügt Markus Weidenauer hinzu.
Dringender Handlungsbedarf in Unternehmen
Um hier Abhilfe zu schaffen, verabschiedete im September 2025 das Bundeskabinett das sogenannte KRITIS-Dachgesetz zur Stärkung der Resilienz kritischer Einrichtungen. Es verpflichtet die Unternehmensleitung, Schutz- und Präventionsmaßnahmen umzusetzen, deren Wirksamkeit nachzuweisen ist. Der dem Regelwerk zugrunde liegende All-Gefahren-Ansatz fordert, dabei physische, digitale und organisatorische Dimensionen gemeinsam zu betrachten. „Auch wenn Führungskräftesicherheit hier kein eigener Rechtsbegriff ist, sollte sie Teil der Anforderungen an ein modernes Sicherheitsmanagement sein“, so der Geschäftsführer der SecCon Group.
Das bedeutet: Führungskräfte etwa vor Erpressungsversuchen durch Social Engineering zu schützen, ist weder persönlicher Luxus noch Symbolpolitik, sondern ein Element der nachweisbaren Unternehmensresilienz. Schließlich ist die Sicherung von Steuerungs- und Entscheidungsfähigkeit ein Governance-Baustein. Nicht die Person steht im Mittelpunkt, sondern die Handlungsfähigkeit des Instituts.
SPEIKI: das Spucktuch zum Anziehen
SPEIKI wurde von Dr. Karin Mehling entwickelt – als ihr eigenes Kind ein sogenanntes Spuckbaby war und gängige Hilfsmittel im Alltag nicht funktionierten. Aus dieser Erfahrung entstand ein durchdachtes Spucktuch, das genau auf die Bedürfnisse von Eltern und das Verhalten der betroffenen Babys abgestimmt ist.
Was tun, wenn das eigene Baby ständig spuckt – und keine Lösung wirklich hilft? Genau diese Frage hat sich Gründerin Dr. Karin Mehling 2020 gestellt, als sie selbst mitten in der herausfordernden Spuckphase ihres zweiten Kindes steckte. Rund 70 Prozent der Säuglinge spucken in den ersten vier bis sechs Lebensmonaten – ein häufiges Phänomen, das durch den noch unreifen Magenpförtner, einem Muskel am Mageneingang, verursacht wird.
Der Alltag ist in dieser Zeit vor allem geprägt durch Flecken wischen und Wäsche waschen, unangenehme Gerüche und feuchte Textilien. Aus ihrer persönlichen Erfahrung entstand das SPEIKI Original (Kurzform für Speikind): Ein „Spucktuch zum Anziehen“, das Eltern von Speikindern spürbar entlastet, da es die ausgespuckte Milch fast vollständig auffängt.
Per Bootstrapping aus dem Wohnzimmer in den Markt
Entwickelt wurde das SPEIKI Original am Wohnzimmertisch für den eigenen Sohn. 2021 meldete die promovierte Germanistin, Verlagskauffrau sowie PR- und Marketing-Managerin ihr Gewerbe als Einzelunternehmerin, wenig später konnte das Spucktuch bereits in Serie gehen.
In der per Bootstrapping finanzierten Startphase war es laut der Gründerin die größte Challenge, zu akzeptieren, nicht alles sofort schaffen zu können. Während sie als Angestellte ihren Fokus auf die klar definierten Projekte und Tätigkeiten legen konnte, kamen nun als Solo-Selbständige die Notwendigkeiten rund um Buchhaltung, Herstellung, Verwaltung und vieles mehr hinzu.
„Mit zwei Kindern zu Hause und bald einen weiteren Buben im Bauch gründete ich mein Einzelunternehmen. Entwicklung, Vermarktung, Vertrieb – alles stemmte ich allein und ,nebenbei‘. Nachts, zwischen Windeln und Weinen, auf dem Boden neben der Badewanne, in der die Buben sitzen – es gab fast keinen Ort und keine Zeit, die ich nicht versuchte zu nutzen, um meine Vision voranzutreiben: Mit meinem Textil-Label kluge Lösungen für den Baby-Alltag zu schaffen, die wirklich unterstützen. Dabei leiteten und leiten mich mein Ehrgeiz, mein Allrounder-Gemüt und meine Zielstrebigkeit, ebenso wie meine Werte, die dem Prinzip der ökonomischen Nachhaltigkeit folgen.“
Gefertigt wird das Spucktuch in einer bayerischen Nähmanufaktur. Regionalität ist Karin Mehling wichtig, als Unternehmerin sieht sie sich in der Verantwortung, nachhaltig zu wirtschaften.
Fünf Jahre erfolgreich im stark umkämpften Babyausstattungsmarkt
Der Weg von der ersten Idee bis zum etablierten Produkt zeigt den typischen Werdegang vieler Einzelunternehmen: handgemachte Prototypen, lokale Produktionswege und ein wachsendes Sortiment, das sich an den alltäglichen Bedürfnissen von Familien orientiert. Der Hauptfokus liegt bis heute auf dem SPEIKI selbst. Ergänzende Produkte runden das Portfolio ab, bleiben aber klar am Bedarf von Familien mit Spuck- und Stillthemen ausgerichtet.
Das Ergebnis: Ein Sortiment, das trotz spitzer Positionierung breit genug ist, um relevant zu bleiben. Das Wachstum der Marke basiert vor allem auf organischer Sichtbarkeit, Community-Nähe und authentischer Kommunikation.
„Ich habe mich bewusst auf das Kernprodukt konzentriert – und ergänze nur dort, wo Familien echte Bedürfnisse haben“, erklärt die Gründerin. Die Nachfrage zeigt, dass dieser Ansatz funktioniert: Das Unternehmen feiert in diesem Jahr sein fünfjähriges Jubiläum und blickt auf eine Entwicklung zurück, die weit über die Region hinaus Wirkung zeigt. Als Direct-to-Customer-Unternehmen mit jährlich wachsenden Umsätzen ein Meilenstein im stark umkämpften Babyausstattungsmarkt. „Dass aus einer spontanen Idee so viel werden kann, hätte ich selbst nicht zu träumen gewagt“, sagt Karin Mehling. „Aber offensichtlich haben viele Eltern genau das gebraucht.“
Infinite Roots: Hamburger BioTech bringt pilzbasierte Gerichte ins Kühlregal
Das 2018 von Dr. Mazen Rizk, Anne-Cathrine Hutz und Dr. Thibault Godard als Mushlabs gegründete Hamburger Start-up Infinite Roots (ehemals Mushlabs) bringt die Vorteile der Pilzwelt erstmals als eigenständige Hauptzutat ins Kühlregal.
Infinite Roots ist ein forschungsgetriebenes BioTech-Unternehmen aus Hamburg. Seit 2018 entwickelt das Unternehmen (zunächst unter dem Namen Mushlab) neuartige Lebensmittel auf Basis von Pilzen – inspiriert vom Myzel, dem unterirdischen Wurzelgeflecht essbarer Pilze. Durch Fermentation schafft Infinite Roots Produkte, die über bloße Fleischalternativen hinausgehen. Das Ziel ist es, eine neue Kategorie zu etablieren: Lebensmittel, die echtes Umami und wertvolle Nährstoffe liefern, mit kurzen Zutatenlisten auskommen und die Umwelt entlasten.
Mit mehr als 60 Expert*innen aus Biotechnologie, Data, Lebensmittelwissenschaft und Kulinarik will das Team neue Standards für Geschmack, Qualität und Nachhaltigkeit setzen und zeigen, dass die Ernährung der Zukunft nicht Verzicht bedeutet, sondern Vielfalt und Genuss.
Die MushRoots-Produkte des Unternehmens sind keine Fleischimitate, sondern bieten ein eigenständiges, pilzbasiertes Geschmackserlebnis. Sie zeichnen sich durch einen saftigen, herzhaften Biss und ausgeprägte Umami-Noten aus. Die Hamburger setzen dabei auf Speisepilze, kombiniert mit vertrauten, hochwertigen Zutaten. Entsprechend bauen die Produkte auf einer natürlichen Zutatenliste auf und verzichten auf künstliche Aromen, Geschmacksverstärker und Farbstoffe. So entsteht ein Geschmackserlebnis, das an herzhafte Hausmannskost erinnert. Die Produkte lassen sich vielseitig im Alltag, etwa als Hack, Bällchen oder Patties.
„Im Kühlregal sehen Konsument*innen seit Jahren dieselbe Logik: Tierprotein hier, Pflanzenprotein dort“, sagt Philip Tigges, CCO/CFO von Infinite Roots. „Mit MushRoots bringen wir nicht nur eine dritte Option ins Regal, sondern kehren auch zu Lebensmitteln mit einer natürlichen Hauptzutat zurück. Pilze bieten einen herzhaften Geschmack, sind vielseitig, in allen gewohnten Rezepten einsetzbar und können kinderleicht zubereitet werden.“
MushRoots setzt dabei auf eine Proteinquelle mit vergleichsweise geringem ökologischen Fußabdruck. Pilze lassen sich lokal und ressourcenschonend kultivieren. „Wir wollten nie ein weiteres Fleischimitat herstellen, sondern eine eigene Kategorie umami-reicher Pilzprodukte schaffen, die durch Charakter und Geschmack überzeugen“, ergänzt Tigges. „Unser Ziel ist es jetzt, Menschen für Pilzprodukte zu gewinnen, ohne dass sie Fleisch vermissen.“
Jetzt meldet Infinite Roots, dass vier MushRoots-Produkte ab sofort bei REWE Nord in Norddeutschland und Billa Plus in Österreich erhältlich sind und damit eine neue Kategorie an Pilz-Produkten in die Kühlregale Einzug gehalten haben.
Außenbereiche in der Gastro gestalten: Diese Details werden 2026 wichtig
Erfahre, welche Details 2026 für Außenbereiche in der Gastronomie zählen und Trends prägen.
Im Jahr 2026 werden Außenbereiche in der Gastronomie zu wichtigen Markenbotschaftern. Gäste erwarten mehr als bequeme Sitzplätze: Sie suchen emotionale Erlebnisse, nachhaltige Designs und ein stimmiges Ambiente. Nach Jahren des Wandels hat sich das Verhalten der Gäste spürbar verändert.
Der Fokus liegt auf Authentizität, Wohlgefühl und einem hochwertigen Gesamteindruck. Restaurants, Cafés und Bars nutzen ihre Terrassen zunehmend als Bühne für Stilbewusstsein und Gastfreundschaft. Studien zeigen, dass für viele Gäste der Außenbereich ein entscheidendes Auswahlkriterium ist. Terrassen mit recyceltem Holz, stimmungsvoller Beleuchtung und begrünten Wänden stehen für diese Entwicklung. Die wachsende Bedeutung von Wetterschutz, Lichtkonzepten und Begrünung verdeutlicht, dass der Außenbereich längst nicht mehr Nebenschauplatz ist, sondern zentraler Bestandteil des gastronomischen Erfolgs. 2026 markiert damit eine neue Ära der Freiluftgastronomie – funktional, ästhetisch und emotional zugleich. Die folgenden Abschnitte zeigen, worauf Verantwortliche achten sollten.
Wetter- und Klimaschutz: Komfort bei jedem Wetter
Ganzjährige Nutzbarkeit wird 2026 zum entscheidenden Erfolgsfaktor gastronomischer Außenräume.
- Innovative Überdachungen, langlebige Marktschirme, Windschutzsysteme und moderne Heizlösungen schaffen Behaglichkeit bei wechselnden Wetterbedingungen.
- Glasdächer mit UV-Filtern, textile Pergolen oder transparente Windschutzwände verbinden Schutz mit Offenheit.
- Elektrische Infrarotheizungen verlängern die Freiluftsaison und reduzieren Energieverluste.
- Mobile Heizlösungen und wetterfeste Bodenbeläge sichern Funktionalität bei Regen und Kälte.
- Automatische Luftzirkulationssysteme verhindern sommerliche Überhitzung und steigern die Energieeffizienz.
Entscheidend ist die Balance zwischen technischer Leistungsfähigkeit und optischer Leichtigkeit. So werden Außenbereiche zu wandelbaren Räumen, die unabhängig von Jahreszeit und Wetter hohen Komfort bieten – ein klarer Wettbewerbsvorteil im anspruchsvollen Gastronomiemarkt.
Materialwahl und Möblierung: Wenn Langlebigkeit und Stil aufeinandertreffen
Die Auswahl der Materialien prägt sowohl das Erscheinungsbild als auch die Langlebigkeit eines gastronomischen Außenbereichs. Robuste Metalle wie Aluminium oder Edelstahl, kombiniert mit wetterfestem Teakholz, setzen ästhetische Akzente und sorgen für Beständigkeit.
Hochwertige Textilien aus Acrylgewebe ergänzen das Gesamtbild: Sie sind pflegeleicht, widerstandsfähig und schützen vor dem Ausbleichen durch Sonnenlicht. Besonders gefragt sind langlebige Sonnenschirme, die Schatten spenden und Design mit Funktion verbinden. Modelle mit integrierter Beleuchtung oder komfortabler Öffnungsmechanik erhöhen den Nutzungskomfort.
Modulare Loungemöbel und ergonomische Sitzlandschaften prägen 2026 den Trend zu Flexibilität und Wohlbefinden.
Farben wie warmes Taupe und gedecktes Grün schaffen visuelle Ruhe und unterstreichen die natürliche Anmutung. So entsteht die Basis für harmonische, witterungsbeständige und zugleich stilvolle Außenbereiche.
Nachhaltigkeit als Schlüsselthema: Umweltbewusste Gestaltungskonzepte im Fokus
Nachhaltigkeit ist 2026 kein Zusatz mehr, sondern die Grundlage jeder gelungenen Außengestaltung. Viele Gastronomiebetriebe setzen auf recycelte Materialien, regionale Pflanzen und eine ressourcenschonende Planung mit kurzen Transportwegen.
Bambus, zertifiziertes Holz und recyceltes Aluminium gelten als bevorzugte Werkstoffe. Begrünte Pergolen und Dachgärten verbessern das Mikroklima und binden Feinstaub. Energieeffiziente LED-Beleuchtung reduziert Stromverbrauch und Wartungsaufwand. Neben der Materialwahl spielt auch der Umgang mit Wasser eine zentrale Rolle: Regenwasserspeicher und automatische Bewässerungssysteme unterstützen ein ökologisches Gleichgewicht. Moderne Lösungen rund um Geschäftsideen, die unter anderem aus dem Bereich der KI stammen, könnten hier in Zukunft noch weiter relevant werden.
Heimische Pflanzen wie Lavendel oder Ziergräser schaffen ergänzend natürliche Rückzugsorte und unterstreichen die ästhetische Wirkung nachhaltiger Gestaltung. Nachhaltigkeit bedeutet bewusste, umweltgerechte Planung – ästhetisch, zukunftsorientiert und wirtschaftlich sinnvoll.
Beleuchtungskonzepte: So entsteht Atmosphäre durch Licht
Beleuchtung entscheidet über Stimmung und Aufenthaltsqualität im Außenbereich. 2026 liegt der Fokus auf atmosphärischem Licht, das Funktion und Emotion miteinander verbindet und auf detailreichen Akzenten.
- Warmweiße LED-Leisten, dezente Spots oder laternenartige Leuchten schaffen Struktur und Tiefe. Indirekte Beleuchtung – über reflektierende Flächen geführt – betont architektonische Elemente und sorgt für eine angenehme Lichtwirkung.
- Farblich variable und flexibel steuerbare Systeme ermöglichen eine Anpassung an Tageszeit und Anlass.
- Solarleuchten gewinnen an Bedeutung, da sie Nachhaltigkeit mit hoher Flexibilität verbinden und den Energieverbrauch deutlich reduzieren.
- Lichtinseln an Tischen und Wegen fördern Orientierung und Sicherheit.
Am Abend wird das Zusammenspiel von Helligkeit und Schatten selbst zum Gestaltungselement. Ein durchdachtes Beleuchtungskonzept schafft Atmosphäre und unterstreicht den Charakter des gastronomischen Außenbereichs.
Flexibilität und Modularität: So praktisch sind anpassungsfähige Außenkonzepte
Flexibilität wird 2026 zur Grundvoraussetzung moderner Außenkonzepte. Saisonale Veränderungen, wechselnde Wetterbedingungen und unterschiedliche Gästezahlen erfordern wandelbare Strukturen.
Modulare Möbel, klappbare Trennelemente und mobile Theken ermöglichen schnelle Umgestaltungen. Design und Funktion greifen dabei nahtlos ineinander. Flexible Bodenmodule, frei positionierbare Lichtlösungen und rollbare Pflanzenkübel erleichtern den Umbau zusätzlich.
Der Begriff des dynamischen Außenraums beschreibt Bereiche, die sich je nach Nutzungssituation verändern lassen. Temporäre Überdachungen und anpassbare Windschutzlösungen schaffen weitere Freiräume.
So steht Wandlungsfähigkeit nicht nur für Praktikabilität, sondern auch für kreative Gestaltungsfreiheit, die Außenbereiche lebendig, vielseitig und zukunftssicher macht.
Pflanzen und Begrünung: Natürlichkeit als Gestaltungselement
Begrünung ist 2026 mehr als Dekoration – sie wird zum zentralen Designelement gastronomischer Außenräume. Vertikale Gärten, bepflanzte Trennwände und saisonal wechselnde Blühflächen schaffen natürliche Strukturen und verbessern das Mikroklima. Besonders urbane Standorte profitieren von dieser grünen Aufwertung. Pflanzen wie Lavendel, Gräser oder Olivenbäume verbinden mediterrane Leichtigkeit mit robuster Alltagstauglichkeit.
Auch Nutzpflanzen wie Kräuter, Minze oder essbare Blüten gewinnen an Bedeutung und verleihen dem Außenbereich Authentizität. Moderne Begrünungssysteme erleichtern Pflege und Bewässerung und machen grüne Konzepte dauerhaft praktikabel. Begrünung fördert Biodiversität, vermittelt Ruhe und schafft eine einladende Atmosphäre. So wird der Außenbereich zur kleinen Oase, in der Natur, Design und Gastlichkeit harmonisch zusammenfinden.
Technologische Innovationen: Smarte Lösungen im Außenbereich werden immer beliebter
Technologie prägt 2026 die Gestaltung gastronomischer Außenbereiche nachhaltig. Digitale Lösungen ermöglichen einen optimierten Betrieb und steigern zugleich den Gästekomfort.
- Smarte Heizsysteme mit Bewegungssensoren
- automatisierte Schirmsteuerungen
- appbasierte Lichtkonzepte
machen Abläufe effizienter und energiesparender. Vernetzte Systeme passen Beleuchtung, Temperatur und Beschattung automatisch an Wetter und Tageszeit an. Digitale Reservierungslösungen zeigen Sitzplatzverfügbarkeiten in Echtzeit und erleichtern die Planung.
USB-Ladepunkte an Tischen und kabellose Soundsysteme erweitern die Funktionalität und erhöhen den Komfort. So ergänzt moderne Technik energieeffiziente Konzepte und verleiht Außenbereichen ein zeitgemäßes, hochwertiges Erscheinungsbild. Das Zusammenspiel von Technik und Design macht smarte Außenräume zukunftsfähig und sorgt für ein stimmiges Gästeerlebnis – vom frühen Abend bis in die Nacht.
Farben und Designs: Was liegt 2026 im Trend?
Farb- und Designtrends prägen 2026 die Atmosphäre gastronomischer Außenflächen. Natürliche Töne wie Sand, Oliv und Terrakotta dominieren, während Akzente in Ockergelb oder Petrol Frische und Tiefe verleihen.
Strukturen gewinnen an Bedeutung: Geflochtene Texturen, matte Oberflächen und handwerkliche Details vermitteln Authentizität. Organische Formen und modulare Gestaltungskonzepte setzen auf Leichtigkeit und Flexibilität.
Auch die Einbindung lokaler Materialien stärkt die regionale Identität und verleiht Außenbereichen Charakter. Farbkonzepte folgen dem Prinzip „Weniger ist mehr“: Feine Kontraste zwischen warmen und kühlen Nuancen schaffen Ruhe und Orientierung. Biophiles Design, das Natur und Architektur verbindet, sowie der Japandi-Stil – eine Verbindung aus japanischem Minimalismus und skandinavischer Klarheit – prägen die Ästhetik.
Das Ergebnis sind Außenbereiche mit visueller Klarheit, zeitloser Eleganz und stilistischer Beständigkeit.
Darum ist es wichtig, das Thema Geräuschmanagement nicht zu unterschätzen
Akustik wird 2026 zu einem entscheidenden Faktor für das Wohlbefinden in gastronomischen Außenbereichen, besonders in urbanen Lagen. Lärmreduktion und gezielte Klanggestaltung – also die bewusste Steuerung von Schall und Nachhall – verbessern oft spürbar die Aufenthaltsqualität.
Schalldämpfende Materialien wie Akustikpaneele aus recycelten Fasern oder begrünte Wände kommen dabei vermehrt zum Einsatz.
Auch schallabsorbierende Textilien, gepolsterte Möbel und bepflanzte Flächen wirken geräuschmindernd.
So entstehen Rückzugsorte mitten im städtischen Trubel. Dezente Hintergrundmusik schafft Balance, ohne Gespräche zu überlagern. Das Ergebnis sind entspannte Außenbereiche, in denen Kommunikation mühelos möglich bleibt. Akustisches Design wird damit zu einem zentralen Bestandteil moderner Gastronomiearchitektur – funktional, ästhetisch und wohltuend zugleich.
Schneller aus dem Labor
Wie Gründer*innen aus dem universitären Umfeld der Transfer von Wissen aus der akademischen Welt in die Privatwirtschaft noch besser gelingt, erörtern wir im Interview mit Dr. Philipp Baaske, Mitgründer von NanoTemper Technologies, Business Angel und seit Oktober 2025 Vizepräsident für Entrepreneurship an der Ludwig-Maximilians-Universität München (LMU).
NanoTemper, einer der Weltmarktführer für biophysikalische Messinstrumente, wurde 2008 als Spin-off der LMU gegründet. Was hatte dich damals dazu bewogen, vom Forscher zum Gründer zu werden?
Für mich war es sehr persönlich. Meine Mutter wurde mit Brustkrebs diagnostiziert, und das Medikament, das ihr das Leben gerettet hat, wurde dank Biotechnologie entwickelt. Mir wurde klar, dass Wissenschaft nur dann wirklich mächtig ist, wenn sie den Patienten erreicht. Dieser Gedanke hat mich nie mehr losgelassen.
Im Labor habe ich die Neugier, die Präzision, das Entdecken geliebt. Aber ich sah auch die Lücke: brillante Ideen blieben oft in Publikationen stecken, weit weg vom Alltag der Menschen. Ich wollte nicht bei der Entdeckung stehen bleiben. Ich wollte helfen, Entdeckungen in Produkte zu verwandeln, die jeder nutzen kann.
Diese Überzeugung wurde durch meine Herkunft noch verstärkt. Ich bin in einem kleinen bayerischen Dorf aufgewachsen, in einer Familie von Handwerkern. Meine Eltern haben mir beigebracht, dass Arbeit praktisch sein muss, dass sie den Menschen dienen sollte. Die Wissenschaft faszinierte mich, aber ich spürte eine Unruhe: Wie viel mächtiger kann unser Wissen werden, wenn wir es vom Labor auf den Alltag der Menschen übertragen?
Also habe ich zusammen mit meinem Mitgründer Stefan Duhr den Sprung gewagt. Zwei junge Wissenschaftler in einem Labor im Keller, die die ersten Prototypen von Hand bauten. Wir hatten kein Risikokapital, keine Roadmap, nur Entschlossenheit und den Glauben, dass das, was wir erschaffen, etwas verändern könnte. Uns trieb die gleiche Hartnäckigkeit an, die ich in der Werkstatt meiner Eltern gesehen hatte: Wenn etwas nicht funktionierte, reparierte man es, bis es funktionierte.
Wenn ich jetzt zurückblicke, war es nicht der Businessplan oder die Marktanalyse, die den Ausschlag gaben. Es war der Glaube, dass Forschung nicht im Labor enden, sondern die Brücke zur Gesellschaft schlagen sollte. Und für mich wurde Unternehmertum der Weg, diese Brücke zu bauen.
Was waren die größten Hürden auf diesem Weg?
Die größten Hürden waren nicht technischer, sondern menschlicher Natur. Als Wissenschaftler waren wir darauf trainiert, uns tief in die Experimente zu vertiefen, aber wir wussten nicht, wie man mit Kunden spricht, Verträge aushandelt oder Teams leitet. Das musste ich alles von Grund auf neu lernen.
In den Anfangsjahren haben wir Prototypen verkauft, bevor das Produkt überhaupt fertig war. Das hat uns gezwungen, schnell zu handeln, aber es hat uns auch Demut gelehrt: Kunden erwarten Zuverlässigkeit und nicht nur clevere Ideen. Später, als das Wachstum unsere Finanzen überstieg, mussten wir schwierige Entscheidungen treffen. Einmal musste ich Kollegen entlassen, um das Unternehmen zu retten. Das war einer der schwierigsten Momente meines Lebens, aber es hat mir gezeigt, dass Führung nicht darin besteht, Schmerzen zu vermeiden, sondern Verantwortung zu übernehmen.
Natürlich gab es unzählige kleinere Hürden: Menschen davon zu überzeugen, einem jungen Unternehmen zu vertrauen, die Gehaltsabrechnung zu erledigen, Instrumente von Hand zu reparieren. Aber diese Hindernisse wurden zu unserer Lehrzeit.
Wie können wir den Wissens- und Technologietransfer verbessern und gleichzeitig einen echten gesellschaftlichen Mehrwert schaffen?
Über Fördermittel wird viel gesprochen, was gut ist, denn wir müssen sie verbessern. Aber ich glaube, wir sollten über die Fördermittel hinausdenken. Der Fokus muss auf dem Impact liegen, nicht nur auf der Förderung. In den Life Sciences bedeutet das vor allem eines: Innovationen schneller zu den Patienten und den behandelnden Ärzten zu bringen.
Wir haben exzellente Forschung und Wissenschaftler von Weltrang. Die Frage ist, wie schnell ihre Entdeckungen den Weg vom Labor in die medizinische Praxis finden. Entscheidend sind stärkere Partnerschaften zwischen Universitäten, Krankenhäusern und praktizierenden Ärzten. Wenn Forscher, Kliniker und Ärzte früh zusammenarbeiten, wird der Weg von der Entdeckung zum Patienten kürzer und effektiver.
Ein weiterer wichtiger Aspekt ist, Wissenschaftler dazu zu ermutigen, den Schritt in die Selbständigkeit zu wagen. Viele zögern, weil sie glauben, dass ihnen die unternehmerischen Fähigkeiten fehlen. Was sie jedoch wirklich brauchen, ist eine unterstützende Umgebung: Mentoren, Vorbilder und die Möglichkeit, ihre Ideen auszuprobieren.
Schließlich geht es beim Wissenstransfer nicht darum, Patente von einem Büro in ein anderes zu verlagern. Es geht darum, wissenschaftliche Erkenntnisse in etwas umzusetzen, das das Leben der Menschen berührt und Ärzten hilft, ihre Patienten besser zu behandeln.
Die Skalierung von Forschungsergebnissen in der Privatwirtschaft funktioniert in Deutschland und Europa anders als in den USA. Was können wir aus den USA lernen und was sollten wir anders machen?
Ich bewundere den Mut des US-Ökosystems, in dem Gründer oft von großen Zielen träumen, schnell agieren und frühzeitig Investoren finden. Diese Energie schafft Dynamik und hat viele bahnbrechende Unternehmen hervorgebracht.
Europa hat seine eigenen Stärken. Wir sind bekannt für Qualität, Präzision und Vertrauen. Kunden schätzen, dass wir Dinge bauen, die lange halten. Unsere Herausforderung besteht darin, diese Stärken mit mehr Geschwindigkeit und Mut zu kombinieren. Wir haben die Chance, ein anderes Modell als das US-amerikanische zu entwickeln: verantwortungsvolles Wachstum, profitable Unternehmen und nachhaltige Wirkung, die über Jahrzehnte anhält, und nicht nur Finanzierungszyklen.
Kurz gesagt: Wir können uns von den USA die Zuversicht abschauen, aber wir sollten uns unserer europäischen DNA treu bleiben: geduldig, diszipliniert und langfristig orientiert.
Seit Oktober 2025 bist du Vizepräsident für Entrepreneurship an LMU. Wie willst du dort die Bereiche Entrepreneurship und Technologietransfer voranbringen?
Die LMU ist eine der weltweit führenden Universitäten mit 54.000 Studierenden und 18 Fakultäten. Sie vereint Exzellenz in allen Bereichen und Forschungsgebieten wie Medizin, Physik, KI, Recht, Wirtschaftswissenschaften und Geisteswissenschaften. Meine Aufgabe ist es, dafür zu sorgen, dass diese Vielfalt in die Gesellschaft getragen wird. In Form von Unternehmen, Wissen und Menschen, die ihre Fähigkeiten einsetzen. Und das muss schnell geschehen.
Eine natürliche Stärke der LMU liegt in DeepTech, in den Life Sciences, insbesondere in der Biotechnologie, und in aufkommenden Bereichen wie künstliche Intelligenz und Quanten-Technologien. In diesen Bereichen gibt es bereits bahnbrechende Forschung, und der Einfluss auf Patienten, Industrie und Gesellschaft kann enorm sein. Mein Fokus liegt darauf, diese Bereiche zu stärken und die Wege von der Forschung zur Anwendung zu beschleunigen und zu vereinfachen.
Das bedeutet, dass wir Studierenden und Forschern Zugang zu Büros und Laboren, Inkubationsprogrammen, Finanzierungsmöglichkeiten und starke Partnerschaften mit relevanten Akteuren in München und darüber hinaus bieten, dass wir ein Umfeld schaffen, in dem sie frühzeitig und in der Nähe der Kunden mutige Ideen testen können. In dem sie aus Fehlern und Erfolgen lernen können, von erfahrenen Gründern Ratschläge erhalten und Unternehmertum als attraktive Option sehen.
Vor allem aber möchte ich, dass die Zahl der Start-ups, die von der LMU ausgründen, deutlich ansteigt. Sind Lehre, Forschung und Unternehmertum auf Weltniveau und stärken sich gegenseitig, wird die LMU noch mehr zu einem Ort, an dem Ideen wirklich Wirkung entfalten. Nicht nur in München, sondern weit darüber hinaus.
Vor Kurzem ist dein Buch „The Honorable Entrepreneur“ erschienen. Welche Tipps daraus willst du Gründer*innen mit auf den Weg geben?
Diese sieben Prinzipien haben mich in den letzten 20 Jahren von einer kleinen Labor-WG in einem Keller zu einem globalen Unternehmen geführt:
- Vertrauen aufbauen oder gar nichts aufbauen: Vertrauen ist die Grundlage für die Zusammenarbeit mit Mitgründern, Mitarbeitern, Investoren und Kunden. Ohne Vertrauen kann kein Unternehmen bestehen.
- Menschen an erste Stelle setzen – immer: Erfolg wird von Teams und nicht von Einzelkämpfern geschaffen. Wenn du dich um deine Mitarbeiter kümmerst, werden sie die Mission mit dir durchziehen.
- Innovieren für den Impact: Baue keine Technologie nur für dich selbst. Frage dich: Verbessert das das Leben – für Patienten, Kunden, die Gesellschaft?
- Schnell und klug skalieren: Wachstum ist wichtig, aber Wachstum ohne Disziplin kann ein Unternehmen zerstören. Fokussiertes, profitables Skalieren schafft Resilienz.
- Ein profitables, nachhaltiges Unternehmen aufbauen: Profitabilität ist kein Nachgedanke, sondern das, was dir Freiheit und Unabhängigkeit gibt.
- Die Vision umsetzen: Viele Gründer verlieren sich in glänzenden Ablenkungen. Bleib fokussiert. Setze um, was am wichtigsten ist.
- Gib etwas zurück: Teile deine Erfahrung, unterstütze andere und trage zum Ökosystem bei. Wahre Erfolge sind diejenigen, die überleben, wenn man selbst nicht mehr da ist.
Meine Botschaft ist einfach: Man kann im Geschäftsleben erfolgreich sein, ohne dabei seine Seele zu verkaufen. Rentabilität und Prinzipien sind keine Gegensätze, sondern gehören zusammen.
Philipp, Danke für deine Insights
Hinweis: Dieses Interview wurde ursprünglich auf Englisch geführt und ins Deutsche übersetzt.
KI & Bewertungen: Sichtbarkeit in einer neuen Suchrealität
Tipps und To-dos: Wie du dein Bewertungsmanagement strategisch aufsetzt und Sichtbarkeit und Vertrauen im KI-Zeitalter steigerst.
Generative Antworten in Suchmaschinen und Assistenten verändern die Spielregeln der Online-Sichtbarkeit. Nicht mehr nur klassische Rankings entscheiden, sondern die Frage, wem die KI genug vertraut, um es überhaupt zu nennen. Aktuelle, glaubwürdige und inhaltlich konkrete Bewertungen werden dabei zum Schlüsselsignal. Für kleine und mittlere Unternehmen bedeutet das: Bewertungsmanagement ist kein Nice-to-have mehr, sondern ein Pflichtprogramm, das Auffindbarkeit, Auswahl und Conversion spürbar beeinflusst. Im Folgenden erfährst du, wie du dein Bewertungsmanagement strategisch aufsetzen solltest, um Sichtbarkeit und Vertrauen im KI-Zeitalter zu steigern.
Warum Bewertungen jetzt geschäftskritisch sind
KI-Modelle zerlegen Rezensionen in viele kleine Bedeutungseinheiten und ziehen daraus ein konsistentes Bild. Welche Leistung wurde erbracht, an welchem Ort, mit welcher Qualität und für welchen Anlass. Aus den einzelnen Stimmen entsteht so ein Vertrauensprofil, das über bloße Sternesummen hinausgeht. Entscheidend ist nicht die bloße Menge, sondern die Frische und die inhaltliche Dichte der Aussagen. Eine Rezension wie „Schnell geholfen am Sonntag, sehr kompetente Beratung zu Reiseimpfungen“ liefert gleich mehrere Signale. Zeitliche Verfügbarkeit, thematische Expertise und konkreter Nutzen. Genau solche Details erhöhen die Wahrscheinlichkeit, in generativen Antworten aufzutauchen, wenn Menschen in ihrer Nähe nach einer Lösung suchen. Wer regelmäßig neue, authentische und präzise Bewertungen erhält, verschafft der KI verlässliche Hinweise und sichert sich dadurch mehr Sichtbarkeit in genau den Momenten, in denen Entscheidungen vorbereitet werden.
Bewertungsmanagement als Prozess, nicht als Aktion
Wirksam wird Bewertungsarbeit, wenn sie selbstverständlich Teil der täglichen Abläufe ist. Nach dem Kontakt freundlich um Feedback bitten, den Weg zur passenden Plattform so kurz wie möglich machen, interne Zuständigkeiten klar regeln und Reaktionszeiten verbindlich festlegen. Aus diesen scheinbar kleinen Schritten entsteht ein stabiler Rhythmus, der kontinuierlich neue Kund*innenstimmen hervorbringt und der KI immer wieder frische Kontexte liefert. Ein solcher Prozess ist robuster als jede einmalige Kampagne, weil er verlässlich Vertrauen aufbaut und saisonale Schwankungen abfedert. Teams profitieren, wenn sie Zielkorridore definieren, etwa eine bestimmte Zahl neuer Rezensionen pro Woche und wenn sie Fortschritte sichtbar machen. So wird aus gutem Vorsatz ein gelebter Ablauf, der die gesamte Organisation stärkt.
Sprache der Kund*innen wirkt wie natürliches SEO
KI versteht Alltagssprache deutlich besser als Listen isolierter Schlagwörter. Unternehmen gewinnen, wenn sie um freie, aber konkrete Formulierungen bitten, ohne Vorgabetexte und ohne Druck. Eine höfliche Bitte wie: „Wenn es für Sie passt, nennen Sie gern, was Ihnen besonders geholfen hat“ öffnet den Raum für präzise Hinweise auf Leistungen, Erreichbarkeit, Barrierefreiheit oder Schnelligkeit. Solche natürlich entstandenen Details sind für Menschen überzeugend und zugleich für Maschinen gut interpretierbar. Sie zeigen, wofür ein Betrieb tatsächlich steht, und verankern die passenden Begriffe in einem echten Nutzungskontext. Das Ergebnis ist eine Sprache, die Vertrauen schafft und die Auffindbarkeit stärkt, ohne künstlich zu wirken.
Antworten trainieren Vertrauen für Menschen und Maschinen
Jede Reaktion auf eine Bewertung ist ein sichtbares Zeichen von Serviceorientierung und zugleich zusätzlicher Kontext für die KI. Gute Antworten bedanken sich aufrichtig, beziehen sich konkret auf das Erlebte und bieten einen klaren nächsten Schritt an. Bei Kritik zählt ein professioneller Umgang. Das Anliegen nachvollziehen, Verantwortung übernehmen, eine realistische Lösung anbieten und einen direkten Kontaktweg nennen. So entsteht ein Bild von Verlässlichkeit, das Hemmschwellen senkt und Wiederbesuche wahrscheinlicher macht. Die KI erkennt diesen Umgang ebenso und ordnet das Unternehmen eher als vertrauenswürdig ein. Mit der Zeit entsteht ein stabiler Kreislauf aus guter Erfahrung, konstruktiver Reaktion und wachsendem Vertrauen.
Lokaler Content und Social Proof gehören zusammen
Bewertungen entfalten ihre volle Wirkung, wenn sie auf eine solide Informationsbasis treffen. Konsistente Unternehmensdaten, vollständige Leistungsseiten pro Standort, klare Öffnungszeiten inklusive Ausnahmen und eine schnelle, mobil optimierte Webseite erleichtern die Einordnung für Nutzer*innen und Maschine. Wenn ausgewählte Zitate oder Bewertungsschnipsel an relevanten Stellen sichtbar werden, etwa auf der Startseite, in der Buchungsstrecke oder in den häufigen Fragen, entsteht ein schlüssiges Gesamtbild. Der lokale Bezug bleibt klar erkennbar, die Erwartungen sind gut gesetzt, und die nächsten Schritte sind ohne Umwege möglich. So wird aus Social Proof ein handfester Conversion Hebel.
Vom Feedback zur Verbesserungsschleife
Rezensionen sind fortlaufende Marktforschung aus erster Hand. Wer wiederkehrende Themen auswertet, etwa Wartezeiten, Erreichbarkeit oder Bezahloptionen, erkennt schnell die Stellschrauben mit der größten Wirkung. Wichtig ist, die daraus abgeleiteten Verbesserungen konsequent umzusetzen und sichtbar zu machen. Informieren, handeln, erneut um Rückmeldung bitten. Dieser offene Kreislauf wirkt nach innen und nach außen. Mitarbeitende erleben, dass Feedback Veränderungen anstößt, Kund*innen erleben, dass ihre Hinweise ernst genommen werden, und die KI registriert die fortlaufende Pflege der Qualität. Mit jeder Runde werden Erlebnisse besser und Bewertungen stärker, was die Sichtbarkeit weiter erhöht.
Fazit
Sichtbarkeit entsteht heute dort, wo Menschen nach konkreten Lösungen fragen und wo KIs verlässliche Hinweise zu Qualität und Relevanz finden. Unternehmen, die Bewertungen als strategischen, kontinuierlichen Prozess verstehen, erhöhen ihre Chance, in generativen Antworten genannt zu werden und gewinnen genau in den entscheidenden Momenten an Präsenz. Vieles davon ist eine Frage kluger Organisation und klarer Abläufe. Der finanzielle Aufwand bleibt überschaubar, der Nutzen für Auffindbarkeit, Vertrauen und Umsatz ist deutlich spürbar.
Die Autorin Franziska Ortner ist Produktmanagerin bei SELLWERK
KI-Agenten als Transformationstreiber 2026
Eine aktuelle DeepL-Studie zeigt: 69 % der globalen Führungskräfte erwarten für 2026 tiefgreifende Veränderungen durch KI-Agenten; KI-Sprachtechnologie wird zur unverzichtbaren Infrastruktur.
Eine neue Studie von DeepL, einem globalen Unternehmen für KI‑Produkte und ‑Forschung, zeigt: 2026 wird für viele Organisationen den Übergang vom Experimentieren mit KI hin zu agentischer Automatisierung markieren. So erwartet die Mehrheit der weltweit befragten Führungskräfte (69 %), dass agentenbasierte KI ihre Geschäftsabläufe im kommenden Jahr deutlich verändern wird.
Die Studie wurde im September 2025 von Censuswide im Auftrag von DeepL durchgeführt. Befragt wurden 5.000 Führungskräfte in Deutschland, Frankreich, den USA, Großbritannien und Japan. Die Ergebnisse deuten darauf hin, dass Unternehmen verstärkt planen, autonome KI-Agenten im großen Umfang einzusetzen – etwa zur Unterstützung von Wissensarbeit, zur Effizienzsteigerung oder zur Anpassung organisatorischer Strukturen. Damit zeichnet sich die bedeutendste operative Veränderung in der Wirtschaft seit der Einführung der Cloud an.
„KI-Agenten sind längst nicht mehr experimentell, sie sind unumgänglich.“ sagt Jarek Kutylowski, CEO und Gründer von DeepL. „Die nächste Phase besteht darin, sie tiefgreifend in unsere Arbeitsweisen zu integrieren. In 2026 werden KI-Agenten das mühsame Umschalten zwischen verschiedenen Kontexten und repetitive Aufgaben übernehmen, sodass sich Menschen auf das konzentrieren können, was Unternehmen tatsächlich voranbringt.“
KI-Agenten werden zum nächsten Disruptor für Unternehmen
Nach ersten Pilot- und Anwendungsfällen rücken KI-Agenten zunehmend in den produktiven Einsatz:
- Fast die Hälfte der globalen Führungskräfte (44 %) erwartet für 2026 einen tiefgreifenden Wandel durch agentische KI; ein Viertel (25 %) sieht diesen Wandel bereits heute. Nur 7 % glauben, dass KI-Agenten ihre Betriebsabläufe nicht verändern werden, was die hohe Geschwindigkeit der Implementierungen unterstreicht.
- Als die drei wichtigsten Voraussetzungen für den sinnvollen und vertrauenswürdigen Einsatz von KI-Agenten nennen die Befragten nachweisbare Effizienz- und ROI-Effekte (22 %), Anpassungsfähigkeit der Belegschaft (18 %) und zunehmende organisatorische Bereitschaft (18 %).
- Als wesentliche Herausforderungen bei der Einführung von KI-Agenten nennen die Befragten Kosten (16 %), Bereitschaft der Belegschaft (13 %) und Reife der Technologie (12 %).
KI als zentraler Wachstumstreiber für globale Unternehmen
Über Agenten hinaus gilt KI insgesamt als wichtigster Motor für das Wirtschaftswachstum in 2026:
- Über zwei Drittel (67 %) der Befragten geben an, dass sich der ROI ihrer KI-Initiativen in diesem Jahr erhöht hat; mehr als die Hälfte (52 %) erwartet, dass KI im kommenden Jahr mehr zum Unternehmenswachstum beitragen wird als jede andere Technologie.
- Wenn es um messbare Verbesserungen durch KI geht, liegt Deutschland (78 %) zusammen mit Großbritannien (80 %) an der Spitze, gefolgt von den USA (71 %) und Frankreich (70 %). Japan verzeichnet mit 35 % deutlich niedrigere Werte, was auf langsamere Implementierungen und Bereitschaften hindeutet.
- Über die Hälfte der globalen Führungskräfte (51 %) rechnet damit, dass KI im kommenden Jahr mehr neue Rollen schafft als ersetzt. 52 % geben an, dass KI-Kenntnisse für die meisten Neueinstellungen vorausgesetzt werden.
KI-Sprachtechnologie entwickelt sich vom Werkzeug zur zentralen Infrastruktur
Die Studie zeigt zudem, wie KI-Sprachtechnologie zur entscheidenden Komponente der Unternehmensinfrastruktur wird:
- Fast zwei Drittel der globalen Unternehmen (64 %) planen 2026 steigende Investitionen in KI-Sprachtechnologie – angeführt von Großbritannien (76 %) und Deutschland (74 %), gefolgt von den USA (67 %) und Frankreich (65 %) werden mehrsprachige Kommunikation und Inhalte zu zentralen Faktoren für globales Wachstum. Im Gegensatz dazu bleibt Japan (38 %) vergleichsweise konservativ, was auf eine langsamere Dynamik hindeutet, gleichzeitig aber das wachsende Interesse von mehr als einem Drittel der Führungskräfte widerspiegelt.
In diesem Zusammenhang wird Echtzeit-Sprachübersetzung 2026 unverzichtbar:
- Über die Hälfte der globalen Führungskräfte (54 %) sieht Echtzeit-Sprachübersetzung im kommenden Jahr als unverzichtbar an – derzeit sind es ein Drittel (32 %).
- Großbritannien (48 %) und Frankreich (33 %) sind Vorreiter bei der Nutzung von Tools für die Echtzeit-Sprachübersetzung; Japan liegt derzeit nur bei 11 %.
- Die Nachfrage wird angetrieben von technologischen Fortschritten in der Echtzeit-Sprachübersetzung (46 %), Kundenerwartungen (40 %) und marktübergreifender Expansion (38 %).
Die Erkenntnisse der Studie liefern wichtige Einblicke in die Zukunft der KI und zeigen, wie diese Veränderungen Branchen umgestalten, Kundenerwartungen neu definieren und sich auf das Wettbewerbsumfeld auswirken.
Happy Homeoffice Club gestartet
Gründerin Caterina Hirt startet ein digitales Netzwerk als kollaborative Kommunikationsplattform für selbständige Mütter im Homeoffice.
Mit dem Start des Happy Homeoffice Clubs entsteht ein neues digitales Angebot für selbständige Mütter – mit Liveformaten, Co-Working, einer innovativen Softwareplattform und vielen nützlichen Business-Hacks. Die Gründerin Caterina Hirt bringt damit ein strukturiertes, unterstützendes Netzwerk an den Start, das den oft isolierten Homeoffice-Alltag in einen Ort der Verbindung, Motivation und echten Weiterentwicklung verwandelt. „Ich habe selbst erlebt, wie herausfordernd es ist, Beruf, Familie und Selbstverwirklichung unter einen Hut zu bringen – vor allem im Homeoffice. Mit dem Happy Homeoffice Club möchte ich Frauen zeigen, dass sie nicht alleine sind“, so die Gründerin. Caterina Hirt ist Unternehmerin, Autorin, systemische Coachin und Mutter von zwei Kindern. Mit ihrem Agenturbackground und über zehn Jahren Erfahrung im Homeoffice weiß die Marketingspezialistin aus erster Hand, welche Chancen – aber auch welche Herausforderungen – dieser Arbeitsalltag birgt.
Kern der Zusammenarbeit ist eine kollaborative Kommunikationsplattform, über die die Mütter dauerhaft in einem echten Netzwerk verbunden sind. Dazu setzt das Angebot auf Livecalls, Community-Austausch, Expertenvorträge und snackable Businesstipps, die den Workflow im Homeoffice effizienter machen. Das Angebot richtet sich explizit an selbständige Frauen oder Mütter im Homeoffice. „Bei uns fühlt sich keine Teilnehmerin mehr allein. Hier treffen sich Frauen, die genau wissen, wie es ist, mit Laptop, Kaffee, Kind und manchmal ein bisschen Chaos zu jonglieren. Sie arbeiten, lachen, tauschen sich aus und motivieren sich gegenseitig. So modern, vernetzt und unterstützend, wie man es sich als Selbstständige immer gewünscht hat “, sagt Caterina Hirt.
Die zugrundeliegende Softwarelösung bietet eine hochmoderne Nutzeroberfläche, Chats, Calls in einer geschützten Umgebung sowie Daten- und Wissensaustausch an. So gibt es zum Beispiel den Monday Motivation Call mit allen Teilnehmerinnen oder eine interaktive Kaffeeküche, in der man sich einfach mal über alle Themen abseits des Business interaktiv austauschen kann. Die Plattform wird jeder Teilnehmerin zur Verfügung gestellt, die Nutzung ist in der monatlichen Mitgliedsgebühr von 49 Euro (Einführungspreis) enthalten. Interessentinnen können die Community inklusive aller Angebote zwei Wochen kostenlos testen.
HR-Trends 2026
Die Arbeitswelt verändert sich, die Position der Unternehmen wird stärker, eine Rezession auf Management- und Führungsebene droht: die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen. Das sind die fünf größten Herausforderungen für 2026.
Die Arbeitswelt verändert sich - sowohl für Personalmanager*innen als auch für die Belegschaft. Während sich vor wenigen Jahren die Arbeitnehmenden in einer starken Verhandlungsposition befanden, schlägt das Pendel jetzt immer stärker zugunsten der Unternehmen aus. Das eröffnet ihnen die Chance, die Arbeitswelt mehr nach ihren Vorstellungen zu gestalten, um ihren Unternehmenserfolg zu sichern. Gleichzeitig tragen sie auch die große Verantwortung, das Arbeitsumfeld ihrer Mitarbeitenden kontinuierlich zu verbessern, das Engagement zu fördern und die Rolle der KI für die kommenden Jahre mit Weitblick und Sorgfalt auszubalancieren.
Wir werfen einen Blick nach vorne und skizzieren die fünf wichtigsten HR-Trends für die DACH-Region im kommenden Jahr.
1. Kulturelle Transparenz – Strategiewechsel bei der Talentakquise
Die Stagnation der Wirtschaft, der angespannte Arbeitsmarkt, weniger Stellenangebote – all das führt dazu, dass Mitarbeitende lieber in ihren derzeitigen Positionen und Rollen verharren. Die Folge ist ein “Talentestau:” Mitarbeitende, die sonst das Unternehmen verlassen würden, bleiben und blockieren damit die Wechsel- und Entwicklungsmöglichkeiten derer, die eher bereit sind, ihre Karriere engagiert voranzubringen. Auf der Suche nach effektiven Möglichkeiten, diese Engpässe zu überwinden, werden Unternehmen im kommenden Jahr ihre Strategie hin zu mehr kultureller Transparenz ausrichten. Anstatt neue Talente mit einem Wertversprechen oder der einseitigen Hervorhebung positiver Alleinstellungsmerkmale zu gewinnen, kommunizieren sie ihre tatsächlichen Erwartungen und die Realität des Arbeitsalltags klar. Damit betonen sie bewusst auch Aspekte, die weniger passende Bewerbende eher abschrecken - damit sich die wirklich passenden umso stärker angesprochen fühlen. Beispiele dafür können u.a. die Erwartung, wieder vollständig zur Büropräsenz zurückzukehren, Prozessreife und Struktur der Unternehmen sowie die Nutzung von KI-Tools im Arbeitsalltag sein.
2. Neudefinition des Erfolgs – Leistung statt Leistungsschau?
Mitarbeitende haben oft das Gefühl, dass ihre tatsächlich geleistete Arbeit nicht richtig bewertet wird und sie nicht ausreichend Anerkennung erfahren. Analysen von Culture Amp ergaben, dass 2025 rund 20 Prozent der Mitarbeitenden nicht genau wissen, wie sich die Bewertung ihrer Performance zusammensetzt. Die Folge dieser Unkenntnis sind Mutmaßungen und die Fokussierung auf mehr Sichtbarkeit: Mitarbeitende betreiben eine Art Leistungsschau und arbeiten so, dass es vor allem produktiv aussieht. Wenn das Gefühl hinzukommt, einem passiven Monitoring ausgesetzt zu sein – in der DACH-Region nur unter strengen Auflagen erlaubt – konzentrieren sich Mitarbeitende auf das, was vermeintlich gemessen wird. Diese Kluft wird sich 2026 weiter vergrößern, wenn die Verantwortlichen ihre Leistungsbewertung nicht neu ausrichten, um ein vertrauenswürdiges und vollständigeres Bild von der Performance ihrer Mitarbeitenden zu erhalten. Wer hingegen menschzentrierte Feedbacksysteme wie Upward Feedback, 360‑Grad‑Feedback und reflektierende Einzelgespräche verankert, kann das Vertrauen stärken und ein ganzheitlicheres Verständnis der Beiträge der Mitarbeitenden erhalten.
3. Mensch und KI – zwei Seiten der HR-Medaille
2026 werden KI-Tools verstärkt Einzug in den HR-Abteilungen halten. Routineaufgaben wie z.B. eine erste Bewerberauswahl oder die Beantwortung von häufig gestellten Fragen werden zunehmend automatisiert beantwortet. Doch mit den Möglichkeiten der KI wächst auch die Erkenntnis, dass sie nicht die Lösung für alles sein darf. Darüber hinaus tritt 2026 der EU AI Act vollständig in Kraft. Demzufolge werden KI-Tools im Zusammenhang mit Personaleinsatz als Hochrisiko eingestuft: Sie unterliegen sehr strengen Richtlinien bezüglich Transparenz, Kontrolle und Grenzen des KI-Einsatzes. Bei der Frage, welche Aufgaben der KI überlassen werden können und welche nach wie vor die Empathie, die Erfahrung und das Wissen echter HR-Expert*innen erfordern, ist Fingerspitzengefühl gefragt. Auch scheinbar administrative Aufgaben benötigen manchmal den direkten persönlichen Austausch. Unternehmen werden dazu übergehen, deutlicher zu definieren, welche Fragestellungen und Bereiche maschinenbezogene Fähigkeiten und welche menschliche Fähigkeiten erfordern. 2026 wird sich ein deutlicher Trend bemerkbar machen: Die verstärkte Integration von KI in den Personalabteilungen und gleichzeitig die permanente Überprüfung, welche Aufgabenbereiche zukünftig KI-gestützt erledigt werden sollen.
4. Führung neu denken – Managementpositionen verlieren an Attraktivität
Auch das verraten die Analysen von Culture Amp: 72 Prozent der Generation Z sind nicht an Führungspositionen interessiert. Die jungen Arbeitnehmenden bleiben lieber in ihren jeweiligen Rollen, manche entscheiden sich ganz bewusst gegen eine Managementkarriere. Der Reiz, eine Leitungsfunktion zu übernehmen, nimmt insbesondere im Bereich des mittleren Managements ab: Diese Manager*innen fühlen sich zwischen den Erwartungen der Unternehmensführung und den Erwartungen ihres Teams oft unter starkem Druck. In der Folge könnte es im kommenden Jahr zu einer weiteren Abflachung der Hierarchien in den Unternehmen kommen, manche befürchten gar eine Rezession auf der Management- und Führungsebene. Gleichzeitig eröffnen sich Manager*innen durch den Einsatz von KI-Tools neue Möglichkeiten, ihren Einfluss zu vergrößern. Für jene Talente, die sich darauf einlassen, werden Führungspositionen dadurch zugänglicher und nachhaltiger. In Anbetracht dessen werden sich die Dynamiken in den Teams verändern. Unternehmen werden Führungsrollen zunehmend überdenken und ihre Manager*innen besser unterstützen, statt weitere einzustellen. Denn wenn weniger Menschen führen wollen, braucht es nicht mehr, sondern besser unterstützte Manager*innen.
5. Ambitionen und Leistungsbereitschaft wird außerhalb der Arbeitswelt ausgelebt
Ob berufliche Nebentätigkeit, Ehrenamt oder leidenschaftliches Hobby – immer mehr Mitarbeitende bringen Energie und Motivation für Tätigkeiten auf, die außerhalb ihrer regulären Arbeit liegen. Sie erkennen, dass sie ihre Stärken auch anderswo verwirklichen können. Dieser Trend hin zu mehr Kreativität, Leidenschaft und Erfüllung durch sinnvolle Tätigkeiten nach Feierabend und am Wochenende wird sich auch 2026 fortsetzen. Das Risiko für Unternehmen geht dabei über bloße Ablenkung hinaus: Bleiben angemessene Antworten im kommenden Jahr aus, wandern Ambitionen nach außen ab. Führung muss etwas Besseres anbieten: Die Chance 2026 liegt darin, den Hauptjob so zu gestalten, dass er sich wieder energiegeladen, kreativ und investitionswürdig anfühlt.
Fazit
Die Strömungen und Entwicklungen in der HR-Welt bringen einen fortdauernden Wandel mit sich. Gespannt blicken die Personalabteilungen auf die für 2026 vorgesehene nationale Umsetzung der Entgelttransparenz-Richtlinie der EU (EU Pay Transparency Directive and Equal Pay). Die weitreichendsten Veränderungen verursacht aber der Einzug der KI in die Arbeits- und Lebenswelt der Mitarbeitenden. Dies wirft unablässig neue Fragen auf: Droht der Talentepool zu versiegen, wenn Aufgaben für Berufseinsteiger*innen von KI übernommen werden und sie infolgedessen keine Erfahrung aufbauen können? Wird sich die Belegschaft eines Unternehmens früher oder später in KI-resistente und KI-affine Gruppen aufspalten? Die HR-Welt bleibt ein Schmelztiegel verschiedenster Strömungen im Unternehmen, die datengestützte Strategien erfordern.
Der Autor Dr. Arne Sjöström ist Regional Director, People Science EMEA bei Culture Amp mit dem Schwerpunkt Organisationspsychologie und angewandte Forschung.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.

