Fünf globale Robotik-Trends 2025


44 likes

Das sind die wichtigsten Trends, die die Robotik und Automation im Jahr 2025 weltweit prägen werden. Gut zu wissen nicht nur für Robotik-Start-ups und -Gründer*innen.

Der Marktwert installierter Industrie-Roboter hat mit 16,5 Mrd. US-Dollar weltweit einen historischen Höchststand erreicht. Die künftige Nachfrage wird durch technologische Innovationen, neue Marktentwicklungen und die Erschließung neuer Geschäftsfelder angetrieben. Die International Federation of Robotics (IFR) – 1987 als nicht gewinnorientierte Organisation gegründet –, berichtet über die wichtigsten Trends, die die Robotik und Automation im Jahr 2025 prägen werden.

1. Künstliche Intelligenz – Physisch, analytisch, generativ

Der Trend zum verstärkten Einsatz künstlicher Intelligenz (KI) setzt sich fort: In der Robotik helfen verschiedene KI-Technologien dabei, ein breites Spektrum von Aufgaben effizienter auszuführen: Mit analytischer KI lassen sich große Datenmengen verarbeiten und analysieren, die von der Roboter-Sensorik erfasst werden. Dies hilft dabei, auf unvorhersehbare Situationen oder wechselnde Bedingungen in öffentlichen Räumen oder bei der Produktion von „High-Mix-Low-Volume-Aufgaben“ zu reagieren. Mit Bildverarbeitungssystemen ausgerüstete Roboter analysieren ihre Arbeitsschritte, um Muster zu erkennen und Arbeitsabläufe zu optimieren. Ziel ist beispielsweise, Tempo und Präzision zu steigern.

Roboter- und Chip-Hersteller*innen investieren aktuell in die Entwicklung spezieller Hard- und Software, die Umgebungen aus der realen Welt simulieren. Diese sogenannte physische KI ermöglicht es Robotern, sich selbst in solchen virtuellen Umgebungen zu trainieren. Dabei gemachte Erfahrungen treten an die Stelle traditioneller Programmierung. Solche generativen KI-Projekte zielen darauf ab, einen „ChatGPT-Moment“ für physische KI zu schaffen.

KI-gesteuerte Simulationstechnologie für Roboter dürfte sich sowohl in typischen industriellen Umgebungen als auch in Anwendungen der Servicerobotik durchsetzen.

2. Humanoide

Roboter in menschlicher Gestalt erregen große mediale Aufmerksamkeit. Die Vision: Roboter werden zu Allzweckwerkzeugen, die selbständig eine Spülmaschine beladen und gleichermaßen anderswo am Fließband arbeiten können. Robotik-Start-ups arbeiten an diesen humanoiden Alleskönnern.

Industrielle Hersteller*innen konzentrieren sich dagegen auf Humanoide, die zunächst individuelle Einzelaufgaben bewerkstelligen. Die meisten dieser Pilotprojekte laufen in der Automobilindustrie. Diese Branche spielt seit jeher eine Pionierrolle bei der Entwicklung von Roboteranwendungen. Das gilt sowohl für die Industrie-Robotik als auch für die Logistik und Lagerhaltung. Aus heutiger Sicht bleibt jedoch abzuwarten, ob humanoide Roboter einen wirtschaftlich tragfähigen und skalierbaren Business-Case für die breite industrielle Anwendung darstellen werden, insbesondere im Vergleich zu bereits bestehenden Lösungen.

Nichtsdestotrotz gibt es zahlreiche Anwendungen, die von der humanoiden Form profitieren könnten und Marktpotenzial für die Robotik bieten, beispielsweise in der Logistik und Lagerhaltung.

3. Nachhaltigkeit und Energieeffizienz

Die Erfüllung der nachhaltigen Entwicklungsziele der Vereinten Nationen (UN) und damit korrespondierender Regularien weltweit wird zu einer wichtigen Voraussetzung sich als Lieferant*in zu qualifizieren. Roboter spielen für Hersteller*innen eine Schlüsselrolle, wenn es darum geht, diese Ziele zu erreichen.

Grundsätzlich verringert Robotik mit ihrer Präzisionsarbeit die Verschwendung von Material und verbessert das Output zu Input-Verhältnis in Fertigungsprozessen. Diese automatisierten Systeme gewährleisten zudem eine gleichbleibende Qualität, die für Produkte mit langer Lebensdauer und minimalem Wartungsaufwand unerlässlich ist. Bei der Herstellung umweltfreundlicher Energietechnologien wie Solarzellen, Batterien für Elektroautos oder Recyclinganlagen sind Roboter für eine kosteneffiziente Produktion von entscheidender Bedeutung. Sie ermöglichen es Hersteller*innen, ihre Produktion schnell zu skalieren, um eine wachsende Nachfrage der Kund*innen zu befriedigen, ohne Kompromisse bei der Qualität oder Nachhaltigkeit einzugehen.

Darüber hinaus wird die Robotertechnologie dahingehend verbessert, Maschinen energieeffizienter zu machen: Die Leichtbauweise beweglicher Roboterkomponenten senkt beispielsweise deren Energieverbrauch, ebenso neue Standby-Modi, die die Hardware in eine energiesparende Parkposition bringen. In der Greifer-Technologie gibt es Fortschritte bei der Anwendung bionischer Lösungen, um z.B. eine starke Greifkraft bei sehr geringem Energieverbrauch zu erreichen.

4. Neue Geschäftsfelder und Kund*innenbranchen für die Robotik

In der Fertigungsindustrie gibt es insgesamt noch viel Potenzial für die Automation mit Robotern. Die meisten Betriebe im produzierenden Gewerbe zählen zu den kleineren und mittelgroßen Unternehmen (KMU). Aktuell stellen hohe Anfangsinvestitionen und Gesamtbetriebskosten für KMU jedoch eine Hürde für den Einsatz von Industrie-Robotern dar. Geschäftsmodelle wie Robot-as-a-Service (RaaS) sollen es Unternehmen erleichtern, von der Roboterautomatisierung zu profitieren, ohne eine festgelegte Kapitalsumme investieren zu müssen. RaaS-Anbietende, die sich auf bestimmte Branchen oder Anwendungen spezialisiert haben, können schnell anspruchsvolle Lösungen liefern. Darüber hinaus bietet die Low-Cost-Robotik Lösungen für potenzielle Kund*innen, für die ein Hochleistungsroboter überdimensioniert wäre. Viele Anwendungen haben geringe Anforderungen an Präzision, Traglast und Lebensdauer. Die Low-Cost-Robotik adressiert dieses neue „good enough“-Segment.

Abseits des produzierenden Gewerbes gehören Bauwirtschaft, Laborautomation und Lagerhaltung zu interessanten neuen Kund*innensegmenten. Branchenübergreifend wird die Nachfrage darüber hinaus von einem Ausbau inländischer Produktionskapazitäten in strategisch wichtigen Branchen angetrieben, deren Bedeutung aufgrund der jüngsten Krisen ins politische Bewusstsein gerückt ist. Die Automatisierung ermöglicht Hersteller*innen eine Rückverlagerung von Produktionskapazitäten näher zum/zur Kund*in ohne Einbußen bei der Kosteneffizienz.

5. Roboter gegen den Arbeitskräftemangel

Nach Angaben der Internationalen Arbeitsorganisation (ILO) leidet das verarbeitende Gewerbe weltweit weiterhin unter Arbeitskräftemangel. Einer der Hauptgründe dafür ist der demografische Wandel, der die Arbeitsmärkte in führenden Volkswirtschaften wie den Vereinigten Staaten, Japan, China, der Republik Korea und Deutschland belastet. Die konkreten Effekte sind zwar von Land zu Land unterschiedlich, aber in der Summe überall in der Lieferkette ein Grund zur Besorgnis.

Der Einsatz von Robotern verringert die Auswirkungen des Arbeitskräftemangels in der Fertigung deutlich. Mit der Automation von gefährlichen, schmutzigen oder repetitiven Tätigkeiten, können sich menschliche Arbeitskräfte auf interessantere und höherwertige Aufgaben konzentrieren. Roboter übernehmen Arbeiten wie ermüdende visuelle Qualitätskontrollen, gesundheitsschädliche Lackierarbeiten oder schweres Heben von Lasten. Technologische Innovationen wie einfache Bedienbarkeit, kollaborierende Roboter oder sogenannte mobile Manipulatoren helfen Lücken im Arbeitsprozess zu füllen, wann und wo immer sie benötigt werden.

Diese Artikel könnten Sie auch interessieren:

charles: DSGVO-konformer KI-Agent für WhatsApp gelauncht

Noch bevor Tech-Riesen wie Meta ihre Angebote auf den Markt bringen, bietet das Berliner Start-up charles erprobte, skalierbare und regulatorisch abgesicherte KI-Agent-Lösungen.

Während Meta LLM-gestützte Agenten auf WhatsApp für Verbraucher*innen einführt, will das Berliner Start-up charles Marken einen entscheidenden Vorsprung verschaffen. Mit der Einführung seines AI Agent Squad will sich charles als führender europäischer Anbieter markensicherer, hochspezialisierter KI-Agenten auf WhatsApp mit integrierter Sicherheit und Compliance etablieren – und damit den weltweit meistgenutzten Messenger in einen echten Handels- und Servicekanal transformieren.

Die KI-Agenten von charles nutzen WhatsApps Interaktivität, proprietäres Markenwissen und die Leistungsfähigkeit moderner KI, um Kund*innen direkt in WhatsApp anzusprechen - kontextbezogen, personalisiert und autonom. Von intelligenten Produktempfehlungen bis zu Support soll die Interaktion Kund*innen ein äußerst persönliches Gefühl vermitteln.

„Unsere KI-Agenten übernehmen echte Aufgaben wie Produktempfehlungen, Beantwortung von Fragen oder Reklamationsbearbeitung. Sie agieren wie echte Mitarbeiter: Man weist ihnen eine echte Aufgabe zu und gibt alle Mittel an die Hand, die sie benötigen, um diese Aufgabe zu erfüllen – sei es durch Zugriff auf Daten oder klare Vorgaben geben“, sagt Andreas Tussing, CEO von charles. “So ermöglichen wir Gespräche, die heute aufgrund von Ressourcen noch nicht möglich sind, und bieten gleichzeitig ein personalisiertes und innovatives Kundenerlebnis.“

WhatsApps native Interaktivität trifft auf markensichere KI

Mit den Berliner KI-Agenten soll WhatsApp zur leistungsstärksten Plattform für Kundenbeziehungen werden - und die Herausforderungen von Marken in Bezug auf Konversion und Kundenbindung lösen, ohne Authentizitätsverlust. Durch die Kombination der hohen Engagement-Raten von WhatsApp mit KI-gesteuerter Automatisierung und Personalisierung sollen Marken gleichzeitig Kundenzufriedenheit und Umsätze steigern sowie Betriebskosten senken können.

Fokus auf markenspezifisches Know-how, Security und Compliance

Der AI Agent Squad nutzt modernste KI-Technologien und verbindet generative Sprachmodelle mit markenspezifischen Datenquellen wie Produktkatalogen, CRM-Systemen und Kundenpräferenzen. Integrierte Schutzvorkehrungen und Tonalitätskontrollen gewährleisten Markensicherheit, während alle Daten auf europäischen Servern verarbeitet werden, ohne externe API-Aufrufe oder Datenextraktion - DSGVO-konform und markensicher.

What's next? Der Wettlauf um eigene Messaging-KI

Mit der Einführung von Memory durch OpenAI und Meta‘s Llama-basierte Agenten auf WhatsApp, heizt sich der Markt für personalisierte, generative Kundenkommunikation auf. Der EU AI Act und das aktuelle Handelsklima erhöhen die Dringlichkeit – Lösungen mit starker Data Governance und Auditierbarkeit sind daher unerlässlich. Charles will sich vor diesem Hintergrund als skalierbare, europäische Alternative zu generischen LLM-Lösungen positionieren – in Europa entwickelt und gehostet.

Robotik-Start-up Ottonomy startet Pilotprojekt im Münchner Flughafen

Der Lufthansa Innovation Hub und der Munich Airport kooperieren zur Förderung von Innovation in der Luftfahrt: Pilotprojekte mit Start-ups sind vor diesem Hintergrund wichtige Hebel zur Implementierung innovativer Lösungen.

Die Luftfahrtbranche steht vor einer Vielzahl von Herausforderungen, sowohl auf Kund*innenseite als auch in geschäftlichen Prozessen. Innovation spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen, indem sie Möglichkeiten zur Digitalisierung, Automatisierung, Optimierung und Neuerfindung schafft.

Vor diesem Hintergrund haben der Lufthansa Innovation Hub, die Berliner Innovationseinheit der Lufthansa Group, und die Terminal 2 Gesellschaft des Flughafens München eine Absichtserklärung (MoU) unterzeichnet. Mit der Unterzeichnung bekunden beide ihre Absicht, durch gemeinsame Initiativen die Innovation in der Luftfahrtbranche voranzutreiben.

“Innovation in der Reiseindustrie ist eine gemeinschaftliche Aufgabe, die dem gesamten Ökosystem zukommt”, sagt Dr. Stefan Nothelfer, Senior Director und Leiter Corporate Venturing & Strategic Growth beim Lufthansa Innovation Hub. “Wir freuen uns darauf, mit der Terminal 2 Gesellschaft des Flughafens München zusammenzuarbeiten, um das Kundenerlebnis gemeinsam zu verbessern und den gesamten Reiseprozess zu optimieren.”

Robotik-Einsatz im Terminal 2 des Flughafens München

Ein konkretes Beispiel für das Vorantreiben von Innovation im Flughafenbetrieb durch Pilotprojekte ist die Zusammenarbeit mit dem Robotik-Start-up Ottonomy.

Seit dieser Woche sind zwei autonome Service-Roboter in den Bereichen der Gates und Gepäckausgabe im Terminal 2 des Flughafens München im Einsatz. Die Roboter sind darauf ausgelegt, verschiedene Aufgaben zu übernehmen, um reibungslose Kund*inneninteraktionen zu ermöglichen. Sie unterstützen Passagier*innen mit Informationen und bewerben die Dienstleistungen von Lufthansa Airlines.

Durch das Scannen eines QR-Codes auf dem Roboter mit ihrem Smartphone gelangen Reisende zu Chat-Assistenten für Self-Service-Optionen. Dort können sie Fluginformationen abrufen und Prozesse wie Umbuchungen oder Erstattungen eigenständig verwalten. Die Roboter liefern zudem wichtige Informationen zu flughafenbezogenen Themen wie Tax Refund und Lost and Found. Dank integrierter Behälter können die Roboter auch für den Warentransport eingesetzt werden – etwa künftig für die Verteilung von Wasserflaschen an Passagier*innen.

“Unser Ziel ist es, unseren Gästen das beste Reiseerlebnis in Europa zu bieten”, sagt Marcus Schnabel, Vice President Ground Operations Hub Munich. “Die Nutzung digitaler Lösungen ist für dieses Vorhaben von entscheidender Bedeutung, und wir freuen uns, als Pilotstandort für wegweisende Innovationen zu dienen.”

Ottonomy setzt seine Roboter weltweit an Flughäfen, in Krankenhäusern und für Auslieferungen auf der letzten Strecke zum/zur Kund*in ein. “Unsere Roboter, die mit Contextual AI arbeiten, ermöglichen es Unternehmenskunden, Innovationen voranzutreiben, bessere Kundenerlebnisse zu schaffen und die betriebliche Effizienz in der Luftfahrt zu steigern“, sagte Ritukar Vijay, CEO von Ottonomy. „Eine Partnerschaft mit zukunftsorientierten Branchengrößen wie der Lufthansa bringt diese Vision der Realität ein großes Stück näher.“

Das Pilotprojekt mit Ottonomy entstand im Rahmen von Startup Gate, der Venture-Clienting-Initiative der Lufthansa Group. Startup Gate verbindet Teams der Lufthansa Group mit hochmodernen Start-ups, um deren Technologien schnell zu adaptieren und schlanke sowie kosteneffiziente Kooperationen zu ermöglichen.

In fünf Schritten zu rankingfähigen KI-Texten

Das aktuelle Whitepaper von eology beleuchtet das Potenzial und die Grenzen von KI-gestütztem Content im Hinblick auf SEO. Hier gibt’s Tipps rund um das Thema rankingfähige KI-Texte.

Die auf Suchmaschinenmarketing spezialisierte Online-Marketing-Agentur eology zeigt in ihrem Whitepaper „KI-Texte und Google-Rankings: Wie gut ranken KI-Inhalte?“, wie KI-Inhalte auf Google ranken, welche Herausforderungen sie mit sich bringen und welche Schritte erforderlich sind, um sie rankingfähig zu machen. Zudem wird auch auf spezifische technische, strategische und kreative Aspekte eingegangen, die für die Erstellung hochwertiger Inhalte entscheidend sind.

Gewusst wie: rankingfähige KI-Teste

Was zweifelsfrei erwiesen ist: Nach dem SEO-Qualitätsstandard erstellte KI-Texte sind rankingfähig und können die Sichtbarkeit einer Domain genauso unterstützen wie menschliche Inhalte. Allerdings ist die Erstellung solcher Texte nicht damit getan, einfach einen Prompt einzugeben und das Ergebnis online zu stellen. Es bedarf menschlicher Zuarbeit und Kontrolle.

Di Expert*innen von eology haben aus ihrer Studie heraus Best Practices ermittelt, um zu rankingfähigen Texten zu kommen. In fünf Schritten kannst du das auch:

1. Schritt: Chatbot briefen

Bei ChatGPT einen CustomGPT anlegen mit allen notwendigen Projektinstruktionen. Auf diese greift die KI immer zurück, ihr müsst sie daher nicht immer wieder neu eingeben. Das spart Zeit und sorgt langfristig für besseren Output. Bei Claude geht das nicht. Hier kopiert ihr die Projektinstruktionen einfach in den Chat. Die KI meldet dann, dass sie die Aufgabe verstanden hat und fasst diese noch einmal zusammen.

Folgende Instruktionen sind wichtig:

• Keywordset

• Infos zur Verwendung der Keywords (Verteilung, Häufigkeit, Positionierung im Text)

• Textlänge

• Zielgruppe und Leseransprache

• Stil, Tonalität und weitere Infos zum Wording

• Formaler Textaufbau (Überschriften, Aufzählungen, Tabellen)

• Inhaltlicher Textaufbau, ggf. Gliederung

2. Schritt: Chatbot testen

Prompt erstellen mit allen für den einzelnen Text relevanten Informationen (Thema, Keywordset). Da ihr alle Projektinstruktionen bereits an den Chatbot übermittelt habt, braucht ihr in den Prompt nur noch die Infos für den einzelnen Text reinschreiben. Er lautet dann: „Hallo GPT, erstellst Du mir bitte einen Text zum Thema „XY“ mit diesen Keywords: Hauptkeyword=Thema: [Hauptkeyword] Nebenkeywords: [Nebenkeywords] W-Fragen: [W-Fragen]. Danke.“

3. Schritt: Output prüfen

Output prüfen auf alle Projektanforderungen: SEO, Keywords, Wording, Rechtschreibung sowie Inhalt.

4. Schritt: Anpassungen vornehmen

Wenn der Output nicht passt, gebt der KI Anweisungen für Änderungen, passt die Projektinstruktionen an oder optimiert den Prompt. Ladet Beispieltexte hoch mit eurem gewünschten Stil, lasst die KI den Stil beschreiben und packt die Stilbeschreibung in die Projektinstruktionen. Wenn der Chatbot wiederholt zu wenig Text liefert, kann es Sinn machen, dass ihr diese Information doch in den Prompt eingeben müsst, selbst wenn diese in den Instruktionen steht. Insbesondere ChatGPT neigt dazu, zu wenig Text zu liefern und muss immer wieder daran erinnert werden.

5. Schritt: Bilder generieren 

Instruktionen für die Bilderstellung in den Projektinstruktionen hinterlegen. Bei einem CustomGPT hinterlegt ihr auch den Stil für die Bilder, denn dann habt ihr eine Chance auf einen einheitlichen Stil. Allerdings ist ChatGPT mit der Schnittstelle zu DALL-E nicht die beste Bild-KI. Daher funktioniert nicht alles reibungs- los. Für eine hochwertige und professionelle Bildgenerierung nutzt besser eine spezielle Bild-KI wie Midjourney.

Workation 2025 – Trends, Tipps, To-dos

Der TUI Workation Index 2025 liefert Zahlen, Fakten, Tipps und To-dos für deine weltweiten Workationplanungen.

In einer Zeit, in der die Grenzen zwischen Berufs- und Privatleben verschwimmen, bietet Workation eine attraktive Alternative, die sowohl die individuellen Bedürfnisse der Mitarbeitenden als auch die Anforderungen des modernen Arbeitsmarkts berücksichtigt. Diese moderne Form der Arbeitsgestaltung, die Flexibilität, Freiheit und Erholung in den Arbeitsalltag integriert, beeinflusst nicht nur unser Wohlbefinden, sondern zunehmend auch unsere Entscheidungen in Bezug auf Beruf und Jobwahl.

Arbeiten, wo andere Urlaub machen

Immer mehr Menschen erkennen die Vorteile darin, remote zu arbeiten, wo andere Urlaub machen. Laut dem Appinio Travel Report 2024 planen rund 20 % der Befragten eine Workation, weitere 26 % liebäugeln mit der Idee. Und es wird einfacher: Etwas mehr als die Hälfte der Beschäftigten (51 %) kann laut einer PwC-Umfrage 2024 mobil aus dem Ausland arbeiten - und das durchschnittlich 40,5 Tage im Jahr. Produktives Arbeiten in spannenden Metropolen - ob New York, Rio de Janeiro oder Barcelona.

Infografik TUI Workation Index Zahlen und Fakten

Die gesamten Studienergebnisse gibt es auf tui.com.

So schafft KI neue CEO-Realitäten

Künstliche Intelligenz (KI) ist in der Führungsebene angekommen, doch welche Konsequenzen hat das für CEOs? Eine Studie enthüllt Eingeständnisse deutscher und internationaler CEOs zum Thema KI.

Der aktuelle „Global AI Confessions Report: CEO Edition" der KI-Plattform Dataiku enthüllt Eingeständnisse deutscher und internationaler Führungskräfte, die hinsichtlich KI einer neuen Realität gegenüberstehen. Wichtige Insights aus der Studie:

 

  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.
  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • Mit 62 Prozent bzw. 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit von KI geht.
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.

Für die Studie, die von The Harris Poll durchgeführt wurde, wurden im Januar und Februar 2025 über 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die Unternehmen der insgesamt 100 befragten deutschen CEOs rangieren bei einem Jahresumsatz von mehr als 250 Millionen Euro und eine Unternehmensgröße von mehr als 500 Mitarbeitenden.

Der Bericht enthüllt: Die KI-Strategie ist zum entscheidenden Faktor für das Überleben von Unternehmen geworden. Die Ergebnisse belegen zudem, dass die Konsequenzen des Einsatzes von KI auch auf höchster Entscheiderebene angekommen sind. 

KI kommt im Vorstand an

Laut Aussagen deutscher Geschäftsführer stellt KI die Rolle der Entscheidungsfindung auf Vorstandsebene zunehmend in Frage. Zu den wichtigsten Ergebnissen gehören: 

  • 93 Prozent der deutschen CEOs sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.
  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.

KI-Strategie: Übernahme von Kernkompetenzen

Auch auf den darauf folgenden Rängen zeichnet sich ab, dass Künstliche Intelligenz das Berufsprofil der Führungsebene deutlich wandeln kann:  

  • 90 Prozent der deutschen CEOs sind der Meinung, dass KI einen besseren Strategieplan entwickeln kann als ein Mitglied ihres Führungsteams (Vizepräsidenten bis zur Vorstandsebene).
  • 49 Prozent der CEOs deutscher Unternehmen schätzen, dass sie 3–4 Teammitglieder durch KI ersetzen könnten, um strategische Planung zu betreiben. Ganze 13 Prozent gaben an, dass sie sogar 7 oder mehr Führungskräfte für die gleiche Aufgabe ersetzen könnten.

Keine KI-Strategie ist allerdings auch keine Antwort, denn

  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • 76 Prozent der deutschen CEOs sind der Meinung, dass sie Gefahr laufen, ihren Job zu verlieren, wenn sie nicht innerhalb von 2 Jahren messbare KI-getriebene Geschäftsgewinne erzielen.

KI als Kernkompetenz zukünftiger CEOs

Führungskräfte müssen sich laut der Umfrage auf dem Jobmarkt zukünftig anders aufstellen. KI-Kompetenz gilt als “Must-Have”, was auch aus dem Berufsalltag deutscher CEOs hervorgeht.

  • 31 Prozent der deutschen CEOs sind der Meinung, dass Erfahrung in der Umsetzung einer erfolgreichen KI-Strategie oder deren Implementierung in 3–4 Jahren eine der wichtigsten Kompetenzen sein wird, nach denen Vorstände bei der Bewertung eines potenziellen Geschäftsführers suchen werden.
  • 82 Prozent der deutschen CEOs geben an, dass ihre direkte Beteiligung an KI-bezogenen Entscheidungen im vergangenen Jahr zugenommen hat.
  • 70 Prozent der deutschen CEOs geben an, an mehr als der Hälfte der KI-Entscheidungen ihres Unternehmens beteiligt zu sein.

Die „KI-Commodity-Falle“ und KI-Washing: Blinde Flecken der Geschäftsführung

Trotz zunehmender Abhängigkeit von KI sind sich viele CEOs der Gefahren schlecht umgesetzter KI-Strategien in gefährlicher Weise nicht bewusst.

  • 87 Prozent der CEOs tappen weltweit in die „KI-Falle“ und sind zuversichtlich, dass KI-Standardagenten genauso effektiv sein können wie maßgeschneiderte Lösungen für hochgradig nuancierte vertikale oder domänenspezifische Geschäftsanwendungen.
  • CEOs deutscher Unternehmen gehen im internationalen Vergleich mit 39 Prozent am ehesten davon aus, dass es bei eigenen KI-Initiativen mehr um die Optik als um die Wirkung geht. Dieser Umstand nennt sich auch “AI Washing” und zielt darauf ab, KI-Innovation vorzuspielen, anstatt einen bedeutenden Mehrwert zu schaffen.

Worauf deutsche CEOs allerdings vergleichsweise viel Wert legen, sind Kostenkontrolle und Skalierbarkeit von KI-Lösungen. Mit 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs (62 Prozent) an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit als Kernattribute innerhalb ihres Rahmens für die regelmäßige Bewertung der Effektivität von KI-Analysen, -Modellen und -Anwendungen geht.

KI-Governance und regulatorische Unsicherheit

Während sich die Einführung von KI beschleunigt, schaffen schlechte Governance und regulatorische Unsicherheit erhebliche Hindernisse:

  • 25 Prozent der deutschen CEOs geben an, dass sich ein KI-Projekt aufgrund regulatorischer Unsicherheiten verzögert hat, während 35 Prozent zugeben, dass ein Projekt aus solchen Umständen abgebrochen oder aufgegeben wurde. 
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.
  • 94 Prozent der CEOs vermuten weltweit, dass Mitarbeitende GenAI-Tools wie ChatGPT, Claude und Midjourney ohne Genehmigung des Unternehmens verwenden (bekannt als „Schatten-KI“) und damit ein massives Governance-Versagen innerhalb von Organisationen aufdecken.

Den vollständigen „Global AI Confessions Report: CEO Edition“ findest du hier

Acrylic Robotics: die Zukunft des Kunstmarkts?

Die Gründerin und Künstlerin Chloë Ryan will mit Acrylic Robotics den Kunstmarkt neu definieren: Mithilfe eines Roboterarms, der Gemälde Pinselstrich für Pinselstrich rekonstruiert, schlägt das Start-up die Brücke zwischen traditioneller Kunst und moderner Technologie, um Kunstwerke einem breiten Publikum zugänglich zu machen.

Kunst skalierbar machen
Die in Montreal ansässige Acrylic Robotics-Gründerin und CEO Chloë Ryan, selbst Künstlerin, hatte die Idee aus einer persönlichen Erfahrung heraus. Ein Gemälde zu schaffen, erfordert viel Zeit; und am Ende kann das Werk nur einmal verkauft werden. Inspiriert von der Skalierbarkeit der Musik- und Buchbranche entwickelte Chloë Ryan ein Konzept, mit dem Kunstwerke präzise reproduziert werden können – ohne an Qualität oder künstlerischem Anspruch zu verlieren. Gemeinsam mit Walker Singleton, Head of Engineering des Start-ups, entstand so ein interdisziplinärer Ansatz, der Robotik, Softwareentwicklung und mechanische Präzision vereint.

Der Roboter: Präzision in jedem Pinselstrich
Das Herzstück von Acrylic Robotics ist ein Roboterarm, der Gemälde detailgetreu reproduzieren kann. Der Prozess unterscheidet sich je nach Ursprung des Kunstwerks. Digitale Kunstwerke, die auf einem Tablet oder Computer erstellt wurden, können direkt an den Roboter übermittelt werden, da Daten wie Pinselrichtungen, Druckstärke und Farbwahl bereits digital vorliegen. Analoge Gemälde erfordern hingegen eine zusätzliche Analyse. Hier kommt ein speziell trainiertes KI-Modell zum Einsatz, das die wesentlichen Parameter berechnet, um eine möglichst präzise Reproduktion zu erzielen. Besonders wichtig ist es Acrylic Robotics, den Künstler kontinuierlich in den Prozess einzubeziehen. Es geht nicht darum, den kreativen Schaffensprozess zu ersetzen, sondern ihn zu ergänzen und weiterzuentwickeln.

Kunst für alle: Ein Service für Künstler und Käufer
Acrylic Robotics bietet seine Technologie Künstlern als Dienstleistung an. Über die Website können Künstler eine Zusammenarbeit anfragen, bei der ihre Werke in limitierter Auflage reproduziert werden. Käufer erhalten dadurch hochwertige Acrylreproduktionen, ohne den Wert des Originals zu schmälern. Das Konzept verbindet Exklusivität mit breiterer Zugänglichkeit und positioniert sich als innovative Lösung im Kunstmarkt.

Social-Entrepreneurship-Roadmap 2025

Mutige Ideen für eine bessere Zukunft – aktuelle Chancen, Trends und Herausforderungen für Social Entrepreneur*innen.

Die Welt steht vor einigen Herausforderungen: Klimawandel, soziale Ungleichheit und wirtschaftliche Unsicherheiten sind nur einige der Themen in der aktuellen Zeit. Und genau hier setzen Social Entrepreneur*innen an: von ihnen werden innovative Geschäftsmodelle entwickelt, die nicht nur finanziell erfolgreich sind, sondern auch Lösungen für Probleme in Gesellschaft und Umwelt anbieten.

Doch was macht Social Entrepreneurship 2025 aus? Welche Chancen und Trends ergeben sich und welche Hürden gilt es für Gründer*innen und Unternehmer*innen zu meisten? Antworten liefern uns die Expert*innen vom Gründungszentrum Enterprise in Potsdam, die innovative, soziale und nachhaltige Gründungsprojekte im Land Brandenburg von der ersten Idee bis zur Umsetzung begleiten.

I. Die wichtigsten Trends im Social Entrepreneurship 2025

1. Social Impact Investing revolutioniert die Finanzierung

Lange war die Finanzierung sozialer Innovationen herausfordernd. Doch 2025 etabliert sich Social Impact Investing als eine der inetressantesten Formen, das soziale Vorhaben zu finanzieren. Hierbei suchen Investor*innen nicht mehr nur nach Rendite, sondern fordern auch messbare soziale und ökologische Ergebnisse ein. Besonders profitabel sind Projekte in den Bereichen GreenTech, CleanTech und soziale Inklusion.

Ein gutes Beispiel für die Förderung sozialer Unternehmen ist das 12-Milliarden-Euro-Start-up-Paket, das von der Bundesregierung gemeinsam mit der Wirtschaft auf den Weg gebracht wurde. Es bietet Gründungen Zugang zu dringend benötigtem Kapital, unterstützt die Skalierung von Projekten und schafft Anreize für Innovationen. Social Entrepreneur*innen, die ihre Wirkung authentisch nach außen tragen, können von diesem Wandel profitieren und einfacher an Investor*innen gelangen, die gemeinsame Ziele und Werte haben.

2. Teamarbeit und Zusammenarbeit über Branchen hinweg

Interdisziplinäre Teams sind die Zukunft. Social Entrepreneur*innen erkennen, dass Vielfalt und geteilte Verantwortung zu nachhaltigeren und innovativeren Lösungen führen, und setzen daher vermehrt auf Kollaborationen. Ein spannender Trend hierbei sind Cross-Industrie-Kollaborationen: Hier bündeln Unternehmen aus unterschiedlichen Branchen ihr Fachwissen und entwickeln so innovative und kreative Lösungen. So können neue Märkte erschlossen, Kosten gesenkt und zeitgleich starke und nachhaltige Netzwerke aufgebaut werden.

Ein weiterer aufstrebender Trend sind Genossenschaften. Diese demokratischen Organisationsformen verbinden ganz im Sinne des sozialen Unternehmertums wirtschaftliche Stabilität mit gemeinschaftlicher Verantwortung. So werden regionale Wirtschaftskreisläufe gefördert und nachhaltige, langfristige Perspektiven kreiert.

3. Digitalisierung und KI als Treiber von Innovation

Mit künstlicher Intelligenz (KI) und Digitalisierungen können Social Entrepreneur*innen Prozesse effizienter gestalten und ihre Wirkung maximieren. KI-gestützte Tools ermöglichen eine neue Präzision in der Datenanalyse und Automatisierung von Abläufen und machen Projekte skalierbarer. Besonders hervorzuheben sind die Vorteile im Marketing durch KI, wodurch Unterstützer*innen gezielt und personalisierter angesprochen werden können.

Digitale Plattformen überwinden geografische und wirtschaftliche Grenzen, was Social Entrepreneur*innen ermöglicht, global zu agieren, Zielgruppen bewusst anzusprechen und Investor*innen für die eigene Idee zu gewinnen. Soziale Projekte können durch Digitalisierung langfristig skaliert und sinnvoll verbreitet werden.

II: Zentrale Branchen und gesellschaftliche Relevanz

1. Green Economy: Nachhaltigkeit als Wachstumstreiber

Die Green Economy ist ein relevanter Bestandteil der Social Entrepreneurship. Start-ups in diesem Bereich entwickeln bahnbrechende Lösungen wie erneuerbare Energien, Konzepte der Kreislaufwirtschaft und umweltfreundliche Technologien. Sie fördern zum einen wirtschaftliches Wachstum, zum anderen sind sie Maßstab für globale Veränderungen, Innovationen und eine zukunftsfähige Wirtschaft.

2. Regionale Entwicklung: Chancen für ländliche Räume

Gerade in ländlichen Regionen sind Abwanderung, schwache Infrastruktur und wirtschaftliche Stagnation häufig drohende Herausforderungen. Soziale Unternehmen können hier positiv wirken: von der Schaffung neuer Arbeitsplätze, der Stärkung regionaler Wirtschaft bis hin zum Angebot digitaler Lösungen im Bereich der Gesundheitsförderung und Bildung. Positiver Nebeneffekt ist zudem eine Förderung des sozialen Zusammenhalts direkt vor Ort.

3. Diversität und Inklusion: Innovation durch Vielfalt

Diversität ist kein kurzfristiger Trend, sondern ein entscheidender Faktor, wenn es um den Erfolg von Unternehmen im Allgemeinen geht. Studien belegen, dass diverse Teams nachhaltigere Entscheidungen treffen und kreativer sind. Social Entrepreneur*innen setzen auf inklusive Geschäftsmodelle, die Chancengleichheit fördern, Barrieren abbauen und Produkte oder Dienstleistungen entwickeln, die für alle zugänglich sind.

III. Herausforderungen und Risiken

Trotz vielversprechender Entwicklungen und Trends, stehen sozialer Unternehmer*innen auch vor Herausforderungen. Mangelnde Finanzierungsmöglichkeiten durch komplexe Kommunikation mit Investor*innen, bürokratische Anforderungen erhöhten den internen Aufwand und der zunehmende Marktdruck erschweren oft den Einstieg.

Aber auch veränderte Konsumtrends, bei denen Verbraucher*innen den Preis über Nachhaltigkeit stellen, erfordern Flexibilität in Lösungsfindung und strategischen Ausrichtung. Hier liegt wiederum das Potential bei sozialen Unternehmungen, die mit ihren Projekten bereits Themen der Zukunft transparent und messbar behandeln.

Ein Weg in die Zukunft

Aktuell vereint Social Entrepreneurship Innovation, Nachhaltigkeit und gesellschaftlichen Wandel wie nie zuvor. Neue Finanzierungsmöglichkeiten, technologische Fortschritte oder starke Kooperationen und Kollaborationen bringen neue Chancen und eröffnen erfolgreiche Strategien, sich gegen mögliche Herausforderungen zu stellen. Wer mutig ist und bereit, kann unternehmerisch die Welt zu einem Besseren verändern.

Wahlprogramme 2025: Innovationsförderung, Quo vadis?

So plant die Politik die Zukunft der Innovationsförderung. Eine Analyse von Efe Duran Sarikaya, CEO der Fördermittelberatung EPSA Deutschland.

Mit den Bundestagswahlen 2025 steht Deutschland vor wegweisenden Entscheidungen. Fördermittel, ein zentrales Instrument für Innovation, Nachhaltigkeit und Unternehmensentwicklung, stehen im Fokus der Parteiprogramme. Doch wie gestalten die Parteien die Zukunft der Förderpolitik, und welche Schwerpunkte setzen sie?

Efe Duran Sarikaya, CEO der Fördermittelberatung EPSA Deutschland, liefert einen Überblick über die Pläne der politischen Parteien zur Zukunft der Förderpolitik.

Dabei werden nicht nur die Unterschiede beleuchtet, sondern auch, welche Auswirkungen die jeweiligen Wahlprogramme auf die Unternehmen und den Wirtschaftsstandort Deutschland haben können.

Nachhaltigkeit: Sinnorientierung statt Image-PR und Greenwashing

Im Interview: Co-Gründer Günther Reifer vom Terra Institute.

Als Experten mit langjähriger Erfahrung und Kompetenz in der Beratungstätigkeit gründeten Evelyn Oberleiter und Günther Reifer vor 10 Jahren gemeinsam das Terra Institute: Ein Beratungsunternehmen mit Schwerpunkt in Geschäftsmodellinnovation, Nachhaltigkeitsmanagement, Produktentwicklung, Kreislaufwirtschaft und sinnorientiertem, transformativem Leadership. Das Terra Institute hat heute 25 Mitarbeiter in Deutschland, Österreich und Italien.

Im Interview zum Thema Nachhaltiges Wirtschaften: Terra Institute-Co-Gründer Günther Reifer.


Heutzutage macht das Thema Nachhaltigkeit einen großen Teil vom Image eines Unternehmens aus. Wer nicht nachhaltig ist, geht nicht mit dem Puls der Zeit. Doch was ist überhaupt mit Nachhaltigkeit gemeint und wie kann sie in einem Unternehmen umgesetzt werden?

Nachhaltigkeit hat verschiedene Definitionen. Die gängigste besagt: „Nachhaltigkeit gewährleistet, dass zukünftige Generationen nicht schlechter gestellt sind, ihre Bedürfnisse auf der Erde zu befriedigen als die gegenwärtig lebende Generation.“ Für ein produzierendes Unternehmen bedeutet das konkret: Die Verwendung von nachwachsenden Rohstoffen, ressourcenschonende Produktion, Vermeidung von Müll, ein möglichst geringer CO2-Ausstoß und im besten Fall ein recyclebares Endprodukt. Wenn ein Produkt all diese Kriterien erfüllt, kann es sich ökologisch nachhaltig nennen.

Ein Beispiel: Ein T-Shirt aus 100 Prozent Bio-Baumwolle, dessen Aufdruck jedoch giftige Chemikalien enthält, ist keineswegs nachhaltig. Es ist wichtig, dass wir den gesamten Produktionsprozess betrachten – vom Design zum finalen Produkt bis zur Rückführung in den Wertstoffkreislauf.

Wenn ein Unternehmen ein ökologisch nachhaltiges Produkt herstellt, ist dann das gesamte Unternehmen nachhaltig?

Noch lange nicht. Nachhaltigkeit steht nämlich auf drei Standbeinen: Umwelt, Gesellschaft und Wirtschaft. Neben den ökologischen Aspekten bestimmen also noch soziale und ökonomische Faktoren, inwieweit ein Unternehmen nachhaltig ist. Die soziale Komponente widmet sich dabei in erster Linie dem Wohlergehen von Mensch und Gesellschaft. Für Mitarbeiter des Unternehmens bedeutet das zum Beispiel ein fairer Lohn, geregelte Arbeitszeiten und Pausen sowie die Möglichkeit auf persönliche und berufliche Weiterentwicklung. Insbesondere der Aspekt Schulungen spielt wiederum eine wichtige Rolle für die ökologische Nachhaltigkeit des Unternehmens.

Um ökologische Nachhaltigkeit ganzheitlich im Unternehmen zu etablieren, muss zunächst ein gemeinsames Bewusstsein dafür geschaffen werden. Bei Führungskräften genauso wie bei allen Mitarbeitern. Durch regelmäßige Coachings der Mitarbeiter – sei es persönlich oder digital – werden Nachhaltigkeit und Klimaschutz zur Angelegenheit des gesamten Unternehmens. Alle sind auf dem neuesten Stand und ziehen am selben Strang.

Was sind die ökonomischen Faktoren, die ein Unternehmen nachhaltig machen? Und stehen diese nicht im Konflikt mit den ökologischen Aspekten der Nachhaltigkeit?

Die meisten denken wahrscheinlich, dass sich Umwelt und Wirtschaft von vorneherein ausschließen. Das stimmt so jedoch nicht. Fakt ist: Nur ein Unternehmen, was auch ökonomisch nachhaltig ist, wird langfristig bestehen bleiben und so seinen Beitrag für eine bessere Zukunft leisten können. Die Umstellung auf eine ökologisch nachhaltige Produktion ist dabei kein Verlustgeschäft. Wenn Sie zum Beispiel alles regional produzieren statt einzelne Produktionsprozesse ins Ausland zu verlagern, dann sind auch Ihre Lieferketten kürzer. Das spart erhebliche Transportkosten und CO2. Zudem sind regionale Lieferketten transparenter und daher leichter zu managen.

Auch im Fall einer globalen Krise wie der Corona-Pandemie ist das Risiko einer Produktionsunterbrechung deutlich reduziert. In innovative und verbesserte Fertigungstechnologien zu investieren, zahlt sich auch aus. Material-, Wasser- und Energieverbrauch werden so reduziert und anfallende Abfallprodukte können recycelt werden. Nachhaltigkeit ist also nicht teurer, sondern langfristig gesehen sogar lukrativ.

Was sind die ersten Schritte für ein Unternehmen, um nachhaltig zu werden?

Die Bereitschaft für Veränderung ist immer der erste Schritt. Das gesamte Unternehmen – Führungskräfte wie Mitarbeiter – muss eine neue Sinnorientierung erfahren. Dafür werden zunächst die aktuellen sozioökonomischen Megatrends intensiv analysiert. Mit den gewonnenen Erkenntnissen wird anschließend der gesamte Betrieb durchleuchtet und aufgeräumt. Gemeinsam wird ermittelt, welche Kompetenzen Führungskräfte und Mitarbeiter mitbringen, was noch verbesserungswürdig ist und wie sich zukunftsrelevante Themen aus Nachhaltigkeit, Gesellschaft und Wirtschaft in das Unternehmen integrieren lassen. Dabei ist es wichtig, bestehende Strukturen zu überdenken, von alten Gewohnheiten loszulassen und sich neue Ziele zu setzen.

Natürlich ist so eine Neuorientierung, bei der alle drei Dimensionen der Nachhaltigkeit berücksichtigt werden, ein sehr komplexer Prozess, der für viele Unternehmen eine Herausforderung darstellt. Wir vom Terra Institute möchten Unternehmen in ihrem Umdenken bestärken und ihren Transformationsprozess tatkräftig unterstützen!

Meta verändert sich für Trump …

… doch was bedeutet der Wandel für die Plattform selbst und was für Influencer und Marken? Ein Kommentar von Philipp Martin, Gründer von Reachbird und Experte für Influencer Marketing im DACH-Raum.

In einer Zeit, in der soziale Medien unseren Alltag mehr denn je prägen, kündigt Meta, das Unternehmen hinter Facebook und Instagram, weitreichende Veränderungen an. Diese Entwicklungen könnten die Plattformen selbst und die Arbeit von Influencern und Marken grundlegend beeinflussen. Als Experte für Influencer Marketing analysiere ich die möglichen Auswirkungen dieser Umwälzungen.

Die Macht der sozialen Medien in Deutschland

Bevor wir uns den spezifischen Änderungen bei Meta zuwenden, lohnt ein Blick auf die derzeitige Bedeutung sozialer Medien in Deutschland. Laut aktuellen Statistiken von Meltwater (2024) nutzen mehr als 80% aller Einwohnerinnen und Einwohner in Deutschland Social Media – und das im Durchschnitt mehr als 1,5 Stunden täglich. Diese Zahlen unterstreichen die enorme Reichweite und den potenziellen Einfluss, den Plattformen wie Facebook und Instagram auf die öffentliche Meinungsbildung haben.

Metas neue Strategie: Abschied vom organisierten Faktencheck

Eine der gravierendsten Änderungen bei Meta betrifft den Umgang mit Faktenchecks. Bisher setzte das Unternehmen auf externe Organisationen, um die Richtigkeit von Informationen zu überprüfen. Nun plant Meta, ähnlich wie bei X (ehemals Twitter), auf die Schwarmintelligenz zu setzen. Meta-Gründer Mark Zuckerberg veröffentlichte ein Video, in welchem er Änderungen im Umgang mit Desinformation und Hate Speech auf seinen Plattformen ankündigte. Diese Entwicklung birgt erhebliche Auswirkungen auf den Wahrheitsgehalt der auf der Plattform geteilten Informationen. Besonders für Influencer und Marken, die auf ihre Glaubwürdigkeit angewiesen sind, entsteht eine neue Herausforderung.

Politische Implikationen

Der Übergang zu einem dezentralisierten System der Inhaltsüberprüfung könnte eine Annäherung an bestimmte politische Strömungen bedeuten. Es stellt sich die Frage, wie die Plattform und ihre Nutzer in Zukunft mit Falschinformationen umgehen werden. Diese Entwicklung könnte als eine Annäherung an die Politik der Republikaner gesehen werden, die durch die Änderungen möglicherweise begünstigt wird. Ein weiterer Aspekt der Änderungen betrifft den Umgang mit sogenannten schädlichen Inhalten. Meta plant, die Regeln in sensiblen Bereichen wie Migration oder Sexualität zu lockern. Diese Lockerung könnte zu einem Anstieg aggressiver, negativer und konfrontativer Beiträge führen. Eine stärkere Polarisierung der Plattform ist zu erwarten – ein Trend, der bereits auf anderen sozialen Netzwerken wie X zu beobachten ist.

Auswirkungen auf das Nutzerverhalten

Die mögliche Zunahme von Hassrede und polarisierenden Inhalten könnte das Nutzererlebnis auf Meta-Plattformen grundlegend verändern. Für Influencer und Marken bedeutet dies, dass sie sich möglicherweise in einem zunehmend negativen Umfeld bewegen müssen. Dies könnte nicht nur ihre Reichweite, sondern auch die Qualität ihrer Interaktionen mit Followern beeinflussen.

Trotz der potenziellen Risiken bietet die Nutzung von Schwarmintelligenz auch Chancen. Es bleibt abzuwarten, wie sich die neue Faktencheck-Strategie langfristig bewährt. Die Möglichkeit, dass jeder mitwirken kann, könnte für mehr Transparenz und schnellere, unkompliziertere Checks sorgen – ähnlich wie bei Wikipedia.

Zukünftig sollen laut Mark Zuckerberg nicht mehr autorisierte Faktenchecker für die Kontrolle sorgen, sondern die Community selbst – indem man mit Community-Notes, ähnlich wie es aktuell bei X bereits der Fall ist, auf falsche Informationen hinweisen kann. Dieser Community-Ansatz ist im ersten Moment nicht schlecht, sondern eine sinnvolle Ergänzung zu dem bestehenden System. Er wird jedoch ohne klare Moderation und ohne professionelle Faktenchecker kaum der Flut an Desinformation auf Social Media gerecht werden können. Vielmehr sollten beide Ansätze genutzt werden, um Desinformation einzudämmen.

Die Verantwortung der Plattformen in Krisenzeiten

Angesichts der bevorstehenden Wahlen und der anhaltenden globalen Krisen tragen Social-Media-Plattformen eine besondere Verantwortung. Gerade in Wahlkampf- und Krisenzeiten müssten sie eigentlich dieser Verantwortung gerecht werden. Diese Verantwortung nehmen sie jetzt nicht mehr wahr. Durch den positiven Effekt, dass über Social Media jede und jeder seine eigene Meinung kundtun und somit an demokratischen Prozessen und der Meinungsbildung uneingeschränkt teilhaben kann, gibt es auch Nachteile. Denn: Wer garantiert, dass es sich bei den veröffentlichten Inhalten um korrekte Informationen handelt? Was, wenn gezielt falsche Informationen über soziale Netzwerke gestreut werden? Gezielte Desinformation über Social Media in Verbindung mit den hohen Nutzerzahlen kann einen großen, negativen Einfluss auf unsere Gesellschaft haben.

Der europäische Kontext: Digital Services Act

Während die angekündigten Änderungen zunächst die USA betreffen, sind sie langfristig auch für den europäischen Markt relevant. Der Digital Services Act in der EU regelt den Umgang mit gezielter Desinformation. Es wird interessant sein zu beobachten, wie Meta diese Regelungen mit seinen neuen Ansätzen in Einklang bringen wird. Umso wichtiger ist es, dass von Seiten der Gesellschaft und auch von Seiten der Plattformen gewisse Regeln aufgesetzt und eingehalten werden. Einen rechtlichen Rahmen bietet in Europa der Digital Services Act, der den Umgang mit gezielter Desinformation regelt.

Auswirkungen auf die Influencer-Welt

Die Änderungen bei Meta haben zudem auch weitreichende Implikationen für die Influencer-Branche. Viele Influencer weltweit gelten als Expertinnen und Experten auf ihren Gebieten - egal ob Fitness- und Gesundheitsinfluencer, Finanzinfluencer oder auch Politikinfluencer. Mit tausenden oder gar Millionen von Abonnenten haben sie einen großen Einfluss und können – wie der Name schon sagt – beeinflussen! Bisher wurde der Content von Influencern nur sehr selten wirklich kontrolliert und eingeschränkt – dies kann durch die neuen Community-Notes auch einen positiven Einfluss auf falsch verbreitete Informationen durch Influencer haben, sofern sich die aktiven Communities der Influencer auch kritisch mit deren Content auseinandersetzen und darauf entsprechend reagieren.

Herausforderung Hate Speech

Ein besonders kritischer Punkt für Influencer ist der Umgang mit Hate Speech. Influencer sind meist täglich Hate Speech ausgesetzt. Eine Einschränkung von Hate Speech war und ist für Influencer von großem Interesse, um in einem positiven Umfeld ihre Inhalte veröffentlichen zu können. Sollte es zu einer Auflösung dieser Einschränkung kommen, so ändert sich die generelle Social Media Tonalität zum Negativen. Einen Vorgeschmack gibt hier ebenfalls die Plattform X, auf welcher es aktuell kaum Einschränkungen gibt und Hate Speech deshalb dort bereits zu einem oft negativ aufgeladenen Community-Klima führt.

Konsequenzen für Marken-Kollaborationen

Die möglichen Veränderungen im Kommunikationsklima auf Meta-Plattformen haben auch Auswirkungen auf die Zusammenarbeit zwischen Marken und Influencern. Die Ziele von Brands in der Zusammenarbeit mit Influencern liegen auf der Hand – es geht um Aufmerksamkeit, Interaktion und Abverkauf. Diese Ziele lassen sich vor allem dann erreichen, wenn das Umfeld positiv ist. Hate Speech bringt mit negativem Kommunikations-Klima auch die Ziele der Markenkommunikation in Gefahr – weshalb wir uns für positive Communities und eine Einschränkung von Hate Speech einsetzen sollten. Gleichzeitig bedeutet dies natürlich nicht, dass kritische Kommentare oder Feedback eingeschränkt werden – es geht rein um das Beschimpfen und Verunglimpfen von Social Media Nutzern.

Blick in die Zukunft: Anpassung und Verantwortung

Es bleibt abzuwarten, wie sich die aktuell angekündigten Änderungen in den USA etablieren werden und zu welchem Resultat dies führt. Für den europäischen Markt wird es vorerst keine Änderungen geben – jedoch sollte die Situation und Entwicklung von Marken, Agenturen und auch Nutzern und Influencern gut beobachtet werden.

Fazit: Eine neue Ära der digitalen Kommunikation

Die von Meta angekündigten Änderungen markieren möglicherweise den Beginn einer neuen Ära in der digitalen Kommunikation. Dieser Wandel bringt nicht nur Herausforderungen, sondern auch Chancen für Influencer und Marken mit sich, insbesondere hinsichtlich der Qualität des Contents und der Authentizität von Informationen.

Die kommenden Monate und Jahre werden zeigen, wie sich diese Veränderungen auf die Social-Media-Landschaft auswirken werden. Eines steht jedoch fest: Influencer, Marken und Nutzer müssen sich auf ein dynamischeres, möglicherweise kontroverseres Umfeld einstellen. Die Fähigkeit, sich anzupassen und verantwortungsvoll zu kommunizieren, wird mehr denn je über den Erfolg in der digitalen Welt entscheiden.

Was gehört in eine KI-Policy?

Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routine­aufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.

Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.

Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.

Generative KI schert sich, wenn wir als Nutzer*innen nicht da­rauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.

Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.

Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.

Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.

1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz

Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:

  • Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
  • Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
  • Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
  • Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
  • Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.


2. Richtlinien für die Entwicklung und Implementierung von KI

Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.

  • Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien fest­legen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
  • Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
  • Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
  • Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
  • Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-­KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
  • Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehler­behebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.


3. Übergreifende Ziele und Vorgaben einer KI-Policy

Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.

  • Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
  • Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Ins­trument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
  • Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.

Fazit

Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.

Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com

HR-Trends 2025

Fünf HR-Expert*innen geben ihre persönlichen Einblicke in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.

Personalführung und Human Ressources müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder demografischer Wandel und Fachkräftemangel. Die HR-Verantwortlichen von ToolTime, Ella Media, Kenjo, Family Office 360grad AG und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

Marketing-Trends 2025

Führende Marketing-Expert*innen geben Einblick in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.

Marketing und Kommunikation müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder ein zunehmender Wettbewerb in wirtschaftlich unsicheren Zeiten. Gründer*innen, CEOs und Kommunikationsprofis von ToolTime, kollex, Creditsafe, good healthcare group, puzzleYOU und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

Visuelles Storytelling mit Ecken und Kanten statt KI-Perfektion

In einer Zeit, in der uns KI-optimierte, makellose Visuals eine glattgebügelte Welt präsentieren, setzt sich 2025 ein gegenläufiger Trend durch: Echtheit. Sie wird zur Währung, um sich inmitten der perfektionierten Bilderflut abzuheben. Marken, die im digitalen Raum Nähe schaffen wollen, werden sich bewusst von der sterilen Hochglanz-Ästhetik der KI lösen. Das heißt: Statt in dämlich-hübschen KI-Avataren à la Emma von der Deutschen Zentrale für Tourismus liegt die Zukunft in realen Geschichten und echten Menschen mit Ecken und Kanten. Eine bewusst ungeschliffene Brand mit Charakter schafft mehr Nähe und Vertrauen als ein aufpoliertes oder ganz und gar Fake-Visual. 2025 gilt es, die Chance des visuellen Storytellings zu nutzen, statt bloß technischer Perfektion nachzueifern.

Werkzeuge für Frauen

Die Firma Tomboy Tools wurde von den drei Freundinnen Jennifer Imel, Janet Rickstrew und Mary Tatum in Denver (USA) gegründet. Ihr Ziel war es, Werkzeuge speziell für Frauen anzubieten, denn es zeichnete sich ab, dass sich immer mehr Frauen in ihren eigenen vier Wänden handwerklich betätigen.

Laut eine US-amerikanischen Studie sind 38 Prozent der Hausfrauen auch Hobbyhandwerkerinnen. Die zielgruppenspezifischen Werkzeuge von Tomboy Tools zeichnen sich dadurch aus, dass sie in der Regel kleiner und leichter sind als die handelsüblichen.

Zudem sehen sie meist schicker aus. Seit kurzem sind die Produkte auch in Pink erhältlich. Im Vertrieb geht Tomboy Tools ebenfalls neue Wege: Nicht über Baumärkte, sondern im Rahmen von Heimpartys à la Tupperware werden die Werkzeuge von mehr als 1000 Vertriebspartnern, alle Hobbyhandwerkerinnen, in den USA, Kanada und Australien verkauft.

www.tomboytools.com