Neue Berufsbilder durch die Digitalisierung


44 likes

Schon jetzt hat die Digitalisierung vieles in der Gesellschaft verändert und die Arbeitswelt neu geprägt. Auch künftig dürfte es die Digitalisierung sein, die der Berufswelt einen Stempel aufsetzt. Viele Berufe entstanden und entstehen nur aufgrund der digitalen Möglichkeiten – wer hätte vor rund fünfzehn Jahren schon geglaubt, dass es Content Manager für Streamingdienste gebe? Dieser Artikel schaut sich einige Berufsbilder genauer an, die rund um die digitale Welt entstanden sind.

Virtual Assistent

Mittlerweile wissen auch nicht sportaffine Menschen, was ein Personal Trainer ist. Auch Personal Assistents sind bekannt, immerhin sind das die wichtigen Existenzen rund um Stars, die deren Alltag planen. Doch auch im Digitalbereich gibt es diese Hilfen:

  • Aufgabengebiete – letztendlich ist der Assistent mit der Sekretärin vergleichbar. Mit Online-Tools, einem Laptop und Smartphone und weiteren Hilfsmitteln helfen die Assistenten ihren Kunden dabei, ein Büro oder Projekt zu managen. Jedoch läuft alles online ab.
  • Nutzen – gerade bei Einzelunternehmen oder Betrieben, die über keine festen Büroräume verfügen, sind die virtuellen Assistenten Gold wert. Sie regeln die geschäftlichen Termine, sorgen dafür, dass die wichtigen Unterlagen beim Video Call vorliegen, kommunizieren aber auch mit dem Steuerberater und buchen Flüge und Hotels.
  • Voraussetzungen – eine Ausbildung im kaufmännischen Bereich ist eine der wichtigsten Voraussetzungen. Wichtiger ist aber die eigene Erfahrung in dem Bereich. So können auch Quereinsteiger, die vielleicht schon Fangruppen oder auch Sportvereine unterstützt haben, einen Fuß in die Tür bekommen.

SEO-Manager und Co.

Rund um das Thema Suchmaschinenoptimierung sind in den vergangenen Jahren unendlich viele Jobs entstanden. Im Kern dreht sich alles um die bessere Sichtbarkeit, wobei mittlerweile das reine SEO auch plattformbezogen geboten werden kann:

  • Optimierung – ob sich die Optimierung von Webseiten, Anzeigen oder anderen Inhalten nun direkt auf Google bezieht, ist heute offen. Spezialisten konzentrieren sich beispielsweise um die Optimierung auf Plattformen wie YouTube, Facebook oder auch Amazon. Im Grunde genommen stellen auch diese Plattformen Suchmaschinen dar, sodass es wichtig ist, die eigenen Inhalte so zu optimieren, dass eine bessere Sichtbarkeit erreicht wird.
  • Anforderungen – neben dem grundlegenden Wissen müssen diese Berufsgruppen immer aktuell bleiben. Wer selbst schon einmal seine Homepage optimiert hat, der weiß, dass nach dem letzten Schritt der allererste erneut folgt, da die Suchmaschinen ihre Kriterien geändert haben.
  • Voraussetzungen – ein Marketingstudium, aber auch Kenntnisse in der BWL oder Wirtschaftsinformatik sind hilfreich. Das generelle Verständnis über die Mechanismen des Internets, der Umfang mit entsprechenden Tools und eine Grundkenntnis von HTML können das fehlende Studium mitunter aufheben.

Entwickler

Einst war das Feld der digitalen Entwickler stark eingeschränkt. Sie arbeiteten an Programmen, alternativ an Spielen. Und heute? Im Kern sind diese Einsatzgebiete weiterhin vorhanden, doch in einer weitaus größeren Ausprägung. Ein typischer Entwickler kann heute in großen Firmen an ERP-Lösungen arbeiten, Spielesoftwares für große Spieleentwickler entwerfen oder auch für einzelne Firmen gezielte Softwares für die Homepage oder den Appstore schreiben. Gerade auf dem letztgenannten Gebiet ist es möglich, sich rasch zu beweisen und seinen eigenen Betrieb zu gründen: Apps sind mit der neue "Gral" des digitalen Bereichs, und wer eine gute Idee hat und gut programmieren kann, der kann es über den Android oder iOS Store bis hinauf in die Höhen schaffen. Allgemein gilt:

  • Voraussetzung – ein Studium im Softwarebereich ist sinnvoll, doch keine direkte Voraussetzung. Wer selbst bereits Programme, Apps und Spiele vorweist, der kann diese durchaus als Sprungbrett nutzen.
  • Einsatz – die Einsatzgebiete orientieren sich an den eigenen Stärken. Aber ein Entwickler kann beispielsweise sowohl die Oberfläche für ein Online-Casino erschaffen, als auch einzelne Automatenspiele für den Casinobereich entwickeln. Dasselbe gilt für dementsprechende Apps oder auch Büro- und Softwarelösungen. Vor einer Neuentwicklung kommt die Konkurrenzanalyse. Oft hilft es, in Märkten mit starker Konkurrenz wie bei den Casinos ausführlich die Anbieter zu vergleichen. So lässt sich erfahren, was eine Neuentwicklung an unternehmerischen Chancen bietet.

Online-/Media-Redakteure

Im journalistischen Bereich beginnen gerade Studenten schon während des Studiums damit, ihre Referenzen aufzubauen. Oft geschieht das nicht über die herkömmlichen Wege, sondern über ein eigenes Online-Portal. So mancher Student, der sich später mal in der Sportjournalistik durchsetzen möchte, gestaltete sein eigenes Internetportal. Doch ist dieser Bereich weitaus breiter gefächert:

  • Möglichkeiten – neben der Erstellung fester Redaktionspläne und dem eigenen Schreiben, kann sich die Arbeit auch auf einzelne Kanäle und deren Spezifikationen konzentrieren. Gerade der Social Media Bereich ebnet diverse Chancen.
  • Voraussetzungen – ein Marketingstudium oder eine journalistische Ausbildung sind oft gefragt, wenn auch keine klare Voraussetzung. Gerade "Hobby-Journalisten", die beispielsweise in ihrer Freizeit ein eigenes Sport- oder Freizeitportal aufbauen und mit fundierten Texten versehen, können dies ab einer gewissen Bekanntheit durchaus anstelle der Ausbildung als Referenz nutzen.

In diesen Bereich fallen zudem die Online Marketing Manager, die praktisch den gewöhnlichen Beruf des Marketing Managers rein auf die digitale Ebene heben. Auch hier greifen unterschiedliche digitale Berufsfelder wieder ineinander. So sollte der Manager natürlich über SEO-Maßnahmen Bescheid wissen und die groben Erfordernisse einzelner Plattformen des Internets kennen und verstehen.

Cover-Designer

Sie gibt es natürlich schon länger, doch seitdem Autoren Bücher und Musiker Alben selbst produzieren und veröffentlichen können, bietet das digitale Design ungeahnte Möglichkeiten. Grundsätzlich hat sich die Kundengruppe enorm vergrößert, da nicht mehr einzelne Kernunternehmen Aufträge vergeben, sondern unzählige Kreative, die für das Design ihres Buches oder Albums einen Experten benötigen. Und es endet nicht beim Cover:

  • Webseite – ein Banner auf der Webseite, eventuell ein Avatar für den Webseitbesitzer oder ein Logo für einen kleinen Betrieb – all dies fällt mit in diesen Designbereich.
  • Werbematerial – gerade Künstler wünschen sich nicht allein ein Buch- oder MP3-Cover, sondern Werbematerialien. Die Designer erstellen somit auch Postkarten und Lesezeichen – oder können die Nutzungsrechte ihrer Hauptarbeit erweitern und ein Covermotiv so mehrmals an einen Künstler verkaufen.

Fazit – neue Berufe und alte Berufe, die neu erfunden werden

Die Digitalisierung bietet viele neue Berufsbilder und erlaubt es, alte, oft nicht mehr benötigte Berufe, in ein neues Gewand zu kleiden und wiederzubeleben. Gerade für Einzelselbstständige gibt es jetzt schon viele neue Aufgabengebiete, die nicht unbedingt ein offizielles Studium, sondern vorzeigbares Fach- und Praxiswissen erfordern. Auch in der Zukunft werden sich die Berufsbilder des digitalen Bereichs noch weiter ausbilden.

Diese Artikel könnten Sie auch interessieren:

Robotik-Start-up Ottonomy startet Pilotprojekt im Münchner Flughafen

Der Lufthansa Innovation Hub und der Munich Airport kooperieren zur Förderung von Innovation in der Luftfahrt: Pilotprojekte mit Start-ups sind vor diesem Hintergrund wichtige Hebel zur Implementierung innovativer Lösungen.

Die Luftfahrtbranche steht vor einer Vielzahl von Herausforderungen, sowohl auf Kund*innenseite als auch in geschäftlichen Prozessen. Innovation spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen, indem sie Möglichkeiten zur Digitalisierung, Automatisierung, Optimierung und Neuerfindung schafft.

Vor diesem Hintergrund haben der Lufthansa Innovation Hub, die Berliner Innovationseinheit der Lufthansa Group, und die Terminal 2 Gesellschaft des Flughafens München eine Absichtserklärung (MoU) unterzeichnet. Mit der Unterzeichnung bekunden beide ihre Absicht, durch gemeinsame Initiativen die Innovation in der Luftfahrtbranche voranzutreiben.

“Innovation in der Reiseindustrie ist eine gemeinschaftliche Aufgabe, die dem gesamten Ökosystem zukommt”, sagt Dr. Stefan Nothelfer, Senior Director und Leiter Corporate Venturing & Strategic Growth beim Lufthansa Innovation Hub. “Wir freuen uns darauf, mit der Terminal 2 Gesellschaft des Flughafens München zusammenzuarbeiten, um das Kundenerlebnis gemeinsam zu verbessern und den gesamten Reiseprozess zu optimieren.”

Robotik-Einsatz im Terminal 2 des Flughafens München

Ein konkretes Beispiel für das Vorantreiben von Innovation im Flughafenbetrieb durch Pilotprojekte ist die Zusammenarbeit mit dem Robotik-Start-up Ottonomy.

Seit dieser Woche sind zwei autonome Service-Roboter in den Bereichen der Gates und Gepäckausgabe im Terminal 2 des Flughafens München im Einsatz. Die Roboter sind darauf ausgelegt, verschiedene Aufgaben zu übernehmen, um reibungslose Kund*inneninteraktionen zu ermöglichen. Sie unterstützen Passagier*innen mit Informationen und bewerben die Dienstleistungen von Lufthansa Airlines.

Durch das Scannen eines QR-Codes auf dem Roboter mit ihrem Smartphone gelangen Reisende zu Chat-Assistenten für Self-Service-Optionen. Dort können sie Fluginformationen abrufen und Prozesse wie Umbuchungen oder Erstattungen eigenständig verwalten. Die Roboter liefern zudem wichtige Informationen zu flughafenbezogenen Themen wie Tax Refund und Lost and Found. Dank integrierter Behälter können die Roboter auch für den Warentransport eingesetzt werden – etwa künftig für die Verteilung von Wasserflaschen an Passagier*innen.

“Unser Ziel ist es, unseren Gästen das beste Reiseerlebnis in Europa zu bieten”, sagt Marcus Schnabel, Vice President Ground Operations Hub Munich. “Die Nutzung digitaler Lösungen ist für dieses Vorhaben von entscheidender Bedeutung, und wir freuen uns, als Pilotstandort für wegweisende Innovationen zu dienen.”

Ottonomy setzt seine Roboter weltweit an Flughäfen, in Krankenhäusern und für Auslieferungen auf der letzten Strecke zum/zur Kund*in ein. “Unsere Roboter, die mit Contextual AI arbeiten, ermöglichen es Unternehmenskunden, Innovationen voranzutreiben, bessere Kundenerlebnisse zu schaffen und die betriebliche Effizienz in der Luftfahrt zu steigern“, sagte Ritukar Vijay, CEO von Ottonomy. „Eine Partnerschaft mit zukunftsorientierten Branchengrößen wie der Lufthansa bringt diese Vision der Realität ein großes Stück näher.“

Das Pilotprojekt mit Ottonomy entstand im Rahmen von Startup Gate, der Venture-Clienting-Initiative der Lufthansa Group. Startup Gate verbindet Teams der Lufthansa Group mit hochmodernen Start-ups, um deren Technologien schnell zu adaptieren und schlanke sowie kosteneffiziente Kooperationen zu ermöglichen.

Nach dem KI-Hype: Diese vier Trends bleiben

KI entwickelt sich rasant weiter. Doch welche Trends bleiben und setzen sich wirklich durch? Diese Entwicklungen sollten Unternehmen 2025 weiterhin im Blick behalten.

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. Diese vier wichtigen KI-Trends werden uns 2025 maßgeblich begleiten.

Ob automatisierte Textproduktion, interaktive Chatbots oder KI-gestützte Analysen für Logistik und Finanzen: KIist längst im Tagesgeschäft angekommen. Diese Dynamik setzt sich 2025 fort. Dabei verschieben sich die Schwerpunkte zunehmend hin zu spezialisierten, effizienteren und flexibleren KI-Anwendungen.

Modular AI: Kleine Bausteine, große Wirkung

Modulare KI-Systeme werden zum Schlüssel für Unternehmen, die domänenspezifische Lösungen benötigen. Diese spezialisierten KI-Module sind genau auf einzelne Aufgabenbereiche zugeschnitten, etwa auf den Kundenservice oder auf Betrugserkennung im Bankwesen. Plug-and-Play-Architekturen beschleunigen hierbei die Implementierung: Statt monolithische Modelle einzuführen, integrieren Unternehmen bedarfsgerecht nur jene Module, die sie wirklich benötigen. Auf diese Weise lässt sich der zeitliche und finanzielle Aufwand für die Implementierung in Organisationen erheblich senken. Damit das Zusammenspiel verschiedener Module funktioniert, treiben Hersteller*innen und Standardisierungsgremien die Entwicklung einheitlicher APIs und Kommunikationsprotokolle weiter voran. Diese Interoperabilität ebnet den Weg für dynamische KI-Systeme, die sich je nach Anforderung in bestehende IT-Landschaften integrieren lassen.

Edge AI und On-Device Intelligence: Schneller zum Ergebnis

Während KI-Anwendungen bislang oft auf starke Cloud-Infrastrukturen angewiesen waren, verlagert sich die Intelligenz nun zunehmend an den Netzwerkrand. Dadurch können Daten in Echtzeit analysiert werden, um schnell fundierte Entscheidungen zu treffen. Gerade in sensiblen Bereichen wie der medizinischen Bildgebung oder in Branchen mit hoher Zeitkritikalität, beispielsweise bei autonomen Fahrzeugen, minimiert eine Edge-basierte KI-Analyse Latenzzeiten und ist somit wettbewerbsentscheidend. Parallel dazu treten neue, energieeffiziente KI-Chips wie neuromorphe Prozessoren oder TPUs (Tensor Processing Units) auf den Plan. Sie ermöglichen leistungsstarke KI-Anwendungen in Systemen mit begrenztem Platz oder Energiebudget – ein wichtiger Fortschritt für Wearables und sogar Satelliten.

Foundation Models: Optimieren statt komplett neu trainieren

Große KI-Basismodelle, sogenannte Foundation Models, haben 2024 ihren Nutzen in zahlreichen Branchen bewiesen. 2025 rücken jedoch kosten- und ressourcenschonende Optimierungen stärker in den Vordergrund. Verfahren wie Parameter-effizientes Tuning oder LoRA (Low-Rank Adaptation) ermöglichen es, aus umfassenden Basismodellen spezialisierte Teilmodelle zu erzeugen, ohne sie von Grund auf neu trainieren zu müssen. Kleinere, spezialisierte Modelle behalten die Leistungsfähigkeit der großen Systeme oft zu einem Bruchteil der nötigen Rechenleistung. Das senkt nicht nur die Kosten, sondern trägt auch zur Nachhaltigkeit bei, da der Energieverbrauch bei Training und Einsatz von KI zunehmend kritisch hinterfragt wird. Darüber hinaus entstehen lokalisierte Modelle, die speziell auf bestimmte Regionen oder Sprachen zugeschnitten sind und dadurch genauere Ergebnisse liefern.

Fortschrittliche KI-Agenten: Mehr Kontext, mehr Kollaboration

KI-Agenten erreichen 2025 eine neue Evolutionsstufe und können nuancierte Kontexte immer besser erfassen. Das steigert die Personalisierung von Interaktionen im Kund*innenservice, Gesundheitswesen oder Bildungsbereich. Zugleich werden Self-Improving Agents immer wichtiger: Sie enthalten eingebaute Feedbackschleifen, lernen aus ihren Erfahrungen und optimieren ihre Fähigkeiten – ganz ohne Eingreifen von außen. Darüber hinaus setzt sich das Konzept der Multi-Agent Collaboration durch. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um komplexe Probleme wie logistische Planungen oder den Ablauf bei Großschadenslagen effizient zu lösen.

Fazit

Das laufende Jahr wird wie das letzte – und vermutlich wie noch viele kommende Jahre – von künstlicher Intelligenz geprägt sein. Zwar müssen wir bei Aspekten wie Datensicherheit, Transparenz und dem Schutz persönlicher Informationen weiterhin aufmerksam bleiben, doch gleichzeitig eröffnen sich durch KI ganz neue Chancen für Innovation, Effizienz und Wachstum. Schon jetzt arbeiten Unternehmen, Regierungen und Forschungseinrichtungen verstärkt Hand in Hand, um Standards zu definieren und verantwortungsvolle Lösungen zu entwickeln. Damit können wir das enorme Potenzial dieser Technologie nutzen und zugleich sicherstellen, dass Fortschritt und Vertrauen im Einklang stehen.

Der Autor Ramprakash Ramamoorthy ist Director of AI Research bei Zoho.

nuwo: New Work, new Needs

Nachdem sie ihren Beamtenstatus ad acta gelegt hatte, gründete Lisa Rosa Bräutigam nuwo, um die Transformation unserer Arbeitswelt mit innovativen Workplace Services voranzutreiben.

Die moderne Arbeitswelt bringt flexible Arbeitsmodelle und neue Konzepte wie Remote Work und Shared Workplaces mit sich. Damit sind auch tiefgreifende Änderungen für den einzelnen Arbeitsplatz verbunden. Immer mehr Unternehmen möchten ihren Mitarbeitenden Flexibilität und Ergonomie bieten, auch im Homeoffice. Ein gesunder Arbeitsplatz gewinnt auch im Hinblick auf Mitarbeitendenzufriedenheit und den Wettbewerb um Talente an Bedeutung. Doch eine Ausstattung mit hochwertigen Büromöbeln ist kapitalintensiv. Je nach Mitarbeitendenzahl kommen schnell sechs- und siebenstellige Summen zusammen; es geht um Budgets und steuerliche Fragen, An­lagevermögen und Abschreibungen. Da unterschiedliche Menschen und Arbeitsanforderungen individuelle Büromöbel benötigen, ist typischerweise auch der Aufwand für Abstimmung und Organisation hoch.

Ein Start-up aus Berlin bietet die Lösung. „Wir helfen Unternehmen, moderne Arbeitsplätze sicher und einfach auszustatten“, sagt Lisa Rosa Bräutigam, Gründerin und CEO von nuwo. „Unsere Plattform ermöglicht die Ausstattung von Arbeitsplätzen in Büro und Homeoffice, zugeschnitten auf die jeweilige Firma, mit flexibler Finanzierung und smarter Verwaltung aller Büromöbel im Bestand.“

Erst Beamtin, dann Gründerin

Bevor Lisa als Gründerin die Büromöbelbranche wachrütteln sollte, hatte sie die Beamtenlaufbahn eingeschlagen. Sechs­einhalb Jahre unterrichtete sie als Lehrerin an einer Pfälzer Grundschule. Dort durchlief sie alle Stationen, vom Unterricht, über die Ausbildung von angehenden Lehrkräften bis hin zur stellvertretenden Schulleitung. Danach gab es für sie kaum noch Entwicklungsmöglichkeiten. „Am Ende meiner Karriere hätte ich eventuell in eine übergeordnete Behörde wechseln können“, erinnert sich Lisa. Diese Vorherbestimmtheit beunruhigte sie zunehmend: „Den genauen Ablauf der Karriere zu kennen, finden viele Menschen sicherlich positiv, doch ich hatte ein ungutes Gefühl.“ Sie entschloss sich, noch einmal neu zu beginnen. „Dass ich meine Verbeamtung, auf die ich ja lange hingearbeitet hatte, nun wieder aufgeben wollte, sorgte in meinem Umfeld für Unverständnis und führte auch zu einigen Turbulenzen im Familienrat“, sagt Lisa. Im August 2020 kündigte sie ihren sicheren Job – und rutschte direkt in die Gründung.

Den Nerv der Zeit getroffen

Die COVID-19-Pandemie steuerte zu diesem Zeitpunkt auf den ersten Höhepunkt zu. Bald folgte der erste Lockdown. Alle, deren Arbeit es zuließ, mussten zu Hause bleiben. Als vormalige stellvertretende Schulleitung war Lisa regelmäßig auch im Homeoffice tätig und entsprechend gut ausgestattet. Doch viele Menschen arbeiteten nun notgedrungen im Bett, auf der Couch oder am Küchentisch. „Immer mehr Bekannte klagten über Kopf-, Nacken- und Rückschmerzen, weil die Bedingungen zu Hause einfach ungeeignet waren“, erinnert sich Lisa. Sie fing schnell Feuer für das Thema und wollte helfen. Sie recherchierte und telefonierte. „Ich wollte einfach, dass Mitarbeitende auch zu Hause gesund und sicher arbeiten können, mit den richtigen Büromöbeln“, sagt Lisa, die zunächst nicht daran dachte, „dass ein Unternehmen daraus entstehen würde.“

Dann stellte sie fest, dass es niemanden gab, bei dem Unternehmen professionelle Arbeitsplätze für den Heimbereich bekommen konnten. Sie überlegte, das Leasingmodell von Dienstfahrrädern auf Büromöbel zu übertragen. Doch der Ansatz erwies sich als ungeeignet. „Die Büromöbelbranche und speziell der Handel sind traditionell geprägt, stark fragmentiert und kaum digitalisiert“, sagt Lisa. Die für den Heim­bereich nötige Einzelberatung war für die bestehenden Händler*innen zu kleinteilig und damit unattraktiv. Die Ausstattung von Heimarbeitsplätzen bedarf zudem einer besonderen Logistik. Produkte wie Schreibtischstuhl, Container, Tisch und Leuchte müssen bis in die Wohnung geliefert und aus Gründen des Versicherungs- und Arbeitsschutzes fachgerecht aufgebaut werden.

Ein weiteres Thema ist der After-Sales-Bereich: „Nach dem Kauf eines Möbelstücks gibt es in der Regel keine Verbindung mehr zwischen Fachhandel und Kunde, und wir wollten auch hier Service bereitstellen“, so Lisa. Sie entschied sich, die zahlreichen Herausforderungen mit einer eigenen Plattform zu lösen.

Im Januar 2021 gründete Lisa das Unternehmen nuwo. „Bei der Kundengewinnung haben wir den Fokus gleich auf Großkonzerne und den Mittelstand gelegt“, sagt Lisa, „heute weiß ich, dass man typischerweise anders vorgehen würde, doch wir waren mit unserem Ansatz erfolgreich.“ Lisa und ihr Mitgründer gewannen zunächst kleinere Unternehmen als Kunden. Erstes Kapital erhielten Sie von Business Angels aus der Rhein-Neckar-Region. Im selben Jahr noch zog das Gründungsteam nach Berlin, um tiefer in das Start-up-Ökosystem der Hauptstadt einzutauchen. „In der Pandemie trafen wir mit unserem Geschäftsmodell den Nerv der Zeit, Homeoffice-Lösungen waren ein absolutes Brennpunktthema“, sagt Lisa. Viele Unternehmen suchten nach skalierbaren Lösungen für Heimarbeitsplätze, und das große Interesse verstärkte auch die mediale Aufmerksamkeit. Die Markenbekanntheit von nuwo im Büromöbelmarkt stieg, und die Anfragen wurden mehr. Gegen Ende des Jahres konnte Lisa dann SAP als ersten Großkunden gewinnen. „Ein globaler Konzern ist für ein Start-up eine ganz starke Referenz, die auch weitere Türen geöffnet hat“, sagt Lisa.

Das gemeinsame Mindset als Fundament

Im Laufe der ersten eineinhalb Jahre zeigte sich, dass beiden Gründer*innen unterschiedlich gut mit den Anforderungen des Unternehmertums zurechtkamen. Während Lisa die Anlaufphase als äußerst spannende und lehrreiche Zeit empfand, hatte ihr Mitgründer weniger Freude an der überbordenden Menge von Aufgaben und To-dos. Schließlich trennten sich ihre Wege, Lisa kaufte die Anteile zurück. Dass sich solche Unwuchten im Gesellschafterkreis nachhaltig korrigieren lassen, ist eine wichtige Erkenntnis aus Lisas Gründungsreise: „Als First-Time-Founder hatte ich diese Option zunächst gar nicht im Blick, erst durch den Hinweis eines befreundeten Gründers erfuhr ich, dass es möglich ist, den Mitgesellschafter abzulösen und das Team neu aufzustellen.“ Die darauffolgende Zeit war für Lisa sehr herausfordernd und geprägt von Unsicherheiten. Doch Lisa vertraute auf ihre Fähigkeiten und führte ihr Start-up ein Jahr lang allein weiter.

Dies ist ein Auszug aus der aktuellen Ausgabe unseres Printmagazins: Den vollständigen Artikel liest du in der StartingUp - Heft 01/25 – jederzeit online bestellbar – auch als ePaper – über unseren Bestellservice

So schafft KI neue CEO-Realitäten

Künstliche Intelligenz (KI) ist in der Führungsebene angekommen, doch welche Konsequenzen hat das für CEOs? Eine Studie enthüllt Eingeständnisse deutscher und internationaler CEOs zum Thema KI.

Der aktuelle „Global AI Confessions Report: CEO Edition" der KI-Plattform Dataiku enthüllt Eingeständnisse deutscher und internationaler Führungskräfte, die hinsichtlich KI einer neuen Realität gegenüberstehen. Wichtige Insights aus der Studie:

 

  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.
  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • Mit 62 Prozent bzw. 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit von KI geht.
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.

Für die Studie, die von The Harris Poll durchgeführt wurde, wurden im Januar und Februar 2025 über 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die Unternehmen der insgesamt 100 befragten deutschen CEOs rangieren bei einem Jahresumsatz von mehr als 250 Millionen Euro und eine Unternehmensgröße von mehr als 500 Mitarbeitenden.

Der Bericht enthüllt: Die KI-Strategie ist zum entscheidenden Faktor für das Überleben von Unternehmen geworden. Die Ergebnisse belegen zudem, dass die Konsequenzen des Einsatzes von KI auch auf höchster Entscheiderebene angekommen sind. 

KI kommt im Vorstand an

Laut Aussagen deutscher Geschäftsführer stellt KI die Rolle der Entscheidungsfindung auf Vorstandsebene zunehmend in Frage. Zu den wichtigsten Ergebnissen gehören: 

  • 93 Prozent der deutschen CEOs sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.
  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.

KI-Strategie: Übernahme von Kernkompetenzen

Auch auf den darauf folgenden Rängen zeichnet sich ab, dass Künstliche Intelligenz das Berufsprofil der Führungsebene deutlich wandeln kann:  

  • 90 Prozent der deutschen CEOs sind der Meinung, dass KI einen besseren Strategieplan entwickeln kann als ein Mitglied ihres Führungsteams (Vizepräsidenten bis zur Vorstandsebene).
  • 49 Prozent der CEOs deutscher Unternehmen schätzen, dass sie 3–4 Teammitglieder durch KI ersetzen könnten, um strategische Planung zu betreiben. Ganze 13 Prozent gaben an, dass sie sogar 7 oder mehr Führungskräfte für die gleiche Aufgabe ersetzen könnten.

Keine KI-Strategie ist allerdings auch keine Antwort, denn

  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • 76 Prozent der deutschen CEOs sind der Meinung, dass sie Gefahr laufen, ihren Job zu verlieren, wenn sie nicht innerhalb von 2 Jahren messbare KI-getriebene Geschäftsgewinne erzielen.

KI als Kernkompetenz zukünftiger CEOs

Führungskräfte müssen sich laut der Umfrage auf dem Jobmarkt zukünftig anders aufstellen. KI-Kompetenz gilt als “Must-Have”, was auch aus dem Berufsalltag deutscher CEOs hervorgeht.

  • 31 Prozent der deutschen CEOs sind der Meinung, dass Erfahrung in der Umsetzung einer erfolgreichen KI-Strategie oder deren Implementierung in 3–4 Jahren eine der wichtigsten Kompetenzen sein wird, nach denen Vorstände bei der Bewertung eines potenziellen Geschäftsführers suchen werden.
  • 82 Prozent der deutschen CEOs geben an, dass ihre direkte Beteiligung an KI-bezogenen Entscheidungen im vergangenen Jahr zugenommen hat.
  • 70 Prozent der deutschen CEOs geben an, an mehr als der Hälfte der KI-Entscheidungen ihres Unternehmens beteiligt zu sein.

Die „KI-Commodity-Falle“ und KI-Washing: Blinde Flecken der Geschäftsführung

Trotz zunehmender Abhängigkeit von KI sind sich viele CEOs der Gefahren schlecht umgesetzter KI-Strategien in gefährlicher Weise nicht bewusst.

  • 87 Prozent der CEOs tappen weltweit in die „KI-Falle“ und sind zuversichtlich, dass KI-Standardagenten genauso effektiv sein können wie maßgeschneiderte Lösungen für hochgradig nuancierte vertikale oder domänenspezifische Geschäftsanwendungen.
  • CEOs deutscher Unternehmen gehen im internationalen Vergleich mit 39 Prozent am ehesten davon aus, dass es bei eigenen KI-Initiativen mehr um die Optik als um die Wirkung geht. Dieser Umstand nennt sich auch “AI Washing” und zielt darauf ab, KI-Innovation vorzuspielen, anstatt einen bedeutenden Mehrwert zu schaffen.

Worauf deutsche CEOs allerdings vergleichsweise viel Wert legen, sind Kostenkontrolle und Skalierbarkeit von KI-Lösungen. Mit 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs (62 Prozent) an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit als Kernattribute innerhalb ihres Rahmens für die regelmäßige Bewertung der Effektivität von KI-Analysen, -Modellen und -Anwendungen geht.

KI-Governance und regulatorische Unsicherheit

Während sich die Einführung von KI beschleunigt, schaffen schlechte Governance und regulatorische Unsicherheit erhebliche Hindernisse:

  • 25 Prozent der deutschen CEOs geben an, dass sich ein KI-Projekt aufgrund regulatorischer Unsicherheiten verzögert hat, während 35 Prozent zugeben, dass ein Projekt aus solchen Umständen abgebrochen oder aufgegeben wurde. 
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.
  • 94 Prozent der CEOs vermuten weltweit, dass Mitarbeitende GenAI-Tools wie ChatGPT, Claude und Midjourney ohne Genehmigung des Unternehmens verwenden (bekannt als „Schatten-KI“) und damit ein massives Governance-Versagen innerhalb von Organisationen aufdecken.

Den vollständigen „Global AI Confessions Report: CEO Edition“ findest du hier

Acrylic Robotics: die Zukunft des Kunstmarkts?

Die Gründerin und Künstlerin Chloë Ryan will mit Acrylic Robotics den Kunstmarkt neu definieren: Mithilfe eines Roboterarms, der Gemälde Pinselstrich für Pinselstrich rekonstruiert, schlägt das Start-up die Brücke zwischen traditioneller Kunst und moderner Technologie, um Kunstwerke einem breiten Publikum zugänglich zu machen.

Kunst skalierbar machen
Die in Montreal ansässige Acrylic Robotics-Gründerin und CEO Chloë Ryan, selbst Künstlerin, hatte die Idee aus einer persönlichen Erfahrung heraus. Ein Gemälde zu schaffen, erfordert viel Zeit; und am Ende kann das Werk nur einmal verkauft werden. Inspiriert von der Skalierbarkeit der Musik- und Buchbranche entwickelte Chloë Ryan ein Konzept, mit dem Kunstwerke präzise reproduziert werden können – ohne an Qualität oder künstlerischem Anspruch zu verlieren. Gemeinsam mit Walker Singleton, Head of Engineering des Start-ups, entstand so ein interdisziplinärer Ansatz, der Robotik, Softwareentwicklung und mechanische Präzision vereint.

Der Roboter: Präzision in jedem Pinselstrich
Das Herzstück von Acrylic Robotics ist ein Roboterarm, der Gemälde detailgetreu reproduzieren kann. Der Prozess unterscheidet sich je nach Ursprung des Kunstwerks. Digitale Kunstwerke, die auf einem Tablet oder Computer erstellt wurden, können direkt an den Roboter übermittelt werden, da Daten wie Pinselrichtungen, Druckstärke und Farbwahl bereits digital vorliegen. Analoge Gemälde erfordern hingegen eine zusätzliche Analyse. Hier kommt ein speziell trainiertes KI-Modell zum Einsatz, das die wesentlichen Parameter berechnet, um eine möglichst präzise Reproduktion zu erzielen. Besonders wichtig ist es Acrylic Robotics, den Künstler kontinuierlich in den Prozess einzubeziehen. Es geht nicht darum, den kreativen Schaffensprozess zu ersetzen, sondern ihn zu ergänzen und weiterzuentwickeln.

Kunst für alle: Ein Service für Künstler und Käufer
Acrylic Robotics bietet seine Technologie Künstlern als Dienstleistung an. Über die Website können Künstler eine Zusammenarbeit anfragen, bei der ihre Werke in limitierter Auflage reproduziert werden. Käufer erhalten dadurch hochwertige Acrylreproduktionen, ohne den Wert des Originals zu schmälern. Das Konzept verbindet Exklusivität mit breiterer Zugänglichkeit und positioniert sich als innovative Lösung im Kunstmarkt.

Europäisches KI-Gesetz in Kraft getreten

Der AI Act ist am 2. Februar 2025 in Kraft getreten und gilt für alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen. Bei Nichteinhaltung drohen Geldbußen.

Künstliche Intelligenz (KI) entwickelt sich rasant und findet in immer mehr Bereichen, auch in Unternehmen, Anwendung. Deshalb schafft Europa mit dem AI Act einen einheitlichen Rechtsrahmen, den alle europäischen Unternehmen einhalten müssen.

Nicht allen Arbeitgebenden ist bewusst, dass die europäische Verordnung bereits in Kraft getreten ist. Sie gilt für jede Organisation – unabhängig von ihrer Größe – und ist verbindlich. Das Gesetz betrifft somit alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen, unabhängig vom Beschäftigungsverhältnis. Europa überlässt einen Teil der Durchführung und Umsetzung des KI-Gesetzes den Mitgliedstaaten selbst – ebenso wie die Verhängung von Geldbußen bei Nichteinhaltung. Die konkrete Höhe dieser Bußgelder wird erst am 2. August 2025 feststehen. Dennoch sollten Unternehmen ab dem 2. Februar lieber gut aufgestellt sein, da die Bußgelder auch rückwirkend in Kraft treten können.

Verbindliche KI-Policy und adäquate KI-Kompetenzen

Unternehmen sind dafür verantwortlich, dass ihre Belegschaft über ausreichende KI-Kenntnisse verfügt. Dabei ist es nicht erforderlich, dass jeder Mitarbeitende umfassendes Wissen über KI besitzt. Es muss sichergestellt werden, dass alle Mitarbeitenden, die mit KI-Systemen arbeiten, über die notwendigen Kenntnisse und Fähigkeiten verfügen. So können sie informierte Entscheidungen treffen und potenzielle Risiken erkennen. Dazu gehören alle Mitarbeiter*innen, die mit KI-Systemen arbeiten – vom Anbietenden bis zum/zur Endnutzer*in – und erstreckt sich also nicht nur auf IKT-Fachleute in Unternehmen.

Das KI-Gesetz legt nicht genau fest, welche Maßnahmen Arbeitgebende ergreifen müssen, damit alle beteiligten Personen ausreichende KI-Kenntnisse erwerben. Arbeitgebende sollten daher nicht nur die technischen Kenntnisse, Erfahrungen, Ausbildungen und Fortbildungen der Mitarbeitenden berücksichtigen, sondern auch den Kontext, in dem die KI-Systeme genutzt werden, sowie die betroffenen Personen oder Personengruppe.

Arbeitgebende können selbst entscheiden, welche Kenntnisse und Fähigkeiten ihre Mitarbeitenden benötigen und wie sie diese angeeignet werden können. Mögliche Maßnahmen sind allgemeine KI-Schulungen, die Grundkenntnisse vermitteln und auf verschiedene Zielgruppen zugeschnitten sein können. Dabei kann es sich um spezifische Schulungen handeln, die sich auf bestimmte Tools und Anwendungen konzentrieren, aber auch um die Zusammenarbeit zwischen juristischen und technischen Teams.

Arbeitgebenden wird empfohlen, eine KI-Policy mit klaren Richtlinien für den Einsatz von KI im Unternehmen zu erstellen. Darin kann festgehalten werden, welche Anwendungen von wem und auf welche Weise genutzt werden dürfen. In dieser Richtlinie kann der Arbeitgebende auch Hinweise darauf geben, wie die Mitarbeitenden ausreichend mit KI vertraut bleiben können. Wie wird zum Beispiel vorgegangen, wenn sich im Unternehmen oder bei den Tools etwas ändert? KI-Kompetenz ist schließlich nichts Statisches. Wenn ein(e) Mitarbeiter*in die Rolle wechselt, oder wenn die eingesetzten Tools sich ändern, muss der Arbeitgebende sicherstellen, dass die betreffende Person weiterhin über ausreichende KI-Kenntnisse verfügt.

Verbotene bestimmter KI-Systeme

Zum anderen verbietet der AI Act ab dem 2. Februar 2025 den Einsatz von KI-Systemen, die gegen europäische Normen und Grundwerte verstoßen, indem sie beispielsweise Grundrechte missachten. Darunter fallen auch KI-Systeme für Social Scoring, die Menschen aufgrund ihres sozialen Verhaltens oder persönlicher Eigenschaften bewerten, oder KI-Systeme zur Emotionserkennung am Arbeitsplatz oder im Bildungsbereich. Arbeitgeber sollten daher die eingesetzten KI-Systeme im Hinblick auf die Identifizierung verbotener Systeme und die Einstellung ihrer Nutzung überprüfen.

Ab August 2025 drohen Geldbußen - auch rückwirkend

Ab dem 2. August 2025 drohen Unternehmen und Organisationen, die verbotene KI entwickeln oder einsetzen, hohe Geldbußen. Die Überwachung und die Festlegung der Höhe der Strafen liegen vollständig in der Verantwortung der EU. Die Höhe der Geldbußen sowie die Aufsicht hierüber liegen vollständig in der Verantwortung der EU. Bis zu 35 Millionen Euro Strafe oder sieben Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres – je nachdem, welcher Betrag höher ist – können verhängt werden.

Der Autor Sander Runkel ist Fachanwalt für Arbeitsrecht und Manager Tax & Legal bei SD Worx Deutschland

Casablanca.AI: Ein Blick, der den Unterschied macht

Mit ihrer selbst entwickelten KI ermöglicht das 2020 gegründete Start-up Casablanca.AI authentische Videocalls. Dabei wird rein softwarebasiert in Echtzeit realer Augenkontakt in digitalen Meetings erzeugt und so ein natürliches sowie direktes Gesprächserlebnis hergestellt.

„Beim ersten Augenkontakt hat’s sofort gefunkt.“ Dieser Ausspruch könnte ebenso aus einer Hollywood-Romanze stammen wie auch aus einem Verkaufs- oder Bewerbungsgespräch. Denn der Blickkontakt verkörpert einen der mächtigsten und entscheidendsten Bestandteile der nonverbalen Kommunikation. Der Austausch von Blicken aktiviert das neuronale Belohnungssystem, was wiederum für Glücksgefühle sorgt und motiviert. Bereits vor über 20 Jahren ging das aus einer Studie (Reward value of attractiveness and gaze) hervor.

Ohne Augenkontakt kein echtes Vertrauen

„Hier kommen wir wiederum sehr schnell zum Thema Vertrauen. Ohne Augenkontakt fehlt hierfür die wichtigste Grundlage, wirkliche Nähe kommt nicht zustande“, sagt Carsten Kraus, Gründer und CEO der Casablanca.AI GmbH. „Wenn wir darüber nachdenken, ergibt sich schnell ein großes Problem: Viele Gespräche, insbesondere im geschäftlichen Kontext, laufen heute auf digitalem Wege in Videokonferenzen ab. Direkter Augenkontakt besteht hier nie, ohne dass die Mimik des Gesprächspartners aus dem Sichtfeld verschwindet.“ Das Pforzheimer KI-Start-up Casablanca hat das Problem erkannt und schafft Abhilfe.

Videocalls auf neuem Level

Innerhalb eines Videocalls gibt es für die Gesprächsteilnehmende genau zwei Optionen: den Blick in die Kameralinse und den auf den Bildschirm. Bei ersterem besteht keine Möglichkeit, den Gesichtsausdruck des Gegenübers zu sehen. Dagegen führt die zweite Alternative dazu, dass sich die Augenpaare nicht treffen. „Erfahrungsgemäß schwanken User*innen und variieren innerhalb eines Calls immer wieder. Sie stehen sozusagen vor der Wahl, welche Option sich zum jeweiligen Zeitpunkt eher eignet. Damit geht dem Gespräch viel Qualität ab“, erläutert Kraus, der mit seinem Unternehmen eine „virtuelle Kamera“ mit lokaler KI entwickelt. Diese greift in Echtzeit das Bild der physischen Webcam ab und richtet den Blick sowie den Gesichtswinkel der aufgezeichneten Person aus. „Nicht erst seit der Corona-Pandemie liegen Videokonferenzen absolut im Trend. Insbesondere in der Geschäftswelt hat sich diese Technik als unverzichtbar herauskristallisiert, spart viel Zeit und damit Kosten. Die Schwierigkeit bestand aber bisher darin, in diesen Gesprächen das notwendige Vertrauen aufzubauen, beispielsweise für einen erfolgreichen Verkaufsabschluss“, so Kraus. „Das möchten wir ändern und die Kommunikation per Video auf ein neues Level heben, sozusagen auf das eines analogen Gesprächs.“

Natürlichkeit und Authentizität zählen

Blicke machen die Basis sozialer Interaktion aus. Sie tragen zur Interpretation von nonverbalen Signalen bei. Eine dementsprechend große Rolle nehmen sie in der Geschäftswelt etwa für Verkäufer*innen, Berater*innen oder Personalverantwortliche ein. „Vertrauen hat auf ihr Handeln große Auswirkungen, mangelt es daran, sinken die Erfolgsaussichten zum Beispiel im Verkaufsgespräch. Auch der zunehmend digitale Bewerbungsprozess hat nach wie vor die Hürde des fehlenden Augenkontakts und damit auch der mangelnden Nähe zu überspringen“, zeigt Kraus die Relevanz auf. „Gelingt dies aber, entsteht eine persönliche Beziehung und das Gespräch geht über die Übermittlung von Informationen hinaus – und das bei beliebiger physischer Distanz. Dabei kommt es immer auch auf die Natürlichkeit und Authentizität des Videocalls an.“ Damit dies bestmöglich funktioniert, richtet Casablanca nicht nur die Augen entsprechend aus, sondern dreht den gesamten Kopf in die passende Position. So lässt sich auch in digitalen Meetings sagen: „Beim ersten Augenkontakt hat’s sofort gefunkt.“

Initiative "KI für Deutschland" startet Aktionsplan

Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen, um hierzulande eine zukunftsorientierte Strategie für die KI-Nutzung als Schlüsseltechnologie des 21. Jhs. zu etablieren.

Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen. Ziel ist es, einen praxisnahen und unternehmerisch getriebenen Impuls zu setzen, um in dieser Phase der politischen und gesellschaftlichen Neuorientierung Eckpfeiler zu definieren, wie KI zum Wohle und unter Beteiligung aller in Deutschland, effektiv genutzt werden kann.

Zu den Initiator*innen von "KI für Deutschland" gehören maßgeblich die AI.GROUP, der AI.FUND, sowie die Rise of AI Conference - insbesondere die Unternehmer*innen und KI-Expert*innen Dr. Hauke Hansen, Fabian Westerheide, Ragnar Kruse, Petra Vorsteher, Dr. John Lange und Ingo Hoffmann. Unterstützt wird die Initiative von namhaften Institutionen wie dem KI-Bundesverband.

Die Initiative ist deutschlandweit, interdisziplinär und holistisch ausgerichtet. Sie ist offen für den Input und die Unterstützung aller relevanten gesellschaftlichen Gruppen und Persönlichkeiten.

Aufbruchssignal in Zeiten des Umbruchs

Mitinitiator Dr. Hauke Hansen: “Die Initiative KI für Deutschland ist ein Aufbruchssignal in Zeiten des Umbruchs. Mit unseren 11 Impulsen machen wir greifbare und umsetzbare Vorschläge, wie Deutschland die KI nutzen kann, um den gesellschaftlichen Stillstand zu durchbrechen und Wege aus der wirtschaftlichen Rezession zu finden. Wir richten uns damit an alle gesellschaftlichen Akteure, die Wirtschaft ebenso wie die Politik. Wir brauchen eine zukunftsweisende und konsequente Industriepolitik und unternehmerisches Handeln, um die KI am Standort Deutschland zur Chefsache zu machen und damit das Bruttosozialprodukt nachhaltig zu steigern. Stellen wir gemeinsam die Weichen für innovatives und wirtschaftlich erfolgreiches Deutschland von morgen.”

Diese elf Impulse will die Initiative "KI für Deutschland" zur Nutzung künstlicher Intelligenz in Deutschland in Form eines KI-Aktionsplans setzen:

Impuls 1: Einrichtung eines Digitalministeriums auf Bundesebene

Die Digitalisierung in Deutschland hat wirtschaftliche und politische Priorität. Um eine konsequente Digitalisierung der Gesellschaft, Wirtschaft und Verwaltung zu erreichen, ist ein dediziertes Bundesministerium für Digitales mit dem Schwerpunkt KI notwendig.

Impuls 2: Förderung von KI-Forschung und -Innovationen

Deutschland muss die jährlichen Investitionen in KI-Forschung und -Entwicklung bis 2030 auf mindestens 5,0 Mrd. € pro Jahr aufstocken, um international wettbewerbsfähig zu bleiben.

Impuls 3: Bereitstellung von KI-Wagniskapital für KI-Start-ups und -Innovationen

Deutschland benötigt ein KI-Wagniskapitalprogramm ausgestattet mit 10 Mrd. € über 5 Jahre, um KI-Startups zu fördern. Staatliche Fund-of-Funds sollten dazu genutzt werden, Mittel zielgenau und effektiv zu platzieren.

Impuls 4: Aufbau von KI-Clustern zur Förderung von Innovationen und Exzellenz in regionalen Ökosystemen

Deutschland sollte regionale KI-Cluster fördern, die räumliche Nähe mit technischer und wirtschaftlicher Exzellenz verbinden, um Innovationskraft zu maximieren und international Talente anzuziehen.

Impuls 5: Aufbau einer leistungsfähigen und souveränen digitalen Infrastruktur zur Stärkung der KI

Eine flächendeckende digitale Infrastruktur ist essenziell, um KI für Bürger und Unternehmen in der Breite nutzbar zu machen. Wir setzen uns dafür ein, GPU-Megacluster für Forschung und Industrie in Deutschland zu etablieren.

Impuls 6: Förderung der Anwendung von KI in Unternehmen

Bis 2030 sollten mindestens 80% aller deutschen Unternehmen KI-Anwendungen aktiv nutzen, um ihre Geschäfte zu optimieren und auszubauen.

Impuls 7: KI für den öffentlichen Sektor – Effizienzsteigerung und weniger Bürokratie

Bis 2029 sollte der Einsatz von KI in allen wesentlichen Behörden auf Bundes-, Landes- und Regionalebene etabliert werden, um Prozesse zu optimieren, Bürokratie abzubauen und Bürgerdienste zu verbessern.

Impuls 8: KI und Nachhaltigkeit – erschwingliche und saubere Energie für Deutschland

Deutschland sollte KI gezielt einsetzen, um die Energiewende zu unterstützen und die CO2-Emissionen im Energiesektor bis 2035 um mehr als 15% zu senken. Unser Land braucht eine sichere und bezahlbare Energieversorgung als Grundlage für technologiebasiertes Wachstum.

Impuls 9: Eine KI-Bildungsinitiative als Grundlage einer zukunftsfähigen Gesellschaft

Bis 2030 sollten mehr als 80% der Arbeitskräfte in Deutschland grundlegende KI-Kompetenzen besitzen, um den digitalen Wandel aktiv mitzugestalten.

Impuls 10: Ein klarer und sicherer rechtlicher Rahmen für KI und ein KI-Gütesiegel

Deutschland sollte bis 2026 einen flexiblen Rechtsrahmen für KI schaffen, der Innovation fördert, aber Missbrauch verhindert, und ein KI-Gütesiegel zur Förderung ethischer und transparenter KI einführen.

Impuls 11: Schaffung eines europaweiten KI-Ökosystems mit Deutschland als Schrittmacher

Deutschland sollte eine gestaltende Rolle beim Aufbau eines europäischen KI-Ökosystems übernehmen, um eine wettbewerbsfähige Alternative zu den USA und China zu etablieren.

Hier gibt’s mehr Infos zur Initiative "KI für Deutschland"

Meta verändert sich für Trump …

… doch was bedeutet der Wandel für die Plattform selbst und was für Influencer und Marken? Ein Kommentar von Philipp Martin, Gründer von Reachbird und Experte für Influencer Marketing im DACH-Raum.

In einer Zeit, in der soziale Medien unseren Alltag mehr denn je prägen, kündigt Meta, das Unternehmen hinter Facebook und Instagram, weitreichende Veränderungen an. Diese Entwicklungen könnten die Plattformen selbst und die Arbeit von Influencern und Marken grundlegend beeinflussen. Als Experte für Influencer Marketing analysiere ich die möglichen Auswirkungen dieser Umwälzungen.

Die Macht der sozialen Medien in Deutschland

Bevor wir uns den spezifischen Änderungen bei Meta zuwenden, lohnt ein Blick auf die derzeitige Bedeutung sozialer Medien in Deutschland. Laut aktuellen Statistiken von Meltwater (2024) nutzen mehr als 80% aller Einwohnerinnen und Einwohner in Deutschland Social Media – und das im Durchschnitt mehr als 1,5 Stunden täglich. Diese Zahlen unterstreichen die enorme Reichweite und den potenziellen Einfluss, den Plattformen wie Facebook und Instagram auf die öffentliche Meinungsbildung haben.

Metas neue Strategie: Abschied vom organisierten Faktencheck

Eine der gravierendsten Änderungen bei Meta betrifft den Umgang mit Faktenchecks. Bisher setzte das Unternehmen auf externe Organisationen, um die Richtigkeit von Informationen zu überprüfen. Nun plant Meta, ähnlich wie bei X (ehemals Twitter), auf die Schwarmintelligenz zu setzen. Meta-Gründer Mark Zuckerberg veröffentlichte ein Video, in welchem er Änderungen im Umgang mit Desinformation und Hate Speech auf seinen Plattformen ankündigte. Diese Entwicklung birgt erhebliche Auswirkungen auf den Wahrheitsgehalt der auf der Plattform geteilten Informationen. Besonders für Influencer und Marken, die auf ihre Glaubwürdigkeit angewiesen sind, entsteht eine neue Herausforderung.

Politische Implikationen

Der Übergang zu einem dezentralisierten System der Inhaltsüberprüfung könnte eine Annäherung an bestimmte politische Strömungen bedeuten. Es stellt sich die Frage, wie die Plattform und ihre Nutzer in Zukunft mit Falschinformationen umgehen werden. Diese Entwicklung könnte als eine Annäherung an die Politik der Republikaner gesehen werden, die durch die Änderungen möglicherweise begünstigt wird. Ein weiterer Aspekt der Änderungen betrifft den Umgang mit sogenannten schädlichen Inhalten. Meta plant, die Regeln in sensiblen Bereichen wie Migration oder Sexualität zu lockern. Diese Lockerung könnte zu einem Anstieg aggressiver, negativer und konfrontativer Beiträge führen. Eine stärkere Polarisierung der Plattform ist zu erwarten – ein Trend, der bereits auf anderen sozialen Netzwerken wie X zu beobachten ist.

Auswirkungen auf das Nutzerverhalten

Die mögliche Zunahme von Hassrede und polarisierenden Inhalten könnte das Nutzererlebnis auf Meta-Plattformen grundlegend verändern. Für Influencer und Marken bedeutet dies, dass sie sich möglicherweise in einem zunehmend negativen Umfeld bewegen müssen. Dies könnte nicht nur ihre Reichweite, sondern auch die Qualität ihrer Interaktionen mit Followern beeinflussen.

Trotz der potenziellen Risiken bietet die Nutzung von Schwarmintelligenz auch Chancen. Es bleibt abzuwarten, wie sich die neue Faktencheck-Strategie langfristig bewährt. Die Möglichkeit, dass jeder mitwirken kann, könnte für mehr Transparenz und schnellere, unkompliziertere Checks sorgen – ähnlich wie bei Wikipedia.

Zukünftig sollen laut Mark Zuckerberg nicht mehr autorisierte Faktenchecker für die Kontrolle sorgen, sondern die Community selbst – indem man mit Community-Notes, ähnlich wie es aktuell bei X bereits der Fall ist, auf falsche Informationen hinweisen kann. Dieser Community-Ansatz ist im ersten Moment nicht schlecht, sondern eine sinnvolle Ergänzung zu dem bestehenden System. Er wird jedoch ohne klare Moderation und ohne professionelle Faktenchecker kaum der Flut an Desinformation auf Social Media gerecht werden können. Vielmehr sollten beide Ansätze genutzt werden, um Desinformation einzudämmen.

Die Verantwortung der Plattformen in Krisenzeiten

Angesichts der bevorstehenden Wahlen und der anhaltenden globalen Krisen tragen Social-Media-Plattformen eine besondere Verantwortung. Gerade in Wahlkampf- und Krisenzeiten müssten sie eigentlich dieser Verantwortung gerecht werden. Diese Verantwortung nehmen sie jetzt nicht mehr wahr. Durch den positiven Effekt, dass über Social Media jede und jeder seine eigene Meinung kundtun und somit an demokratischen Prozessen und der Meinungsbildung uneingeschränkt teilhaben kann, gibt es auch Nachteile. Denn: Wer garantiert, dass es sich bei den veröffentlichten Inhalten um korrekte Informationen handelt? Was, wenn gezielt falsche Informationen über soziale Netzwerke gestreut werden? Gezielte Desinformation über Social Media in Verbindung mit den hohen Nutzerzahlen kann einen großen, negativen Einfluss auf unsere Gesellschaft haben.

Der europäische Kontext: Digital Services Act

Während die angekündigten Änderungen zunächst die USA betreffen, sind sie langfristig auch für den europäischen Markt relevant. Der Digital Services Act in der EU regelt den Umgang mit gezielter Desinformation. Es wird interessant sein zu beobachten, wie Meta diese Regelungen mit seinen neuen Ansätzen in Einklang bringen wird. Umso wichtiger ist es, dass von Seiten der Gesellschaft und auch von Seiten der Plattformen gewisse Regeln aufgesetzt und eingehalten werden. Einen rechtlichen Rahmen bietet in Europa der Digital Services Act, der den Umgang mit gezielter Desinformation regelt.

Auswirkungen auf die Influencer-Welt

Die Änderungen bei Meta haben zudem auch weitreichende Implikationen für die Influencer-Branche. Viele Influencer weltweit gelten als Expertinnen und Experten auf ihren Gebieten - egal ob Fitness- und Gesundheitsinfluencer, Finanzinfluencer oder auch Politikinfluencer. Mit tausenden oder gar Millionen von Abonnenten haben sie einen großen Einfluss und können – wie der Name schon sagt – beeinflussen! Bisher wurde der Content von Influencern nur sehr selten wirklich kontrolliert und eingeschränkt – dies kann durch die neuen Community-Notes auch einen positiven Einfluss auf falsch verbreitete Informationen durch Influencer haben, sofern sich die aktiven Communities der Influencer auch kritisch mit deren Content auseinandersetzen und darauf entsprechend reagieren.

Herausforderung Hate Speech

Ein besonders kritischer Punkt für Influencer ist der Umgang mit Hate Speech. Influencer sind meist täglich Hate Speech ausgesetzt. Eine Einschränkung von Hate Speech war und ist für Influencer von großem Interesse, um in einem positiven Umfeld ihre Inhalte veröffentlichen zu können. Sollte es zu einer Auflösung dieser Einschränkung kommen, so ändert sich die generelle Social Media Tonalität zum Negativen. Einen Vorgeschmack gibt hier ebenfalls die Plattform X, auf welcher es aktuell kaum Einschränkungen gibt und Hate Speech deshalb dort bereits zu einem oft negativ aufgeladenen Community-Klima führt.

Konsequenzen für Marken-Kollaborationen

Die möglichen Veränderungen im Kommunikationsklima auf Meta-Plattformen haben auch Auswirkungen auf die Zusammenarbeit zwischen Marken und Influencern. Die Ziele von Brands in der Zusammenarbeit mit Influencern liegen auf der Hand – es geht um Aufmerksamkeit, Interaktion und Abverkauf. Diese Ziele lassen sich vor allem dann erreichen, wenn das Umfeld positiv ist. Hate Speech bringt mit negativem Kommunikations-Klima auch die Ziele der Markenkommunikation in Gefahr – weshalb wir uns für positive Communities und eine Einschränkung von Hate Speech einsetzen sollten. Gleichzeitig bedeutet dies natürlich nicht, dass kritische Kommentare oder Feedback eingeschränkt werden – es geht rein um das Beschimpfen und Verunglimpfen von Social Media Nutzern.

Blick in die Zukunft: Anpassung und Verantwortung

Es bleibt abzuwarten, wie sich die aktuell angekündigten Änderungen in den USA etablieren werden und zu welchem Resultat dies führt. Für den europäischen Markt wird es vorerst keine Änderungen geben – jedoch sollte die Situation und Entwicklung von Marken, Agenturen und auch Nutzern und Influencern gut beobachtet werden.

Fazit: Eine neue Ära der digitalen Kommunikation

Die von Meta angekündigten Änderungen markieren möglicherweise den Beginn einer neuen Ära in der digitalen Kommunikation. Dieser Wandel bringt nicht nur Herausforderungen, sondern auch Chancen für Influencer und Marken mit sich, insbesondere hinsichtlich der Qualität des Contents und der Authentizität von Informationen.

Die kommenden Monate und Jahre werden zeigen, wie sich diese Veränderungen auf die Social-Media-Landschaft auswirken werden. Eines steht jedoch fest: Influencer, Marken und Nutzer müssen sich auf ein dynamischeres, möglicherweise kontroverseres Umfeld einstellen. Die Fähigkeit, sich anzupassen und verantwortungsvoll zu kommunizieren, wird mehr denn je über den Erfolg in der digitalen Welt entscheiden.

Ausblick: KI und die Digitalwirtschaft

KI, politische Turbulenzen und Cookie-Fragezeichen: Die Digitalbranche wird auch 2025 vor herausfordernden Aufgaben stehen. Wie sie diesen begegnen kann, erläutern Swen Büttner und Christoph Schwarzmann von MGID Deutschland.

Das neue Jahr hat begonnen und noch sind alle Fragen offen: Welche neuen Chancen und Herausforderungen wird KI 2025 für die Digitalwirtschaft bereithalten? Wie geht es weiter rund um Cookies und Datenschutz? Und welche Auswirkungen werden die politischen Umwälzungen in Deutschland und den USA auf die Strategien und Erfolgsaussichten von Advertisern und Publishern haben? Hier fünf Thesen, welche Entwicklungen die Branche in diesem Jahr bewegen werden.

1. Mehrwert: KI geht 2025 endgültig über die Generierung von Creatives hinaus

Generative KI für die Erstellung von Creatives zu nutzen, hat sich fest etabliert und spart Zeit und Geld. Sowohl Advertiser als auch Publisher erkennen aber zunehmend, welche Möglichkeiten sich ihnen darüber hinaus eröffnen. Datengetriebene Ansätze, fundierte Analysen und die Prognose der Performance einzelner Kampagnen sind dabei nur die ersten Schritte. Zunehmend sind KI-Tools verfügbar, die nahezu das komplette Kampagnen-Management und den Media-Einkauf automatisieren und dadurch wesentlich schneller, kostengünstiger und effizienter gestalten. Gerade auch speziell für kleinere Brands werden sich – etwa im Bereich programmatischer Kampagnen – durch KI Möglichkeiten bieten, die bislang als zu komplex galten.

2. Turbulenzen: Politik bestimmt das erste Quartal

Der Amtsantritt von Donald Trump in den USA, Neuwahlen in Deutschland: 2025 beginnt politisch äußerst turbulent. Davon wird auch die Werbebranche nicht unberührt bleiben. Vorstellbar ist, dass Konsumenten angesichts unklarer Zukunftsaussichten erst einmal zurückhaltend agieren. Branding-Kampagnen könnten vor diesem Hintergrund von Kürzungen betroffen sein, während die Budgets für Performance-Kampagnen tendenziell stabiler bleiben dürften. Für Advertiser kann dies bedeuten, sich noch stärker auf eine exakte Zielgruppenauswahl zu konzentrieren und Ergebnisse genau zu evaluieren, um ihre Budgets optimal zu nutzen. In Deutschland könnten Verschiebungen im politischen Spektrum zudem dazu führen, dass rechtskonservative Medien und Narrative – von vielen Brands bislang strikt gemieden – höhere Akzeptanz finden. Dadurch können sich zwar zusätzliche Möglichkeiten ergeben, für Advertiser kann sich dies 2025 allerdings auch zu einer Frage der Moral entwickeln.

3. KI-Schattenseiten: Noch mehr Fake News, noch mehr Made-for-Advertising-Seiten

Neben den vielen Vorteilen der KI wird diese 2025 leider auch negative Trends weiter befeuern. So ist davon auszugehen, dass die Zahl so genannter MFA-Seiten – „Made for Advertising“, also dubiose, rein für Werbeschaltungen konzipierte Websites mit niedriger inhaltlicher Qualität – nochmals steigen wird. Gleiches gilt für die Verbreitung von Fake News. Der Grund dahinter ist simpel: Per KI lassen sich komplette MFA-Seiten, die zumindest auf den ersten Blick kaum noch von seriösen, legitimen Publishern zu unterscheiden sind, abstruseste Fake News und Verschwörungstheorien noch schneller und einfacher erstellen und monetarisieren. Ein Qualitätsproblem, dem sich auch in diesem Jahr die gesamte Werbebranche stellen muss.

4. Monetarisierung: Publisher müssen sich noch breiter aufstellen

Die Zeiten, in denen sich Publisher auf einige wenige Einnahmequellen beschränken konnten, sind definitiv vorbei. 2025 wird vielfach von einer weiteren Diversifizierung geprägt sein. Hier können beispielsweise Optionen wie direkte Partnerschaften, Abo-Modelle oder auch native Ads für viele Publisher eine stärkere Rolle spielen. Dies sorgt nicht nur für mehr Sicherheit und Stabilität, sondern kann gleichzeitig auch dazu beitragen, die Abhängigkeit von einzelnen großen Playern wie Google oder Facebook zu verringern. Selbst plötzliche Änderungen an Algorithmen oder der Infrastruktur dieser BigTech-Giganten treffen gut aufgestellte Publisher nicht so hart.

5. Cookies & Co.: Flexibilität ist Trumpf, First-Party-Daten stehen im Fokus

Das Hin und Her beim „Cookie-Aus“ wird vermutlich auch 2025 erst einmal weitergehen. Brands ziehen daraus jedoch zunehmend ihre Konsequenzen und setzen vermehrt auf einen Mix aus Cookie-basierten und Cookie-losen Strategien. Dadurch bleiben sie einerseits flexibel und tragen andererseits dem Datenschutz Rechnung, der noch weiter an Bedeutung gewinnen wird. Für Publisher steht weiter das Thema First-Party-Daten im Fokus. Sie müssen sich damit beschäftigen, ihre Daten auf clevere Weise zu sammeln, aufzubereiten und gewinnbringend zu nutzen. Positiver Nebeneffekt: Auf diese Weise können sie gleichzeitig engere Verbindungen zu ihren Partnern auf Advertiser-Seite aufbauen.

Was gehört in eine KI-Policy?

Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routine­aufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.

Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.

Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.

Generative KI schert sich, wenn wir als Nutzer*innen nicht da­rauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.

Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.

Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.

Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.

1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz

Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:

  • Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
  • Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
  • Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
  • Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
  • Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.


2. Richtlinien für die Entwicklung und Implementierung von KI

Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.

  • Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien fest­legen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
  • Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
  • Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
  • Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
  • Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-­KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
  • Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehler­behebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.


3. Übergreifende Ziele und Vorgaben einer KI-Policy

Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.

  • Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
  • Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Ins­trument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
  • Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.

Fazit

Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.

Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com

HR-Trends 2025

Fünf HR-Expert*innen geben ihre persönlichen Einblicke in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.

Personalführung und Human Ressources müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder demografischer Wandel und Fachkräftemangel. Die HR-Verantwortlichen von ToolTime, Ella Media, Kenjo, Family Office 360grad AG und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

Wisefood: Die Zero-Waste-Profis

Wie Wisefood mit seinen essbaren Trinkhalmen und ökologischen (Mehrweg-)Produkten zum Vorreiter für nachhaltigen Gastro-Bedarf wurde.

Große Veränderungen beginnen oft im Kleinen, und manchmal entspringt der erste Schritt einer mehr oder weniger spontanen Idee. Im Jahr 2017 erkannten Studierende am Karlsruher Institut für Technologie (KIT), dass bei der Herstellung von Lebensmittelprodukten Abfälle und Reststoffe anfallen, die sich sinnvoll nutzen lassen. „Bei der Herstellung von Apfelsaft bleiben die wertvollen Fasern übrig, der sogenannte Apfel­trester“, so Philipp Silbernagel, Mitgründer und Geschäftsführer der Wisefood GmbH, „und wir wollten daraus essbare Strohhalme herstellen.“

Was als akademisches Projekt und Hobby begann, entwickelte sich zu einem Vorreiterunternehmen, das heute in einem boomenden Marktsegment führend ist. Wisefood bietet ein wachsendes, breit aufgestelltes Portfolio von ökologischen Einweg- und zunehmend auch Mehrwegprodukten für Speisen und Getränke, angefangen beim Trinkhalm, über Besteck und Teller bis hin zu Küchenprodukten und Kerzen. „Wir verkaufen auf allen Kanälen“, sagt Philipp, „vom Groß- und Einzelhandel, über Online-Plattformen und natürlich über unseren eigenen Shop.“ Wisefood beliefert überwiegend Gastronomie und Handel, aber auch Privatkund*innen. Die meisten Produkte laufen unter der Marke Wisefood, einige Händler*innen und Markenhersteller*innen setzen auf Whitelabel-Lösungen. Wisefood ist mittlerweile in über 30 Ländern verfügbar, Tendenz steigend.

Start mit der Nudelmaschine

Der Weg dahin war alles andere als einfach. „Die ersten Prototypen für den essbaren Trinkhalm entstanden in Handarbeit mithilfe einer Nudelmaschine“, so Philipp. Zusammen mit seinen damaligen Mitgründern Danilo Jovicic und Konstantin Neumann wollte er eine Manufaktur für hochpreisige, essbare Trinkhalme aufbauen. „Dann haben wir uns intensiv mit dem Markt für Verpackungen und Einwegprodukte beschäftigt und festgestellt, dass hier sehr viel Müll entsteht und kaum etwas nachhaltig ist.“ Die Gründer erkannten das Potenzial ihrer Idee. Doch die ersten, noch in Handarbeit hergestellten Trinkhalme kosteten 50 Cent und waren damit nur für einen kleinen Nischenmarkt attraktiv. Die Erkenntnis reifte, dass nur ein sehr günstiges Produkt, das auch in der Masse funktioniert, einen spürbaren Unterschied machen würde.

Lernen durch Rückschläge

Anfangs war Wisefood komplett durch eigene Ersparnisse finanziert. „Dann haben wir ein Crowdfunding erfolgreich durchgeführt und gemerkt, dass sich die Leute für Nachhaltigkeit und für unser Produkt interessieren“, so Philipp. 2018 folgte eine kleinere Finanzierungsrunde mit Business Angels. Im selben Jahr ging das Team zur TV-Show „Die Höhle der Löwen“, etwas verfrüht, wie sich herausstellte. „Die Idee weckte zwar Begeisterung, doch in der Testrunde löste sich unser Trinkhalm auf und gab Geschmack an das Getränk ab“, erinnert sich Philipp, ein absolutes No-Go. Nach der Absage der Investor*innen stellte sich die Frage, ob man überhaupt weitermachen sollte. Philipp und sein Team gaben nicht auf und nahmen sich vor, dass zur Ausstrahlung der Sendung, also innerhalb von sechs Monaten, das Produkt marktreif sein sollte. „Die vielen Rückschläge, die wir im Laufe der Zeit hatten, waren wichtige Momente, die uns weitergebracht haben“, so Philipp.

Größer denken

Im Jahr 2019 sortierte sich das Team neu. Zwei Gründungsmitglieder stiegen aus, Maximilian Lemke als Head of Operations, und Patricia Titz als Head of Sales and Business Development stießen dazu. Kennengelernt hatten sich die drei bei UnternehmerTUM, dem Gründerzentrum der TU München. „Wir haben schnell gemerkt, dass wir ein gutes Team sind, und Wisefood zusammen groß machen können“, sagt Philipp. Es folgte der Umzug nach Garching, wo die Räumlichkeiten des Gründerzentrums und vor allem das Netzwerk genutzt werden konnten.

Das Produkt war noch längst nicht reif für den Massenmarkt. München und das Umland boten die passenden Labore sowie Spezialist*innen für die Forschungs- und Entwicklungsarbeit, zudem ein Ökosystem mit vielen weiteren nachhaltigen, technologielastigen Start-ups. Als neuer Investor kam DX Ventures, der Investmentarm von Delivery Hero, mit an Bord. Besonders bei der Entwicklung und der Produktion musste das Team umdenken. „Zu Beginn haben wir auf kleine Labore gesetzt, um unsere Lebensmittelprodukte zu entwickeln“, sagt Philipp, „doch im Rückblick hätten wir früher auf die Spezialist*innen setzen und die Produktion mit Expert*innen hochfahren sollen.“ Zum Beispiel kaufte das Team am Anfang kritische Werkzeuge für die Produktion selbst, etwa einen Extruder für die Trinkhalme. Weil ein einziges Bauteil kaputt ging und nicht schnell genug neu beschafft werden konnte, verlor das Team mehrere Monate. „Aus solchen Lek­tionen haben wir gelernt, größer zu denken“, so Philipp. Heute produziert Wisefood bei einem der führenden Lebensmittelhersteller*innen in München.

Mehr Produkte und Smart Money

Als es im Jahr 2019 zum ersten großen Deal mit Aldi kam, der die Produkte von Wisefood deutschlandweit in alle Märkte des Discounters brachte, sah es aus, als hätten es Philipp und sein Team geschafft. „Einer der schönsten Momente als Gründer ist, wenn man die eigenen Produkte im Laden sieht“, so Philipp. Als die Wisefood-Trinkhalme in über 4000 Aldi-Filialen standen, wurde der Erfolg mit dem ganzen Team gebührend gefeiert. In dem Geschäftsjahr, nur zwei Jahre nach der Gründung, erzielte Wisefood einen siebenstelligen Umsatz bei sechsstelligem Gewinn.

Doch dann folgte mit der Corona-Krise die nächste Zäsur. „Als Restaurants schlossen, Veranstaltungen ausfielen und die Menschen nicht mehr ausgingen, brach die Nachfrage massiv ein“, sagt Philipp, „und da haben wir gemerkt, dass wir mit der Ein-Produkt-Strategie, nur mit unserem Trinkhalm, nicht weit kommen.“ Das Team konzentrierte sich auf die Erweiterung des Produktsortiments, mit neuen Produkten wie Besteck und Tellern. Seitdem kann Wisefood nicht nur viel mehr Kund*innen ansprechen, sondern sind auch die Warenkörbe größer geworden. Für die sommerliche Grillparty gibt es zum Beispiel passende Sets aus nachhaltigem Einweggeschirr.