Aktuelle Events
Yousign - Signatur mit einem Wisch
Das französische Start-up Yousign startet auf dem deutschen Markt. Hauptkonkurrenten: Papier und Bürokratie.

Yousign steht für eine europäische Lösung, die die digitale Unterschrift auf ein neues Level hebt: Denn eine digitale Signatur soll nicht nur Papier ersetzen, sondern auch kinderleicht funktionieren und trotzdem rechtsverbindlich sein. Bei Yousign müssen die Unterzeichner nach der Authentifizierung nur noch einen Schieberegler bewegen – und schon ist ein Vertrag rechtskonform besiegelt. Die Branchen und Wirtschaftsbereiche, auf die sich das Start-up besonders konzentriert, sind entsprechend „vertragslastig“: Human Resources, Versicherungen, Immobilien, Vertrieb, kleinere Unternehmen und Start-ups.
Rechtskonform mit einem Wisch
Deutschlandchef Dominik Drechsler zum Deutschland-Start: „Wir bringen Vertragsprozesse schneller zum Abschluss. Und auch wenn es nach jeder Authentifizierung praktisch nur ‚einen Wisch‘ erfordert, ist das Ergebnis rechtskonform. Daher konzentrieren wir uns vor allem auf Segmente, in denen eine Vielzahl von Verträgen anfällt. Besonders effizient ist unsere Lösung aber im Personalwesen. Hier wird längst nicht nur ein einziger Arbeitsvertrag unterzeichnet, sondern eine Fülle von Zusatzvereinbarungen wie Verschwiegenheits- und Datenschutzerklärungen oder Firmenrichtlinien. An elektronischen Unterschriften führt hier, besonders in der aktuellen Home-Office-Situation, kein Weg mehr vorbei.“
„Made in Europe“
Ein weiteres Merkmal: Yousign ist „made in Europe“ – in der EU entwickelt und gehostet. Nahezu alle wesentlichen Wettbewerber stammen aus den USA. Yousign ist der einzige nennenswerte Akteur aus der EU. Hinzu kommt: Alle Vertragsverhandlungen und sensiblen Datenschutzthemen können auf Deutsch geführt werden, im Vergleich zur Konkurrenz, die oftmals in Dublin sitzt. Daneben ist Yousign ein offizieller Vertrauensdiensteanbieter gemäß eIDAS und eine europaweit anerkannte Zertifizierungsstelle.
Teil der neuen Generation digitaler Lösungen
Yousign sieht sich als aktiven Teil der neuen Generation digitaler Lösungen, die kleine und mittlere Unternehmen durch benutzerfreundliche elektronische Signaturen unterstützt. Dominik Drechsler: „In Deutschland sind wir zwar der einzige größere Anbieter aus der EU – unsere Hauptkonkurrenz besteht jedoch nicht aus amerikanischen Konzernen, sondern etwas viel Banalerem: Papier. Und das gilt besonders in Deutschland. Hier sehen wir uns an vorderster Front, alle Arbeitsprozesse zu digitalisieren – an deren Ende oft elektronisch unterschrieben wird. Corona hat bei uns für einen enormen Aufschwung gesorgt, da die Pandemie die Digitalisierung bekanntlich stark vorangetrieben hat. Nun wollen wir Marktführer in Europa werden. Der Deutschlandstart ist hierbei ein Meilenstein.“
Marktdurchdringung in Europa erst bei 20 Prozent
Dominik Drechsler abschließend: „Obwohl die digitale Signatur maßgeblich die Zukunft der Arbeit prägt, beträgt die Marktdurchdringung in Europa erst 20 Prozent. Allerdings gehen Schätzungen von einem jährlichen Wachstum von 25 Prozent bis ins Jahr 2030 aus. Fünf Milliarden Euro soll das EU-Marktvolumen dann betragen. Von diesem Kuchen wollen wir uns ein großes Stück abschneiden, am besten als Europameister.“
Diese Artikel könnten Sie auch interessieren:
Robotik-Start-up Ottonomy startet Pilotprojekt im Münchner Flughafen
Der Lufthansa Innovation Hub und der Munich Airport kooperieren zur Förderung von Innovation in der Luftfahrt: Pilotprojekte mit Start-ups sind vor diesem Hintergrund wichtige Hebel zur Implementierung innovativer Lösungen.

Die Luftfahrtbranche steht vor einer Vielzahl von Herausforderungen, sowohl auf Kund*innenseite als auch in geschäftlichen Prozessen. Innovation spielt eine entscheidende Rolle bei der Bewältigung dieser Herausforderungen, indem sie Möglichkeiten zur Digitalisierung, Automatisierung, Optimierung und Neuerfindung schafft.
Vor diesem Hintergrund haben der Lufthansa Innovation Hub, die Berliner Innovationseinheit der Lufthansa Group, und die Terminal 2 Gesellschaft des Flughafens München eine Absichtserklärung (MoU) unterzeichnet. Mit der Unterzeichnung bekunden beide ihre Absicht, durch gemeinsame Initiativen die Innovation in der Luftfahrtbranche voranzutreiben.
“Innovation in der Reiseindustrie ist eine gemeinschaftliche Aufgabe, die dem gesamten Ökosystem zukommt”, sagt Dr. Stefan Nothelfer, Senior Director und Leiter Corporate Venturing & Strategic Growth beim Lufthansa Innovation Hub. “Wir freuen uns darauf, mit der Terminal 2 Gesellschaft des Flughafens München zusammenzuarbeiten, um das Kundenerlebnis gemeinsam zu verbessern und den gesamten Reiseprozess zu optimieren.”
Robotik-Einsatz im Terminal 2 des Flughafens München
Ein konkretes Beispiel für das Vorantreiben von Innovation im Flughafenbetrieb durch Pilotprojekte ist die Zusammenarbeit mit dem Robotik-Start-up Ottonomy.
Seit dieser Woche sind zwei autonome Service-Roboter in den Bereichen der Gates und Gepäckausgabe im Terminal 2 des Flughafens München im Einsatz. Die Roboter sind darauf ausgelegt, verschiedene Aufgaben zu übernehmen, um reibungslose Kund*inneninteraktionen zu ermöglichen. Sie unterstützen Passagier*innen mit Informationen und bewerben die Dienstleistungen von Lufthansa Airlines.
Durch das Scannen eines QR-Codes auf dem Roboter mit ihrem Smartphone gelangen Reisende zu Chat-Assistenten für Self-Service-Optionen. Dort können sie Fluginformationen abrufen und Prozesse wie Umbuchungen oder Erstattungen eigenständig verwalten. Die Roboter liefern zudem wichtige Informationen zu flughafenbezogenen Themen wie Tax Refund und Lost and Found. Dank integrierter Behälter können die Roboter auch für den Warentransport eingesetzt werden – etwa künftig für die Verteilung von Wasserflaschen an Passagier*innen.

“Unser Ziel ist es, unseren Gästen das beste Reiseerlebnis in Europa zu bieten”, sagt Marcus Schnabel, Vice President Ground Operations Hub Munich. “Die Nutzung digitaler Lösungen ist für dieses Vorhaben von entscheidender Bedeutung, und wir freuen uns, als Pilotstandort für wegweisende Innovationen zu dienen.”
Ottonomy setzt seine Roboter weltweit an Flughäfen, in Krankenhäusern und für Auslieferungen auf der letzten Strecke zum/zur Kund*in ein. “Unsere Roboter, die mit Contextual AI arbeiten, ermöglichen es Unternehmenskunden, Innovationen voranzutreiben, bessere Kundenerlebnisse zu schaffen und die betriebliche Effizienz in der Luftfahrt zu steigern“, sagte Ritukar Vijay, CEO von Ottonomy. „Eine Partnerschaft mit zukunftsorientierten Branchengrößen wie der Lufthansa bringt diese Vision der Realität ein großes Stück näher.“
Das Pilotprojekt mit Ottonomy entstand im Rahmen von Startup Gate, der Venture-Clienting-Initiative der Lufthansa Group. Startup Gate verbindet Teams der Lufthansa Group mit hochmodernen Start-ups, um deren Technologien schnell zu adaptieren und schlanke sowie kosteneffiziente Kooperationen zu ermöglichen.
In fünf Schritten zu rankingfähigen KI-Texten
Das aktuelle Whitepaper von eology beleuchtet das Potenzial und die Grenzen von KI-gestütztem Content im Hinblick auf SEO. Hier gibt’s Tipps rund um das Thema rankingfähige KI-Texte.

Die auf Suchmaschinenmarketing spezialisierte Online-Marketing-Agentur eology zeigt in ihrem Whitepaper „KI-Texte und Google-Rankings: Wie gut ranken KI-Inhalte?“, wie KI-Inhalte auf Google ranken, welche Herausforderungen sie mit sich bringen und welche Schritte erforderlich sind, um sie rankingfähig zu machen. Zudem wird auch auf spezifische technische, strategische und kreative Aspekte eingegangen, die für die Erstellung hochwertiger Inhalte entscheidend sind.
Gewusst wie: rankingfähige KI-Teste
Was zweifelsfrei erwiesen ist: Nach dem SEO-Qualitätsstandard erstellte KI-Texte sind rankingfähig und können die Sichtbarkeit einer Domain genauso unterstützen wie menschliche Inhalte. Allerdings ist die Erstellung solcher Texte nicht damit getan, einfach einen Prompt einzugeben und das Ergebnis online zu stellen. Es bedarf menschlicher Zuarbeit und Kontrolle.
Di Expert*innen von eology haben aus ihrer Studie heraus Best Practices ermittelt, um zu rankingfähigen Texten zu kommen. In fünf Schritten kannst du das auch:
1. Schritt: Chatbot briefen
Bei ChatGPT einen CustomGPT anlegen mit allen notwendigen Projektinstruktionen. Auf diese greift die KI immer zurück, ihr müsst sie daher nicht immer wieder neu eingeben. Das spart Zeit und sorgt langfristig für besseren Output. Bei Claude geht das nicht. Hier kopiert ihr die Projektinstruktionen einfach in den Chat. Die KI meldet dann, dass sie die Aufgabe verstanden hat und fasst diese noch einmal zusammen.
Folgende Instruktionen sind wichtig:
• Keywordset
• Infos zur Verwendung der Keywords (Verteilung, Häufigkeit, Positionierung im Text)
• Textlänge
• Zielgruppe und Leseransprache
• Stil, Tonalität und weitere Infos zum Wording
• Formaler Textaufbau (Überschriften, Aufzählungen, Tabellen)
• Inhaltlicher Textaufbau, ggf. Gliederung
2. Schritt: Chatbot testen
Prompt erstellen mit allen für den einzelnen Text relevanten Informationen (Thema, Keywordset). Da ihr alle Projektinstruktionen bereits an den Chatbot übermittelt habt, braucht ihr in den Prompt nur noch die Infos für den einzelnen Text reinschreiben. Er lautet dann: „Hallo GPT, erstellst Du mir bitte einen Text zum Thema „XY“ mit diesen Keywords: Hauptkeyword=Thema: [Hauptkeyword] Nebenkeywords: [Nebenkeywords] W-Fragen: [W-Fragen]. Danke.“
3. Schritt: Output prüfen
Output prüfen auf alle Projektanforderungen: SEO, Keywords, Wording, Rechtschreibung sowie Inhalt.
4. Schritt: Anpassungen vornehmen
Wenn der Output nicht passt, gebt der KI Anweisungen für Änderungen, passt die Projektinstruktionen an oder optimiert den Prompt. Ladet Beispieltexte hoch mit eurem gewünschten Stil, lasst die KI den Stil beschreiben und packt die Stilbeschreibung in die Projektinstruktionen. Wenn der Chatbot wiederholt zu wenig Text liefert, kann es Sinn machen, dass ihr diese Information doch in den Prompt eingeben müsst, selbst wenn diese in den Instruktionen steht. Insbesondere ChatGPT neigt dazu, zu wenig Text zu liefern und muss immer wieder daran erinnert werden.
5. Schritt: Bilder generieren
Instruktionen für die Bilderstellung in den Projektinstruktionen hinterlegen. Bei einem CustomGPT hinterlegt ihr auch den Stil für die Bilder, denn dann habt ihr eine Chance auf einen einheitlichen Stil. Allerdings ist ChatGPT mit der Schnittstelle zu DALL-E nicht die beste Bild-KI. Daher funktioniert nicht alles reibungs- los. Für eine hochwertige und professionelle Bildgenerierung nutzt besser eine spezielle Bild-KI wie Midjourney.
Generative KI – Chancen für Startups
Wie Startups mit drei Tipps die Kosten und Performance für ihren KI-Case optimieren können.

Das deutsche KI-Startup-Ökosystem befindet sich 2025 weiter im Gründungsboom. Nie gab es mehr KI-Gründer in Deutschland und alleine im vergangenen Jahr wuchs die Zahl der KI-Startups um 35 Prozent. Auch für Investoren bleibt KI eines der vielversprechendsten Themen. Sie investierten 2024 fast 200 Millionen mehr in deutsche KI-Jungunternehmen als im Vorjahr. Vor allem deutsche KI-Startups im B2B-Bereich mit branchenspezifischen Lösungen für die Fertigung, Logistik und das Gesundheitswesen haben aktuell ausgezeichnete Wachstumschancen. Sie können von einer engen Vernetzung mit dem Mittelstand und führenden Forschungseinrichtungen in Deutschland profitieren. Typische KI-Anwendungsfelder von aufstrebenden deutschen Startups wie BlueAvenir, PlanA, Smart Reporting oder nnamu liegen dabei u.a. in der Softwareentwicklung, Sprach- und Bilderkennung oder datenbasierten Analyseverfahren zur Entscheidungsunterstützung.
KI-Chancen und die häufigsten Hürden
Während die Gesamtfinanzierung für KI-Projekte wächst, scheitern in der Praxis vielversprechende Ideen von Startups aber auch immer wieder am konkreten Business Case. Langfristig können sich insbesondere unterschätzte Kosten und eine schwache Performance der Anwendungen wie ein Bremsklotz auswirken. Die Nutzung von Sprachmodellen ist dank API-basierten Diensten sehr einfach geworden, dennoch können sich hier bei großen Volumina und ungeschickter Modell-Wahl schnell höhere Kosten aufsummieren. Gleichzeitig spielt die Performance des KI-Systems eine wichtige Rolle für eine langfristige Profitabilität. So führen besonders hohe Latenzzeiten bei der Model-Inference zu trägeren Systemen, die Nutzeranfragen nicht schnell genug verbreiten und die Attraktivität der Anwendung erheblich mindern.
Gerade Startups setzen oft auf die Cloud, da sie unabhängig vom technischen Hintergrund einfachen Zugang zu KI und die nötige Flexibilität ermöglicht. Drei innovative Methoden erweisen sich in der Cloud als besonders hilfreich, um eine optimale Balance zwischen Leistungsfähigkeit, Kosten und Nutzerfreundlichkeit für die Umsetzung des eigenen KI-Anwendungsfalls zu finden. So kann jeder Gründer seine KI-Ideen schnell, kosteneffizient und sicher umsetzen.
KI-Modellauswahl: Kleiner, aber schneller
Für Startups ist es entscheidend, das richtige KI-Modell für ihren Anwendungsfall zu wählen, um Kosten und Leistung optimal auszubalancieren. Anbieter wie Anthropic, AI21 Labs, Meta, Cohere, Mistral und Amazon bieten Modelle in verschiedenen Größen an – kleinere Varianten sind oft günstiger und reagieren mit kürzerer Antwortzeit. Nach einer ersten Validierung mit einem leistungsstarken Modell können Startups Tools wie Amazon Bedrock Evaluations nutzen, um herauszufinden, welches Modell in welcher Größe ähnliche Ergebnisse bei geringeren Kosten oder höherer Geschwindigkeit liefert. Diese Evaluierungen helfen dabei, die Leistungsfähigkeit und Effizienz zu beurteilen, indem Metriken wie semantische Robustheit und Genauigkeit bei der Informationsabfrage analysiert werden. Durch eine Kombination aus automatisierten Bewertungen mit Large Language Models (LLMs) und menschlicher Prüfung können Startups die beste Balance zwischen Leistung, Kosten und Geschwindigkeit für ihre individuellen Bedürfnisse finden.
Prompt Caching: Zwischenspeicherung für wiederkehrende Anfragen
Eine weitere smarte Methode, um die Antwortzeiten von KI-Modellen zu verkürzen und Kosten zu senken, ist das Prompt-Caching. Wenn ein digitaler Assistent sich bei jeder Frage immer wieder die gleichen Grundinformationen durchlesen müsste, dann wäre das extrem ineffizient. Genau hier setzt das Prompt-Caching an und speichert feste Teile des Prompts, wie grundlegende Anweisungen für das LLM, direkt in der Inferenz-Hardware zwischen. Nur die variablen, nutzerspezifischen Daten, die sich von Aufruf zu Aufruf verändern, werden bei jeder Anfrage neu übermittelt. Das spart nicht nur Rechenleistung, sondern sorgt auch für schnellere Antworten – ideal für Anwendungen wie Chatbots oder personalisierte KI-Assistenten, die häufig wiederkehrende Anfragen verarbeiten. Mit Amazon Bedrock lässt sich diese Technik einfach nutzen, indem das Caching und das Setzen von Cache-Checkpoints automatisch verwaltet werden können. Sobald das Caching aktiviert ist, übernimmt der Service das gesamte Cache-Management automatisch. So lassen sich bis zu 90 Prozent kosteneffiziente KI-Anwendungen mit minimalem Konfigurationsaufwand realisieren.
Model Distillation: KI-Wissen auf das Wesentliche fokussieren
Eine dritte bewährte Option ist Model Distillation. Das Prinzip ist einfach und kann vereinfacht als ein intelligenter Wissenstransfer in der Welt der KI beschrieben werden. Also so, als ob ein erfahrener Lehrer (ein großes, leistungsstarkes KI-Modell) seinem Schüler (einem kleineren, schnelleren Modell) die wichtigsten Konzepte beibringt. Dabei nutzt dieser Prozess synthetische Trainingsdaten, die auf realen Anwendungsbeispielen basieren. Das Ergebnis ist ein kompakteres Modell, das für einen spezifischen Anwendungsfall ähnlich gute Ergebnisse liefert wie das größere Modell, dabei aber deutlich schneller und kostengünstiger arbeitet. Destillierte Modelle in Amazon Bedrock können bis zu fünfmal schneller arbeiten und die Kosten um bis zu 75 Prozent senken im Vergleich zu den Originalmodellen – bei Genauigkeitsverlust von weniger als zwei Prozent.
Fazit
Erfolgreiche KI-Lösungen können mit der Cloud kosteneffizienter und performanter umgesetzt werden. Das erfordert zwar ein wenig technisches Know-how, aber die Cloud reduziert die Einstiegshürden erheblich und ermöglicht es auch kleineren Unternehmen, mit drei bewährten Methoden das KI-Potenzial effektiver auszuschöpfen. Startups haben mit der Cloud die maximale Flexibilität, um entweder von den leistungsfähigsten vortrainierten LLMs zu profitieren oder alternativ eigene LLMs mit maßgeschneiderter Infrastruktur zu entwickeln bzw. auf fertige Dienste mit integrierter generativer KI zuzugreifen.
Der Autor Constantin Gonzalez ist Principal Solutions Architect bei Amazon Web Services (AWS) in München.
Die Autorin Jennifer Grün ist Senior Specialist - Machine Learning bei AWS in München.
heart job: Werte als strategischer Erfolgsfaktor
Das 2024 gegründete deutsch-österreichische Start-up heart job nutzt künstliche Intelligenz, um öffentlich verfügbare Daten zu analysieren und zu bewerten.

Werte als strategischer Erfolgsfaktor. Studien belegen, dass Unternehmen, die ihre Werte konsequent leben, von höherer Mitarbeitendenbindung, gesteigerter Innovationskraft und langfristigem wirtschaftlichem Erfolg profitieren. In der Praxis zeigt sich jedoch häufig eine Diskrepanz zwischen kommunizierten Werten und der tatsächlichen Wahrnehmung.
„Unternehmenswerte sind mehr als bloße Worte – sie sind das Fundament nachhaltigen Erfolgs. Entscheidend ist jedoch, ihre Authentizität zu gewährleisten“, erklärt Sarah Brauns, Mitgründerin von heart job. „Viele Unternehmen verlassen sich auf ihr Bauchgefühl. Eine objektive Analyse gibt ihnen nun erstmals eine klare Grundlage, um zu erkennen, wie ihre Werte tatsächlich wahrgenommen werden.“
Mitgründer Simon Rutar ergänzt: „Unsere KI-Technologie liefert innerhalb von 48 Stunden eine datenbasierte Auswertung der Unternehmenswerte. Damit unterstützen wir Unternehmen dabei, ihre Werte nicht nur sichtbar zu machen, sondern gezielt für strategische Ziele wie Mitarbeiterbindung, Kundenbeziehungen und wirtschaftliches Wachstum einzusetzen.“
KI für mehr Transparenz und Authentizität
Die KI von heart job wertet öffentlich zugängliche Quellen wie soziale Medien, Foren, Blogs und Presseberichte aus und gibt Unternehmen eine datenbasierte Einschätzung darüber, mit welchen Werten sie in der öffentlichen Wahrnehmung assoziiert werden. Diese Analyse kann durch direktes Feedback von Mitarbeitenden, Kund*innen und Geschäftspartner*innen ergänzt werden. Online-Umfragen erfassen zusätzlich die interne Wahrnehmung, sodass Stärken und Verbesserungspotenziale identifiziert werden können. „Unsere Lösung kombiniert externe Wahrnehmung mit optionaler interner Werteanalyse und schafft damit eine fundierte Grundlage für strategische Entscheidungen“, so Brauns.
In Zeiten, in denen Authentizität und klare Werteorientierung immer wichtiger werden, bietet das Start-up Unternehmen präzise Analysen und konkrete Handlungsempfehlungen. Führungskräfte erhalten damit ein strategisches Instrument, um ihre Unternehmenskultur nachhaltig zu stärken. „Unsere Berichte gehen über reine Datenanalysen hinaus – sie sind ein strategischer Leitfaden für die Zukunft“, betont Rutar. „Wir helfen Unternehmen nicht nur, ihre Werte zu verstehen, sondern sie auch aktiv für Wachstum und Innovation einzusetzen.“
Erfolgreiche Testphase und DACH-Marktstart
Die Technologie von heart job wurde in einer Testphase mit Unternehmen unterschiedlicher Größen erprobt. Dabei trat in vielen Fällen ein deutlicher Kontrast zwischen internen Unternehmenswerten und der öffentlichen Wahrnehmung zutage. Erste Kund*innen nutzen die gewonnenen Erkenntnisse bereits, um ihre Werte gezielt zu schärfen und ihre Kommunikation zu optimieren. Mit dem offiziellen Marktstart ist die KI-gestützte Analyse von heart job nun für Unternehmen in Deutschland, Österreich und der Schweiz verfügbar.
Florian Bretschneider: Das steckt hinter dem Appointment-Setting-System
Appointment Setter spielen im Verkaufsprozess von Coaching-, Beratungs- und Softwareunternehmen eine immer wichtigere Rolle. Das Geschäft ist mittlerweile in einem starken Aufwärtstrend und bietet vor allem Neu- und Quereinsteigern die Chance auf eine lukrative Remote-Position als Appointment Setter.

Der Appointment Setter ist dafür verantwortlich, den Posteingang von Coaching-, Beratungs- und Softwareunternehmen zu beantworten und Termine mit neuen Interessenten für Beratungsgespräche der Vertriebsmitarbeiter zu vereinbaren.
Mit dem richtigen Know-how zur „Lead-Maschine“ werden
Florian Bretschneider, Unternehmer und Self-Made-Millionär sieht die größten Vorteile darin: „Beim Appointment Setting musst du weder Geld in Werbung, Software, Mitarbeiter, Büro noch in Produkte investieren. Du startest in einem funktionierenden System, das bereits Geld produziert und kannst es nach wenigen Wochen von überall auf der Welt ausführen, solange du ein Handy mit Internetverbindung hast.“
Ideales Geschäftsmodell für Einsteiger in den Onlinemarkt: Was macht ein Appointment Setter?
Der Appointment Setter spielt eine zentrale Rolle im Vertriebsprozess von Coaching-, Beratungs- und Softwareunternehmen. Seine Hauptaufgabe besteht darin, den Posteingang dieser Unternehmen zu verwalten und qualifizierte Termine mit Interessenten für Vertriebsmitarbeiter zu vereinbaren. Diese Unternehmen erreichen täglich Hunderte bis Tausende potenzielle Kunden durch gezielte Werbung auf Plattformen wie Instagram, TikTok, Google und Snapchat. Um aus dieser großen Anzahl an Anfragen die passenden Interessenten herauszufiltern, setzen sie auf spezialisierte Appointment Setter. Diese erhalten in der Regel eine Umsatzbeteiligung von etwa 5 %, was sie besonders lukrativ macht – insbesondere in Branchen mit hochpreisigen Produkten und Dienstleistungen.
Ein Beispiel: Wenn das Unternehmen beispielsweise 20 neue Kunden á 6.000€ pro Monat durch die neuen Termine des Appointment Setters gewinnt, generiert das Unternehmen 120.000€ Umsatz, wovon der Appointment Setter im Schnitt 6.000€ (5%) ausgezahlt bekommt.
Das Vereinbaren von Terminen über den Chat bietet eine geringe Einstiegshürde und eignet sich besonders für Einsteiger. Es zählt zu den einfachsten und am schnellsten zu erlernenden Aufgaben im gesamten Verkaufsprozess.
Da beim Appointment Setting kein eigenes Business aufgebaut werden muss, ist es besonders attraktiv für Menschen, die nicht vor die Kamera treten, keine Follower auf Social Media aufbauen und keine Coaching- oder Verkaufsgespräche führen möchten – und dennoch am stark wachsenden E-Learning-Markt partizipieren wollen. Besonders gefragt sind Appointment Setter in den Bereichen Fitness/Gesundheit, Online-Business, Dating/Beziehungen, Investieren/Finanzen und Mindset/Persönlichkeitsentwicklung.
Florian Bretschneider erklärt: „Einer der größten Vorteile beim Appointment Setting ist, dass es nicht nur sehr schnell zu lernen ist und bereits in drei bis vier Wochen Ergebnisse bringt, sondern dass jeder das Modell auch zu 100 Prozent anonym machen kann. Man braucht dafür weder eine eigene Website noch muss man Social-Media-Reichweite aufbauen.“ Nur eine einzige Fähigkeit ist erforderlich: effektiv Terminierungen über den Chat durchzuführen.
Der Selfmade Millionär mit über 10 Millionen € Umsatz in den letzten Jahren: „Mit dem richtigen Know-how kann jeder zu einer “Termin-Maschine” werden.“
Europäisches KI-Gesetz in Kraft getreten
Der AI Act ist am 2. Februar 2025 in Kraft getreten und gilt für alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen. Bei Nichteinhaltung drohen Geldbußen.

Künstliche Intelligenz (KI) entwickelt sich rasant und findet in immer mehr Bereichen, auch in Unternehmen, Anwendung. Deshalb schafft Europa mit dem AI Act einen einheitlichen Rechtsrahmen, den alle europäischen Unternehmen einhalten müssen.
Nicht allen Arbeitgebenden ist bewusst, dass die europäische Verordnung bereits in Kraft getreten ist. Sie gilt für jede Organisation – unabhängig von ihrer Größe – und ist verbindlich. Das Gesetz betrifft somit alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen, unabhängig vom Beschäftigungsverhältnis. Europa überlässt einen Teil der Durchführung und Umsetzung des KI-Gesetzes den Mitgliedstaaten selbst – ebenso wie die Verhängung von Geldbußen bei Nichteinhaltung. Die konkrete Höhe dieser Bußgelder wird erst am 2. August 2025 feststehen. Dennoch sollten Unternehmen ab dem 2. Februar lieber gut aufgestellt sein, da die Bußgelder auch rückwirkend in Kraft treten können.
Verbindliche KI-Policy und adäquate KI-Kompetenzen
Unternehmen sind dafür verantwortlich, dass ihre Belegschaft über ausreichende KI-Kenntnisse verfügt. Dabei ist es nicht erforderlich, dass jeder Mitarbeitende umfassendes Wissen über KI besitzt. Es muss sichergestellt werden, dass alle Mitarbeitenden, die mit KI-Systemen arbeiten, über die notwendigen Kenntnisse und Fähigkeiten verfügen. So können sie informierte Entscheidungen treffen und potenzielle Risiken erkennen. Dazu gehören alle Mitarbeiter*innen, die mit KI-Systemen arbeiten – vom Anbietenden bis zum/zur Endnutzer*in – und erstreckt sich also nicht nur auf IKT-Fachleute in Unternehmen.
Das KI-Gesetz legt nicht genau fest, welche Maßnahmen Arbeitgebende ergreifen müssen, damit alle beteiligten Personen ausreichende KI-Kenntnisse erwerben. Arbeitgebende sollten daher nicht nur die technischen Kenntnisse, Erfahrungen, Ausbildungen und Fortbildungen der Mitarbeitenden berücksichtigen, sondern auch den Kontext, in dem die KI-Systeme genutzt werden, sowie die betroffenen Personen oder Personengruppe.
Arbeitgebende können selbst entscheiden, welche Kenntnisse und Fähigkeiten ihre Mitarbeitenden benötigen und wie sie diese angeeignet werden können. Mögliche Maßnahmen sind allgemeine KI-Schulungen, die Grundkenntnisse vermitteln und auf verschiedene Zielgruppen zugeschnitten sein können. Dabei kann es sich um spezifische Schulungen handeln, die sich auf bestimmte Tools und Anwendungen konzentrieren, aber auch um die Zusammenarbeit zwischen juristischen und technischen Teams.
Arbeitgebenden wird empfohlen, eine KI-Policy mit klaren Richtlinien für den Einsatz von KI im Unternehmen zu erstellen. Darin kann festgehalten werden, welche Anwendungen von wem und auf welche Weise genutzt werden dürfen. In dieser Richtlinie kann der Arbeitgebende auch Hinweise darauf geben, wie die Mitarbeitenden ausreichend mit KI vertraut bleiben können. Wie wird zum Beispiel vorgegangen, wenn sich im Unternehmen oder bei den Tools etwas ändert? KI-Kompetenz ist schließlich nichts Statisches. Wenn ein(e) Mitarbeiter*in die Rolle wechselt, oder wenn die eingesetzten Tools sich ändern, muss der Arbeitgebende sicherstellen, dass die betreffende Person weiterhin über ausreichende KI-Kenntnisse verfügt.
Verbotene bestimmter KI-Systeme
Zum anderen verbietet der AI Act ab dem 2. Februar 2025 den Einsatz von KI-Systemen, die gegen europäische Normen und Grundwerte verstoßen, indem sie beispielsweise Grundrechte missachten. Darunter fallen auch KI-Systeme für Social Scoring, die Menschen aufgrund ihres sozialen Verhaltens oder persönlicher Eigenschaften bewerten, oder KI-Systeme zur Emotionserkennung am Arbeitsplatz oder im Bildungsbereich. Arbeitgeber sollten daher die eingesetzten KI-Systeme im Hinblick auf die Identifizierung verbotener Systeme und die Einstellung ihrer Nutzung überprüfen.
Ab August 2025 drohen Geldbußen - auch rückwirkend
Ab dem 2. August 2025 drohen Unternehmen und Organisationen, die verbotene KI entwickeln oder einsetzen, hohe Geldbußen. Die Überwachung und die Festlegung der Höhe der Strafen liegen vollständig in der Verantwortung der EU. Die Höhe der Geldbußen sowie die Aufsicht hierüber liegen vollständig in der Verantwortung der EU. Bis zu 35 Millionen Euro Strafe oder sieben Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres – je nachdem, welcher Betrag höher ist – können verhängt werden.
Der Autor Sander Runkel ist Fachanwalt für Arbeitsrecht und Manager Tax & Legal bei SD Worx Deutschland
Wahlprogramme 2025: Innovationsförderung, Quo vadis?
So plant die Politik die Zukunft der Innovationsförderung. Eine Analyse von Efe Duran Sarikaya, CEO der Fördermittelberatung EPSA Deutschland.

Mit den Bundestagswahlen 2025 steht Deutschland vor wegweisenden Entscheidungen. Fördermittel, ein zentrales Instrument für Innovation, Nachhaltigkeit und Unternehmensentwicklung, stehen im Fokus der Parteiprogramme. Doch wie gestalten die Parteien die Zukunft der Förderpolitik, und welche Schwerpunkte setzen sie?

Efe Duran Sarikaya, CEO der Fördermittelberatung EPSA Deutschland, liefert einen Überblick über die Pläne der politischen Parteien zur Zukunft der Förderpolitik.
Dabei werden nicht nur die Unterschiede beleuchtet, sondern auch, welche Auswirkungen die jeweiligen Wahlprogramme auf die Unternehmen und den Wirtschaftsstandort Deutschland haben können.
Initiative "KI für Deutschland" startet Aktionsplan
Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen, um hierzulande eine zukunftsorientierte Strategie für die KI-Nutzung als Schlüsseltechnologie des 21. Jhs. zu etablieren.

Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen. Ziel ist es, einen praxisnahen und unternehmerisch getriebenen Impuls zu setzen, um in dieser Phase der politischen und gesellschaftlichen Neuorientierung Eckpfeiler zu definieren, wie KI zum Wohle und unter Beteiligung aller in Deutschland, effektiv genutzt werden kann.
Zu den Initiator*innen von "KI für Deutschland" gehören maßgeblich die AI.GROUP, der AI.FUND, sowie die Rise of AI Conference - insbesondere die Unternehmer*innen und KI-Expert*innen Dr. Hauke Hansen, Fabian Westerheide, Ragnar Kruse, Petra Vorsteher, Dr. John Lange und Ingo Hoffmann. Unterstützt wird die Initiative von namhaften Institutionen wie dem KI-Bundesverband.
Die Initiative ist deutschlandweit, interdisziplinär und holistisch ausgerichtet. Sie ist offen für den Input und die Unterstützung aller relevanten gesellschaftlichen Gruppen und Persönlichkeiten.
Aufbruchssignal in Zeiten des Umbruchs
Mitinitiator Dr. Hauke Hansen: “Die Initiative KI für Deutschland ist ein Aufbruchssignal in Zeiten des Umbruchs. Mit unseren 11 Impulsen machen wir greifbare und umsetzbare Vorschläge, wie Deutschland die KI nutzen kann, um den gesellschaftlichen Stillstand zu durchbrechen und Wege aus der wirtschaftlichen Rezession zu finden. Wir richten uns damit an alle gesellschaftlichen Akteure, die Wirtschaft ebenso wie die Politik. Wir brauchen eine zukunftsweisende und konsequente Industriepolitik und unternehmerisches Handeln, um die KI am Standort Deutschland zur Chefsache zu machen und damit das Bruttosozialprodukt nachhaltig zu steigern. Stellen wir gemeinsam die Weichen für innovatives und wirtschaftlich erfolgreiches Deutschland von morgen.”
Diese elf Impulse will die Initiative "KI für Deutschland" zur Nutzung künstlicher Intelligenz in Deutschland in Form eines KI-Aktionsplans setzen:
Impuls 1: Einrichtung eines Digitalministeriums auf Bundesebene
Die Digitalisierung in Deutschland hat wirtschaftliche und politische Priorität. Um eine konsequente Digitalisierung der Gesellschaft, Wirtschaft und Verwaltung zu erreichen, ist ein dediziertes Bundesministerium für Digitales mit dem Schwerpunkt KI notwendig.
Impuls 2: Förderung von KI-Forschung und -Innovationen
Deutschland muss die jährlichen Investitionen in KI-Forschung und -Entwicklung bis 2030 auf mindestens 5,0 Mrd. € pro Jahr aufstocken, um international wettbewerbsfähig zu bleiben.
Impuls 3: Bereitstellung von KI-Wagniskapital für KI-Start-ups und -Innovationen
Deutschland benötigt ein KI-Wagniskapitalprogramm ausgestattet mit 10 Mrd. € über 5 Jahre, um KI-Startups zu fördern. Staatliche Fund-of-Funds sollten dazu genutzt werden, Mittel zielgenau und effektiv zu platzieren.
Impuls 4: Aufbau von KI-Clustern zur Förderung von Innovationen und Exzellenz in regionalen Ökosystemen
Deutschland sollte regionale KI-Cluster fördern, die räumliche Nähe mit technischer und wirtschaftlicher Exzellenz verbinden, um Innovationskraft zu maximieren und international Talente anzuziehen.
Impuls 5: Aufbau einer leistungsfähigen und souveränen digitalen Infrastruktur zur Stärkung der KI
Eine flächendeckende digitale Infrastruktur ist essenziell, um KI für Bürger und Unternehmen in der Breite nutzbar zu machen. Wir setzen uns dafür ein, GPU-Megacluster für Forschung und Industrie in Deutschland zu etablieren.
Impuls 6: Förderung der Anwendung von KI in Unternehmen
Bis 2030 sollten mindestens 80% aller deutschen Unternehmen KI-Anwendungen aktiv nutzen, um ihre Geschäfte zu optimieren und auszubauen.
Impuls 7: KI für den öffentlichen Sektor – Effizienzsteigerung und weniger Bürokratie
Bis 2029 sollte der Einsatz von KI in allen wesentlichen Behörden auf Bundes-, Landes- und Regionalebene etabliert werden, um Prozesse zu optimieren, Bürokratie abzubauen und Bürgerdienste zu verbessern.
Impuls 8: KI und Nachhaltigkeit – erschwingliche und saubere Energie für Deutschland
Deutschland sollte KI gezielt einsetzen, um die Energiewende zu unterstützen und die CO2-Emissionen im Energiesektor bis 2035 um mehr als 15% zu senken. Unser Land braucht eine sichere und bezahlbare Energieversorgung als Grundlage für technologiebasiertes Wachstum.
Impuls 9: Eine KI-Bildungsinitiative als Grundlage einer zukunftsfähigen Gesellschaft
Bis 2030 sollten mehr als 80% der Arbeitskräfte in Deutschland grundlegende KI-Kompetenzen besitzen, um den digitalen Wandel aktiv mitzugestalten.
Impuls 10: Ein klarer und sicherer rechtlicher Rahmen für KI und ein KI-Gütesiegel
Deutschland sollte bis 2026 einen flexiblen Rechtsrahmen für KI schaffen, der Innovation fördert, aber Missbrauch verhindert, und ein KI-Gütesiegel zur Förderung ethischer und transparenter KI einführen.
Impuls 11: Schaffung eines europaweiten KI-Ökosystems mit Deutschland als Schrittmacher
Deutschland sollte eine gestaltende Rolle beim Aufbau eines europäischen KI-Ökosystems übernehmen, um eine wettbewerbsfähige Alternative zu den USA und China zu etablieren.
Hier gibt’s mehr Infos zur Initiative "KI für Deutschland"
Meta verändert sich für Trump …
… doch was bedeutet der Wandel für die Plattform selbst und was für Influencer und Marken? Ein Kommentar von Philipp Martin, Gründer von Reachbird und Experte für Influencer Marketing im DACH-Raum.

In einer Zeit, in der soziale Medien unseren Alltag mehr denn je prägen, kündigt Meta, das Unternehmen hinter Facebook und Instagram, weitreichende Veränderungen an. Diese Entwicklungen könnten die Plattformen selbst und die Arbeit von Influencern und Marken grundlegend beeinflussen. Als Experte für Influencer Marketing analysiere ich die möglichen Auswirkungen dieser Umwälzungen.
Die Macht der sozialen Medien in Deutschland
Bevor wir uns den spezifischen Änderungen bei Meta zuwenden, lohnt ein Blick auf die derzeitige Bedeutung sozialer Medien in Deutschland. Laut aktuellen Statistiken von Meltwater (2024) nutzen mehr als 80% aller Einwohnerinnen und Einwohner in Deutschland Social Media – und das im Durchschnitt mehr als 1,5 Stunden täglich. Diese Zahlen unterstreichen die enorme Reichweite und den potenziellen Einfluss, den Plattformen wie Facebook und Instagram auf die öffentliche Meinungsbildung haben.
Metas neue Strategie: Abschied vom organisierten Faktencheck
Eine der gravierendsten Änderungen bei Meta betrifft den Umgang mit Faktenchecks. Bisher setzte das Unternehmen auf externe Organisationen, um die Richtigkeit von Informationen zu überprüfen. Nun plant Meta, ähnlich wie bei X (ehemals Twitter), auf die Schwarmintelligenz zu setzen. Meta-Gründer Mark Zuckerberg veröffentlichte ein Video, in welchem er Änderungen im Umgang mit Desinformation und Hate Speech auf seinen Plattformen ankündigte. Diese Entwicklung birgt erhebliche Auswirkungen auf den Wahrheitsgehalt der auf der Plattform geteilten Informationen. Besonders für Influencer und Marken, die auf ihre Glaubwürdigkeit angewiesen sind, entsteht eine neue Herausforderung.
Politische Implikationen
Der Übergang zu einem dezentralisierten System der Inhaltsüberprüfung könnte eine Annäherung an bestimmte politische Strömungen bedeuten. Es stellt sich die Frage, wie die Plattform und ihre Nutzer in Zukunft mit Falschinformationen umgehen werden. Diese Entwicklung könnte als eine Annäherung an die Politik der Republikaner gesehen werden, die durch die Änderungen möglicherweise begünstigt wird. Ein weiterer Aspekt der Änderungen betrifft den Umgang mit sogenannten schädlichen Inhalten. Meta plant, die Regeln in sensiblen Bereichen wie Migration oder Sexualität zu lockern. Diese Lockerung könnte zu einem Anstieg aggressiver, negativer und konfrontativer Beiträge führen. Eine stärkere Polarisierung der Plattform ist zu erwarten – ein Trend, der bereits auf anderen sozialen Netzwerken wie X zu beobachten ist.
Auswirkungen auf das Nutzerverhalten
Die mögliche Zunahme von Hassrede und polarisierenden Inhalten könnte das Nutzererlebnis auf Meta-Plattformen grundlegend verändern. Für Influencer und Marken bedeutet dies, dass sie sich möglicherweise in einem zunehmend negativen Umfeld bewegen müssen. Dies könnte nicht nur ihre Reichweite, sondern auch die Qualität ihrer Interaktionen mit Followern beeinflussen.
Trotz der potenziellen Risiken bietet die Nutzung von Schwarmintelligenz auch Chancen. Es bleibt abzuwarten, wie sich die neue Faktencheck-Strategie langfristig bewährt. Die Möglichkeit, dass jeder mitwirken kann, könnte für mehr Transparenz und schnellere, unkompliziertere Checks sorgen – ähnlich wie bei Wikipedia.
Zukünftig sollen laut Mark Zuckerberg nicht mehr autorisierte Faktenchecker für die Kontrolle sorgen, sondern die Community selbst – indem man mit Community-Notes, ähnlich wie es aktuell bei X bereits der Fall ist, auf falsche Informationen hinweisen kann. Dieser Community-Ansatz ist im ersten Moment nicht schlecht, sondern eine sinnvolle Ergänzung zu dem bestehenden System. Er wird jedoch ohne klare Moderation und ohne professionelle Faktenchecker kaum der Flut an Desinformation auf Social Media gerecht werden können. Vielmehr sollten beide Ansätze genutzt werden, um Desinformation einzudämmen.
Die Verantwortung der Plattformen in Krisenzeiten
Angesichts der bevorstehenden Wahlen und der anhaltenden globalen Krisen tragen Social-Media-Plattformen eine besondere Verantwortung. Gerade in Wahlkampf- und Krisenzeiten müssten sie eigentlich dieser Verantwortung gerecht werden. Diese Verantwortung nehmen sie jetzt nicht mehr wahr. Durch den positiven Effekt, dass über Social Media jede und jeder seine eigene Meinung kundtun und somit an demokratischen Prozessen und der Meinungsbildung uneingeschränkt teilhaben kann, gibt es auch Nachteile. Denn: Wer garantiert, dass es sich bei den veröffentlichten Inhalten um korrekte Informationen handelt? Was, wenn gezielt falsche Informationen über soziale Netzwerke gestreut werden? Gezielte Desinformation über Social Media in Verbindung mit den hohen Nutzerzahlen kann einen großen, negativen Einfluss auf unsere Gesellschaft haben.
Der europäische Kontext: Digital Services Act
Während die angekündigten Änderungen zunächst die USA betreffen, sind sie langfristig auch für den europäischen Markt relevant. Der Digital Services Act in der EU regelt den Umgang mit gezielter Desinformation. Es wird interessant sein zu beobachten, wie Meta diese Regelungen mit seinen neuen Ansätzen in Einklang bringen wird. Umso wichtiger ist es, dass von Seiten der Gesellschaft und auch von Seiten der Plattformen gewisse Regeln aufgesetzt und eingehalten werden. Einen rechtlichen Rahmen bietet in Europa der Digital Services Act, der den Umgang mit gezielter Desinformation regelt.
Auswirkungen auf die Influencer-Welt
Die Änderungen bei Meta haben zudem auch weitreichende Implikationen für die Influencer-Branche. Viele Influencer weltweit gelten als Expertinnen und Experten auf ihren Gebieten - egal ob Fitness- und Gesundheitsinfluencer, Finanzinfluencer oder auch Politikinfluencer. Mit tausenden oder gar Millionen von Abonnenten haben sie einen großen Einfluss und können – wie der Name schon sagt – beeinflussen! Bisher wurde der Content von Influencern nur sehr selten wirklich kontrolliert und eingeschränkt – dies kann durch die neuen Community-Notes auch einen positiven Einfluss auf falsch verbreitete Informationen durch Influencer haben, sofern sich die aktiven Communities der Influencer auch kritisch mit deren Content auseinandersetzen und darauf entsprechend reagieren.
Herausforderung Hate Speech
Ein besonders kritischer Punkt für Influencer ist der Umgang mit Hate Speech. Influencer sind meist täglich Hate Speech ausgesetzt. Eine Einschränkung von Hate Speech war und ist für Influencer von großem Interesse, um in einem positiven Umfeld ihre Inhalte veröffentlichen zu können. Sollte es zu einer Auflösung dieser Einschränkung kommen, so ändert sich die generelle Social Media Tonalität zum Negativen. Einen Vorgeschmack gibt hier ebenfalls die Plattform X, auf welcher es aktuell kaum Einschränkungen gibt und Hate Speech deshalb dort bereits zu einem oft negativ aufgeladenen Community-Klima führt.
Konsequenzen für Marken-Kollaborationen
Die möglichen Veränderungen im Kommunikationsklima auf Meta-Plattformen haben auch Auswirkungen auf die Zusammenarbeit zwischen Marken und Influencern. Die Ziele von Brands in der Zusammenarbeit mit Influencern liegen auf der Hand – es geht um Aufmerksamkeit, Interaktion und Abverkauf. Diese Ziele lassen sich vor allem dann erreichen, wenn das Umfeld positiv ist. Hate Speech bringt mit negativem Kommunikations-Klima auch die Ziele der Markenkommunikation in Gefahr – weshalb wir uns für positive Communities und eine Einschränkung von Hate Speech einsetzen sollten. Gleichzeitig bedeutet dies natürlich nicht, dass kritische Kommentare oder Feedback eingeschränkt werden – es geht rein um das Beschimpfen und Verunglimpfen von Social Media Nutzern.
Blick in die Zukunft: Anpassung und Verantwortung
Es bleibt abzuwarten, wie sich die aktuell angekündigten Änderungen in den USA etablieren werden und zu welchem Resultat dies führt. Für den europäischen Markt wird es vorerst keine Änderungen geben – jedoch sollte die Situation und Entwicklung von Marken, Agenturen und auch Nutzern und Influencern gut beobachtet werden.
Fazit: Eine neue Ära der digitalen Kommunikation
Die von Meta angekündigten Änderungen markieren möglicherweise den Beginn einer neuen Ära in der digitalen Kommunikation. Dieser Wandel bringt nicht nur Herausforderungen, sondern auch Chancen für Influencer und Marken mit sich, insbesondere hinsichtlich der Qualität des Contents und der Authentizität von Informationen.
Die kommenden Monate und Jahre werden zeigen, wie sich diese Veränderungen auf die Social-Media-Landschaft auswirken werden. Eines steht jedoch fest: Influencer, Marken und Nutzer müssen sich auf ein dynamischeres, möglicherweise kontroverseres Umfeld einstellen. Die Fähigkeit, sich anzupassen und verantwortungsvoll zu kommunizieren, wird mehr denn je über den Erfolg in der digitalen Welt entscheiden.
Ausblick: KI und die Digitalwirtschaft
KI, politische Turbulenzen und Cookie-Fragezeichen: Die Digitalbranche wird auch 2025 vor herausfordernden Aufgaben stehen. Wie sie diesen begegnen kann, erläutern Swen Büttner und Christoph Schwarzmann von MGID Deutschland.

Das neue Jahr hat begonnen und noch sind alle Fragen offen: Welche neuen Chancen und Herausforderungen wird KI 2025 für die Digitalwirtschaft bereithalten? Wie geht es weiter rund um Cookies und Datenschutz? Und welche Auswirkungen werden die politischen Umwälzungen in Deutschland und den USA auf die Strategien und Erfolgsaussichten von Advertisern und Publishern haben? Hier fünf Thesen, welche Entwicklungen die Branche in diesem Jahr bewegen werden.
1. Mehrwert: KI geht 2025 endgültig über die Generierung von Creatives hinaus
Generative KI für die Erstellung von Creatives zu nutzen, hat sich fest etabliert und spart Zeit und Geld. Sowohl Advertiser als auch Publisher erkennen aber zunehmend, welche Möglichkeiten sich ihnen darüber hinaus eröffnen. Datengetriebene Ansätze, fundierte Analysen und die Prognose der Performance einzelner Kampagnen sind dabei nur die ersten Schritte. Zunehmend sind KI-Tools verfügbar, die nahezu das komplette Kampagnen-Management und den Media-Einkauf automatisieren und dadurch wesentlich schneller, kostengünstiger und effizienter gestalten. Gerade auch speziell für kleinere Brands werden sich – etwa im Bereich programmatischer Kampagnen – durch KI Möglichkeiten bieten, die bislang als zu komplex galten.
2. Turbulenzen: Politik bestimmt das erste Quartal
Der Amtsantritt von Donald Trump in den USA, Neuwahlen in Deutschland: 2025 beginnt politisch äußerst turbulent. Davon wird auch die Werbebranche nicht unberührt bleiben. Vorstellbar ist, dass Konsumenten angesichts unklarer Zukunftsaussichten erst einmal zurückhaltend agieren. Branding-Kampagnen könnten vor diesem Hintergrund von Kürzungen betroffen sein, während die Budgets für Performance-Kampagnen tendenziell stabiler bleiben dürften. Für Advertiser kann dies bedeuten, sich noch stärker auf eine exakte Zielgruppenauswahl zu konzentrieren und Ergebnisse genau zu evaluieren, um ihre Budgets optimal zu nutzen. In Deutschland könnten Verschiebungen im politischen Spektrum zudem dazu führen, dass rechtskonservative Medien und Narrative – von vielen Brands bislang strikt gemieden – höhere Akzeptanz finden. Dadurch können sich zwar zusätzliche Möglichkeiten ergeben, für Advertiser kann sich dies 2025 allerdings auch zu einer Frage der Moral entwickeln.
3. KI-Schattenseiten: Noch mehr Fake News, noch mehr Made-for-Advertising-Seiten
Neben den vielen Vorteilen der KI wird diese 2025 leider auch negative Trends weiter befeuern. So ist davon auszugehen, dass die Zahl so genannter MFA-Seiten – „Made for Advertising“, also dubiose, rein für Werbeschaltungen konzipierte Websites mit niedriger inhaltlicher Qualität – nochmals steigen wird. Gleiches gilt für die Verbreitung von Fake News. Der Grund dahinter ist simpel: Per KI lassen sich komplette MFA-Seiten, die zumindest auf den ersten Blick kaum noch von seriösen, legitimen Publishern zu unterscheiden sind, abstruseste Fake News und Verschwörungstheorien noch schneller und einfacher erstellen und monetarisieren. Ein Qualitätsproblem, dem sich auch in diesem Jahr die gesamte Werbebranche stellen muss.
4. Monetarisierung: Publisher müssen sich noch breiter aufstellen
Die Zeiten, in denen sich Publisher auf einige wenige Einnahmequellen beschränken konnten, sind definitiv vorbei. 2025 wird vielfach von einer weiteren Diversifizierung geprägt sein. Hier können beispielsweise Optionen wie direkte Partnerschaften, Abo-Modelle oder auch native Ads für viele Publisher eine stärkere Rolle spielen. Dies sorgt nicht nur für mehr Sicherheit und Stabilität, sondern kann gleichzeitig auch dazu beitragen, die Abhängigkeit von einzelnen großen Playern wie Google oder Facebook zu verringern. Selbst plötzliche Änderungen an Algorithmen oder der Infrastruktur dieser BigTech-Giganten treffen gut aufgestellte Publisher nicht so hart.
5. Cookies & Co.: Flexibilität ist Trumpf, First-Party-Daten stehen im Fokus
Das Hin und Her beim „Cookie-Aus“ wird vermutlich auch 2025 erst einmal weitergehen. Brands ziehen daraus jedoch zunehmend ihre Konsequenzen und setzen vermehrt auf einen Mix aus Cookie-basierten und Cookie-losen Strategien. Dadurch bleiben sie einerseits flexibel und tragen andererseits dem Datenschutz Rechnung, der noch weiter an Bedeutung gewinnen wird. Für Publisher steht weiter das Thema First-Party-Daten im Fokus. Sie müssen sich damit beschäftigen, ihre Daten auf clevere Weise zu sammeln, aufzubereiten und gewinnbringend zu nutzen. Positiver Nebeneffekt: Auf diese Weise können sie gleichzeitig engere Verbindungen zu ihren Partnern auf Advertiser-Seite aufbauen.
Was gehört in eine KI-Policy?
Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routineaufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.
Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.
Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.
Generative KI schert sich, wenn wir als Nutzer*innen nicht darauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.
Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.
Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.
Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.
1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz
Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:
- Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
- Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
- Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
- Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
- Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.
2. Richtlinien für die Entwicklung und Implementierung von KI
Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.
- Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien festlegen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
- Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
- Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
- Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
- Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
- Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehlerbehebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.
3. Übergreifende Ziele und Vorgaben einer KI-Policy
Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.
- Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
- Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Instrument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
- Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.
Fazit
Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.
Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com
HR-Trends 2025
Fünf HR-Expert*innen geben ihre persönlichen Einblicke in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.
Personalführung und Human Ressources müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder demografischer Wandel und Fachkräftemangel. Die HR-Verantwortlichen von ToolTime, Ella Media, Kenjo, Family Office 360grad AG und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

riprip: EXIST-Team entwickelt Mobile Games als innovatives Serienformat
Das aus der Kunsthochschule Kassel stammende Gründungsteam riprip entwickelt ein innovatives Mobilegame-Genre, das auf typische Glücksspielmechanismen und weitere dark patterns verzichtet. Seit Oktober 2024 wird das Team im Rahmen des 12-monatigen EXIST Gründungsstipendiums bei der Umsetzung seines innovativen Geschäftskonzepts mit insgesamt 139.300 Euro unterstützt.

Als Folge der immer kürzer werdenden Aufmerksamkeitsspannen – insbesondere beim jüngeren Publikum – konkurruieren die traditionellen Videospiele zusehends mit Kurzform-Content auf Social Media, wie Tiktok, Instagram Reels und Youtube Shorts.
Die einzige Alternative, die die Games-Branche bisher anbietet, sind typische Mobilegames aus dem App Store. Diese sind in der Regel mit Glücksspielmechanismen und weiteren „dark patterns“ (manipulativen Mechanismen) verbunden und bieten als einfache Gelegenheitsspiele auch nur selten einen sozial-kulturellen Mehrwert.
Das Gründungsteam riprip entwickelt ein innovatives Mobilegame-Genre, das auf typische Glücksspielmechanismen und weitere dark patterns verzichtet. Als Pilotprojekt produziert riprip aktuell bereits die erste Staffel (10 Folgen) der Spieleserie „Terminal Crossing“ (Arbeitstitel), eine satirische Dekonstruktion des populären Cozy-Game-Genres. Die Spieleserie für mobile Geräte soll im regelmäßigen Rhythmus auf Social Media erscheinen. Die Pilotspielserie dient darüber hinaus dem Aufbau einer eigenen Community, die sich mit dem neuen Genre in einem hohen Maß identifiziert. Schließlich entwickelt das Team im Rahmen der Förderlaufzeit eine eigene Spiel-Engine, die die Entwicklung von Mobilegames erleichtert und Entwicklungsbarrieren abbaut.
„Wir stellen uns eine Welt vor, in der jede(r) Games-Macher*in sein kann“, so Robin Vehrs, Mitglied im ripip-EXIST Team. Das Gründungsteam, bestehend aus Robin Vehrs, Nico Fiona Brauer, Christoph Schnerr und Hannes Drescher, vereint Kompetenzen aus dem Studium der Visuellen Kommunikation an der Kunsthochschule, mit Erfahrungen im Projekt-, Finanz- und Communitymanagement.
Als EXIST Mentor unterstützt Prof. Joel Baumann, ehemaliger Rektor und Leiter des Fachbereichs Neue Medien an der Kunsthochschule, das Team mit seiner Expertise und seinem Netzwerk. Der Studienschwerpunkt Neue Medien wurde Ende 2003 im Studiengang Visuelle Kommunikation an der Kunsthochschule Kassel etabliert. „Das Studium der neuen Medien bedeutet eine künstlerische oder gestalterische Auseinandersetzung mit Technologien einzugehen. Es gilt zukünftige Infrastrukturen zu erforschen und zu entwickeln, hierbei Irrwege zu akzeptieren und daraus zu lernen. Studierende sind aufgefordert, Technologiebegeisterung kritisch zu hinterfragen, zu reflektieren und in theoretischen und gesellschaftlichen Diskursen neu zu verhandeln“, so Baumann.
EXIST ist ein Förderprogramm des Bundesministeriums für Wirtschaft und Energie. Ziel ist es, das Gründungsklima an Hochschulen und außeruniversitären Forschungseinrichtungen zu verbessern. Darüber hinaus sollen die Anzahl und der Erfolg technologieorientierter und wissensbasierter Unternehmensgründungen erhöht werden. Bisher konnten bereits rund 50 Projekte der Universität Kassel durch das EXIST-Förderprogramm unterstützt werden. Die Fördersumme umfasst Personal-, Sach- und Coachingmittel. Betreut werden die Teams vom UniKasselTransfer Inkubator, der zentralen Gründungsförderung der Universität Kassel. Der Inkubator begleitet Nachwuchswissenschaftler*innen, Mitarbeitende, Studierende und Alumni der Universität Kassel und der Kunsthochschule mit einem weitreichenden Unterstützungsangebot in der Phase von der Ideenfindung bis zur Gründung.