Blockchain – eine ethische Revolution?

Autor: Alexander Reinhardt
44 likes

Durch die technisch geprägten Blockchain-Anwendungen tritt der Faktor Mensch zunehmend in den Hintergrund. Hier stellt sich die Frage: Wie kann er (dennoch) von der Blockchain-Technologie profitieren?

Die Blockchain-Technologie ist nun seit einigen Jahren ein Begriff, auch dank einer ihrer Anwendungsformen, dem Bitcoin. Etliche weitere Anwendungen stehen kurz davor, dem Massenmarkt zugänglich gemacht zu werden. Gerade deshalb scheint eine Diskussion über ethische Aspekte mehr als notwendig, um diesen Übergang möglichst gut zu bestreiten. Die Frage ist daher, inwieweit der Mensch durch diese technisch geprägten Anwendungen in den Hintergrund tritt und wie er dennoch von der Blockchain-Technologie profitieren kann.

Alle wissen alles

Mit den Anwendungen der Blockchain betreten wir ein völlig neues, ethisches Terrain. In der Geschichte der Menschheit war es stets so, dass Wissen Macht ist. Dies ist auch heute noch so. Deshalb versuchen gewisse Interessensgemeinschaften Wissen für den eigenen Vorteil zu verheimlichen oder zu verschleiern. Mit der Blockchain funktioniert dies eben nicht mehr, da alle Teilnehmer über den anderen Bescheid wissen und dies völlig anonym. Sieh dir die blockchainbasierte Kryptowährung Bitcoin an: Jeder weiß, wie viel Konten es gibt und wie viele Bitcoin sich darauf tummeln, dennoch weiß man nicht, wem diese Konten gehören. Jede Transaktion ist nachverfolgbar und dennoch anonym. Anonymität und Transparenz in einer noch nie dagewesenen Kombination ist etwas, das es in der Menschheitsgeschichte bis dato noch nicht gegeben hat und stellt deshalb eine fantastische Möglichkeit dar, eine neue Form der Ethik zu etablieren.

Abstrakte Algorithmen mit konkretem Nutzen

Um die technischen Aspekte der neuen Technologie verstehen zu können, müsste man Mathematiker sein; um deren Auswirkungen zu erkennen, müssen wir nur unseren gesunden Hausverstand einschalten. Die Blockchain ermöglicht vor allem eines: gnadenlose Transparenz. Weshalb „gnadenlos“? Genau aus den oben angesprochenen ethischen und moralischen Aspekten. Je nachdem, was geplant wird, kann Transparenz ein großes Problem für die unethisch agierende Partei bedeuten. Wahlen, die eigentlich getürkt werden sollen, können über die Blockchain abgewickelt und durch die Transparenz eben nicht mehr manipuliert werden. Jede abgegebene Stimme ist einsichtig. Nehmen wir das Beispiel einer Banküberweisung: Es kann nicht mehr zu Bankenkrisen kommen, wenn mit der Blockchain gearbeitet wird, da stets einsichtig ist, wie viel „Wert“ tatsächlich vorhanden ist. Nur diese beiden Aspekte betrachtend ist die Blockchain absolut ethisch und bedeutet, moralisch gesehen, einen enormen Aufschwung für den „normalen“ Bürger.

Blockchain ist die pure Wahrheit

Man kann, egal in welchem Bereich, nur unethische Dinge durchführen, wenn niemand davon weiß. Genau hier hakt die Blockchain ein, indem sie alles sichtbar macht. Nichts wird jemals vergessen, weil sie alles abspeichert. Das Schöne dabei: Es wird keine zentrale, unabhängige Instanz benötigt, um dies zu bewerkstelligen. Das Einzige, was benötigt wird, ist eine Community. Ohne Community gibt es auch keine Blockchain. Sie stellt eine völlig neue Form der Demokratie dar, an der jeder partizipieren und durch die jeder profitieren kann. Es kommt zu einer zunehmenden Gleichverteilung der Macht, was derzeitigen Machtinhabern natürlich nicht passen dürfte. Der Beginn wurde jedenfalls gemacht.

Unternehmensethik

Wie bereits oben beschrieben wurde, ist Wissen Macht. Ergänzend muss hinzugefügt werden, dass Image und Wissen Macht ist, vor allem wirtschaftlich. Stellen Sie sich vor, dass Sie über die finanzielle Situation Ihres Kooperationspartners bescheid wissen. Auch dies ermöglicht die Blockchain, da Sie im Grunde nichts anderes als ein Informationsspeicher ist. Es kann nun nicht mehr passieren, dass Sie blindlings in ein anderes Unternehmen investieren oder mit ihm Geschäfte machen, ohne über die tatsächliche wirtschaftliche Situation Bescheid zu wissen. Unternehmen der Zukunft werden alles tun, um sich selbst eine solide, wirtschaftliche Basis aufzubauen, da man nur mehr mit solchen Unternehmen zusammenarbeiten möchte. Es wird nichts mehr nützen, lediglich Hochglanzbroschüren zu verteilen, sondern nachhaltige und ehrliche Arbeit wird wieder in den Vordergrund rücken. Offen, ehrlich und fair.

Fazit

Wir stehen ganz am Beginn einer ethischen Revolution aller Bereiche unseres Lebens. Niemand weiß, wie dieser Prozess weitergeht, geschweige denn, wie er endet. Was wir jedoch wissen ist, dass wir mit der Blockchain das erste Mal in der Geschichte der Menschheit ein Werkzeug an die Hand bekommen haben, welches absolute Freiheit mit Transparenz und Sicherheit kombiniert. Seien wir gespannt auf die Zukunft.


Über den Autor: Als erfolgreicher FINTECH-Entrepreneur und Blockchain-Experte führt Alex Reinhardt zukunftsweisende Technologien Richtung Massentauglichkeit.

Diese Artikel könnten Sie auch interessieren:

charles: DSGVO-konformer KI-Agent für WhatsApp gelauncht

Noch bevor Tech-Riesen wie Meta ihre Angebote auf den Markt bringen, bietet das Berliner Start-up charles erprobte, skalierbare und regulatorisch abgesicherte KI-Agent-Lösungen.

Während Meta LLM-gestützte Agenten auf WhatsApp für Verbraucher*innen einführt, will das Berliner Start-up charles Marken einen entscheidenden Vorsprung verschaffen. Mit der Einführung seines AI Agent Squad will sich charles als führender europäischer Anbieter markensicherer, hochspezialisierter KI-Agenten auf WhatsApp mit integrierter Sicherheit und Compliance etablieren – und damit den weltweit meistgenutzten Messenger in einen echten Handels- und Servicekanal transformieren.

Die KI-Agenten von charles nutzen WhatsApps Interaktivität, proprietäres Markenwissen und die Leistungsfähigkeit moderner KI, um Kund*innen direkt in WhatsApp anzusprechen - kontextbezogen, personalisiert und autonom. Von intelligenten Produktempfehlungen bis zu Support soll die Interaktion Kund*innen ein äußerst persönliches Gefühl vermitteln.

„Unsere KI-Agenten übernehmen echte Aufgaben wie Produktempfehlungen, Beantwortung von Fragen oder Reklamationsbearbeitung. Sie agieren wie echte Mitarbeiter: Man weist ihnen eine echte Aufgabe zu und gibt alle Mittel an die Hand, die sie benötigen, um diese Aufgabe zu erfüllen – sei es durch Zugriff auf Daten oder klare Vorgaben geben“, sagt Andreas Tussing, CEO von charles. “So ermöglichen wir Gespräche, die heute aufgrund von Ressourcen noch nicht möglich sind, und bieten gleichzeitig ein personalisiertes und innovatives Kundenerlebnis.“

WhatsApps native Interaktivität trifft auf markensichere KI

Mit den Berliner KI-Agenten soll WhatsApp zur leistungsstärksten Plattform für Kundenbeziehungen werden - und die Herausforderungen von Marken in Bezug auf Konversion und Kundenbindung lösen, ohne Authentizitätsverlust. Durch die Kombination der hohen Engagement-Raten von WhatsApp mit KI-gesteuerter Automatisierung und Personalisierung sollen Marken gleichzeitig Kundenzufriedenheit und Umsätze steigern sowie Betriebskosten senken können.

Fokus auf markenspezifisches Know-how, Security und Compliance

Der AI Agent Squad nutzt modernste KI-Technologien und verbindet generative Sprachmodelle mit markenspezifischen Datenquellen wie Produktkatalogen, CRM-Systemen und Kundenpräferenzen. Integrierte Schutzvorkehrungen und Tonalitätskontrollen gewährleisten Markensicherheit, während alle Daten auf europäischen Servern verarbeitet werden, ohne externe API-Aufrufe oder Datenextraktion - DSGVO-konform und markensicher.

What's next? Der Wettlauf um eigene Messaging-KI

Mit der Einführung von Memory durch OpenAI und Meta‘s Llama-basierte Agenten auf WhatsApp, heizt sich der Markt für personalisierte, generative Kundenkommunikation auf. Der EU AI Act und das aktuelle Handelsklima erhöhen die Dringlichkeit – Lösungen mit starker Data Governance und Auditierbarkeit sind daher unerlässlich. Charles will sich vor diesem Hintergrund als skalierbare, europäische Alternative zu generischen LLM-Lösungen positionieren – in Europa entwickelt und gehostet.

FemTech-Report

Vom Nischendasein zum Hot Topic: Zahlen, Fakten und FemTech-Start-ups.

Im Rahmen einer Start-up- und Marktanalyse hat die Digital-Health-Beratung Brainwave den deutschen FemTech-Markt genauer unter die Lupe genommen. Die Erkenntnis: Lange Zeit wurde das Thema digitalgestützte Lösungen für die Frauengesundheit, Body Positivity und Female Empowerment vernachlässigt, obwohl es immerhin die Hälfte der Bevölkerung betrifft. Mittlerweile scheint das Potenzial bei Gründer*innen und Investor*innen angekommen zu sein, denn in den Bereichen Technologie, neue Geschäftsmodelle und Start-up-Finanzierungen ist im letzten Jahr viel passiert.

Was ist FemTech?

Der Begriff umschreibt technologische Angebote und Services, die sich auf die Gesundheit der Frau konzentrieren. Die Lösungen reichen von Fruchtbarkeits- und Zyklus-Tracking, über Schwangerschaftsbegleitung und Tele-Hebammen bis hin zu Lösungen zum Thema Sexual Awareness und Menopause. Aber auch E-Commerce-Produkte, wie Periodenunterwäsche oder Supplements komplementieren den Trend. Der Begriff FemTech wurde insbesondere durch Ida Tin geprägt – die Gründerin der Zyklus- und Periodentracking App Clue.

Die wichtigsten FemTech-Trends

Viele FemTech-Angebote, besonders jene aus dem Bereich Schwangerschaft und Geburt, sind bereits in der medizinischen Versorgung angekommen. So wird beispielsweise die 2017 zur Schwangerschaftsbegleitung und Geburtsvorbereitung entwickelte App keleya heute von 19 Krankenkassen erstattet; das Start-up profitierte in der Pandemie von erhöhten Nutzungszahlen (monatlich 20.000 aktive Nutzerinnen im Jahr 2021).

In den letzten Monaten konnte ein rasantes Ansteigen an digitalen Geschäftsmodellen rund um das Thema Reproduktionsmedizin beobachtet werden. Start-ups wie Avery Fertility, Levy oder fertilly sind neu in den Markt eingestiegen und befassen sich mit Fruchtbarkeitsdiagnostik, künstlicher Befruchtung und Social Freezing (Einfrieren von Eizellen).

Das Jahr stand außerdem ganz im Zeichen der Onkologie: Start-ups wie Happie Haus, PINK! oder Brea treiben erfolgreich digitale Innovationen für Frauen mit Brustkrebs voran. Darüber hinaus entstehen auch neue Start-ups im Bereich Sexual Awareness, wie bspw. being female. Kurz gesagt: Der Start-up-Markt ist in Bewegung.

VC-Investments im FemTech-Bereich

Das globale Finanzierungsvolumen für FemTech-Start-ups lag im Jahr 2019 bei über 590 Mio. US-Dollar und war damit zehnmal so hoch wie noch vor zehn Jahren. Wenngleich dies 2019 gerade einmal zehn Prozent der weltweiten VC-Investments ausmachte, verstärkt sich der Trend doch zunehmend: In den Jahren 2020 und 2021 zeichnete sich ein konstant wachsendes Finanzierungsvolumen für FemTech-Start-ups ab. 2021 überstiegen die weltweiten VC-Investitionen in diesem Bereich zum ersten Mal die Marke von 1 Mrd. Dollar.

In Europa erhielten UK-Start-ups im vergangenen Jahr beachtliche Summen an Risikokapital: Das Londoner Start-up Elvie (auch auf dem deutschen Markt aktiv) erhielt 68 Mio. Euro in einer Series C-Finanzierungsrunde. Der Anbieter der Zyklustracking-App Flo Health erhielt 50 Mio. Dollar in einer Series B-Runde.

Die deutschen Start-ups fertilly und pregfit erhielten ein Seed-Funding. Auch wenn Investor*innen offensichtlich ein immer größeres Vertrauen in FemTech-Start-ups haben, steht das Finanzierungspotenzial noch klar am Anfang. Die Investitionen sind weiterhin nur ein winziger Betrag im Vergleich zum weltweiten VC-Funding oder den medizinischen Gesundheitsausgaben für Frauen (500 Mrd. Dollar). Hinzu kommt, dass FemTech-Start-ups meist von Frauen gegründet werden und diese es, im Vergleich zu ihren männlichen Kollegen, oft schwerer haben, Risikokapital einzusammeln. Der banal klingende Grund hierfür: Die Investor*innen-Community besteht zum Großteil aus Männern (94 Prozent bei den Top-100-Unternehmen), welche die Gesundheitsprobleme von Frauen in vielen Fällen nicht wirklich verstehen.

Die deutsche FemTech-Start-up-Landschaft

Brainwave hat den deutschen FemTech-Start-up-Markt analysiert und in einer übersichtlichen Marktdarstellung zusammengefasst (s. Abbildung). Dabei wurden verschiedene Kategorien entwickelt, welche die unterschiedlichen Bereiche des Markttrends abdecken. Die Kategorien zeigen deutlich, dass der größte Teil des Marktes von Start-ups bzw. Lösungen aus der Rubrik „Zyklus- und Fruchtbarkeitstracking“ ausgemacht wird. In diesem Bereich sind vor allem digitale Angebote in Form von Tracking-Apps, Vergleichsportalen für Verhütungsmittel sowie Wearables und weitere Tools vertreten. Neben den etablierten Playern im Bereich „Schwangerschaft und Geburtsvorbereitung“ werden in der Kategorie „Telemedizin & Testkits“ jene Start-ups zusammengefasst, die sich mittels Selbsttest-Kits chronischen Frauenkrankheiten widmen und häufig online einen integrativen Ansatz anbieten. Im Vergleich zum Jahr 2020 kam die neue Kategorie „Reproduktionsmedizin“ hinzu, welche die Themen „Fruchtbarkeitsdia­gnostik und Social Freezing“ abdeckt. Zusätzlich dazu heben sich Start-ups aus den indikationsgetriebenen Trends „Brustkrebs“, „Endometriose“ und „Menopause“ immer stärker hervor. Die Start-ups innerhalb dieser Kategorie versuchen, Frauen entlang des Patientinnenpfades mit Tracking, Digitalen Therapien, Supplements oder Communities zu unterstützen. Last, but not least finden sich in der Übersicht auch die Rubriken „Perioden-Konsumgüter“ und „Sexual Awareness“.

FemTech – quo vadis?

Der deutsche FemTech-Markt ist ein wachsender Markt mit viel Innovationspotenzial. Er bietet die Möglichkeit, nicht nur vielen Frauen auf der Welt zu helfen, sondern auch spannende unternehmerische Chancen auszuschöpfen. Der FemTech-Markt hat in den vergangenen Jahren starke Wachstumsraten erfahren und bleibt weiterhin eines der vielversprechendsten Segmente im Digital-Health-Markt mit einem riesigen Potenzial, verschiedenste sog. Pain Points im Bereich der Frauengesundheit zu lösen. Innovative Geschäftsmodelle in bereits etablierten Segmenten wie Schwangerschaft, Geburt und Zyklus werden mit Wachstumskapital und einer steigenden Akzeptanz weiter gestärkt und in den Massenmarkt getragen. Zukünftig kann erwartet werden, dass auf dem deutschen Markt weitere FemTech-Start-ups nach internationalen Vorbildern entstehen. Dies könnte insbesondere für Indikationen aus den Segmenten Menopause und Endometriose geschehen. Ebenfalls zu erwarten ist der Aufbau von Gesundheitsplattformen, die das Ziel verfolgen, Frauen umfassend mit verschiedensten Rundum-Services zu begleiten.

Im Folgenden stellen wir stellvertretend für die vielen, inhaltlich unterschiedlich aufgestellten FemTech-Start-ups vier Unternehmen im Kurzprofil vor:

Nach dem KI-Hype: Diese vier Trends bleiben

KI entwickelt sich rasant weiter. Doch welche Trends bleiben und setzen sich wirklich durch? Diese Entwicklungen sollten Unternehmen 2025 weiterhin im Blick behalten.

Die vergangenen zwei Jahre haben einen regelrechten KI-Boom erlebt. Insbesondere generative Modelle (GenAI) haben sich rasant weiterentwickelt und etablieren sich zunehmend als feste Größe in den Arbeitsprozessen von Organisationen weltweit. Angesichts dieser Dynamik fragen sich nun viele Unternehmen, welche Entwicklungen das Jahr 2025 bestimmen werden und welche Potenziale sich daraus ergeben. Diese vier wichtigen KI-Trends werden uns 2025 maßgeblich begleiten.

Ob automatisierte Textproduktion, interaktive Chatbots oder KI-gestützte Analysen für Logistik und Finanzen: KIist längst im Tagesgeschäft angekommen. Diese Dynamik setzt sich 2025 fort. Dabei verschieben sich die Schwerpunkte zunehmend hin zu spezialisierten, effizienteren und flexibleren KI-Anwendungen.

Modular AI: Kleine Bausteine, große Wirkung

Modulare KI-Systeme werden zum Schlüssel für Unternehmen, die domänenspezifische Lösungen benötigen. Diese spezialisierten KI-Module sind genau auf einzelne Aufgabenbereiche zugeschnitten, etwa auf den Kundenservice oder auf Betrugserkennung im Bankwesen. Plug-and-Play-Architekturen beschleunigen hierbei die Implementierung: Statt monolithische Modelle einzuführen, integrieren Unternehmen bedarfsgerecht nur jene Module, die sie wirklich benötigen. Auf diese Weise lässt sich der zeitliche und finanzielle Aufwand für die Implementierung in Organisationen erheblich senken. Damit das Zusammenspiel verschiedener Module funktioniert, treiben Hersteller*innen und Standardisierungsgremien die Entwicklung einheitlicher APIs und Kommunikationsprotokolle weiter voran. Diese Interoperabilität ebnet den Weg für dynamische KI-Systeme, die sich je nach Anforderung in bestehende IT-Landschaften integrieren lassen.

Edge AI und On-Device Intelligence: Schneller zum Ergebnis

Während KI-Anwendungen bislang oft auf starke Cloud-Infrastrukturen angewiesen waren, verlagert sich die Intelligenz nun zunehmend an den Netzwerkrand. Dadurch können Daten in Echtzeit analysiert werden, um schnell fundierte Entscheidungen zu treffen. Gerade in sensiblen Bereichen wie der medizinischen Bildgebung oder in Branchen mit hoher Zeitkritikalität, beispielsweise bei autonomen Fahrzeugen, minimiert eine Edge-basierte KI-Analyse Latenzzeiten und ist somit wettbewerbsentscheidend. Parallel dazu treten neue, energieeffiziente KI-Chips wie neuromorphe Prozessoren oder TPUs (Tensor Processing Units) auf den Plan. Sie ermöglichen leistungsstarke KI-Anwendungen in Systemen mit begrenztem Platz oder Energiebudget – ein wichtiger Fortschritt für Wearables und sogar Satelliten.

Foundation Models: Optimieren statt komplett neu trainieren

Große KI-Basismodelle, sogenannte Foundation Models, haben 2024 ihren Nutzen in zahlreichen Branchen bewiesen. 2025 rücken jedoch kosten- und ressourcenschonende Optimierungen stärker in den Vordergrund. Verfahren wie Parameter-effizientes Tuning oder LoRA (Low-Rank Adaptation) ermöglichen es, aus umfassenden Basismodellen spezialisierte Teilmodelle zu erzeugen, ohne sie von Grund auf neu trainieren zu müssen. Kleinere, spezialisierte Modelle behalten die Leistungsfähigkeit der großen Systeme oft zu einem Bruchteil der nötigen Rechenleistung. Das senkt nicht nur die Kosten, sondern trägt auch zur Nachhaltigkeit bei, da der Energieverbrauch bei Training und Einsatz von KI zunehmend kritisch hinterfragt wird. Darüber hinaus entstehen lokalisierte Modelle, die speziell auf bestimmte Regionen oder Sprachen zugeschnitten sind und dadurch genauere Ergebnisse liefern.

Fortschrittliche KI-Agenten: Mehr Kontext, mehr Kollaboration

KI-Agenten erreichen 2025 eine neue Evolutionsstufe und können nuancierte Kontexte immer besser erfassen. Das steigert die Personalisierung von Interaktionen im Kund*innenservice, Gesundheitswesen oder Bildungsbereich. Zugleich werden Self-Improving Agents immer wichtiger: Sie enthalten eingebaute Feedbackschleifen, lernen aus ihren Erfahrungen und optimieren ihre Fähigkeiten – ganz ohne Eingreifen von außen. Darüber hinaus setzt sich das Konzept der Multi-Agent Collaboration durch. Hierbei übernehmen verschiedene KI-Agenten jeweils Spezialaufgaben und koordinieren sich untereinander, um komplexe Probleme wie logistische Planungen oder den Ablauf bei Großschadenslagen effizient zu lösen.

Fazit

Das laufende Jahr wird wie das letzte – und vermutlich wie noch viele kommende Jahre – von künstlicher Intelligenz geprägt sein. Zwar müssen wir bei Aspekten wie Datensicherheit, Transparenz und dem Schutz persönlicher Informationen weiterhin aufmerksam bleiben, doch gleichzeitig eröffnen sich durch KI ganz neue Chancen für Innovation, Effizienz und Wachstum. Schon jetzt arbeiten Unternehmen, Regierungen und Forschungseinrichtungen verstärkt Hand in Hand, um Standards zu definieren und verantwortungsvolle Lösungen zu entwickeln. Damit können wir das enorme Potenzial dieser Technologie nutzen und zugleich sicherstellen, dass Fortschritt und Vertrauen im Einklang stehen.

Der Autor Ramprakash Ramamoorthy ist Director of AI Research bei Zoho.

Generative KI – Chancen für Startups

Wie Startups mit drei Tipps die Kosten und Performance für ihren KI-Case optimieren können.

Das deutsche KI-Startup-Ökosystem befindet sich 2025 weiter im Gründungsboom. Nie gab es mehr KI-Gründer in Deutschland und alleine im vergangenen Jahr wuchs die Zahl der KI-Startups um 35 Prozent. Auch für Investoren bleibt KI eines der vielversprechendsten Themen. Sie investierten 2024 fast 200 Millionen mehr in deutsche KI-Jungunternehmen als im Vorjahr. Vor allem deutsche KI-Startups im B2B-Bereich mit branchenspezifischen Lösungen für die Fertigung, Logistik und das Gesundheitswesen haben aktuell ausgezeichnete Wachstumschancen. Sie können von einer engen Vernetzung mit dem Mittelstand und führenden Forschungseinrichtungen in Deutschland profitieren. Typische KI-Anwendungsfelder von aufstrebenden deutschen Startups wie BlueAvenir, PlanA, Smart Reporting oder nnamu liegen dabei u.a. in der Softwareentwicklung, Sprach- und Bilderkennung oder datenbasierten Analyseverfahren zur Entscheidungsunterstützung.

KI-Chancen und die häufigsten Hürden

Während die Gesamtfinanzierung für KI-Projekte wächst, scheitern in der Praxis vielversprechende Ideen von Startups aber auch immer wieder am konkreten Business Case. Langfristig können sich insbesondere unterschätzte Kosten und eine schwache Performance der Anwendungen wie ein Bremsklotz auswirken. Die Nutzung von Sprachmodellen ist dank API-basierten Diensten sehr einfach geworden, dennoch können sich hier bei großen Volumina und ungeschickter Modell-Wahl schnell höhere Kosten aufsummieren. Gleichzeitig spielt die Performance des KI-Systems eine wichtige Rolle für eine langfristige Profitabilität. So führen besonders hohe Latenzzeiten bei der Model-Inference zu trägeren Systemen, die Nutzeranfragen nicht schnell genug verbreiten und die Attraktivität der Anwendung erheblich mindern.

Gerade Startups setzen oft auf die Cloud, da sie unabhängig vom technischen Hintergrund einfachen Zugang zu KI und die nötige Flexibilität ermöglicht. Drei innovative Methoden erweisen sich in der Cloud als besonders hilfreich, um eine optimale Balance zwischen Leistungsfähigkeit, Kosten und Nutzerfreundlichkeit für die Umsetzung des eigenen KI-Anwendungsfalls zu finden. So kann jeder Gründer seine KI-Ideen schnell, kosteneffizient und sicher umsetzen.

KI-Modellauswahl: Kleiner, aber schneller

Für Startups ist es entscheidend, das richtige KI-Modell für ihren Anwendungsfall zu wählen, um Kosten und Leistung optimal auszubalancieren. Anbieter wie Anthropic, AI21 Labs, Meta, Cohere, Mistral und Amazon bieten Modelle in verschiedenen Größen an – kleinere Varianten sind oft günstiger und reagieren mit kürzerer Antwortzeit. Nach einer ersten Validierung mit einem leistungsstarken Modell können Startups Tools wie Amazon Bedrock Evaluations nutzen, um herauszufinden, welches Modell in welcher Größe ähnliche Ergebnisse bei geringeren Kosten oder höherer Geschwindigkeit liefert. Diese Evaluierungen helfen dabei, die Leistungsfähigkeit und Effizienz zu beurteilen, indem Metriken wie semantische Robustheit und Genauigkeit bei der Informationsabfrage analysiert werden. Durch eine Kombination aus automatisierten Bewertungen mit Large Language Models (LLMs) und menschlicher Prüfung können Startups die beste Balance zwischen Leistung, Kosten und Geschwindigkeit für ihre individuellen Bedürfnisse finden.

Prompt Caching: Zwischenspeicherung für wiederkehrende Anfragen

Eine weitere smarte Methode, um die Antwortzeiten von KI-Modellen zu verkürzen und Kosten zu senken, ist das Prompt-Caching. Wenn ein digitaler Assistent sich bei jeder Frage immer wieder die gleichen Grundinformationen durchlesen müsste, dann wäre das extrem ineffizient. Genau hier setzt das Prompt-Caching an und speichert feste Teile des Prompts, wie grundlegende Anweisungen für das LLM, direkt in der Inferenz-Hardware zwischen. Nur die variablen, nutzerspezifischen Daten, die sich von Aufruf zu Aufruf verändern, werden bei jeder Anfrage neu übermittelt. Das spart nicht nur Rechenleistung, sondern sorgt auch für schnellere Antworten – ideal für Anwendungen wie Chatbots oder personalisierte KI-Assistenten, die häufig wiederkehrende Anfragen verarbeiten. Mit Amazon Bedrock lässt sich diese Technik einfach nutzen, indem das Caching und das Setzen von Cache-Checkpoints automatisch verwaltet werden können. Sobald das Caching aktiviert ist, übernimmt der Service das gesamte Cache-Management automatisch. So lassen sich bis zu 90 Prozent kosteneffiziente KI-Anwendungen mit minimalem Konfigurationsaufwand realisieren.

Model Distillation: KI-Wissen auf das Wesentliche fokussieren

Eine dritte bewährte Option ist Model Distillation. Das Prinzip ist einfach und kann vereinfacht als ein intelligenter Wissenstransfer in der Welt der KI beschrieben werden. Also so, als ob ein erfahrener Lehrer (ein großes, leistungsstarkes KI-Modell) seinem Schüler (einem kleineren, schnelleren Modell) die wichtigsten Konzepte beibringt. Dabei nutzt dieser Prozess synthetische Trainingsdaten, die auf realen Anwendungsbeispielen basieren. Das Ergebnis ist ein kompakteres Modell, das für einen spezifischen Anwendungsfall ähnlich gute Ergebnisse liefert wie das größere Modell, dabei aber deutlich schneller und kostengünstiger arbeitet. Destillierte Modelle in Amazon Bedrock können bis zu fünfmal schneller arbeiten und die Kosten um bis zu 75 Prozent senken im Vergleich zu den Originalmodellen – bei Genauigkeitsverlust von weniger als zwei Prozent.

Fazit

Erfolgreiche KI-Lösungen können mit der Cloud kosteneffizienter und performanter umgesetzt werden. Das erfordert zwar ein wenig technisches Know-how, aber die Cloud reduziert die Einstiegshürden erheblich und ermöglicht es auch kleineren Unternehmen, mit drei bewährten Methoden das KI-Potenzial effektiver auszuschöpfen. Startups haben mit der Cloud die maximale Flexibilität, um entweder von den leistungsfähigsten vortrainierten LLMs zu profitieren oder alternativ eigene LLMs mit maßgeschneiderter Infrastruktur zu entwickeln bzw. auf fertige Dienste mit integrierter generativer KI zuzugreifen.

Der Autor Constantin Gonzalez ist Principal Solutions Architect bei Amazon Web Services (AWS) in München.
Die Autorin 
Jennifer Grün ist Senior Specialist - Machine Learning bei AWS in München.

So schafft KI neue CEO-Realitäten

Künstliche Intelligenz (KI) ist in der Führungsebene angekommen, doch welche Konsequenzen hat das für CEOs? Eine Studie enthüllt Eingeständnisse deutscher und internationaler CEOs zum Thema KI.

Der aktuelle „Global AI Confessions Report: CEO Edition" der KI-Plattform Dataiku enthüllt Eingeständnisse deutscher und internationaler Führungskräfte, die hinsichtlich KI einer neuen Realität gegenüberstehen. Wichtige Insights aus der Studie:

 

  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.
  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • Mit 62 Prozent bzw. 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit von KI geht.
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.

Für die Studie, die von The Harris Poll durchgeführt wurde, wurden im Januar und Februar 2025 über 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die Unternehmen der insgesamt 100 befragten deutschen CEOs rangieren bei einem Jahresumsatz von mehr als 250 Millionen Euro und eine Unternehmensgröße von mehr als 500 Mitarbeitenden.

Der Bericht enthüllt: Die KI-Strategie ist zum entscheidenden Faktor für das Überleben von Unternehmen geworden. Die Ergebnisse belegen zudem, dass die Konsequenzen des Einsatzes von KI auch auf höchster Entscheiderebene angekommen sind. 

KI kommt im Vorstand an

Laut Aussagen deutscher Geschäftsführer stellt KI die Rolle der Entscheidungsfindung auf Vorstandsebene zunehmend in Frage. Zu den wichtigsten Ergebnissen gehören: 

  • 93 Prozent der deutschen CEOs sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.
  • 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.

KI-Strategie: Übernahme von Kernkompetenzen

Auch auf den darauf folgenden Rängen zeichnet sich ab, dass Künstliche Intelligenz das Berufsprofil der Führungsebene deutlich wandeln kann:  

  • 90 Prozent der deutschen CEOs sind der Meinung, dass KI einen besseren Strategieplan entwickeln kann als ein Mitglied ihres Führungsteams (Vizepräsidenten bis zur Vorstandsebene).
  • 49 Prozent der CEOs deutscher Unternehmen schätzen, dass sie 3–4 Teammitglieder durch KI ersetzen könnten, um strategische Planung zu betreiben. Ganze 13 Prozent gaben an, dass sie sogar 7 oder mehr Führungskräfte für die gleiche Aufgabe ersetzen könnten.

Keine KI-Strategie ist allerdings auch keine Antwort, denn

  • 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
  • 76 Prozent der deutschen CEOs sind der Meinung, dass sie Gefahr laufen, ihren Job zu verlieren, wenn sie nicht innerhalb von 2 Jahren messbare KI-getriebene Geschäftsgewinne erzielen.

KI als Kernkompetenz zukünftiger CEOs

Führungskräfte müssen sich laut der Umfrage auf dem Jobmarkt zukünftig anders aufstellen. KI-Kompetenz gilt als “Must-Have”, was auch aus dem Berufsalltag deutscher CEOs hervorgeht.

  • 31 Prozent der deutschen CEOs sind der Meinung, dass Erfahrung in der Umsetzung einer erfolgreichen KI-Strategie oder deren Implementierung in 3–4 Jahren eine der wichtigsten Kompetenzen sein wird, nach denen Vorstände bei der Bewertung eines potenziellen Geschäftsführers suchen werden.
  • 82 Prozent der deutschen CEOs geben an, dass ihre direkte Beteiligung an KI-bezogenen Entscheidungen im vergangenen Jahr zugenommen hat.
  • 70 Prozent der deutschen CEOs geben an, an mehr als der Hälfte der KI-Entscheidungen ihres Unternehmens beteiligt zu sein.

Die „KI-Commodity-Falle“ und KI-Washing: Blinde Flecken der Geschäftsführung

Trotz zunehmender Abhängigkeit von KI sind sich viele CEOs der Gefahren schlecht umgesetzter KI-Strategien in gefährlicher Weise nicht bewusst.

  • 87 Prozent der CEOs tappen weltweit in die „KI-Falle“ und sind zuversichtlich, dass KI-Standardagenten genauso effektiv sein können wie maßgeschneiderte Lösungen für hochgradig nuancierte vertikale oder domänenspezifische Geschäftsanwendungen.
  • CEOs deutscher Unternehmen gehen im internationalen Vergleich mit 39 Prozent am ehesten davon aus, dass es bei eigenen KI-Initiativen mehr um die Optik als um die Wirkung geht. Dieser Umstand nennt sich auch “AI Washing” und zielt darauf ab, KI-Innovation vorzuspielen, anstatt einen bedeutenden Mehrwert zu schaffen.

Worauf deutsche CEOs allerdings vergleichsweise viel Wert legen, sind Kostenkontrolle und Skalierbarkeit von KI-Lösungen. Mit 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs (62 Prozent) an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit als Kernattribute innerhalb ihres Rahmens für die regelmäßige Bewertung der Effektivität von KI-Analysen, -Modellen und -Anwendungen geht.

KI-Governance und regulatorische Unsicherheit

Während sich die Einführung von KI beschleunigt, schaffen schlechte Governance und regulatorische Unsicherheit erhebliche Hindernisse:

  • 25 Prozent der deutschen CEOs geben an, dass sich ein KI-Projekt aufgrund regulatorischer Unsicherheiten verzögert hat, während 35 Prozent zugeben, dass ein Projekt aus solchen Umständen abgebrochen oder aufgegeben wurde. 
  • 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.
  • 94 Prozent der CEOs vermuten weltweit, dass Mitarbeitende GenAI-Tools wie ChatGPT, Claude und Midjourney ohne Genehmigung des Unternehmens verwenden (bekannt als „Schatten-KI“) und damit ein massives Governance-Versagen innerhalb von Organisationen aufdecken.

Den vollständigen „Global AI Confessions Report: CEO Edition“ findest du hier

KI-Integration: Chancen und Impact für Startups

Im Interview mit Dennis Lehmeier, Startup Segment Leader Germany & Europe Central bei Amazon Web Services (AWS): Wie Startups generative KI effizient nutzen können, um zu skalieren und ihre Innovationen schneller voranzutreiben.

Herr Lehmeier – das aktuell alles überschattende Thema ist künstliche Intelligenz (KI) bzw. die Frage, wie Startups bestmöglich davon profitieren können. Welchen positiven Impact von KI sehen Sie für Startups?
KI ist fest in der deutschen Startup-Szene angekommen und die Zahl der KI-Neugründungen in Deutschland steigt, insbesondere vor dem Hintergrund neuer Einsatzmöglichkeiten. Vor allem Startups im Bereich Softwareprogrammierung, Datenanalyse, Gesundheit und Nachhaltigkeit setzen in Deutschland stark auf KI und nutzen die Technologie als Innovationsturbo.

Typische KI-Anwendungsfelder sind beispielsweise die Spracherkennung, Bildanalysen und Verfahren zur Entscheidungsunterstützung. So kann KI heute schon in den Biowissenschaften die klinische Entwicklung von Wirkstoffen erheblich beschleunigen und in der Industrie sowohl das Lieferkettenmanagement als auch die gesamten Produktionsabläufe deutlich effizienter gestalten. Die Cloud kann dabei helfen, KI-Tools schnell und effizient einzusetzen. Eine KI-Studie von AWS zeigte zuletzt, dass 7 von 10 deutschen Startups bereits aktiv KI einsetzen – Tendenz stark steigend. Die Adaptionsrate unter Startups ist dabei deutlich höher als in anderen Branchen. Gleichzeitig profitieren bereits 74 Prozent durch die Nutzung von KI und verzeichnen durch den Einsatz einen direkten Wertzuwachs. Unternehmen jeder Branche können von KI profitieren.

Was sind die aus Ihrer Sicht aktuell bedeutendsten KI-Trends für Startups?
Mit der zunehmenden Verbreitung generativer KI und Grundlagenmodelle (Foundation Models, FMs) verschiebt sich der Wettbewerbsfokus für Startups. Statt selbst leistungsstarke KI-Modelle von Grund auf zu entwickeln, können junge Unternehmen über die Cloud auf verschiedene extrem leistungsstarke Modelle wie Amazon Nova zugreifen und diese für ihre individuellen Anforderungen anpassen. Dadurch wird generative KI einfacher zugänglich und für Unternehmen jeder Größe und mit unterschiedlichen IT-Fähigkeiten leicht nutzbar.

Da viele Akteure auf dieselben technologischen Grundlagen zurückgreifen können, verlagert sich der Differenzierungsfaktor zunehmend auf die kundenspezifische Wertschöpfung. Der Erfolg hängt davon ab, wie nahtlos KI-Lösungen in bestehende Arbeitsprozesse und Systemlandschaften integriert werden können. Ähnlich wie bei SaaS-Modellen geht es darum, eine intuitive Benutzeroberfläche und ein klares Nutzenversprechen für eine definierte Zielgruppe zu schaffen. Der Mehrwert entsteht durch die intelligente, kontextbezogene Anwendung.

Unser Ziel ist es, Startups maximale Flexibilität zu bieten: sie können eigene FMs mit maßgeschneiderter Infrastruktur entwickeln, bestehende vortrainierte Modelle nutzen oder auf Dienste mit integrierter generativer KI wie Amazon Q zurückgreifen. So kann jeder Gründer ein KI-Startup aufbauen und es ergeben sich vielfältige Anwendungsfelder durch cloudbasierte KI-Lösungen: von der automatisierten Kundenbetreuung über die intelligente Datenanalyse bis hin zur Entwicklung völlig neuer Produkte.

KI als Innovations-Booster birgt somit ein riesiges Potenzial. Doch wo Licht ist, ist auch Schatten: KI ist kein Selbstläufer – gefragt sind praxistaugliche Regeln, die eine vertrauensvolle Nutzung ermöglichen, ohne Innovationen zu blockieren. Wie stehen Sie vor diesem Hintergrund zum aktuellen AI-Act?
Als einer der weltweit führenden Entwickler und Anbieter von KI-Tools und -Diensten setzen wir uns für eine sichere, geschützte und verantwortungsvolle Entwicklung von KI-Technologie ein. Wir arbeiten eng mit Regierungen und Industrien zusammen, um dies zu gewährleisten. Unser Ziel ist es, Innovationen im Interesse unserer Kunden und der Verbraucher voranzutreiben und gleichzeitig notwendige Schutzmaßnahmen zu etablieren und umzusetzen. Dafür bieten wir auch diverse Services und Tools. Beispielsweise bieten wir mit Amazon Bedrock Guardrails Unterstützung für die Implementierung von Sicherheitsvorkehrungen, die auf die jeweiligen generativen KI-Anwendungen des Startups zugeschnitten sind, damit Halluzinationen besser verhindert und schädliche Inhalte blockiert werden können.

Ich bin überzeugt, dass KI enorme Fortschritte in essenziellen Bereichen wie Gesundheit und Bildung ermöglichen wird. Die Technologie hilft uns, komplexe Probleme zu lösen, die zuvor als unüberwindbar galten. Die Vorteile überwiegen bei verantwortungsvollem Einsatz deutlich die Risiken. Gleichzeitig sollte jeder, der KI nutzt, ethische Aspekte von Anfang an immer mitbedenken und angemessene Sicherheitsvorkehrungen zum verantwortungsvollen Einsatz treffen.

Sie unterstützen Startups umfassend dabei, generative KI in AWS auszubauen. Welche Maßnahmen bzw. Angebote stehen Startups dabei konkret zur Verfügung?
Weltweit setzen über 280.000 Startups und 80 Prozent aller Unicorns auf AWS, um mit Hilfe der Cloud zu wachsen und ihr Geschäft zu skalieren. Auch deutsche Unternehmen wie About You, Delivery Hero und FlixBus haben ihre Erfolgsgeschichte mit der Cloud gestartet. Um Startups gezielt beim Aufbau generativer KI-Lösungen zu unterstützen, bieten wir eine Vielzahl maßgeschneiderter Programme.

Mit AWS Activate haben wir seit der Gründung bereits über 6 Milliarden Dollar an AWS Guthaben für Startups bereitgestellt. Dieses können ausgewählte Gründer nutzen, um unsere leistungsstarken KI-Dienste zu testen und schon in frühen Phasen mit neuen Technologien zu experimentieren. Zusätzlich haben wir zuletzt 230 Millionen Dollar für Startups zugesagt, die die Entwicklung generativer KI aktiv vorantreiben, etwa durch die Entwicklung von Grundlagenmodellen oder KI-Tools. Neben technologischen Ressourcen bietet AWS Activate auch umfassende Unterstützung in Form von Fundraising-Hilfen, rechtlicher Beratung, technischem Coaching und Zugang zu einem globalen Netzwerk aus Experten, Investoren und Partnern. Außerdem haben wir den Generative AI Accelerator ins Leben gerufen – ein 10-wöchiges Förderprogramm für 80 Startups weltweit, das maßgeschneiderte Go-to-Market-Strategien bietet und ausgewählten Unternehmen bis zu einer Million Dollar an AWS Guthaben ermöglicht. Auch das Münchner Softwareunternehmen DQC ist Teil des Programms.

Mit solchen Maßnahmen geben wir Startups die notwendigen Werkzeuge an die Hand, um generative KI effizient zu skalieren und Innovationen schneller voranzutreiben.

Beim AWS GenAI Loft Berlin dreht sich vom 24. Februar bis zum 7. März 2025 alles rund um KI bzw. GenAI. An wen adressieren Sie das Event und was erwartet die Teilnehmenden?
Das AWS GenAI Loft findet erstmalig in Berlin statt. Das Event im Mitosis LAB in der Sonnenallee 67 richtet sich an Startups, Entwickler, Investoren, KI-Experten und alle, die sich mit den neuesten Entwicklungen im Bereich Generative AI befassen möchten. Die Veranstaltung bietet jeden Tag eine Mischung aus praxisnahen Workshops, technischen Deep Dives und Networking-Möglichkeiten, bei denen die Teilnehmer mit führenden Experten von AWS, NVIDIA, DoiT, Storm Reply und Automat-it in Kontakt treten können. Neben zahlreichen Vorträgen, spannenden KI-Demos und Hands-on Sessions mit AWS Solutions Architects können die Teilnehmer von kostenlosem Coaching profitieren und von der Möglichkeit, sich mit anderen innovativen deutschen Startups vor Ort auszutauschen. Unter dem Motto „Learn, Build, Connect“ steht der praktische Umgang mit modernsten KI-Technologien wie Amazon Q oder Amazon Bedrock im Fokus. Das Event ist zudem kostenfrei und eine Registrierung ist vorab online möglich. 

Alles dreht sich somit letztlich darum, KI-Projekte voranzutreiben und (Startup-)Innovationen schnell auf den Markt zu bringen. Was muss aus Ihrer Sicht an welcher Stelle geschehen, damit unsere Startups beim Thema KI global mithalten können – sowohl als Nutzende wie auch als KI-Entwickler?
Wir sehen in zahlreichen Studien deutlich, dass Unternehmen, die KI einsetzen, nachweislich von höherer Effizienz und Innovationskraft profitieren. Eine Bitkom-Untersuchung aus 2024 zeigt beispielsweise auch, dass drei Viertel der deutschen Startups, die KI in ihre Produkte oder Dienstleistungen integrieren, leichter an Finanzierung gelangen. Kosteneinsparungen und Effizienzsteigerungen sind dabei oft starke Treiber für die KI-Implementierung.

Um dieses Momentum zu nutzen und das KI-Potenzial auszuschöpfen, sehe ich drei Schlüsselherausforderungen in Deutschland.

Erstens muss die digitale Kompetenzlücke geschlossen werden. KI-Kenntnisse werden in nahezu allen Bereichen essenziell sein, weshalb verstärkt in Aus- und Weiterbildungsprogramme investiert werden muss.

Zweitens muss der Zugang zu Kapital für Startups durch stärkere Finanzierungsmöglichkeiten und Unterstützungsprogramme verbessert werden, um die nachhaltige Wettbewerbsfähigkeit und Skalierung von KI-Startups zu fördern.

Drittens ist es wichtig, die regulatorischen Standards für KI möglichst länderübergreifend zu harmonisieren, um Unternehmen mehr Planungssicherheit zu bieten und gleichzeitig einen verantwortungsvollen Einsatz von KI-Technologien zu gewährleisten.

Ganz praktisch sollten Startups zunächst übergeordnet ihre langfristigen Ziele definieren – sei es in zwei oder drei Jahren, um daraus abzuleiten, welche Schritte einen Beitrag zur Erreichung dieser Ziele leisten. Diese Herangehensweise zwingt Startups und Gründer, fokussiert zu bleiben und in der Gegenwart strategische Entscheidungen zu treffen, um sich für die nächste KI-Entwicklungsphase zu positionieren.

Herr Lehmeier, danke für das Gespräch!

Europäisches KI-Gesetz in Kraft getreten

Der AI Act ist am 2. Februar 2025 in Kraft getreten und gilt für alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen. Bei Nichteinhaltung drohen Geldbußen.

Künstliche Intelligenz (KI) entwickelt sich rasant und findet in immer mehr Bereichen, auch in Unternehmen, Anwendung. Deshalb schafft Europa mit dem AI Act einen einheitlichen Rechtsrahmen, den alle europäischen Unternehmen einhalten müssen.

Nicht allen Arbeitgebenden ist bewusst, dass die europäische Verordnung bereits in Kraft getreten ist. Sie gilt für jede Organisation – unabhängig von ihrer Größe – und ist verbindlich. Das Gesetz betrifft somit alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen, unabhängig vom Beschäftigungsverhältnis. Europa überlässt einen Teil der Durchführung und Umsetzung des KI-Gesetzes den Mitgliedstaaten selbst – ebenso wie die Verhängung von Geldbußen bei Nichteinhaltung. Die konkrete Höhe dieser Bußgelder wird erst am 2. August 2025 feststehen. Dennoch sollten Unternehmen ab dem 2. Februar lieber gut aufgestellt sein, da die Bußgelder auch rückwirkend in Kraft treten können.

Verbindliche KI-Policy und adäquate KI-Kompetenzen

Unternehmen sind dafür verantwortlich, dass ihre Belegschaft über ausreichende KI-Kenntnisse verfügt. Dabei ist es nicht erforderlich, dass jeder Mitarbeitende umfassendes Wissen über KI besitzt. Es muss sichergestellt werden, dass alle Mitarbeitenden, die mit KI-Systemen arbeiten, über die notwendigen Kenntnisse und Fähigkeiten verfügen. So können sie informierte Entscheidungen treffen und potenzielle Risiken erkennen. Dazu gehören alle Mitarbeiter*innen, die mit KI-Systemen arbeiten – vom Anbietenden bis zum/zur Endnutzer*in – und erstreckt sich also nicht nur auf IKT-Fachleute in Unternehmen.

Das KI-Gesetz legt nicht genau fest, welche Maßnahmen Arbeitgebende ergreifen müssen, damit alle beteiligten Personen ausreichende KI-Kenntnisse erwerben. Arbeitgebende sollten daher nicht nur die technischen Kenntnisse, Erfahrungen, Ausbildungen und Fortbildungen der Mitarbeitenden berücksichtigen, sondern auch den Kontext, in dem die KI-Systeme genutzt werden, sowie die betroffenen Personen oder Personengruppe.

Arbeitgebende können selbst entscheiden, welche Kenntnisse und Fähigkeiten ihre Mitarbeitenden benötigen und wie sie diese angeeignet werden können. Mögliche Maßnahmen sind allgemeine KI-Schulungen, die Grundkenntnisse vermitteln und auf verschiedene Zielgruppen zugeschnitten sein können. Dabei kann es sich um spezifische Schulungen handeln, die sich auf bestimmte Tools und Anwendungen konzentrieren, aber auch um die Zusammenarbeit zwischen juristischen und technischen Teams.

Arbeitgebenden wird empfohlen, eine KI-Policy mit klaren Richtlinien für den Einsatz von KI im Unternehmen zu erstellen. Darin kann festgehalten werden, welche Anwendungen von wem und auf welche Weise genutzt werden dürfen. In dieser Richtlinie kann der Arbeitgebende auch Hinweise darauf geben, wie die Mitarbeitenden ausreichend mit KI vertraut bleiben können. Wie wird zum Beispiel vorgegangen, wenn sich im Unternehmen oder bei den Tools etwas ändert? KI-Kompetenz ist schließlich nichts Statisches. Wenn ein(e) Mitarbeiter*in die Rolle wechselt, oder wenn die eingesetzten Tools sich ändern, muss der Arbeitgebende sicherstellen, dass die betreffende Person weiterhin über ausreichende KI-Kenntnisse verfügt.

Verbotene bestimmter KI-Systeme

Zum anderen verbietet der AI Act ab dem 2. Februar 2025 den Einsatz von KI-Systemen, die gegen europäische Normen und Grundwerte verstoßen, indem sie beispielsweise Grundrechte missachten. Darunter fallen auch KI-Systeme für Social Scoring, die Menschen aufgrund ihres sozialen Verhaltens oder persönlicher Eigenschaften bewerten, oder KI-Systeme zur Emotionserkennung am Arbeitsplatz oder im Bildungsbereich. Arbeitgeber sollten daher die eingesetzten KI-Systeme im Hinblick auf die Identifizierung verbotener Systeme und die Einstellung ihrer Nutzung überprüfen.

Ab August 2025 drohen Geldbußen - auch rückwirkend

Ab dem 2. August 2025 drohen Unternehmen und Organisationen, die verbotene KI entwickeln oder einsetzen, hohe Geldbußen. Die Überwachung und die Festlegung der Höhe der Strafen liegen vollständig in der Verantwortung der EU. Die Höhe der Geldbußen sowie die Aufsicht hierüber liegen vollständig in der Verantwortung der EU. Bis zu 35 Millionen Euro Strafe oder sieben Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres – je nachdem, welcher Betrag höher ist – können verhängt werden.

Der Autor Sander Runkel ist Fachanwalt für Arbeitsrecht und Manager Tax & Legal bei SD Worx Deutschland

LegalTech-Trends 2025

Der Legal-Markt steht an einem Wendepunkt: Innovative, KI-basierte Tools transformieren die Branche und eröffnen neue Möglichkeiten. Diese sechs Trends werden die Branche verändern und prägen.

1. „Agentic AI“ für Legal Workflows

Künstliche Intelligenz (KI) ist das Herzstück der LegalTech-Zukunft. Anwendungen unterstützen schon heute Kanzleien und Unternehmen dabei, Dokumente zu analysieren und komplexe rechtliche Fragestellungen mit automatischer Prüfung von Gerichtsurteilen zu bearbeiten. KI ist dabei jedoch nur ein einzelnes Feature einer ganzheitlichen Legal-Workflow-Plattform. Aber ein wichtiges. Mit KI werden zeitintensive Aufgaben automatisiert, sodass Anwält*innen mehr Zeit für strategische Tätigkeiten haben und Legal Assistants von administrativen Aufgaben entlastet werden.

Gleichzeitig entstehen durch KI neue Herausforderungen. Digitale Souveränität, Datenschutz, Bias in Algorithmen und die Qualität der automatisierten Entscheidungsprozesse sind Themen, die sowohl Kanzleien, Rechtsabteilungen als auch Gesetzgeber beschäftigen werden. Da Datenschutz und Privacy i.d.R. bei europäischen und deutschen LegalTech-Anbieter*innen ein stärkerer Teil der Software-Anbieter DNA sind, haben sie einen Vorteil gegenüber US-amerikanischen Hersteller*innen.

2. Unified Contract Management & Enterprise Legal Management

Beim Contract & Matter Management zeichnet sich eine große Veränderung ab – hin zu modernen, flexiblen, cloudbasierten Contract- und Matter-Management-Tools. Durch höhere Anforderungen der Fachbereiche hinsichtlich der Geschwindigkeit bei der Bearbeitung von Rechtsfällen, nimmt die Bedeutung von Unternehmensjuristen weiter zu. Während sie früher primär als Berater agierten, übernehmen sie mittlerweile eine zunehmend strategische Rolle. Hierbei helfen ihnen ganzheitliche Enterprise Legal Management Software Lösungen die sowohl bei der Anfrage, Annahme und effizienten Durchführung von Rechtsfällen unterstützen. Die neue Rolle der Inhouse-Jurist*innen erfordert nicht nur technologische Kompetenz, sondern auch betriebswirtschaftliches Verständnis und die Fähigkeit, mit anderen Unternehmensbereichen zusammenzuarbeiten.

3. Legal Front-Door & Self-Service Legal Tools

In der IT wird seit vielen Jahren das „Shift to left“ Prinzip verfolgt. Jetzt wird es verstärkt auch in Legal Prozessen genutzt. Das Prinzip zielt darauf ab, die Effizienz über Self-Service Möglichkeiten zu steigern, Reaktionszeiten zu verkürzen und Kosten zu senken, indem Probleme näher an ihrer Quelle – also dem Mandanten, Anwender bzw. dem Fachbereich gelöst werden. Eine Legal Front Door ist im Grunde eine digitale Rezeption, eine zentrale Plattform, die es den Mitarbeitenden eines Unternehmens oder Mandant*innen einer Kanzlei ermöglicht, auf rechtliche, standardisierte Dienstleistungen wie NDA-Erstellung, Digitale Mandatsannahme, Compliance Anleitungen und Legal Ressourcen zuzugreifen.

4. Compliance Analytics: Risiken in rechtlichen Dokumenten erkennen und beheben

Die Analyse von Verträgen und Schriftgut ist zentraler Bestandteil der modernen Rechtspraxis. Compliance Analytics ermöglicht es Jurist*innen Risiken in Verträgen und Dokumenten zu analysieren, vorherzusagen und Verstöße proaktiv und automatisiert zu korrigieren. Durch datenbasierte Analysen können potenzielle Verstöße gegenüber Unternehmensrichtlinien wie Haftungsgrenzen, AGB-Compliance identifiziert und über automatisierbare Workflows angepasst bzw. Compliance-Verstöße automatisch behoben werden. Diese präventive Herangehensweise bietet nicht nur einen finanziellen Mehrwert, sondern reduziert auch Haftungsrisiken und stärkt die Wettbewerbsfähigkeit von Kanzleien und Rechtsabteilungen.

5. Von der/vom Jurist*in zum/zur LegalTech-Expert*in

Die Automatisierung repetitiver Aufgaben, wie die Überprüfung von Dokumenten oder Durchführen von Recherchen, hat tiefgreifende Auswirkungen auf die Arbeitsweise von Jurist*innen. Während Junior-Anwält*innen früher oft mit derartigen Tätigkeiten betraut wurden, können sie sich heute dank moderner Technologien auf strategischere Aufgaben konzentrieren. Das beschleunigt ihre berufliche Entwicklung und verändert traditionelle Karrieremodelle. Dabei sollte jedoch sichergestellt sein, dass die notwendigen praktischen Erfahrungen gesammelt werden können, denn nur so lässt sich eine fundierte Expertise aufbauen. Zwar bleibt das juristische Wissen weiterhin wichtig, aber die Fähigkeit die richtigen juristischen Fragen zu entwickeln und zu stellen wird in Zukunft wichtiger sein als „nur“ juristisches Wissen and geeignete Antworten zu haben. Auch die juristische Ausbildung verändert sich, inkl. der Nutzung moderner KI-basierten LegalTech-Tools zur Recherche, Analyse und Erstellung von Dokumenten. Universitäten und Kanzleien passen ihre Ausbildungsprogramme an, um die nächste Generation von Jurist*innen auf die Anforderungen des digitalen Zeitalters vorzubereiten.

6. Investitionen in LegalTech

Laut einer aktuellen Umfrage von JP Morgan unter Unternehmensjurist*innen haben bei 71 Prozent der Rechtsabteilungen die Investition in LegalTech-Tools eine hohe bis sehr hohe Bedeutung. Aber nur 32 Prozent der Rechtsabteilungen haben LegalTech-Tools in ihren Budgets berücksichtigt. 80 Prozent gaben an, KI-LegalTech-Tools im laufenden Jahr einführen zu wollen – wollen dafür aber nur durchschnittlich 13 Prozent des gesamten Legal Budget ausgeben. Das belegt, dass die Investitionen in LegalTech-Tools zwar weiter zunehmen, die Diskrepanz zwischen KI-Ambitionen und Finanzierung jedoch bleibt. Die Legal-Innovationsfähigkeit ist also abhängig von der Legal-Investitionsfähigkeit.

Fazit

Die LegalTech-Trends zeigen, wie Technologie die juristische Arbeit verändert. Da generative KI trotz heutiger multi-modaler Fähigkeiten wie Text, Bild und Audio vor allem die Analyse und Erstellung von Text hervorragend beherrscht, hat der Legal-Bereich quasi eine Pionierstellung in der modernen KI-Bewegung. Der Rechtsmarkt ist eine „Text First“-Industrie und hervorragend geeignet, um die Innovationen von generativer KI zu beschleunigen. Von KI-gestützter Effizienzsteigerung über datenbasierte Risikoanalysen bis hin zur Automatisierung von Routineaufgaben: Der Legal-Markt wird nicht nur digitaler, sondern auch dynamischer. Für Kanzleien und Unternehmensjurist*innen bringt das einerseits neue Möglichkeiten mit sich, andererseits aber auch die Notwendigkeit, sich weiterzuentwickeln. Die Herausforderungen sind vielfältig, doch eines steht fest: Die Zukunft des Rechtsmarkts gehört denen, die technologische Innovationen nicht nur akzeptieren, sondern aktiv mitgestalten.

Der Autor Oliver Bendig ist CEO des LegalTech-Anbieters stp.one

Initiative "KI für Deutschland" startet Aktionsplan

Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen, um hierzulande eine zukunftsorientierte Strategie für die KI-Nutzung als Schlüsseltechnologie des 21. Jhs. zu etablieren.

Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen. Ziel ist es, einen praxisnahen und unternehmerisch getriebenen Impuls zu setzen, um in dieser Phase der politischen und gesellschaftlichen Neuorientierung Eckpfeiler zu definieren, wie KI zum Wohle und unter Beteiligung aller in Deutschland, effektiv genutzt werden kann.

Zu den Initiator*innen von "KI für Deutschland" gehören maßgeblich die AI.GROUP, der AI.FUND, sowie die Rise of AI Conference - insbesondere die Unternehmer*innen und KI-Expert*innen Dr. Hauke Hansen, Fabian Westerheide, Ragnar Kruse, Petra Vorsteher, Dr. John Lange und Ingo Hoffmann. Unterstützt wird die Initiative von namhaften Institutionen wie dem KI-Bundesverband.

Die Initiative ist deutschlandweit, interdisziplinär und holistisch ausgerichtet. Sie ist offen für den Input und die Unterstützung aller relevanten gesellschaftlichen Gruppen und Persönlichkeiten.

Aufbruchssignal in Zeiten des Umbruchs

Mitinitiator Dr. Hauke Hansen: “Die Initiative KI für Deutschland ist ein Aufbruchssignal in Zeiten des Umbruchs. Mit unseren 11 Impulsen machen wir greifbare und umsetzbare Vorschläge, wie Deutschland die KI nutzen kann, um den gesellschaftlichen Stillstand zu durchbrechen und Wege aus der wirtschaftlichen Rezession zu finden. Wir richten uns damit an alle gesellschaftlichen Akteure, die Wirtschaft ebenso wie die Politik. Wir brauchen eine zukunftsweisende und konsequente Industriepolitik und unternehmerisches Handeln, um die KI am Standort Deutschland zur Chefsache zu machen und damit das Bruttosozialprodukt nachhaltig zu steigern. Stellen wir gemeinsam die Weichen für innovatives und wirtschaftlich erfolgreiches Deutschland von morgen.”

Diese elf Impulse will die Initiative "KI für Deutschland" zur Nutzung künstlicher Intelligenz in Deutschland in Form eines KI-Aktionsplans setzen:

Impuls 1: Einrichtung eines Digitalministeriums auf Bundesebene

Die Digitalisierung in Deutschland hat wirtschaftliche und politische Priorität. Um eine konsequente Digitalisierung der Gesellschaft, Wirtschaft und Verwaltung zu erreichen, ist ein dediziertes Bundesministerium für Digitales mit dem Schwerpunkt KI notwendig.

Impuls 2: Förderung von KI-Forschung und -Innovationen

Deutschland muss die jährlichen Investitionen in KI-Forschung und -Entwicklung bis 2030 auf mindestens 5,0 Mrd. € pro Jahr aufstocken, um international wettbewerbsfähig zu bleiben.

Impuls 3: Bereitstellung von KI-Wagniskapital für KI-Start-ups und -Innovationen

Deutschland benötigt ein KI-Wagniskapitalprogramm ausgestattet mit 10 Mrd. € über 5 Jahre, um KI-Startups zu fördern. Staatliche Fund-of-Funds sollten dazu genutzt werden, Mittel zielgenau und effektiv zu platzieren.

Impuls 4: Aufbau von KI-Clustern zur Förderung von Innovationen und Exzellenz in regionalen Ökosystemen

Deutschland sollte regionale KI-Cluster fördern, die räumliche Nähe mit technischer und wirtschaftlicher Exzellenz verbinden, um Innovationskraft zu maximieren und international Talente anzuziehen.

Impuls 5: Aufbau einer leistungsfähigen und souveränen digitalen Infrastruktur zur Stärkung der KI

Eine flächendeckende digitale Infrastruktur ist essenziell, um KI für Bürger und Unternehmen in der Breite nutzbar zu machen. Wir setzen uns dafür ein, GPU-Megacluster für Forschung und Industrie in Deutschland zu etablieren.

Impuls 6: Förderung der Anwendung von KI in Unternehmen

Bis 2030 sollten mindestens 80% aller deutschen Unternehmen KI-Anwendungen aktiv nutzen, um ihre Geschäfte zu optimieren und auszubauen.

Impuls 7: KI für den öffentlichen Sektor – Effizienzsteigerung und weniger Bürokratie

Bis 2029 sollte der Einsatz von KI in allen wesentlichen Behörden auf Bundes-, Landes- und Regionalebene etabliert werden, um Prozesse zu optimieren, Bürokratie abzubauen und Bürgerdienste zu verbessern.

Impuls 8: KI und Nachhaltigkeit – erschwingliche und saubere Energie für Deutschland

Deutschland sollte KI gezielt einsetzen, um die Energiewende zu unterstützen und die CO2-Emissionen im Energiesektor bis 2035 um mehr als 15% zu senken. Unser Land braucht eine sichere und bezahlbare Energieversorgung als Grundlage für technologiebasiertes Wachstum.

Impuls 9: Eine KI-Bildungsinitiative als Grundlage einer zukunftsfähigen Gesellschaft

Bis 2030 sollten mehr als 80% der Arbeitskräfte in Deutschland grundlegende KI-Kompetenzen besitzen, um den digitalen Wandel aktiv mitzugestalten.

Impuls 10: Ein klarer und sicherer rechtlicher Rahmen für KI und ein KI-Gütesiegel

Deutschland sollte bis 2026 einen flexiblen Rechtsrahmen für KI schaffen, der Innovation fördert, aber Missbrauch verhindert, und ein KI-Gütesiegel zur Förderung ethischer und transparenter KI einführen.

Impuls 11: Schaffung eines europaweiten KI-Ökosystems mit Deutschland als Schrittmacher

Deutschland sollte eine gestaltende Rolle beim Aufbau eines europäischen KI-Ökosystems übernehmen, um eine wettbewerbsfähige Alternative zu den USA und China zu etablieren.

Hier gibt’s mehr Infos zur Initiative "KI für Deutschland"

Meta verändert sich für Trump …

… doch was bedeutet der Wandel für die Plattform selbst und was für Influencer und Marken? Ein Kommentar von Philipp Martin, Gründer von Reachbird und Experte für Influencer Marketing im DACH-Raum.

In einer Zeit, in der soziale Medien unseren Alltag mehr denn je prägen, kündigt Meta, das Unternehmen hinter Facebook und Instagram, weitreichende Veränderungen an. Diese Entwicklungen könnten die Plattformen selbst und die Arbeit von Influencern und Marken grundlegend beeinflussen. Als Experte für Influencer Marketing analysiere ich die möglichen Auswirkungen dieser Umwälzungen.

Die Macht der sozialen Medien in Deutschland

Bevor wir uns den spezifischen Änderungen bei Meta zuwenden, lohnt ein Blick auf die derzeitige Bedeutung sozialer Medien in Deutschland. Laut aktuellen Statistiken von Meltwater (2024) nutzen mehr als 80% aller Einwohnerinnen und Einwohner in Deutschland Social Media – und das im Durchschnitt mehr als 1,5 Stunden täglich. Diese Zahlen unterstreichen die enorme Reichweite und den potenziellen Einfluss, den Plattformen wie Facebook und Instagram auf die öffentliche Meinungsbildung haben.

Metas neue Strategie: Abschied vom organisierten Faktencheck

Eine der gravierendsten Änderungen bei Meta betrifft den Umgang mit Faktenchecks. Bisher setzte das Unternehmen auf externe Organisationen, um die Richtigkeit von Informationen zu überprüfen. Nun plant Meta, ähnlich wie bei X (ehemals Twitter), auf die Schwarmintelligenz zu setzen. Meta-Gründer Mark Zuckerberg veröffentlichte ein Video, in welchem er Änderungen im Umgang mit Desinformation und Hate Speech auf seinen Plattformen ankündigte. Diese Entwicklung birgt erhebliche Auswirkungen auf den Wahrheitsgehalt der auf der Plattform geteilten Informationen. Besonders für Influencer und Marken, die auf ihre Glaubwürdigkeit angewiesen sind, entsteht eine neue Herausforderung.

Politische Implikationen

Der Übergang zu einem dezentralisierten System der Inhaltsüberprüfung könnte eine Annäherung an bestimmte politische Strömungen bedeuten. Es stellt sich die Frage, wie die Plattform und ihre Nutzer in Zukunft mit Falschinformationen umgehen werden. Diese Entwicklung könnte als eine Annäherung an die Politik der Republikaner gesehen werden, die durch die Änderungen möglicherweise begünstigt wird. Ein weiterer Aspekt der Änderungen betrifft den Umgang mit sogenannten schädlichen Inhalten. Meta plant, die Regeln in sensiblen Bereichen wie Migration oder Sexualität zu lockern. Diese Lockerung könnte zu einem Anstieg aggressiver, negativer und konfrontativer Beiträge führen. Eine stärkere Polarisierung der Plattform ist zu erwarten – ein Trend, der bereits auf anderen sozialen Netzwerken wie X zu beobachten ist.

Auswirkungen auf das Nutzerverhalten

Die mögliche Zunahme von Hassrede und polarisierenden Inhalten könnte das Nutzererlebnis auf Meta-Plattformen grundlegend verändern. Für Influencer und Marken bedeutet dies, dass sie sich möglicherweise in einem zunehmend negativen Umfeld bewegen müssen. Dies könnte nicht nur ihre Reichweite, sondern auch die Qualität ihrer Interaktionen mit Followern beeinflussen.

Trotz der potenziellen Risiken bietet die Nutzung von Schwarmintelligenz auch Chancen. Es bleibt abzuwarten, wie sich die neue Faktencheck-Strategie langfristig bewährt. Die Möglichkeit, dass jeder mitwirken kann, könnte für mehr Transparenz und schnellere, unkompliziertere Checks sorgen – ähnlich wie bei Wikipedia.

Zukünftig sollen laut Mark Zuckerberg nicht mehr autorisierte Faktenchecker für die Kontrolle sorgen, sondern die Community selbst – indem man mit Community-Notes, ähnlich wie es aktuell bei X bereits der Fall ist, auf falsche Informationen hinweisen kann. Dieser Community-Ansatz ist im ersten Moment nicht schlecht, sondern eine sinnvolle Ergänzung zu dem bestehenden System. Er wird jedoch ohne klare Moderation und ohne professionelle Faktenchecker kaum der Flut an Desinformation auf Social Media gerecht werden können. Vielmehr sollten beide Ansätze genutzt werden, um Desinformation einzudämmen.

Die Verantwortung der Plattformen in Krisenzeiten

Angesichts der bevorstehenden Wahlen und der anhaltenden globalen Krisen tragen Social-Media-Plattformen eine besondere Verantwortung. Gerade in Wahlkampf- und Krisenzeiten müssten sie eigentlich dieser Verantwortung gerecht werden. Diese Verantwortung nehmen sie jetzt nicht mehr wahr. Durch den positiven Effekt, dass über Social Media jede und jeder seine eigene Meinung kundtun und somit an demokratischen Prozessen und der Meinungsbildung uneingeschränkt teilhaben kann, gibt es auch Nachteile. Denn: Wer garantiert, dass es sich bei den veröffentlichten Inhalten um korrekte Informationen handelt? Was, wenn gezielt falsche Informationen über soziale Netzwerke gestreut werden? Gezielte Desinformation über Social Media in Verbindung mit den hohen Nutzerzahlen kann einen großen, negativen Einfluss auf unsere Gesellschaft haben.

Der europäische Kontext: Digital Services Act

Während die angekündigten Änderungen zunächst die USA betreffen, sind sie langfristig auch für den europäischen Markt relevant. Der Digital Services Act in der EU regelt den Umgang mit gezielter Desinformation. Es wird interessant sein zu beobachten, wie Meta diese Regelungen mit seinen neuen Ansätzen in Einklang bringen wird. Umso wichtiger ist es, dass von Seiten der Gesellschaft und auch von Seiten der Plattformen gewisse Regeln aufgesetzt und eingehalten werden. Einen rechtlichen Rahmen bietet in Europa der Digital Services Act, der den Umgang mit gezielter Desinformation regelt.

Auswirkungen auf die Influencer-Welt

Die Änderungen bei Meta haben zudem auch weitreichende Implikationen für die Influencer-Branche. Viele Influencer weltweit gelten als Expertinnen und Experten auf ihren Gebieten - egal ob Fitness- und Gesundheitsinfluencer, Finanzinfluencer oder auch Politikinfluencer. Mit tausenden oder gar Millionen von Abonnenten haben sie einen großen Einfluss und können – wie der Name schon sagt – beeinflussen! Bisher wurde der Content von Influencern nur sehr selten wirklich kontrolliert und eingeschränkt – dies kann durch die neuen Community-Notes auch einen positiven Einfluss auf falsch verbreitete Informationen durch Influencer haben, sofern sich die aktiven Communities der Influencer auch kritisch mit deren Content auseinandersetzen und darauf entsprechend reagieren.

Herausforderung Hate Speech

Ein besonders kritischer Punkt für Influencer ist der Umgang mit Hate Speech. Influencer sind meist täglich Hate Speech ausgesetzt. Eine Einschränkung von Hate Speech war und ist für Influencer von großem Interesse, um in einem positiven Umfeld ihre Inhalte veröffentlichen zu können. Sollte es zu einer Auflösung dieser Einschränkung kommen, so ändert sich die generelle Social Media Tonalität zum Negativen. Einen Vorgeschmack gibt hier ebenfalls die Plattform X, auf welcher es aktuell kaum Einschränkungen gibt und Hate Speech deshalb dort bereits zu einem oft negativ aufgeladenen Community-Klima führt.

Konsequenzen für Marken-Kollaborationen

Die möglichen Veränderungen im Kommunikationsklima auf Meta-Plattformen haben auch Auswirkungen auf die Zusammenarbeit zwischen Marken und Influencern. Die Ziele von Brands in der Zusammenarbeit mit Influencern liegen auf der Hand – es geht um Aufmerksamkeit, Interaktion und Abverkauf. Diese Ziele lassen sich vor allem dann erreichen, wenn das Umfeld positiv ist. Hate Speech bringt mit negativem Kommunikations-Klima auch die Ziele der Markenkommunikation in Gefahr – weshalb wir uns für positive Communities und eine Einschränkung von Hate Speech einsetzen sollten. Gleichzeitig bedeutet dies natürlich nicht, dass kritische Kommentare oder Feedback eingeschränkt werden – es geht rein um das Beschimpfen und Verunglimpfen von Social Media Nutzern.

Blick in die Zukunft: Anpassung und Verantwortung

Es bleibt abzuwarten, wie sich die aktuell angekündigten Änderungen in den USA etablieren werden und zu welchem Resultat dies führt. Für den europäischen Markt wird es vorerst keine Änderungen geben – jedoch sollte die Situation und Entwicklung von Marken, Agenturen und auch Nutzern und Influencern gut beobachtet werden.

Fazit: Eine neue Ära der digitalen Kommunikation

Die von Meta angekündigten Änderungen markieren möglicherweise den Beginn einer neuen Ära in der digitalen Kommunikation. Dieser Wandel bringt nicht nur Herausforderungen, sondern auch Chancen für Influencer und Marken mit sich, insbesondere hinsichtlich der Qualität des Contents und der Authentizität von Informationen.

Die kommenden Monate und Jahre werden zeigen, wie sich diese Veränderungen auf die Social-Media-Landschaft auswirken werden. Eines steht jedoch fest: Influencer, Marken und Nutzer müssen sich auf ein dynamischeres, möglicherweise kontroverseres Umfeld einstellen. Die Fähigkeit, sich anzupassen und verantwortungsvoll zu kommunizieren, wird mehr denn je über den Erfolg in der digitalen Welt entscheiden.

#noFilter

Fake News statt Fakten auf Social Media: Beginnt jetzt das Zeitalter der Liveblogs? Eine Einschätzung samt Tipps und To-do's von Naomi Owusu, CEO sowie Mitbegründerin von Tickaroo.

Mark Zuckerberg verkündete erst vor Kurzem, dass Meta in Zukunft ohne Fact-Checking auskommen soll. Stattdessen werden schon bald die Nutzer*innen über den Wahrheitsgehalt der Inhalte bestimmen – in einem Zeitalter von Bots und KI ist allerdings schon jetzt abzusehen, dass das nicht funktionieren wird und vermutlich auch gar nicht funktionieren soll. Die Instanzen, die bisher die Echtheit der Aussagen geprüft haben, seien nach Auffassung des Facebook-Gründers jedoch politisch nicht neutral. Fast zur selben Zeit von Zuckerbergs Ankündigung, führte ein politisch motivierter und unberechenbarer Milliardär auf seiner eigenen Plattform X ein Live-Interview mit der AfD-Vorsitzenden Alice Weidel, die in dem Gespräch zahlreiche Falschbehauptungen machte.

Diese Entwicklungen zwingen Medienschaffende sowie Leser*innen, sich 2025 ernsthaft mit den Alternativen zu Social Media zu befassen. Denn die gibt es!

1. Fakten statt Fame – Echtzeit Nachrichten durch Live-Blogs

Das schwindende Vertrauen in die klassischen Medien sorgte in der Vergangenheit dafür, dass sich Leser*innen über Facebook, Twitter und Co. informierten. Doch die zunehmende Verbreitung von Fake News in den sozialen Netzwerken fordert andere Kanäle, die genauso schnell und persönlich informieren, aber gleichzeitig den Wahrheitsgehalt sicherstellen. Live-Blogs sind für Journalist*innen ein ebenso unmittelbarer Weg zu ihrer Zielgruppe. Hier können sie sich transparent und menschlich präsentieren, indem sie ihr Publikum näher in den Entstehungsprozess der Geschichten hinter den Schlagzeilen einbeziehen. Durch Dialoge und Engagement können sie eine Bindung zur Leserschaft aufbauen. Videos, die ihre Arbeit zeigen, machen sie nahbarer und vertrauenswürdiger. Transparenz, etwa durch Erklärungen zur Quellenprüfung oder zur Verifizierung von Informationen, baut Glaubwürdigkeit auf, bekämpft Desinformation und stärkt das Verhältnis zwischen Medien und Öffentlichkeit – und gerade das wird in 2025 entscheidend sein.

2. Entertainment im Micro-Content für Macro-Erfolg

Kurzvideos sind nicht erst seit der Einführung von TikTok beliebt, doch die Plattform hat den Trend weiter angefacht und ihre Popularität ist ungebrochen. Nachrichtenportale müssen in 2025 verstärkt auf dieses Format setzen, um insbesondere junge Leser*innen als treue Konsument*innen zu gewinnen. Allerdings können Medienschaffende noch einen Schritt weiter denken, hin zu interaktiven Mikro-Inhalten, die den Bedürfnissen nach Inspiration, Ablenkung und Verbindung gerecht werden. Dynamische Live-Blog-Formate wie Q&As, Umfragen, Kommentare und Reaktionen ermöglichen Echtzeit-Interaktionen. Sie können mit Live-Updates kombiniert und in den sozialen Netzwerken geteilt werden. Dadurch gewinnen Nachrichtenorganisationen die Aufmerksamkeit der Nutzer*innen und bleiben im Wettbewerb mit Social Media konkurrenzfähig.

3. Video Killed the Radio Star und Mobile das TV!

Fernsehen ist so 90er-Jahre! Die Mehrheit der Konsument*innen liest ihre Nachrichten über das Smartphone. Eine Ausrichtung auf mobile, responsive Designs ist also auch in 2025 entscheidend. Wer darüber hinaus ein „Second-Screen-Erlebnis“ ermöglicht, bietet durch Echtzeit-Statistiken, Analysen oder Hintergrundberichte ein immersives Erlebnis für Nutzer*innen und damit einen Mehrwert für ihr Seherlebnis. Gerade für Nachrichtenformate, Event- und Sportberichterstattung wird dieses Feature immer wichtiger.

4. KI im Newsroom: Zwischen Skepsis und Effizienz

Das Thema künstliche Intelligenz (KI) ist noch lange nicht erledigt, doch gerade Journalist*innen haben Bedenken hinsichtlich der Nutzung. Während KI-generierte Inhalte für viele Medienschaffende und ihr Publikum noch außerhalb der Komfortzone liegen, wird die Technologie zunehmend in Bereichen wie Übersetzungen, Überschriften- und Social-Media-Zusammenfassungen sowie Datenanalysen eingesetzt. Denn sie kann Lücken in Geschichten identifizieren, Verbesserungen vorschlagen, Texte korrekturlesen und den Tonfall an verschiedene Zielgruppen anpassen. In Kombination mit Tracking-Funktionen kann KI zudem den optimalen Veröffentlichungszeitpunkt und relevante Themen oder Formate bestimmen. Damit wird sie die Arbeitsprozesse in Nachrichtenredaktionen effizienter gestalten und Redakteur*innen den Freiraum geben, sich auf die Erstellung authentischer, leserzentrierter Inhalte zu fokussieren.

5. Näher dran durch hyperlokale Inhalte

In einem wettbewerbsintensiven Umfeld ist das Verständnis für die eigene Zielgruppe essenziell. Durch maßgeschneiderte Inhalte können Medienorganisationen stärkere Bindungen aufbauen und gleichzeitig ihre Reichweite vergrößern. Lokale Zeitungen haben es in der digitalen Ära schwer, da sie Werbekunden an Plattformen wie Google oder Facebook verlieren und ihr Publikum zunehmend auf Nischenangebote umsteigt. Dennoch wird die Nachfrage nach hyperlokalen Inhalten weiter wachsen, da die Meldungen die Menschen vor Ort einbeziehen und dem Publikum das Gefühl geben, gesehen zu werden. Insbesondere die Sportberichterstattung ist ein strategisches Asset für Medienschaffende, da sie die starke Verbindung der Fans zu heimischen Teams nutzt, um persönliche Beziehungen zu Leser*innen aufzubauen. Die so geschaffenen Inhalte können das Vertrauen der Leserschaft zurückgewinnen und lokale Bindungen stärken. Dieser Ansatz gilt allerdings nicht nur für Sport. Medien, die gezielt kleinere, spezifische Gruppen ansprechen und deren Leben sowie Begeisterung widerspiegeln, können ihre Reichweite erhöhen und Abonnementmodelle fördern. Während aktuelle Nachrichten ein breites Publikum anziehen, sorgen Nischeninhalte für langfristiges Interesse.

Die Nachrichten der Zukunft sind transparent

In einer Zeit, in der Falschinformationen auf Social Media den Diskurs prägen, gewinnen alternative Nachrichtenformate an Bedeutung. Live-Blogs sind schon lange, aber insbesondere in 2025, eine Alternative, um Echtzeit-News mit Transparenz und Nähe zu verbinden. Sie ermöglichen es Journalist*innen, authentisch zu berichten, den Entstehungsprozess ihrer Inhalte nachvollziehbar zu machen und ihre Leserschaft aktiv einzubeziehen. Durch Dialog und Interaktion können Medienhäuser ihre Glaubwürdigkeit stärken und Loyalität aufbauen. Statt Likes und viralen Trends stehen hier Fakten, Vertrauen und die Nähe zum Publikum im Mittelpunkt – und genau das braucht ein moderner Journalismus.

Die Autorin Naomi Owusu ist CEO und Co-Founder von Tickaroo, eine Live Blog-Plattform für Text- und Multimedia-Inhalte. Seit der Gründung 2011 setzt sich die studierte Psychologin mit ihrem Team für den Ausbau des Produktportfolios und die Optimierung des Live-Content-Tools ein.

Was gehört in eine KI-Policy?

Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routine­aufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.

Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.

Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.

Generative KI schert sich, wenn wir als Nutzer*innen nicht da­rauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.

Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.

Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.

Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.

1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz

Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:

  • Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
  • Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
  • Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
  • Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
  • Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.


2. Richtlinien für die Entwicklung und Implementierung von KI

Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.

  • Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien fest­legen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
  • Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
  • Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
  • Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
  • Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-­KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
  • Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehler­behebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.


3. Übergreifende Ziele und Vorgaben einer KI-Policy

Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.

  • Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
  • Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Ins­trument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
  • Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.

Fazit

Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.

Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com

HR-Trends 2025

Fünf HR-Expert*innen geben ihre persönlichen Einblicke in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.

Personalführung und Human Ressources müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder demografischer Wandel und Fachkräftemangel. Die HR-Verantwortlichen von ToolTime, Ella Media, Kenjo, Family Office 360grad AG und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

riprip: EXIST-Team entwickelt Mobile Games als innovatives Serienformat

Das aus der Kunsthochschule Kassel stammende Gründungsteam riprip entwickelt ein innovatives Mobilegame-Genre, das auf typische Glücksspielmechanismen und weitere dark patterns verzichtet. Seit Oktober 2024 wird das Team im Rahmen des 12-monatigen EXIST Gründungsstipendiums bei der Umsetzung seines innovativen Geschäftskonzepts mit insgesamt 139.300 Euro unterstützt.

Als Folge der immer kürzer werdenden Aufmerksamkeitsspannen – insbesondere beim jüngeren Publikum – konkurruieren die traditionellen Videospiele zusehends mit Kurzform-Content auf Social Media, wie Tiktok, Instagram Reels und Youtube Shorts.

Die einzige Alternative, die die Games-Branche bisher anbietet, sind typische Mobilegames aus dem App Store. Diese sind in der Regel mit Glücksspielmechanismen und weiteren „dark patterns“ (manipulativen Mechanismen) verbunden und bieten als einfache Gelegenheitsspiele auch nur selten einen sozial-kulturellen Mehrwert.

Das Gründungsteam riprip entwickelt ein innovatives Mobilegame-Genre, das auf typische Glücksspielmechanismen und weitere dark patterns verzichtet. Als Pilotprojekt produziert riprip aktuell bereits die erste Staffel (10 Folgen) der Spieleserie „Terminal Crossing“ (Arbeitstitel), eine satirische Dekonstruktion des populären Cozy-Game-Genres. Die Spieleserie für mobile Geräte soll im regelmäßigen Rhythmus auf Social Media erscheinen. Die Pilotspielserie dient darüber hinaus dem Aufbau einer eigenen Community, die sich mit dem neuen Genre in einem hohen Maß identifiziert. Schließlich entwickelt das Team im Rahmen der Förderlaufzeit eine eigene Spiel-Engine, die die Entwicklung von Mobilegames erleichtert und Entwicklungsbarrieren abbaut.

„Wir stellen uns eine Welt vor, in der jede(r) Games-Macher*in sein kann“, so Robin Vehrs, Mitglied im ripip-EXIST Team. Das Gründungsteam, bestehend aus Robin Vehrs, Nico Fiona Brauer, Christoph Schnerr und Hannes Drescher, vereint Kompetenzen aus dem Studium der Visuellen Kommunikation an der Kunsthochschule, mit Erfahrungen im Projekt-, Finanz- und Communitymanagement.

Als EXIST Mentor unterstützt Prof. Joel Baumann, ehemaliger Rektor und Leiter des Fachbereichs Neue Medien an der Kunsthochschule, das Team mit seiner Expertise und seinem Netzwerk. Der Studienschwerpunkt Neue Medien wurde Ende 2003 im Studiengang Visuelle Kommunikation an der Kunsthochschule Kassel etabliert. „Das Studium der neuen Medien bedeutet eine künstlerische oder gestalterische Auseinandersetzung mit Technologien einzugehen. Es gilt zukünftige Infrastrukturen zu erforschen und zu entwickeln, hierbei Irrwege zu akzeptieren und daraus zu lernen. Studierende sind aufgefordert, Technologiebegeisterung kritisch zu hinterfragen, zu reflektieren und in theoretischen und gesellschaftlichen Diskursen neu zu verhandeln“, so Baumann.

EXIST ist ein Förderprogramm des Bundesministeriums für Wirtschaft und Energie. Ziel ist es, das Gründungsklima an Hochschulen und außeruniversitären Forschungseinrichtungen zu verbessern. Darüber hinaus sollen die Anzahl und der Erfolg technologieorientierter und wissensbasierter Unternehmensgründungen erhöht werden. Bisher konnten bereits rund 50 Projekte der Universität Kassel durch das EXIST-Förderprogramm unterstützt werden. Die Fördersumme umfasst Personal-, Sach- und Coachingmittel. Betreut werden die Teams vom UniKasselTransfer Inkubator, der zentralen Gründungsförderung der Universität Kassel. Der Inkubator begleitet Nachwuchswissenschaftler*innen, Mitarbeitende, Studierende und Alumni der Universität Kassel und der Kunsthochschule mit einem weitreichenden Unterstützungsangebot in der Phase von der Ideenfindung bis zur Gründung.