Aktuelle Events
Die Testbirds im App-Flug
Software-Crowdtesting
Das junge Start-up Testbirds bietet Software-Tests für neue Apps und Webanwendungen. Das Besondere daran: Mit Hilfe echter Internet-Nutzer, die die Software unvoreingenommen prüfen, werden vor dem Markteintritt Fehler gefunden und damit die Produkte verbessert.
Die Idee der App ist sehr cool." "Das drehen der Symbole ist super gemacht!" "Sehr große Auswahl an verschiedenen Designs und Gestaltungsmöglichkeiten." Derartiges Lob ist gern gesehenes Feedback für den Herausgeber einer App. Was aber, wenn die Bewertungen im Store weniger positiv oder gar vernichtend ausfallen? "Die App hat sehr viele Bugs! Ich habe mein Vertrauen in diese App so gut wie komplett verloren." Im hart umkämpften App-Markt können solche Rezensionen den Todesstoß bedeuten. Das junge Münchner Start-up Testbirds bietet Entwicklern seit Ende 2011 die Möglichkeit, ihr Produkt bereits vor dem Release von echten Nutzern testen zu lassen.
Crowdtesting via Internet
"In der Realität verhalten sich die Menschen oft ganz anders, als man es eigentlich erwarten würde", erklärt Philipp Benkler, der bei Testbirds für die Entwicklung der Plattform zuständig ist. "Das trifft natürlich auch auf die Nutzung von Software zu." Zusammen mit Georg Hansbauer und Markus Steinhauser bietet er einen Service, der für viele Unternehmen und Entwickler noch ein Fremdwort ist: Crowdtesting. "Herkömmliche Testing-Methoden von Software können den Bedarf einfach nicht mehr decken", weiß auch Georg Hansbauer, der während seines Studiums selbst Erfahrung in der Qualitätssicherung großer Unternehmen gesammelt hat. "Durch die ständig steigende Anzahl unterschiedlicher Geräte, Betriebssysteme und Versionen wird es zudem immer schwieriger, Kompatibilität auf allen Systemen zu gewährleisten."
Testbirds hat den Ansatz des Crowdsourcing, also das Nutzen der Arbeitskraft der Masse über das Internet, auf das Testen von Software übertragen. "Im Prinzip kann sich jeder bei uns als Tester registrieren", erklärt Markus Steinhauser, der im Team für den Bereich Marketing und PR verantwortlich ist. "Mit dem Computer, Smartphone oder Tablet lässt sich so, ganz einfach von der Couch aus, etwas Geld hinzuverdienen." Die Tester suchen Bugs und geben Feedback zur Benutzerfreundlichkeit des Produkts. Anhand detaillierter Profile ist es möglich, die Meinung bestimmter Zielgruppen einzuholen, bevor die App auf den Markt kommt.
Und so funktioniert das Crowdtesting: Jedem Projekt wird ein eigener Projektmanager, der sogenannte Birdmaster, zugeordnet. Er koordiniert die Tester, kontrolliert die Berichte und arbeitet eng mit dem Kunden zusammen. "Wir versuchen, jedes Projekt so individuell wie nur möglich zu gestalten", so Philipp Benkler weiter. "Wer soll testen? Was soll getestet werden und vor allem, mit welchen Geräten? Diese Fragen gilt es vorab zu klären." Qualität spielt nach Ansicht des Teams dabei die entscheidende Rolle. Vor allem in Deutschland sei dieser Faktor, genau wie ein enger Kundenkontakt, extrem wichtig. Ein weiterer Vorteil ist die hohe Flexibilität der Tester. Nach dem Briefing mit dem Kunden kann ein Projekt bereits innerhalb weniger Stunden starten.
Die Kraft der Masse macht’s
Neben Apps kann somit alles getestet werden, was über das Internet zugänglich ist. "Das sind vor allem Onlineshops und ganz normale Webseiten", erklärt Georg Hansbauer. Die eigene Plattform zur Abwicklung der Tests hat das Team innerhalb weniger Wochen selbst entwickelt. Dort erstellen die Tester ihre Berichte, erfassen Bugs und geben auch Rückmeldung an die Testbirds. "Manchmal fehlt ein bestimmtes Smartphone zur Auswahl, oder die Tester haben Verbesserungsvorschläge. Dadurch profitieren auch wir durch die Kraft der Masse", erklärt Markus Steinhauser. Aber auch Kunden können sich im Nest, wie die Testbirds ihre Plattform nennen, einloggen. Dort lassen sich alle angenommenen Berichte und Bugs, inklusive Screenshots oder Screencasts, einsehen und herunterladen. "Der Bedarf ist auf jeden Fall vorhanden", ist sich Philipp Benkler sicher. "Unsere Kunden reichen bereits jetzt von Start-ups über Agenturen bis hin zu Großunternehmen."
Hilfe von friends and family
Während ihres gemeinsamen Studiums des Finanz- und Informationsmanagements in München und Augsburg hatten Philipp und Georg bereits die Gelegenheit, Erfahrungen im Bereich der Softwareentwicklung zu sammeln. Doch wer testet, wenn nicht genügend Zeit und Geld vorhanden ist, um es selbst zu machen? "Das waren zuerst mal Freunde und Verwandte", schmunzelt Philipp Benkler. "Aber auch Großunternehmen haben oft dasselbe Problem. Der Entwickler kennt seine Software auswendig. Und Praktikanten können nicht alles alleine testen."
Testbirds sieht Software-Testing durch die Crowd daher als ideale Ergänzung zum internen Testen. Unveröffentlichte Apps werden über die Plattform direkt an die Tester verteilt. "Ein neues Spiel vorab ausprobieren zu können, das schafft natürlich auch für die Tester einen besonderen Anreiz", so Markus Steinhauser. Nach seinem Studium der Medien- und Kommunikationswissenschaft in der Schweiz arbeitete er für einige Zeit als Journalist, bevor sein Schulfreund Philipp mit der Idee auf ihn zukam. "Seitdem kann ich meine persönliche Begeisterung für neue Medien und soziale Netzwerke bei Testbirds ausleben."
Startfinanzierung aus eigener Hand
Um sich neben der obligatorischen Recherche einen eigenen Eindruck über den Markt in Deutschland zu verschaffen, befragten die Gründer knapp 300 Entscheider aus dem Bereich Softwareentwicklung zum Thema Testing. Die nötigen Kontakte lieferte das Business-Netzwerk Xing. "Spätestens zu diesem Zeitpunkt war uns klar, dass die aktuelle Situation auch aus Sicht der Entwickler keinesfalls zufriedenstellend ist", blickt Georg Steinhauser zurück. Aus den Ergebnissen wurde eine Info-Broschüre zum Stand des Testings in Deutschland erstellt. "Außerdem hatten wir dadurch bereits eine große Anzahl an potenziellen Kunden, die natürlich alle ein Exemplar bekommen haben", schildert Georg Steinhauser die erste Vertriebsmaßnahme des Unternehmens. Rasch wuchs das Team auf knapp zehn Personen an. Ein Projektteam arbeitete an neuen Vertriebskonzepten, weitere Studenten kümmerten sich um die telefonische Kundenakquise und das Marketing. "Da wir bereits nach kurzer Zeit Umsatz machen konnten, hat das gut funktioniert", erklärt Philipp Benkler.
Auszeichnung, Finanzierung, Wachstum
Beim Münchener Businessplan Wettbewerb im Jahr 2012 wurde Testbirds für sein Geschäftsmodell mit dem dritten Platz ausgezeichnet und war Preisträger des Gründerwettbewerb ITK Innovativ. "Vor allem hier in Bayern hat uns die Teilnahme am Gründerwettbewerb hohe Aufmerksamkeit beschert", freut sich Markus Steinhauser. "Erst kürzlich wurden wir durch unseren damaligen Sieg wieder zu einer Gründerveranstaltung als Redner eingeladen". Im Oktober dieses Jahres gewann das Team außerdem den Best of Mobile Award in der Kategorie Special B2B und setzte sich dabei unter anderem gegen Firmen wie die Deutsche Post durch, deren App DocWallet von Testbirds getestet wurde.
Noch im im Jahr 2013 konnten die Gründer einen privaten Investor für sich gewinnen. Die Walter Beteiligungen und Immobilien AG investierte einen siebenstelligen Betrag in das Unternehmen, hauptsächlich, um das Team auszubauen und schnelleren Wachstum zu ermöglichen. Angestoßen durch diese Finanzierung beschäftigt Testbirds mittlerweile mehr als 25 Mitarbeiter und arbeitet aktuell an der Internationalisierung mit Zweigstellen in Großbritannien und den Niederlanden. "Beide Märkte bieten innerhalb Europas besonders großes Potenzial für Crowdtesting", meint Philipp Benkler, der mittlerweile für die Internationalisierung zuständig ist. "Unter anderem waren geringe Sprachbarrieren sowie die jeweils überdurchschnittlich hohe Smartphone-Penetration ausschlaggebend", so seine Begründung.
Außerdem ist seit September dieses Jahres ein Franchise-Unternehmen in Ungarn am Markt, welches dort Crowdtesting unter der Marke Testbirds anbietet. "Um ehrlich zu sein war dieser Schritt nicht wirklich geplant", verrät Georg Hansbauer. "Wir haben die Kollegen aus Budapest bei der Communication World kennengelernt. Sie waren so begeistert von unserem Konzept, dass schon ein halbes Jahr später der Franchise-Vertrag unter Dach und Fach war."
Crowdtesting mit enormem Potenzial
Mittlerweile zählen Unternehmen wie die Deutsche Post, Allianz SE oder Audi zu den Kunden von Testbirds. "Crowdtesting hat sich in den letzten beiden Jahres zu einem festen Begriff in der Branche entwickelt", sagt Markus Steinhauser, der sich weiterhin um die Öffentlichkeitsarbeit bei Testbirds kümmert. Trotzdem bestehe immer noch viel Bedarf an Aufklärung über die Möglichkeiten dieses Konzepts. "Wir arbeiten daran!", so Steinhauser. Inhaltlich hat sich das Portfolio des Start-ups weiterentwickelt, nicht nur durch den Relaunch der eigenen Plattform Ende letzten Jahres. "Der Markt entwickelt sich vor allem im mobilen Bereich sehr schnell, als junges Unternehmen können wir uns zum Glück sehr viel Flexibilität erlauben", meint Benkler.
Zum Beispiel haben Kunden nun die Möglichkeit, einen Self-Service nutzen um kleinere Testläufe kurzfristig selbst zu starten. Vor allem im Usability-Bereich betreut Testbirds die Tests weiterhin selbst und wertet die Ergebnisse am Ende, inklusive Handlungsempfehlungen, aus. "Jeder Kunde hat unterschiedliche Anforderungen an unseren Service, um diesen in die eigene Entwicklung zu integrieren", so Hansbauer. Daher habe sich das Portfolio mittlerweile deutlich erweitert.
Testpartner der STARTplaner-App
Auch StartingUp profitierte vom Experten-Know-how von Testbirds. Im Herbst 2013 hat StartingUp seinen kostenlosen STARTplaner veröffentlicht - die App, die Gründer Schritt für Schritt auf dem Weg zur erfolgreichen Selbständigkeit begleitet. Die überaus positiven Download-Zahlen zeigen eindrucksvoll, dass dieses Planungs-Tool für Gründer sehr gut ankommt. Dies bestätigen auch die Testbirds, die den STARTplaner mit Hilfe einer jungen, gründungsaffinen Zielgruppe auf Herz und Nieren geprüft haben.
"Wir hätten uns zum Start selbst so eine App gewünscht", meint Markus Steinhauser. "Daher war es schön, dass wir unseren Teil zur Optimierung beitragen konnten." Teil des Tests war sowohl das Sammeln von Feedback der Nutzer als auch die Suche nach technischen Problemen auf unterschiedlichen Geräten.
Mehr zum Test und zu den Ergebnisse lesen Sie hier.
Und wohin fliegen die Testbirds?
Die Herausforderungen liegen für Testbirds momentan vor allem in der Internationalisierung. Für die Erweiterung und Betreuung der Tester-Crowd ist seit Anfang des Jahres ein dedizierter Community Manager eingestellt worden. Monatlich kommen nach eigenen Angaben mehrere tausend Tester aus unterschiedlichen Ländern hinzu. "Auch das Recruiting unserer internen Mitarbeiter ist deutlich internationaler geworden", sagt Steinhauser. Der Aufbau des Teams sei sicherlich eine der größten Herausforderungen im Moment, sind sich die Gründer einig. "Man muss einfach akzeptieren, dass die eigene Produktivität irgendwann abnimmt", erklärt Benkler. "Dafür werden wir als Team aber immer besser". Für das kommende Jahr steht damit einhergehend vor allem das Vorantreiben der Internationalisierung auf der Agenda.
"Inhaltlich wird es ebenfalls spannend", freut sich Hansbauer. "Im Consumer-Bereich dringen Apps in sämtliche Bereiche unseres Alltags vor. Außerdem erkennen Unternehmen zunehmend die Möglichkeiten interner Applikationen, zum Beispiel für die eigenen Mitarbeiter." Ab Januar zieht es die Testbirds dann in ein neues Nest. Die neuen Büros in der Nähe der Münchner Theresienwiese sollen genug Platz bieten, um auch 2014 weiter wachsen zu können.
Diese Artikel könnten Sie auch interessieren:
So schafft KI neue CEO-Realitäten
Künstliche Intelligenz (KI) ist in der Führungsebene angekommen, doch welche Konsequenzen hat das für CEOs? Eine Studie enthüllt Eingeständnisse deutscher und internationaler CEOs zum Thema KI.

Der aktuelle „Global AI Confessions Report: CEO Edition" der KI-Plattform Dataiku enthüllt Eingeständnisse deutscher und internationaler Führungskräfte, die hinsichtlich KI einer neuen Realität gegenüberstehen. Wichtige Insights aus der Studie:
- 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.
- 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
- Mit 62 Prozent bzw. 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit von KI geht.
- 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.
Für die Studie, die von The Harris Poll durchgeführt wurde, wurden im Januar und Februar 2025 über 500 CEOs in den USA, Großbritannien, Frankreich und Deutschland befragt. Die Unternehmen der insgesamt 100 befragten deutschen CEOs rangieren bei einem Jahresumsatz von mehr als 250 Millionen Euro und eine Unternehmensgröße von mehr als 500 Mitarbeitenden.
Der Bericht enthüllt: Die KI-Strategie ist zum entscheidenden Faktor für das Überleben von Unternehmen geworden. Die Ergebnisse belegen zudem, dass die Konsequenzen des Einsatzes von KI auch auf höchster Entscheiderebene angekommen sind.
KI kommt im Vorstand an
Laut Aussagen deutscher Geschäftsführer stellt KI die Rolle der Entscheidungsfindung auf Vorstandsebene zunehmend in Frage. Zu den wichtigsten Ergebnissen gehören:
- 93 Prozent der deutschen CEOs sind der Meinung, dass sie davon profitieren würden, ein aktuelles Vorstandsmitglied durch einen KI-Experten zu ergänzen oder zu ersetzen.
- 95 Prozent der deutschen CEOs geben zu, dass ein KI-Agent bei Geschäftsentscheidungen einen gleichwertigen oder besseren Rat geben könnte als ein menschliches Vorstandsmitglied.
KI-Strategie: Übernahme von Kernkompetenzen
Auch auf den darauf folgenden Rängen zeichnet sich ab, dass Künstliche Intelligenz das Berufsprofil der Führungsebene deutlich wandeln kann:
- 90 Prozent der deutschen CEOs sind der Meinung, dass KI einen besseren Strategieplan entwickeln kann als ein Mitglied ihres Führungsteams (Vizepräsidenten bis zur Vorstandsebene).
- 49 Prozent der CEOs deutscher Unternehmen schätzen, dass sie 3–4 Teammitglieder durch KI ersetzen könnten, um strategische Planung zu betreiben. Ganze 13 Prozent gaben an, dass sie sogar 7 oder mehr Führungskräfte für die gleiche Aufgabe ersetzen könnten.
Keine KI-Strategie ist allerdings auch keine Antwort, denn
- 69 Prozent der deutschen CEOs glauben, dass eine gescheiterte KI-Strategie oder eine KI-induzierte Krise dazu führen wird, dass ein CEO bis Ende 2025 aus dem Amt gedrängt wird.
- 76 Prozent der deutschen CEOs sind der Meinung, dass sie Gefahr laufen, ihren Job zu verlieren, wenn sie nicht innerhalb von 2 Jahren messbare KI-getriebene Geschäftsgewinne erzielen.
KI als Kernkompetenz zukünftiger CEOs
Führungskräfte müssen sich laut der Umfrage auf dem Jobmarkt zukünftig anders aufstellen. KI-Kompetenz gilt als “Must-Have”, was auch aus dem Berufsalltag deutscher CEOs hervorgeht.
- 31 Prozent der deutschen CEOs sind der Meinung, dass Erfahrung in der Umsetzung einer erfolgreichen KI-Strategie oder deren Implementierung in 3–4 Jahren eine der wichtigsten Kompetenzen sein wird, nach denen Vorstände bei der Bewertung eines potenziellen Geschäftsführers suchen werden.
- 82 Prozent der deutschen CEOs geben an, dass ihre direkte Beteiligung an KI-bezogenen Entscheidungen im vergangenen Jahr zugenommen hat.
- 70 Prozent der deutschen CEOs geben an, an mehr als der Hälfte der KI-Entscheidungen ihres Unternehmens beteiligt zu sein.
Die „KI-Commodity-Falle“ und KI-Washing: Blinde Flecken der Geschäftsführung
Trotz zunehmender Abhängigkeit von KI sind sich viele CEOs der Gefahren schlecht umgesetzter KI-Strategien in gefährlicher Weise nicht bewusst.
- 87 Prozent der CEOs tappen weltweit in die „KI-Falle“ und sind zuversichtlich, dass KI-Standardagenten genauso effektiv sein können wie maßgeschneiderte Lösungen für hochgradig nuancierte vertikale oder domänenspezifische Geschäftsanwendungen.
- CEOs deutscher Unternehmen gehen im internationalen Vergleich mit 39 Prozent am ehesten davon aus, dass es bei eigenen KI-Initiativen mehr um die Optik als um die Wirkung geht. Dieser Umstand nennt sich auch “AI Washing” und zielt darauf ab, KI-Innovation vorzuspielen, anstatt einen bedeutenden Mehrwert zu schaffen.
Worauf deutsche CEOs allerdings vergleichsweise viel Wert legen, sind Kostenkontrolle und Skalierbarkeit von KI-Lösungen. Mit 66 Prozent rangieren deutsche CEOs unter allen globalen CEOs (62 Prozent) an der Spitze, wenn es um die Messung von Kosten- und Ressourcenanforderungen und Skalierbarkeit als Kernattribute innerhalb ihres Rahmens für die regelmäßige Bewertung der Effektivität von KI-Analysen, -Modellen und -Anwendungen geht.
KI-Governance und regulatorische Unsicherheit
Während sich die Einführung von KI beschleunigt, schaffen schlechte Governance und regulatorische Unsicherheit erhebliche Hindernisse:
- 25 Prozent der deutschen CEOs geben an, dass sich ein KI-Projekt aufgrund regulatorischer Unsicherheiten verzögert hat, während 35 Prozent zugeben, dass ein Projekt aus solchen Umständen abgebrochen oder aufgegeben wurde.
- 78 Prozent der deutschen CEOs sind der Meinung, dass EU-Vorschriften die KI-Nutzung in ihren Organisationen verlangsamen könnten.
- 94 Prozent der CEOs vermuten weltweit, dass Mitarbeitende GenAI-Tools wie ChatGPT, Claude und Midjourney ohne Genehmigung des Unternehmens verwenden (bekannt als „Schatten-KI“) und damit ein massives Governance-Versagen innerhalb von Organisationen aufdecken.
Den vollständigen „Global AI Confessions Report: CEO Edition“ findest du hier
Acrylic Robotics: die Zukunft des Kunstmarkts?
Die Gründerin und Künstlerin Chloë Ryan will mit Acrylic Robotics den Kunstmarkt neu definieren: Mithilfe eines Roboterarms, der Gemälde Pinselstrich für Pinselstrich rekonstruiert, schlägt das Start-up die Brücke zwischen traditioneller Kunst und moderner Technologie, um Kunstwerke einem breiten Publikum zugänglich zu machen.

Kunst skalierbar machen
Die in Montreal ansässige Acrylic Robotics-Gründerin und CEO Chloë Ryan, selbst Künstlerin, hatte die Idee aus einer persönlichen Erfahrung heraus. Ein Gemälde zu schaffen, erfordert viel Zeit; und am Ende kann das Werk nur einmal verkauft werden. Inspiriert von der Skalierbarkeit der Musik- und Buchbranche entwickelte Chloë Ryan ein Konzept, mit dem Kunstwerke präzise reproduziert werden können – ohne an Qualität oder künstlerischem Anspruch zu verlieren. Gemeinsam mit Walker Singleton, Head of Engineering des Start-ups, entstand so ein interdisziplinärer Ansatz, der Robotik, Softwareentwicklung und mechanische Präzision vereint.

Der Roboter: Präzision in jedem Pinselstrich
Das Herzstück von Acrylic Robotics ist ein Roboterarm, der Gemälde detailgetreu reproduzieren kann. Der Prozess unterscheidet sich je nach Ursprung des Kunstwerks. Digitale Kunstwerke, die auf einem Tablet oder Computer erstellt wurden, können direkt an den Roboter übermittelt werden, da Daten wie Pinselrichtungen, Druckstärke und Farbwahl bereits digital vorliegen. Analoge Gemälde erfordern hingegen eine zusätzliche Analyse. Hier kommt ein speziell trainiertes KI-Modell zum Einsatz, das die wesentlichen Parameter berechnet, um eine möglichst präzise Reproduktion zu erzielen. Besonders wichtig ist es Acrylic Robotics, den Künstler kontinuierlich in den Prozess einzubeziehen. Es geht nicht darum, den kreativen Schaffensprozess zu ersetzen, sondern ihn zu ergänzen und weiterzuentwickeln.
Kunst für alle: Ein Service für Künstler und Käufer
Acrylic Robotics bietet seine Technologie Künstlern als Dienstleistung an. Über die Website können Künstler eine Zusammenarbeit anfragen, bei der ihre Werke in limitierter Auflage reproduziert werden. Käufer erhalten dadurch hochwertige Acrylreproduktionen, ohne den Wert des Originals zu schmälern. Das Konzept verbindet Exklusivität mit breiterer Zugänglichkeit und positioniert sich als innovative Lösung im Kunstmarkt.
Europäisches KI-Gesetz in Kraft getreten
Der AI Act ist am 2. Februar 2025 in Kraft getreten und gilt für alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen. Bei Nichteinhaltung drohen Geldbußen.

Künstliche Intelligenz (KI) entwickelt sich rasant und findet in immer mehr Bereichen, auch in Unternehmen, Anwendung. Deshalb schafft Europa mit dem AI Act einen einheitlichen Rechtsrahmen, den alle europäischen Unternehmen einhalten müssen.
Nicht allen Arbeitgebenden ist bewusst, dass die europäische Verordnung bereits in Kraft getreten ist. Sie gilt für jede Organisation – unabhängig von ihrer Größe – und ist verbindlich. Das Gesetz betrifft somit alle Unternehmen und Organisationen mit Angestellten, die KI im Auftrag des Unternehmens nutzen, unabhängig vom Beschäftigungsverhältnis. Europa überlässt einen Teil der Durchführung und Umsetzung des KI-Gesetzes den Mitgliedstaaten selbst – ebenso wie die Verhängung von Geldbußen bei Nichteinhaltung. Die konkrete Höhe dieser Bußgelder wird erst am 2. August 2025 feststehen. Dennoch sollten Unternehmen ab dem 2. Februar lieber gut aufgestellt sein, da die Bußgelder auch rückwirkend in Kraft treten können.
Verbindliche KI-Policy und adäquate KI-Kompetenzen
Unternehmen sind dafür verantwortlich, dass ihre Belegschaft über ausreichende KI-Kenntnisse verfügt. Dabei ist es nicht erforderlich, dass jeder Mitarbeitende umfassendes Wissen über KI besitzt. Es muss sichergestellt werden, dass alle Mitarbeitenden, die mit KI-Systemen arbeiten, über die notwendigen Kenntnisse und Fähigkeiten verfügen. So können sie informierte Entscheidungen treffen und potenzielle Risiken erkennen. Dazu gehören alle Mitarbeiter*innen, die mit KI-Systemen arbeiten – vom Anbietenden bis zum/zur Endnutzer*in – und erstreckt sich also nicht nur auf IKT-Fachleute in Unternehmen.
Das KI-Gesetz legt nicht genau fest, welche Maßnahmen Arbeitgebende ergreifen müssen, damit alle beteiligten Personen ausreichende KI-Kenntnisse erwerben. Arbeitgebende sollten daher nicht nur die technischen Kenntnisse, Erfahrungen, Ausbildungen und Fortbildungen der Mitarbeitenden berücksichtigen, sondern auch den Kontext, in dem die KI-Systeme genutzt werden, sowie die betroffenen Personen oder Personengruppe.
Arbeitgebende können selbst entscheiden, welche Kenntnisse und Fähigkeiten ihre Mitarbeitenden benötigen und wie sie diese angeeignet werden können. Mögliche Maßnahmen sind allgemeine KI-Schulungen, die Grundkenntnisse vermitteln und auf verschiedene Zielgruppen zugeschnitten sein können. Dabei kann es sich um spezifische Schulungen handeln, die sich auf bestimmte Tools und Anwendungen konzentrieren, aber auch um die Zusammenarbeit zwischen juristischen und technischen Teams.
Arbeitgebenden wird empfohlen, eine KI-Policy mit klaren Richtlinien für den Einsatz von KI im Unternehmen zu erstellen. Darin kann festgehalten werden, welche Anwendungen von wem und auf welche Weise genutzt werden dürfen. In dieser Richtlinie kann der Arbeitgebende auch Hinweise darauf geben, wie die Mitarbeitenden ausreichend mit KI vertraut bleiben können. Wie wird zum Beispiel vorgegangen, wenn sich im Unternehmen oder bei den Tools etwas ändert? KI-Kompetenz ist schließlich nichts Statisches. Wenn ein(e) Mitarbeiter*in die Rolle wechselt, oder wenn die eingesetzten Tools sich ändern, muss der Arbeitgebende sicherstellen, dass die betreffende Person weiterhin über ausreichende KI-Kenntnisse verfügt.
Verbotene bestimmter KI-Systeme
Zum anderen verbietet der AI Act ab dem 2. Februar 2025 den Einsatz von KI-Systemen, die gegen europäische Normen und Grundwerte verstoßen, indem sie beispielsweise Grundrechte missachten. Darunter fallen auch KI-Systeme für Social Scoring, die Menschen aufgrund ihres sozialen Verhaltens oder persönlicher Eigenschaften bewerten, oder KI-Systeme zur Emotionserkennung am Arbeitsplatz oder im Bildungsbereich. Arbeitgeber sollten daher die eingesetzten KI-Systeme im Hinblick auf die Identifizierung verbotener Systeme und die Einstellung ihrer Nutzung überprüfen.
Ab August 2025 drohen Geldbußen - auch rückwirkend
Ab dem 2. August 2025 drohen Unternehmen und Organisationen, die verbotene KI entwickeln oder einsetzen, hohe Geldbußen. Die Überwachung und die Festlegung der Höhe der Strafen liegen vollständig in der Verantwortung der EU. Die Höhe der Geldbußen sowie die Aufsicht hierüber liegen vollständig in der Verantwortung der EU. Bis zu 35 Millionen Euro Strafe oder sieben Prozent des weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres – je nachdem, welcher Betrag höher ist – können verhängt werden.
Der Autor Sander Runkel ist Fachanwalt für Arbeitsrecht und Manager Tax & Legal bei SD Worx Deutschland
Wahlprogramme 2025: Innovationsförderung, Quo vadis?
So plant die Politik die Zukunft der Innovationsförderung. Eine Analyse von Efe Duran Sarikaya, CEO der Fördermittelberatung EPSA Deutschland.

Mit den Bundestagswahlen 2025 steht Deutschland vor wegweisenden Entscheidungen. Fördermittel, ein zentrales Instrument für Innovation, Nachhaltigkeit und Unternehmensentwicklung, stehen im Fokus der Parteiprogramme. Doch wie gestalten die Parteien die Zukunft der Förderpolitik, und welche Schwerpunkte setzen sie?

Efe Duran Sarikaya, CEO der Fördermittelberatung EPSA Deutschland, liefert einen Überblick über die Pläne der politischen Parteien zur Zukunft der Förderpolitik.
Dabei werden nicht nur die Unterschiede beleuchtet, sondern auch, welche Auswirkungen die jeweiligen Wahlprogramme auf die Unternehmen und den Wirtschaftsstandort Deutschland haben können.
Initiative "KI für Deutschland" startet Aktionsplan
Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen, um hierzulande eine zukunftsorientierte Strategie für die KI-Nutzung als Schlüsseltechnologie des 21. Jhs. zu etablieren.

Die Initiative "KI für Deutschland" wurde Ende 2024 von privaten Akteur*innen aus dem KI-Ökosystem ins Leben gerufen. Ziel ist es, einen praxisnahen und unternehmerisch getriebenen Impuls zu setzen, um in dieser Phase der politischen und gesellschaftlichen Neuorientierung Eckpfeiler zu definieren, wie KI zum Wohle und unter Beteiligung aller in Deutschland, effektiv genutzt werden kann.
Zu den Initiator*innen von "KI für Deutschland" gehören maßgeblich die AI.GROUP, der AI.FUND, sowie die Rise of AI Conference - insbesondere die Unternehmer*innen und KI-Expert*innen Dr. Hauke Hansen, Fabian Westerheide, Ragnar Kruse, Petra Vorsteher, Dr. John Lange und Ingo Hoffmann. Unterstützt wird die Initiative von namhaften Institutionen wie dem KI-Bundesverband.
Die Initiative ist deutschlandweit, interdisziplinär und holistisch ausgerichtet. Sie ist offen für den Input und die Unterstützung aller relevanten gesellschaftlichen Gruppen und Persönlichkeiten.
Aufbruchssignal in Zeiten des Umbruchs
Mitinitiator Dr. Hauke Hansen: “Die Initiative KI für Deutschland ist ein Aufbruchssignal in Zeiten des Umbruchs. Mit unseren 11 Impulsen machen wir greifbare und umsetzbare Vorschläge, wie Deutschland die KI nutzen kann, um den gesellschaftlichen Stillstand zu durchbrechen und Wege aus der wirtschaftlichen Rezession zu finden. Wir richten uns damit an alle gesellschaftlichen Akteure, die Wirtschaft ebenso wie die Politik. Wir brauchen eine zukunftsweisende und konsequente Industriepolitik und unternehmerisches Handeln, um die KI am Standort Deutschland zur Chefsache zu machen und damit das Bruttosozialprodukt nachhaltig zu steigern. Stellen wir gemeinsam die Weichen für innovatives und wirtschaftlich erfolgreiches Deutschland von morgen.”
Diese elf Impulse will die Initiative "KI für Deutschland" zur Nutzung künstlicher Intelligenz in Deutschland in Form eines KI-Aktionsplans setzen:
Impuls 1: Einrichtung eines Digitalministeriums auf Bundesebene
Die Digitalisierung in Deutschland hat wirtschaftliche und politische Priorität. Um eine konsequente Digitalisierung der Gesellschaft, Wirtschaft und Verwaltung zu erreichen, ist ein dediziertes Bundesministerium für Digitales mit dem Schwerpunkt KI notwendig.
Impuls 2: Förderung von KI-Forschung und -Innovationen
Deutschland muss die jährlichen Investitionen in KI-Forschung und -Entwicklung bis 2030 auf mindestens 5,0 Mrd. € pro Jahr aufstocken, um international wettbewerbsfähig zu bleiben.
Impuls 3: Bereitstellung von KI-Wagniskapital für KI-Start-ups und -Innovationen
Deutschland benötigt ein KI-Wagniskapitalprogramm ausgestattet mit 10 Mrd. € über 5 Jahre, um KI-Startups zu fördern. Staatliche Fund-of-Funds sollten dazu genutzt werden, Mittel zielgenau und effektiv zu platzieren.
Impuls 4: Aufbau von KI-Clustern zur Förderung von Innovationen und Exzellenz in regionalen Ökosystemen
Deutschland sollte regionale KI-Cluster fördern, die räumliche Nähe mit technischer und wirtschaftlicher Exzellenz verbinden, um Innovationskraft zu maximieren und international Talente anzuziehen.
Impuls 5: Aufbau einer leistungsfähigen und souveränen digitalen Infrastruktur zur Stärkung der KI
Eine flächendeckende digitale Infrastruktur ist essenziell, um KI für Bürger und Unternehmen in der Breite nutzbar zu machen. Wir setzen uns dafür ein, GPU-Megacluster für Forschung und Industrie in Deutschland zu etablieren.
Impuls 6: Förderung der Anwendung von KI in Unternehmen
Bis 2030 sollten mindestens 80% aller deutschen Unternehmen KI-Anwendungen aktiv nutzen, um ihre Geschäfte zu optimieren und auszubauen.
Impuls 7: KI für den öffentlichen Sektor – Effizienzsteigerung und weniger Bürokratie
Bis 2029 sollte der Einsatz von KI in allen wesentlichen Behörden auf Bundes-, Landes- und Regionalebene etabliert werden, um Prozesse zu optimieren, Bürokratie abzubauen und Bürgerdienste zu verbessern.
Impuls 8: KI und Nachhaltigkeit – erschwingliche und saubere Energie für Deutschland
Deutschland sollte KI gezielt einsetzen, um die Energiewende zu unterstützen und die CO2-Emissionen im Energiesektor bis 2035 um mehr als 15% zu senken. Unser Land braucht eine sichere und bezahlbare Energieversorgung als Grundlage für technologiebasiertes Wachstum.
Impuls 9: Eine KI-Bildungsinitiative als Grundlage einer zukunftsfähigen Gesellschaft
Bis 2030 sollten mehr als 80% der Arbeitskräfte in Deutschland grundlegende KI-Kompetenzen besitzen, um den digitalen Wandel aktiv mitzugestalten.
Impuls 10: Ein klarer und sicherer rechtlicher Rahmen für KI und ein KI-Gütesiegel
Deutschland sollte bis 2026 einen flexiblen Rechtsrahmen für KI schaffen, der Innovation fördert, aber Missbrauch verhindert, und ein KI-Gütesiegel zur Förderung ethischer und transparenter KI einführen.
Impuls 11: Schaffung eines europaweiten KI-Ökosystems mit Deutschland als Schrittmacher
Deutschland sollte eine gestaltende Rolle beim Aufbau eines europäischen KI-Ökosystems übernehmen, um eine wettbewerbsfähige Alternative zu den USA und China zu etablieren.
Hier gibt’s mehr Infos zur Initiative "KI für Deutschland"
KI-gestützte Identitätsbetrugsprävention hinkt Bedrohung hinterher
E-Mails, Chat-Nachrichten, Telefonanrufe, Fotos und Videos – immer häufiger missbrauchen Cyberkriminelle diese Kommunikationstools als Vehikel für einen Identitätsbetrug – doch was tun?

Immer häufiger wird in den Medien über erfolgreiche KI-gestützte Deep-Fake-Attacken berichtet. Die Folge: Das Vertrauen der Verbraucher*innen in digitale Medien und Kanäle nimmt zusehends Schaden – und damit auch die betreffenden Online-Anbieter*innen. Bei nicht wenigen von ihnen wird das Phänomen KI-gestützter Angriffe über kurz oder lang zu massivem Imageverlust und Umsatzeinbußen führen.
Diskrepanz zwischen Sensibilisierung und Handeln
Vor diesem Hintergrund stimmt es nachdenklich, dass bislang nur 22 Prozent der Unternehmen Maßnahmen zur Verhinderung von KI-gestütztem Identitätsbetrug ergriffen haben. Der aktuelle Signicat-Report "The Battle Against AI-driven Identity Fraud" zeigt eine Kluft zwischen Bewusstsein und Handeln auf. Während über 76 Prozent der Entscheidungsträger*innen die wachsende Bedrohung durch KI bei Betrug erkennen, haben, wie erwähnt, nur 22 Prozent der Unternehmen damit begonnen, KI-gesteuerte Maßnahmen zur Betrugsprävention zu implementieren.
Für die Studie wurden über 1.200 Entscheidungsträger*innen aus Banken, FinTechs, Zahlungsanbietenden und Versicherungsunternehmen in Europa befragt. In dem Bericht wird hervorgehoben, dass sich die Unternehmen des Problems durchaus bewusst sind, aber Schwierigkeiten haben, die erforderlichen Schutzmaßnahmen zu ergreifen, und zwar aus folgenden Gründen:
- Mangelndes Fachwissen: 76 Prozent der Entscheidungsträger*innen im Bereich Betrugsbekämpfung geben unzureichende Kenntnisse als Haupthindernis an.
- Zeitmangel: 74 Prozent geben zu, dass sie nicht die Zeit haben, das Problem mit der erforderlichen Dringlichkeit anzugehen.
- Fehlendes Budget: 76 Prozent geben an, dass nicht genügend Mittel zur Verfügung stehen, um robuste Technologien zur Betrugsprävention einzusetzen.
2025: das Jahr des KI-Betrugs
Im Hinblick auf die aktuellen Herausforderungen warnt der Bericht davor, dass Betrüger*innen KI in einem noch nie dagewesenen Ausmaß nutzen werden Deepfake-Angriffe, die laut Signicat-Daten in den letzten drei Jahren um 2137 Prozent zugenommen haben, sind nur ein Beispiel dafür, wie schnell sich KI-gesteuerte Betrugstechniken weiterentwickeln.
Um den Betrüger*innen einen Schritt voraus zu sein, sollten die Unternehmen schnell handeln: Empfohlen wird ein mehrschichtiger Verteidigungsansatz – von der frühzeitigen Risikobewertung über robuste Identitätsüberprüfungs- und Authentifizierungstools in Kombination mit Datenanreicherung bis hin zur laufenden Überwachung für einen umfassenden Ansatz, der die wichtigsten Angriffsflächen abdeckt:
- Investitionen in KI-gesteuerte Betrugsprävention: Innovative Technologien bieten Echtzeit-Betrugserkennung, einschließlich der Erkennung von Dokumentenmanipulationen und Imitationen, einschließlich Deepfakes, und bekämpfen KI mit KI.
- Aufbau eines internen Bewusstseins und Zusammenarbeit mit vertrauenswürdigen Anbietenden: Ein proaktiver Ansatz für Mitarbeitendenschulungen und externe Zusammenarbeit ist der Schlüssel zum Umgang mit dieser sich entwickelnden Bedrohungslandschaft.
#noFilter
Fake News statt Fakten auf Social Media: Beginnt jetzt das Zeitalter der Liveblogs? Eine Einschätzung samt Tipps und To-do's von Naomi Owusu, CEO sowie Mitbegründerin von Tickaroo.

Mark Zuckerberg verkündete erst vor Kurzem, dass Meta in Zukunft ohne Fact-Checking auskommen soll. Stattdessen werden schon bald die Nutzer*innen über den Wahrheitsgehalt der Inhalte bestimmen – in einem Zeitalter von Bots und KI ist allerdings schon jetzt abzusehen, dass das nicht funktionieren wird und vermutlich auch gar nicht funktionieren soll. Die Instanzen, die bisher die Echtheit der Aussagen geprüft haben, seien nach Auffassung des Facebook-Gründers jedoch politisch nicht neutral. Fast zur selben Zeit von Zuckerbergs Ankündigung, führte ein politisch motivierter und unberechenbarer Milliardär auf seiner eigenen Plattform X ein Live-Interview mit der AfD-Vorsitzenden Alice Weidel, die in dem Gespräch zahlreiche Falschbehauptungen machte.
Diese Entwicklungen zwingen Medienschaffende sowie Leser*innen, sich 2025 ernsthaft mit den Alternativen zu Social Media zu befassen. Denn die gibt es!
1. Fakten statt Fame – Echtzeit Nachrichten durch Live-Blogs
Das schwindende Vertrauen in die klassischen Medien sorgte in der Vergangenheit dafür, dass sich Leser*innen über Facebook, Twitter und Co. informierten. Doch die zunehmende Verbreitung von Fake News in den sozialen Netzwerken fordert andere Kanäle, die genauso schnell und persönlich informieren, aber gleichzeitig den Wahrheitsgehalt sicherstellen. Live-Blogs sind für Journalist*innen ein ebenso unmittelbarer Weg zu ihrer Zielgruppe. Hier können sie sich transparent und menschlich präsentieren, indem sie ihr Publikum näher in den Entstehungsprozess der Geschichten hinter den Schlagzeilen einbeziehen. Durch Dialoge und Engagement können sie eine Bindung zur Leserschaft aufbauen. Videos, die ihre Arbeit zeigen, machen sie nahbarer und vertrauenswürdiger. Transparenz, etwa durch Erklärungen zur Quellenprüfung oder zur Verifizierung von Informationen, baut Glaubwürdigkeit auf, bekämpft Desinformation und stärkt das Verhältnis zwischen Medien und Öffentlichkeit – und gerade das wird in 2025 entscheidend sein.
2. Entertainment im Micro-Content für Macro-Erfolg
Kurzvideos sind nicht erst seit der Einführung von TikTok beliebt, doch die Plattform hat den Trend weiter angefacht und ihre Popularität ist ungebrochen. Nachrichtenportale müssen in 2025 verstärkt auf dieses Format setzen, um insbesondere junge Leser*innen als treue Konsument*innen zu gewinnen. Allerdings können Medienschaffende noch einen Schritt weiter denken, hin zu interaktiven Mikro-Inhalten, die den Bedürfnissen nach Inspiration, Ablenkung und Verbindung gerecht werden. Dynamische Live-Blog-Formate wie Q&As, Umfragen, Kommentare und Reaktionen ermöglichen Echtzeit-Interaktionen. Sie können mit Live-Updates kombiniert und in den sozialen Netzwerken geteilt werden. Dadurch gewinnen Nachrichtenorganisationen die Aufmerksamkeit der Nutzer*innen und bleiben im Wettbewerb mit Social Media konkurrenzfähig.
3. Video Killed the Radio Star und Mobile das TV!
Fernsehen ist so 90er-Jahre! Die Mehrheit der Konsument*innen liest ihre Nachrichten über das Smartphone. Eine Ausrichtung auf mobile, responsive Designs ist also auch in 2025 entscheidend. Wer darüber hinaus ein „Second-Screen-Erlebnis“ ermöglicht, bietet durch Echtzeit-Statistiken, Analysen oder Hintergrundberichte ein immersives Erlebnis für Nutzer*innen und damit einen Mehrwert für ihr Seherlebnis. Gerade für Nachrichtenformate, Event- und Sportberichterstattung wird dieses Feature immer wichtiger.
4. KI im Newsroom: Zwischen Skepsis und Effizienz
Das Thema künstliche Intelligenz (KI) ist noch lange nicht erledigt, doch gerade Journalist*innen haben Bedenken hinsichtlich der Nutzung. Während KI-generierte Inhalte für viele Medienschaffende und ihr Publikum noch außerhalb der Komfortzone liegen, wird die Technologie zunehmend in Bereichen wie Übersetzungen, Überschriften- und Social-Media-Zusammenfassungen sowie Datenanalysen eingesetzt. Denn sie kann Lücken in Geschichten identifizieren, Verbesserungen vorschlagen, Texte korrekturlesen und den Tonfall an verschiedene Zielgruppen anpassen. In Kombination mit Tracking-Funktionen kann KI zudem den optimalen Veröffentlichungszeitpunkt und relevante Themen oder Formate bestimmen. Damit wird sie die Arbeitsprozesse in Nachrichtenredaktionen effizienter gestalten und Redakteur*innen den Freiraum geben, sich auf die Erstellung authentischer, leserzentrierter Inhalte zu fokussieren.
5. Näher dran durch hyperlokale Inhalte
In einem wettbewerbsintensiven Umfeld ist das Verständnis für die eigene Zielgruppe essenziell. Durch maßgeschneiderte Inhalte können Medienorganisationen stärkere Bindungen aufbauen und gleichzeitig ihre Reichweite vergrößern. Lokale Zeitungen haben es in der digitalen Ära schwer, da sie Werbekunden an Plattformen wie Google oder Facebook verlieren und ihr Publikum zunehmend auf Nischenangebote umsteigt. Dennoch wird die Nachfrage nach hyperlokalen Inhalten weiter wachsen, da die Meldungen die Menschen vor Ort einbeziehen und dem Publikum das Gefühl geben, gesehen zu werden. Insbesondere die Sportberichterstattung ist ein strategisches Asset für Medienschaffende, da sie die starke Verbindung der Fans zu heimischen Teams nutzt, um persönliche Beziehungen zu Leser*innen aufzubauen. Die so geschaffenen Inhalte können das Vertrauen der Leserschaft zurückgewinnen und lokale Bindungen stärken. Dieser Ansatz gilt allerdings nicht nur für Sport. Medien, die gezielt kleinere, spezifische Gruppen ansprechen und deren Leben sowie Begeisterung widerspiegeln, können ihre Reichweite erhöhen und Abonnementmodelle fördern. Während aktuelle Nachrichten ein breites Publikum anziehen, sorgen Nischeninhalte für langfristiges Interesse.
Die Nachrichten der Zukunft sind transparent
In einer Zeit, in der Falschinformationen auf Social Media den Diskurs prägen, gewinnen alternative Nachrichtenformate an Bedeutung. Live-Blogs sind schon lange, aber insbesondere in 2025, eine Alternative, um Echtzeit-News mit Transparenz und Nähe zu verbinden. Sie ermöglichen es Journalist*innen, authentisch zu berichten, den Entstehungsprozess ihrer Inhalte nachvollziehbar zu machen und ihre Leserschaft aktiv einzubeziehen. Durch Dialog und Interaktion können Medienhäuser ihre Glaubwürdigkeit stärken und Loyalität aufbauen. Statt Likes und viralen Trends stehen hier Fakten, Vertrauen und die Nähe zum Publikum im Mittelpunkt – und genau das braucht ein moderner Journalismus.
Die Autorin Naomi Owusu ist CEO und Co-Founder von Tickaroo, eine Live Blog-Plattform für Text- und Multimedia-Inhalte. Seit der Gründung 2011 setzt sich die studierte Psychologin mit ihrem Team für den Ausbau des Produktportfolios und die Optimierung des Live-Content-Tools ein.
Was gehört in eine KI-Policy?
Recht für Gründer*innen: Über den verantwortungsvollen Umgang mit KI.

Künstliche Intelligenz (KI) ist längst Teil unseres Alltags und hält in Unternehmen auch zunehmend Einzug. Ob beim Erstellen von Texten, in der Datenanalyse oder bei der Automatisierung von Routineaufgaben – KI ist ein starkes Werkzeug, das Unternehmen viele Vorteile bieten kann. Doch mit diesen Vorteilen kommen auch Verantwortung und Risiken, die eine klare und durchdachte KI-Policy erfordern.
Diese Einleitung zu einem Artikel über KI-Policies ist KI-generiert. Es ist so schön bequem und schnell gemacht: eines der gängigen LLM-Systeme online aufrufen, beispielsweise ChatGPT, und binnen Sekunden ist der Artikel fertig.
Ihr kennt das im Privaten, vor allem aber auch im Arbeitsumfeld. KI-Tools sind aus der Arbeitswelt nicht mehr wegzudenken. Die Nutzung von KI – insbesondere für berufliche Aufgaben – birgt jedoch Risiken. Manche KI neigt, falsch trainiert, zu diskriminierenden Entscheidungen, was z.B. im HR-Bereich gefährlich ist. Unbedacht erstellte Prompts können den Schutz von Geschäftsgeheimnissen aufs Spiel setzen. Die Datenschutzgrundsätze sind wie immer einzuhalten.
Generative KI schert sich, wenn wir als Nutzer*innen nicht darauf Acht geben, nicht um die Urheberrechte derer, deren Werke wir – ob bewusst oder unbewusst – verwenden oder verletzen. Zudem ist seit August 2024 die KI-Verordnung in der EU in Kraft und stellt an Unternehmen, die KI-Systeme und -Modelle entwickeln, anbieten oder betreiben, umfangreiche Anforderungen. Auch die mit KI einhergehenden Risiken sind nicht außer Acht zu lassen.
Seid ihr als Gründer*innen oder in sonst verantwortlicher Position in einem Unternehmen mit mehreren Mitarbeiter*innen tätig, müsst ihr euch Gedanken darüber machen, wie solche Risiken zu fassen und zu begrenzen sind. Tut ihr das nicht, drohen aus diversen Rechtsgrundlagen z.B. Schadensersatzforderungen, Bußgelder oder der Verlust an Assets – Dinge, die allerspätestens bei der nächsten Finanzierungsrunde negativ bewertet werden. In Bezug auf eure Belegschaft müsst ihr also Awareness für diese Themen schaffen und konkrete Vorgaben machen.
Denn eines ist klar: KI wird in eurem Unternehmen genutzt werden, ob mit oder ohne euer Wissen. Und bevor die Mitarbeiter*innen auf privaten Geräten sensible berufliche Aufgaben nicht reglementiert mittels ChatGPT & Co. lösen, beschreibt lieber beizeiten Dos and Don’ts, um sicherstellen, dass KI verantwortungsvoll, sicher und rechtskonform im Unternehmen eingesetzt wird.
Dazu dient eine die Belegschaft informierende und verpflichtende KI-Policy. Im Folgenden findest du einen Überblick darüber, welche Aspekte in eine solche Policy gehören.
1. Richtlinien für den Einsatz generativer KI am Arbeitsplatz
Generative KI-Modelle wie ChatGPT, DALL-E und andere erstellen Inhalte nach Maßgabe der Eingaben der Nutzenden. Bei diesen Prompts und bei der Verwendung der generierten Ergebnisse ist auf Folgendes zu achten:
- Schutz sensibler Daten: Die Eingabe vertraulicher Informationen in KI-Modelle stellt ein erhebliches Risiko dar, da generative KI-Systeme auf großen Datenmengen trainiert sind und Informationen potenziell unkontrolliert verarbeiten und speichern. Die KI-Policy sollte explizit verbieten, sensible oder vertrauliche Informationen in generative KI-Systeme einzugeben, insbesondere, wenn diese extern betrieben werden. Die Policy sollte beschreiben wie mit sensiblen Daten umzugehen ist und welche Daten für die Verarbeitung durch KI-Systeme ungeeignet sind.
- Einhaltung des Datenschutzes: Die KI-Policy sollte klarstellen, dass der Einsatz generativer KI-Tools den Anforderungen der Datenschutzgesetze (DSGVO, BDSG) entsprechen muss. Dazu gehören Vorgaben, wie personenbezogene Daten rechtssicher zu handhaben sind und welche dieser Daten überhaupt für den Einsatz von KI-Modellen geeignet sind. Zudem bedarf es Vorgaben zur Anonymisierung und Pseudonymisierung der Daten, daneben Transparenzvorgaben, um betroffene Personen über die Nutzung ihrer Daten zu informieren. Personenbezogene Daten in öffentlichen KI-Systemen einzusetzen, sollte möglichst untersagt werden.
- Umgang mit geistigem Eigentum: Die Nutzung generativer KI-Modelle kann zu Problemen führen, wenn die KI auf geschütztem Material trainiert wurde, von dem/der Nutzenden urheberrechtlich geschützte Werke in den Prompt einbezogen werden oder die KI Werke erstellt, die bestehende Urheber- oder sonstige Schutzrechte verletzen. Die KI-Policy sollte ein Verbot der Verwendung von Werken enthalten, an denen nicht die für die Bearbeitung erforderlichen Rechte bestehen. Und sie kann Regelungen zur Überprüfung und Genehmigung von KI-erstellten Inhalten festlegen, etwa durch eine Rechtsabteilung oder eine speziell dafür zuständige Stelle.
- Transparenz und Kennzeichnung: Die KI-Policy sollte festlegen, dass Inhalte, die mithilfe von generativer KI erstellt wurden, transparent gekennzeichnet werden. Dies trägt dazu bei, Missverständnisse zu vermeiden und sicherzustellen, dass die Herkunft von Texten und Bildern klar erkennbar ist. Diese Kennzeichnungspflicht sollte insbesondere dann gelten, wenn KI-generierte Inhalte veröffentlicht werden, aber auch im internen Gebrauch.
- Positivliste erlaubter KI-Systeme: Um die Mitarbeiter*innen mit der Anwendung dieser Vorgaben auf einzelne am Markt angebotene KI-Systeme nicht allein zu lassen, kann eine KI-Policy auch eine Auflistung der vom Unternehmen freigegebenen Systeme enthalten. Voraussetzung ist dafür natürlich, dass diese Systeme vorab entsprechend fachlich geprüft wurden. Das kann schwierig sein, weil sich Anbieter*innen meist nicht in die Karten schauen lassen.
2. Richtlinien für die Entwicklung und Implementierung von KI
Auch wenn ihr in eurem Unternehmen KI-Systeme entwickeln oder implementieren wollt, sind ethische, rechtliche und technische Anforderungen in einer KI-Policy zu adressieren.
- Fairness, Transparenz und Nichtdiskriminierung: KI-Systeme können, wenn sie auf verzerrten Datensätzen trainiert werden, Diskriminierung oder Vorurteile reproduzieren. Eine KI-Policy sollte deshalb klare ethische Richtlinien festlegen, die sicherstellen, dass die entwickelten Modelle fair, transparent und frei von Diskriminierung sind. Ein mögliches Vorgehen ist, regelmäßige Audits und Bias-Tests durchzuführen und in der Policy verpflichtend vorzusehen, um Verzerrungen frühzeitig zu erkennen und zu beheben.
- Datenschutz und Datensicherheit: Der verantwortungsvolle Umgang mit Nutzer*innendaten ist eine der wichtigsten Anforderungen in der KI-Entwicklung. Die KI-Policy sollte festlegen, dass bei der Verarbeitung personenbezogener Daten durch die KI strenge Schutzanforderungen, am besten strenge Begrenzungen, gelten. Rein automatisierte Entscheidungen sind schon laut DSGVO verboten. Es sollten nur die für die jeweilige Anwendung notwendigen Daten erhoben und verarbeitet werden, und diese Daten sollten weitestgehend anonymisiert oder pseudonymisiert werden. Regelungen für den Zugang zu diesen Daten sowie Maßnahmen zur Datensicherheit (wie Verschlüsselung und Zugriffskontrollen) sollten ebenfalls Bestandteil der Policy sein.
- Überprüfung auf Halluzinationen und Fehlinterpretationen: Generative KI-Modelle neigen dazu, Informationen zu „halluzinieren“, also falsche oder ungenaue Inhalte zu erstellen. In der KI-Policy sollte festgelegt sein, dass entwickelte KI-Modelle regelmäßig auf ihre Genauigkeit und Zuverlässigkeit überprüft werden. Dies kann durch vorgeschriebene Tests und Simulationen geschehen, bei denen die KI in verschiedenen Szenarien eingesetzt und auf ihre Fähigkeit, korrekte Ergebnisse zu liefern, geprüft wird. Es sollten auch definiert werden, wie Fehler erkannt und behoben werden können.
- Erklärbarkeit und Nutzer*infreundlichkeit: Komplexe KI-Modelle sind oft schwer verständlich und wirken wie eine Black Box, deren Entscheidungen für Außenstehende kaum nachvollziehbar sind. Die KI-Policy sollte daher sicherstellen, dass die KI so gestaltet ist, dass ihre Funktionsweise für Nutzer*innen transparent und nachvollziehbar ist. Dies ist insbesondere dort wichtig, wo KI-Entscheidungen schwerwiegende Auswirkungen haben können. Ihr solltet sicherstellen, dass für Nutzer*innen eine verständliche Erläuterung darüber bereitgestellt wird, wie und warum die KI zu einem bestimmten Ergebnis gelangt ist. Das ist Voraussetzung für Kontrolle und rechtskonformen Betrieb der KI.
- Gesetzeskonformität gemäß KI-Verordnung: Nicht zuletzt hat die Europäische Union die KI-Verordnung in Kraft gesetzt, die strenge Anforderungen an die Entwicklung und Nutzung von KI stellt. Die KI-Verordnung dient der Produktsicherheit und verlangt zunächst eine Risikoeinschätzung für die KI-Systeme. Die Maßgaben für eine solche Einschätzung sollten in der Policy angerissen und No-Gos für die Entwicklung von Funktionalitäten, die zu den laut KI-Verordnung verbotenen KI-Anwendungen gehören, ausgesprochen werden. Für sogenannte Hochrisiko-KI-Systeme gelten besondere Anforderungen, die bei einer Entwicklung mitgedacht werden müssen, wofür eine KI-Policy zumindest sensibilisieren sollte. Die im Einzelfall geforderte Überprüfung und Einstufung des jeweiligen Systems oder Modells kann eine Policy nicht leisten. Die initialen und regelmäßigen Überprüfungen sowie Risikobewertungen sollte sie aber fordern.
- Regelmäßige Überwachung und Wartung der KI-Modelle: KI-Modelle entwickeln sich weiter und benötigen regelmäßige Überwachung und Wartung, um die Leistung zu optimieren und mögliche Fehler zu minimieren. Die KI-Policy sollte eine solche sich wiederholende Maintenance festlegen, etwa die schon erwähnten regelmäßigen Aktualisierungen, Fehlerbehebungen und Performance-Überprüfungen, damit die KI-Systeme immer den aktuellen Standards und Anforderungen entsprechen.
3. Übergreifende Ziele und Vorgaben einer KI-Policy
Eine KI-Policy sollte nicht nur detaillierte Vorgaben zur Nutzung und Entwicklung von KI enthalten, sondern auch allgemeine Leitlinien und Prinzipien für den Einsatz von KI im Unternehmen, um ein Bewusstsein für die Potenziale und Risiken der Technologie zu schaffen.
- Regelmäßige Überprüfung und Anpassung: Da sich KI-Technologien und gesetzliche Anforderungen stetig weiterentwickeln, sollte auch die KI-Policy regelmäßig überprüft und aktualisiert werden. Dies hilft sicherzustellen, dass das Unternehmen stets auf dem neuesten Stand ist und seine KI-Systeme konform mit den aktuellen gesetzlichen, ethischen und technischen Standards sind. Es ist empfehlenswert, regelmäßige Audits durchzuführen und die Policy an neue Entwicklungen in der KI-Forschung und Gesetzgebung sowie an die Marktanforderungen anzupassen.
- Unternehmenskultur in Bezug auf KI: Eine KI-Policy sollte dazu dienen, den transparenten und offenen Umgang mit KI in allen Unternehmensbereichen und damit die Akzeptanz für KI-Systeme sowohl innerhalb des Unternehmens als auch bei Kund*innen und Partner*innen zu fördern. Dazu gehört auch, dass das Unternehmen offenlegt, in welchen Bereichen KI eingesetzt wird und welche Entscheidungen die Technologie beeinflusst. Letztendlich ist die KI-Policy ein Instrument zur Förderung einer verantwortungsvollen und ethischen Unternehmenskultur in Bezug auf KI. Das schützt letztlich auch die Integrität und die Werte des Unternehmens.
- Schulungen und Sensibilisierungsmaßnahmen: Um einen solchen kompetenten und verantwortungsvollen Umgang mit KI zu erreichen, sind regelmäßige Schulungen und Sensibilisierungsmaßnahmen für die Mitarbeiter*innen zu den hier genannten Aspekten vorzusehen.
Fazit
Dieser Artikel kann nur einen groben Überblick und Rahmen geben. Die konkreten Inhalte einer auf eure Belange und Nutzungsformen passenden Policy müsst ihr in Anschauung der Spezifika der eingesetzten oder zu entwickelnden KI-Systeme erarbeiten. Das kann auch schlecht an KI delegiert werden: Der Rest des eingangs erwähnten KI-generierten Artikels war nicht wirklich brauchbar, ebenso die testweise mit KI erstellten Policies. Dafür braucht es professionelle Unterstützung.
Der Autor Dr. Daniel Michel, LL.M. ist seit 2004 als Rechtsanwalt im Bereich IT/IP/Technologie tätig. Nach Stationen in spezialisierten und Großkanzleien betreibt er seit 2018 seine eigene Rechtsberatung im Raum München, www.datalawcounsel.com
HR-Trends 2025
Fünf HR-Expert*innen geben ihre persönlichen Einblicke in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.
Personalführung und Human Ressources müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder demografischer Wandel und Fachkräftemangel. Die HR-Verantwortlichen von ToolTime, Ella Media, Kenjo, Family Office 360grad AG und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.

Marketing-Trends 2025
Führende Marketing-Expert*innen geben Einblick in Perspektiven, Hoffnungen und Strategien für das kommende Jahr.

Marketing und Kommunikation müssen konstant weitergedacht werden. Gründe dafür gibt es genug – ob Digitalisierung und KI oder ein zunehmender Wettbewerb in wirtschaftlich unsicheren Zeiten. Gründer*innen, CEOs und Kommunikationsprofis von ToolTime, kollex, Creditsafe, good healthcare group, puzzleYOU und Mashup Communications zeigen, welche Trends Fach- und Führungskräfte 2025 erwarten.
Visuelles Storytelling mit Ecken und Kanten statt KI-Perfektion

In einer Zeit, in der uns KI-optimierte, makellose Visuals eine glattgebügelte Welt präsentieren, setzt sich 2025 ein gegenläufiger Trend durch: Echtheit. Sie wird zur Währung, um sich inmitten der perfektionierten Bilderflut abzuheben. Marken, die im digitalen Raum Nähe schaffen wollen, werden sich bewusst von der sterilen Hochglanz-Ästhetik der KI lösen. Das heißt: Statt in dämlich-hübschen KI-Avataren à la Emma von der Deutschen Zentrale für Tourismus liegt die Zukunft in realen Geschichten und echten Menschen mit Ecken und Kanten. Eine bewusst ungeschliffene Brand mit Charakter schafft mehr Nähe und Vertrauen als ein aufpoliertes oder ganz und gar Fake-Visual. 2025 gilt es, die Chance des visuellen Storytellings zu nutzen, statt bloß technischer Perfektion nachzueifern.
Geschäftsideen E-Commerce: Klamottenvorschläge von der App
Curated Shopping ist seit einiger Zeit einer der wichtigen E-Commerce-Trends im Modebereich. Trotzdem entdecken Newcomer immer noch lukrative Nischen, um in diesem Marktsegment erfolgreich den Markteinstieg zu absolvieren. Solch eine Geschäftsidee ist die E-Commerce-App Mylo.
Der Nutzer gibt an, welchen Modestil er bevorzugt und welche Kleidungsstücke sich schon in seinem Kleiderschrank befinden. Daraufhin werden dem Nutzer passende Kleidungsvorschläge gemacht, und falls einzelne Kleidungsstücke noch fehlen, passende Kaufangebote unterbreitet. Und genau an diesen Käufen verdient Mylo eine Provision.
Bei den Empfehlungen von Mylo wird berücksichtigt, wie das Wetter voraussichtlich in den nächsten Stunden sein wird, damit der Vorschlag wetterkompatibel ist. Das erfolgt bei dieser Geschäftsidee durch Synchronisierung mit einer Wetter-App.
Geschäftsideen Onlinehandel: Alarm beim Wunschpreis
Viele Käufer bezahlen für ihre Wunschprodukte nur einen von Ihnen festgesetzten Höchstpreis. Die daraus resultierende Geschäftsidee: Nifti.
Onlinedienste wie Nifti, bei denen man seinen Wunschpreis eingeben kann, um sich informieren zu lassen, wenn das gewünschte Produkt zum Wunschpreis erhältlich ist.
Das Angebot von Nifti ist allerdings auf Waren beschränkt, die Partnershops anbieten, die mit Nifti kooperieren. Eigentlich ist es verwunderlich, dass nicht jeder Onlineshop solch einen Service anbietet, um die Wünsche der Kunden zu erfüllen.
Start-ups und die Zukunft der Robotik
Wie Start-ups die Zukunft der Robotik maßgeblich mitgestalten und damit zugleich einen wertvollen Beitrag zur Aufklärung des Mittelstands leisten.

In Zeiten zunehmender Digitalisierung und Automatisierung spielt die Robotik eine zentrale Rolle in der Transformation industrieller Prozesse. Noch stellt die Integration von Automatisierungstechnik in vielen Betrieben eine erhebliche Herausforderung dar. Hohe Einstiegskosten, komplexe Einbindung in bestehende Fertigungsprozesse und technologische Hürden hemmen die breite Nutzung.
Doch in der Zukunft wird Robotik die industrielle Fertigung flexibler und effizienter gestalten. „In ein paar Jahrzehnten werden die Menschen, wenn sie an künstliche Intelligenz (KI) denken, automatisch Roboter im Haushalt und in den Fabriken vor Augen haben“, so Mladen Milicevic, Mitbegründer von Unchained Robotics, einem 2019 gegründeten Unternehmen, das sich darauf konzentriert, Roboterlösungen für die Fertigungsindustrie zugänglicher und einfacher integrierbar zu machen.
Noch ist KI ein recht neuer Trend, der nur ansatzweise in die Arbeitswelt integriert ist. Doch KI und maschinelles Lernen finden bereits Eingang in das Industriesegment und ermöglichen anstelle starrer Produktionslinien dynamische Prozesse, die eine schnelle Anpassung an wechselnde Anforderungen erlauben. Ähnlich wie bei Modellen wie ChatGPT lernen die Roboter auf Basis von Datensätzen stetig, ihre Fähigkeiten dabei zu verbessern. Hier zeigt sich auch eine der großen Herausforderungen: die mangelnde Verfügbarkeit relevanter Daten in vielen Unternehmen. Ohne ausreichende und qualitativ hochwertige Daten ist der Einsatz selbstlernender Roboter nur eingeschränkt möglich, was die Entwicklung der KI-basierten Automatisierung in der Industrie verlangsamt.
Besonders im deutschen Mittelstand werden oft nicht genügend Daten geteilt, um intelligente Automatisierungslösungen effektiv zu entwickeln. Laut Mladen Milicevic könnte jedoch bereits eine kleine Änderung der Datennutzung viel bewirken: „Würden nur 20 Prozent aller Mittelständler in Deutschland ihre Daten zur Verfügung stellen, könnte man über 80 Prozent des Markts schnell bedienen – insbesondere in der Logistik, wo die Abläufe oft ähnlich sind.“
Die Robotik der Zukunft könnte so viel flexibler und intelligenter werden, wären Unternehmen bereit, ihre Betriebsabläufe durch Datenteilen zu optimieren. Automatisierungslösungen könnten dadurch schneller skalieren und individualisierte Anwendungen für eine Vielzahl von Unternehmen ermöglichen.
Diese Start-ups gestalten die Robotik-Zukunft aktiv mit
Der Vorteil der Robotik-Technologie liegt auf der Hand: Sie ermöglicht eine individualisierte Massenproduktion, bei der Produkte je nach Kund*innenwunsch schnell und effizient hergestellt werden können. Es gibt bereits bahnbrechende Resultate wie die von Boston Dynamic – bekannt für seine äußerst wendigen vierbeinigen und zweibeinigen Roboter. Das Unternehmen revolutioniert Branchen wie Logistik und Bauwesen durch fortschrittliche Mobilitätslösungen.
Aber auch andere junge Unternehmen überzeugen gerade durch ihre Innovationskraft. So ist Soft Robotics Inc. auf empfindliche Robotergreifer für Branchen wie Lebensmittelverarbeitung und Landwirtschaft spezialisiert, die eine präzise Handhabung empfindlicher Gegenstände ermöglichen.
Covariant kombiniert KI mit Robotik, um die Geschicklichkeit von Robotern zu verbessern und den elektronischen Handel und die Lagerlogistik durch die Optimierung der Objektmanipulation zu revolutionieren.
GreyOrange bietet skalierbare Roboterlösungen für die Bestandsverwaltung und Ware-zur-Person-Systeme, die die Lagereffizienz durch KI optimieren. Und Agility Robotics entwickelt humanoide Roboter für reale Aufgaben, insbesondere in den Bereichen Logistik und Lieferung.
Unchained Robotics konzentriert sich aktuell auf die Logistik und die Metallbearbeitende Industrie in Deutschland. Ihr vollstandardisiertes Produkt „MalocherBot“ ist „der Laptop der Industrie“, wie es Gründer Milicevic formuliert. Mit ihrem LUNA-Automatisierungsbetriebssystems können Fabrikarbeitende einfache und fortschrittliche Änderungen an den Produktionsparametern vornehmen, die in der Vergangenheit den Besuch teurer Spezialisten erfordert hätten.
Die Liste der Robotik-Start-ups ließe sich beliebig fortsetzen; viele von ihnen sind dabei, den Markt nachhaltig umzukrempeln.
Synergien nutzen
Start-ups stehen an vorderster Front, um die Innovation branchenübergreifend voranzutreiben. Sie gelten als Katalysator für den Fortschritt in der Automatisierung. Besonders im Bereich der Cobots (kollaborative oder kollaborierende Roboter, die mit Menschen im direkten Kontakt zusammenarbeiten) und KI-gesteuerten Robotik kommen aktuell viele Innovationen aus dieser Szene. Im Gegensatz zu etablierten Großunternehmen können sie agiler auf technologische Trends reagieren und innovative Lösungen entwickeln. Die Zusammenarbeit zwischen Start-ups und etablierten Unternehmen in der Industrie könnte allerdings besser gefördert werden.
Vor allem KMU scheuen den Schritt in die Automatisierung, was insbesondere mit der aktuellen makroökonomischen Lage zusammenhängt. Viele mittelständische Unternehmen haben begrenzte Budgets und umgehen daher die hohen Anfangskosten, obwohl Roboter langfristig in der Effizienzsteigerung und Kostensenkung amortisieren. Das heißt, dass Start-ups die Zukunft der Robotik weiter maßgeblich gestalten werden und gleichzeitig einen wertvollen Beitrag zur Aufklärung des Mittelstands leisten, Robotik als langfristig lohnende Investition zu sehen. So werden Robotik-Start-ups Nischenmärkte erkunden und spezialisierte Lösungen für Branchen wie Landwirtschaft, Gesundheitswesen und industrielle Automatisierung entwickeln.
Die Zukunftseinsatzfelder der Robotik
In der Logistik sind autonome Fahrzeuge und Lieferdrohnen bereits in der Testphase, während Unternehmen wie Amazon eine Vorreiterrolle bei der Automatisierung von Lagern einnehmen. Roboter in der Landwirtschaft übernehmen zunehmend die Erntearbeit, etwa bei Obst- und Gemüsearten wie Spargel und Erdbeeren, wo der Einsatz von Pflückrobotern getestet wird. Im Gesundheitswesen werden Roboter künftig nicht nur bei logistischen Aufgaben unterstützen, sondern auch in chirurgischen Anwendungen. Bereits jetzt ermöglichen OP-Roboter präzisere Eingriffe, und es wird an vollständig autonomen sowie Remote-Operationen gearbeitet. Auch im Bereich der Pflege könnten Roboter helfen, indem sie Aufgaben wie das Verteilen von Medikamenten oder die Planung von Patient*innenabläufen übernehmen.
Ein besonders sensibles Feld ist die Sicherheit: Roboter könnten Gebäude und Industrieanlagen überwachen und dabei menschlichen Wachen von gefährlichen Aufgaben ablösen. Ebenso werden sie im Militär und im Weltraum eingesetzt, um Reparaturen an Satelliten oder Raketen durchzuführen. Cobots werden künftig eine noch größere Rolle spielen. Sie sind sicherer und können in kleineren Unternehmen eingesetzt werden, in denen traditionelle Industrieroboter oft zu groß oder teuer sind. Die Integration von Cobots wird vor allem kleine und mittelständische Unternehmen helfen, ihre Produktionsprozesse zu automatisieren, ohne dabei auf große Investitionen in Robotertechnik angewiesen zu sein.
„Die Robotik dringt zunehmend in Tätigkeitsfelder vor, die bisher durch menschliche Arbeitskraft geprägt waren. Insbesondere in Bereichen, die als schmutzig, gefährlich oder monoton gelten, können verstärkt die künftigen Einsatzbereiche der Robotik liegen und die menschliche Arbeitskraft entlasten sowie vor Gefahren schützen. Auch die Kombination aus Robotik und Nachhaltigkeit wird eine Schlüsselrolle spielen, um die Industrie umweltfreundlicher zu gestalten und den klimaschutzgesetzlichen Anforderungen, die Klimaneutralität bis 2045 zu erreichen, ein Schritt weit näher zu kommen“, so Mladen Milicevic abschließend.