Aktuelle Events
Semantisches Web - Netz aus Möglichkeiten
Während das www stetig wächst, steht bereits die nächste Entwicklungsstufe in den Startlöchern: Welche Rolle könnte das semantische Web in der Zukunft spielen?
Aktuell analysieren Computerprogramme noch mit Algorithmen – auch Crawler genannt – die verschiedenen Suchanfragen oder Schlagworte. Dabei hängt die Genauigkeit der Antworten stark von der Eindeutigkeit der gestellten Frage ab. So kommt es schnell dazu, dass Suchmaschinen sich beispielsweise bei der Eingabe einer kompletten Frage nur auf einzelne Keywords beziehen und somit kaum die gesuchte Antwort liefern. Nutzerinnen und Nutzer, aber auch Unternehmen, verwenden diese Anwendungen jedoch häufig für einen effizienten Arbeitsfluss. Systeme müssen in diesem Zusammenhang lernen nicht nur grundlegend bestimmte Inhalte zu finden, sondern diese im besten Fall auch verstehen, um den Anwendern bestmöglich zu helfen. Hier setzt das semantische Web mit seinem Konzept an und besonders künstliche Intelligenz bietet dabei einen guten Ansatzpunkt.
Semantisches Web - mehr als nur eine Idee im Web 3.0
Dabei geht es grundlegend darum, einzelne Informationen in Beziehung zueinander zu setzen. Damit können beispielsweise Suchmaschinen Verbindungen zwischen einzelnen Stichworten erkennen und diese auch verstehen. Erste Ansätze dieser Technologie entstanden schon Anfang des Jahrtausends ausgehend vom eigentlichen Erfinder des Internets Tim Berners-Lee. Während Menschen die Fähigkeit besitzen, Texten eine Bedeutung zuzuweisen, haben Computer nicht diese Möglichkeit. Zwar nehmen sie den Text zwar wahr, aber können ihn dabei nicht verstehen. Mit der Einführung des semantischen Webs ändert sich dies jedoch. Computerprogramme haben damit die Chance, die Zusammenhänge zwischen den einzelnen Worten zu verstehen und Bürgerinnen und Bürger besser im Alltag zu unterstützen. Arbeitsschritte, die heute noch Menschen ausführen, sollen Anwendungen in der Zukunft automatisch übernehmen. Für viele scheint diese Entwicklungsstufe des Web 3.0 noch komplette Zukunftsmusik, aber Fachleute beobachten beinah täglich den anhaltenden Fortschritt des neuen Systems – aktuell besonders im Bereich der Chatbots wie ChatGPT.
Künstliche Intelligenz macht erste Schritte
Durch die Einbindung von künstlicher Intelligenz (KI) in den Verarbeitungsprozess lässt sich die Darstellung von menschlichem Zugriff auf bestimmte Informationen oft einfacher nachahmen. Dies zeigen vor allem neuere Entwicklungen in diesem Bereich sehr gut. Gerade Programme, wie beispielsweise ChatGPT, verändern die gewohnte Internetrecherche drastisch und stellen unter anderem Google oder Wikipedia vor Schwierigkeiten, denn solche Systeme lassen sich mit semantischen Webdaten und Wissen erweitern. Zudem liefern sie ausformuliert Antworten auf gestellte Fragen in Form von kurzen Abstracts oder auch längeren Aufsätzen. ChatGPT kann dabei darauf trainiert werden, semantische Informationen zu verstehen und in natürlicher Sprache zu kommunizieren. Dies bedeutet, dass es in der Lage ist, auf Fragen oder Anfragen, die sich auf semantische Webdaten beziehen, relevante Antworten zu generieren. Dies ermöglicht auch die Integration von semantischen Suchfunktionen und Wissensdatenbanken in Chatanwendungen, um benutzerfreundlichere und informativere Interaktionen zu erleichtern.
Noch viel (Vor-)Arbeit vonnöten
Selbstverständlich braucht es jedoch einiges an Vorarbeit, bevor ein solches System erstmals wirklich in Betrieb geht. Suchmaschinen brauchen entsprechende Unterstützung, um Zusammenhänge verstehen zu können. Hier kommt unter anderem ein System namens Ressource Description Framework (RDF) zur Hand, welches Sätze in einzelne leichter verständliche Tripel zerlegt. Damit kann das Programm nach den einzelnen Bestandteilen suchen. Hier spielt auch das Thema Ontologie eine wichtige Rolle, um beispielsweise Mehrdeutigkeiten besser anzugehen. Fest steht auf jeden Fall: Der Einfluss des semantischen Webs auf die Zukunft der Suchmaschinen scheint gewaltig und die Möglichkeiten dieser nicht ganz so neuen Technologie beinah unendlich.
Der Autor Andreas Dörr ist Gesellschafter der Semantic Applications GmbH & Co. KG., das u.a. IT-Dienstleistungen und Open Source Consulting bietet,
Diese Artikel könnten Sie auch interessieren:
KI und Selbstreflexion: Was macht KI mit dir?
Wie du innovative KI-Technologie und persönliche Entwicklung strategisch geschickt kombinierst, um dein Start-up nachhaltig zu skalieren.
Künstliche Intelligenz (KI) gilt als Wachstumsbooster. Doch wer dabei nur auf Technik setzt, lässt ein entscheidendes Potenzial ungenutzt – die eigene persönliche Entwicklung. Warum es gerade die Verbindung aus KI und Selbstreflexion ist, die Gründer*innen und Start-ups langfristig erfolgreich macht, liest du hier.
Gründen bedeutet, Entscheidungen unter Unsicherheit zu treffen
Wer ein Start-up aufbaut, bewegt sich im Spannungsfeld von Vision und Verantwortung. Geschäftsmodell, Finanzierung, Teamführung, Produktentwicklung – all das passiert meist parallel und unter enormem Zeitdruck. Technologie wird dabei oft als Hebel gesehen, um schneller und effizienter zu arbeiten. Und das stimmt: Tools, die auf KI basieren, können Prozesse automatisieren, Muster erkennen, Kund*innenbeziehungen vertiefen. Doch Technik allein garantiert keinen Erfolg. Entscheidend ist, wer sie wie einsetzt. Und hier kommt ein oft unterschätzter Faktor ins Spiel: der/die Gründer*in selbst mit den Mustern seiner/ihrer Persönlichkeit.
Jede einzelne Erfahrung, die die Marke rund um eine(n) Gründer*in prägt, kann niemals von einer KI erzeugt werden. Diese kann im zweiten Schritt sachlich analysieren, wie Erlebnisse für zukünftige Prozesse genutzt werden, die dazugehörigen Werte oder Ängste aber stecken in der Person selbst als Fundament.
Markenkern, Werte und Identität – das unsichtbare Fundament des Erfolgs
Jede Marke beginnt mit einer Geschichte, und diese umfasst den Menschen als Dreh- und Angelpunkt. Die Erfahrungen, Werte und Überzeugungen der Gründer*in formen den Kern eines Start-ups weit vor dem ersten Pitchdeck. Während KI dabei helfen kann, diese Identität greifbar zu machen, zu analysieren oder in die Kommunikation zu übersetzen, erzeugen kann sie diese nicht.
Gerade in der frühen Phase entscheidet nicht nur das Produkt über den Erfolg, sondern die Haltung dahinter: Wofür steht das Unternehmen? Welche Werte prägen die Entscheidungen? Welches Bedürfnis treibt den/die Gründer*in auch jenseits der KPIs an? Eine klare Positionierung entsteht nicht im Workshop, sondern im inneren Prozess. Es ist die Fähigkeit zur Selbstreflexion, die hier als Kompass dient:
- Was ist mir wirklich wichtig?
- Was darf sich nie ändern, selbst wenn wir skalieren?
- Was wäre ein Deal, den ich nie eingehen würde – egal wie lukrativ er erscheint?
Wer diesen Markenkern kennt, trifft strategische Entscheidungen konsistenter, kommuniziert authentischer und baut Vertrauen bei Investor*innen, Mitarbeitenden und Kund*innen auf. Und erst dann lohnt sich der Einsatz von KI wirklich, um diese klare Positionierung zum Beispiel zu verstärken, nicht aber zu ersetzen.
KI – mehr als nur Effizienzmaschine
KI hat längst ihren Platz in der Start-up-Welt gefunden. Vom Recruiting über Sales bis hin zum Customer Support. KI-gestützte Tools erleichtern die Arbeit und verschaffen jungen Unternehmen echte Wettbewerbsvorteile:
- Automatisierung: Mithilfe von KI lassen sich zeitintensive Prozesse wie Terminplanung, Rechnungsstellung oder E-Mail-Korrespondenz automatisieren. Das schafft Raum für strategische Aufgaben.
- Personalisierung: Wer seine Kund*innen wirklich verstehen will, profitiert von datenbasierten Insights. KI hilft dabei, Verhalten zu analysieren, Bedürfnisse vorherzusagen und Inhalte gezielt auszuspielen.
- Recruiting: Im „War for Talents“ zählt Geschwindigkeit, ergänzend aber unbedingt auch Qualität. KI-Tools unterstützen dabei, Bewerber*innen effizient zu sichten und unbewusste Bias zu reduzieren.
Richtig eingesetzt, ermöglicht KI mehr Fokus, schnellere Iterationen und datengestützte Entscheidungen. Aber genau hier beginnt auch das Problem: Technologie kann nur das verstärken, was ohnehin vorhanden ist oder eben (noch) nicht.
Selbstreflexion – der unterschätzte Erfolgsfaktor
Gründer*innen stehen täglich vor Entscheidungen mit Tragweite. Doch unter Druck, Unsicherheit und Wachstumsschmerz wird oft reaktiv gehandelt statt reflektiert geführt. Genau hier setzt Selbstreflexion an. Wer sich seiner Stärken, Muster und blinden Flecken bewusst ist, trifft bessere Entscheidungen – für sich, das Team und das Unternehmen. Selbstreflexion ist kein esoterisches Extra, sondern ein pragmatisches Führungsinstrument. Einige wirkungsvolle Methoden:
- Regelmäßige Selbstchecks: Was hat in dieser Woche funktioniert und warum? Was nicht? Was sagt das über meine Prioritäten aus?
- Feedback aktiv einholen: nicht nur von Mitgründer*innen oder Coaches, sondern auch vom Team. Nicht defensiv reagieren, sondern neugierig auf das Feedback sein.
- Mentoring und Coaching: Externe Sparringspartner*innen helfen, Perspektiven zu erweitern und Denkfehler zu entlarven.
- Reflexionstools nutzen: vom (digitalen) Journal bis zur strukturierten Entscheidungsanalyse gibt es einfache Hilfsmittel, die Klarheit schaffen.
Wer bereit ist, sich selbst zu hinterfragen, entwickelt nicht nur sich, sondern auch sein Start-up weiter. Denn Führung beginnt nicht mit der Verantwortung für andere, sondern mit der Verantwortung für sich selbst.
Die Synergie – wenn KI auf Selbstreflexion trifft
Die wirklich erfolgreichen Gründer*innen sind nicht entweder Tech-Expert*innen oder People-Leader*innen. Sie verbinden beides. Sie nutzen KI, um operative Exzellenz zu schaffen und reflektieren gleichzeitig, wie sie führen, entscheiden, kommunizieren. Diese Kombination erzeugt eine Form von unternehmerischer Klarheit, die sowohl innovativ als auch resilient ist.
KI kann Erkenntnisse liefern. Aber nur, wer sie richtig einordnet, profitiert davon. Selbstreflexion schafft den Raum, um mit Technologie sinnvoll umzugehen. Umgekehrt kann KI helfen, Reflexionsprozesse zu unterstützen, etwa durch gezielte Feedback-Auswertung oder datengestützte Teamanalysen.
Ein Beispiel aus der Praxis: Ein Start-up im HR-Tech-Bereich nutzt KI, um Kund*innenfeedback in Echtzeit zu analysieren. Gleichzeitig reflektieren die Gründer*innen wöchentlich im Führungsteam, welche Learnings daraus für Produkt und Kommunikation folgen und welche persönlichen Muster sie bei sich selbst erkennen. Diese Kombination aus technologischem Blick nach außen und menschlichem Blick nach innen führt dazu, dass das Unternehmen nicht nur schneller wächst, sondern dabei auch klar bleibt.
Skalierung braucht Klarheit in der Technik und im Kopf
Start-ups, die skalieren wollen, müssen effizient sein, gleichzeitig aber auch fokussiert, werteorientiert und anpassungsfähig. KI ist dabei ein mächtiges Werkzeug. Doch ohne die Fähigkeit zur Selbstreflexion bleibt sie oft bloß ein weiteres Tool im Tech-Stack.
Deshalb gilt: Die Kombination aus klugem KI-Einsatz und bewusster persönlicher Entwicklung ist kein Luxus, sondern unternehmerische Notwendigkeit. Wer beides ernst nimmt, schafft ein Unternehmen, das nicht nur wächst, sondern dabei auch „gesund“ bleibt.
Die Autorin Lea Baptista ist Geschäftsführerin der GG Consulting Agency und unterstützt Unternehmer*innen, Führungskräfte und Teams dabei, ihren Führungsstil klar zu definieren, Selbstreflexion als Werkzeug zu nutzen und authentisch erfolgreich zu sein.
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.
eleQtron: It's MAGIC
In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.
Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“
Es war ein ungewöhnlicher Ort für eine bahnbrechende
Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.
Von der Universität ...
Im Jahr 2020, als das globale Interesse an Quantentechnologien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.
Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quantenprogramme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.
In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.
... zum technologischen Durchbruch
Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer sogenannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikrowellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“
Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.
Wachstumsschub und strategische Entwicklung
2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.
„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.
EU KI-Gesetz wird scharf gestellt
Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.
Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.
Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:
- Strafmaßnahmen bei Nichteinhaltung
- Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
- Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene
Strafen bis zu 35 Millionen Euro
Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.
Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen
GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.
GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.
Aufsicht und Governance
Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.
Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.
Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.
Was bedeutet das für Personalabteilungen und Arbeitnehmende?
Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.
- Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
- Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
- Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
- Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.
Fazit
Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.
Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.
Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen
Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.
Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.
Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede
Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.
Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.
Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?
Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.
Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.
Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?
Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.
Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.
Expertise als wichtiger Faktor für den Kauf einer Luxusuhr
So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.
Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.
Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.
Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.
Ein Ausblick auf die (mögliche) langfristige Wertentwicklung
Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.
Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.
Warum KI bei Förderanträgen versagt
Fünf Gründe, warum Unternehmen auf menschliche Intelligenz setzen sollten.
Ob steuerliche Forschungszulage, Investitionsförderung oder EU-Programme. Künstliche Intelligenz (KI) wie ChatGPT liefert in Sekundenschnelle eine Vielzahl möglicher Förderprogramme. Doch zwischen der reinen Information und der tatsächlichen Erschließung von Fördermitteln liegt ein erheblicher Unterschied. Hier gilt es, Unternehmen zu sensibilisieren.
Fördermittel sind heute ein strategischer Bestandteil moderner Unternehmensfinanzierung. Es reicht daher nicht, die Programme zu kennen. Entscheidend ist, sie rechtssicher, vollständig und förderlogisch aufeinander abgestimmt umzusetzen, um die vollen Förderpotenziale zu heben. Genau hier beginnt die Arbeit von Fördermittelexpert*innen.
Fünf Gründe, warum KI-Tools nicht als Fördermittelberater funktionieren
1. KI erkennt die wahren Förderpotenziale nicht
ChatGPT kann erklären, was ein Förderprogramm leistet. Doch welche Kosten eines konkreten Vorhabens tatsächlich und wie hoch förderfähig sind, lässt sich so nicht beurteilen. Gerade bei komplexen Programmen wie der steuerlichen Forschungszulage sind Erfahrung, Struktur und rechtssichere Abgrenzung entscheidend. Eine gute Fördermittelberatung prüft jedes Vorhaben systematisch: von der Förderfähigkeit nach dem Forschungszulagengesetz (FZulG), AGVO oder De-minimis-Verordnung bis hin zur klaren Trennung förderfähiger und nicht förderfähiger Aufwände.
2. KI kann keine Förderstrategien entwickeln
Eine Liste von Förderprogrammen ersetzt keine Strategie. KI kann nur Optionen nennen, aber keine Strategien zur Umsetzung im Unternehmen entwickeln. Eine gute Fördermittelberatung integriert die Forschungszulage sinnvoll in laufende Projekte und strukturiert Innovations- sowie Investitionsprozesse auf Bundes-, Landes- und EU-Ebene. So entstehen nicht nur Optionen, sondern belastbare, wirtschaftlich wirksame Lösungen.
3. KI kann nicht mit Menschen kommunizieren
Ein Antrag ist mehr als ein Formular. Er muss Anforderungen erfüllen und überzeugen. KI liefert Textbausteine, aber führt keine Gespräche und reagiert nicht auf Rückfragen mit der notwendigen Erfahrung in der Verwaltungspraxis der verschiedenen Förderprogramme. Eine gute Fördermittelberatung übernimmt die gesamte Kommunikation mit Förderstellen, koordiniert mit Bescheinigungsstellen und entwickelt formal korrekte und überzeugende Argumentationen.
4. KI endet beim Prompt – Fördermittelberatung bei der erfolgreichen Projektprüfung
Nach dem Antrag geht die Arbeit oft erst richtig los. Rückfragen, Prüfungen, Nachweise. KI kann Unternehmen dabei nicht unterstützen und keine Verantwortung übernehmen. Eine gute Fördermittelberatung hingegen begleitet die Kund*innen durch den gesamten Förderzyklus mit sauberer Dokumentation, revisionssicherer Aufbereitung und Unterstützung bei Audits und Außenprüfungen.
5. KI zeigt nur den Dschungel – Förderexperten finden den Schatz
Datenbanken geben einen Überblick, aber keine Richtung. Eine gute Fördermittelberatung bewertet alle denkbar möglichen Förderprogramme im konkreten Unternehmenskontext und entwickelt daraus konkrete Maßnahmen, um das Maximum an Fördermöglichkeiten für die Kund*innen rauszuholen. Eine gute Fördermittelberatung schafft so echte wirtschaftliche Vorteile statt der bloßen Auflistung von Fördermöglichkeiten.
Der Autor Efe Duran Sarikaya ist CEO der Fördermittelberatung EPSA Deutschland.
Food-Innovation-Report
Wie Food-Start-up-Gründer*innen im herausfordernden Lebensmittelmarkt erfolgreich durchstarten und worauf Investor*innen besonders achten.
Food-Start-ups haben in den vergangenen Jahren einen bemerkenswerten Aufschwung erlebt. Der zunehmende Wunsch nach nachhaltiger, gesunder und funktionaler Ernährung, das wachsende Bewusstsein für Klima- und Umweltschutz sowie der Trend zur Individualisierung der Ernährung haben eine neue Gründungswelle ausgelöst. Dennoch: Der Markteintritt im deutschen Lebensmittelmarkt zählt zu den anspruchsvollsten Herausforderungen, denen sich Gründer*innen stellen können. Wer als Start-up nicht durch außergewöhnliche Innovation oder gezielte Nischenstrategie punktet, hat kaum eine Chance, hier gelistet zu werden.
Ohne klare Zielgruppenfokussierung, glaubwürdiges Produktversprechen und professionelle Umsetzung funktionieren auch gute Ideen nicht – wie es u.a. die Frosta-Tochter elbdeli (trotz starker Marke keine Resonanz) und Bonaverde (Kaffeemaschine mit Röstfunktion, die trotz Kickstarter-Erfolg) scheiterte zeigen.
Da dieser Markt so groß ist, ist er auch stark reguliert, hochkonkurrenzfähig und von mächtigen Einzelhandelsstrukturen dominiert. Zu den größten Hürden zählen die komplexe Regulatorik, Logistik und Produktion, Finanzierung sowie die Konsument*innenakzeptanz.
Laut dem Deutschen Startup Monitor nennen 43 Prozent aller Start-ups die Finanzierung als größte Hürde. Kapitalbedarf entsteht früh – für Verpackungen, Lebensmittelsicherheit, Produktion, Mindestabnahmemengen und Vertrieb.
Ein typisches Seed-Investment liegt zwischen 250.000 und 1,5 Millionen Euro. In späteren Phasen steigen institutionelle VCs mit Ticketgrößen von bis zu fünf Millionen Euro ein. Erfolgreiche Exits wie der Verkauf von yfood an Nestlé (2023) zeigen: Der Markt ist in Bewegung, aber selektiv.
Functional Food als Innovationsmotor – aber nicht der einzige
Functional Food ist längst mehr als ein Trend: Es ist ein wachsendes Segment mit wissenschaftlicher Fundierung. Produkte wie funktionale Riegel, Drinks oder Functional Coffee verbinden Geschmack mit gesundheitlichem Mehrwert. Besonders gefragt sind derzeit Inhaltsstoffe wie Adaptogene, Pro- und Präbiotika, pflanzliche Proteine und weitere Mikronährstoffe.
Zugleich gewinnen auch alternative Proteinquellen (Pilze, Algen, Fermentation), klimapositive Lebensmittel und Zero-Waste-Konzepte an Bedeutung. Konsument*innen wollen Ernährung, die nachhaltig und leistungsfördernd ist.
Worauf Investor*innen achten – und was sie abschreckt
Aus Sicht eines/einer Investor*in zählen nicht nur Produktidee und Branding. Entscheidender ist:
- Ist das Team umsetzungsstark, resilient, multidisziplinär?
- Gibt es Traktion (z.B. Verkaufszahlen, Feedback, D2C-Erfolge)?
- Wie realistisch ist der Finanzplan? Sind Margen und Logistik durchdacht?
- Ist das Produkt skalierbar – auch international?
Abschreckend wirken hingegen: überschätzte Umsatzprognosen, fehlende Markteinblicke, instabile Lieferketten oder reine Marketingblasen ohne echte Substanz.
Es ist unschwer zu erkennen: Wer im Food-Bereich gründen will, braucht mehr als eine gute Idee. Der deutsche Markt ist selektiv, komplex und durch hohe Einstiegshürden geprägt. Gleichzeitig ist er enorm spannend für alle, die bereit sind, langfristig zu denken, regulatorisch sauber zu arbeiten und echten Mehrwert zu schaffen.
Food-Start-ups, die ihre Zielgruppe kennen, finanziell solide aufgestellt sind und wissenschaftlich fundierte Produkte entwickeln, haben reale Chancen auf Marktdurchdringung – besonders, wenn sie es schaffen, Handelspartner*innen und Konsument*innen gleichermaßen zu überzeugen.
Investor*innen sind bereit, in solche Konzepte zu investieren, aber sie erwarten mehr als Visionen: Sie erwarten belastbare, integrierte Geschäftsmodelle mit echtem Impact.
Internationaler Vergleich: Was Food-Start-ups in den USA anders machen
Die USA gelten als Vorreiter für Food-Innovation. Der Markt ist schneller, risikofreudiger und deutlich kapitalintensiver. Allein im Jahr 2023 flossen in den USA rund 30 Milliarden US-Dollar Wagniskapital in FoodTech und AgriFood-Start-ups – ein Vielfaches im Vergleich zu Deutschland. Start-ups wie Beyond Meat, Impossible Foods oder Perfect Day konnten in kurzer Zeit hunderte Millionen Dollar einsammeln, skalieren und international expandieren. Die wesentlichen Unterschiede zur deutschen Szene sind:
- Zugang zu Kapital: Amerikanische Gründer*innen profitieren von einer ausgeprägten Investor*innenlandschaft mit spezialisierten VCs, Family Offices und Corporate Funds. In Deutschland dominiert oft konservative Zurückhaltung.
- Marktzugang: Der US-Markt ist dezentraler organisiert. Start-ups können regional Fuß fassen und wachsen, ohne gleich auf landesweite Listungen angewiesen zu sein.
- Regulatorik: Die U.S. Food and Drug Administration (FDA) ist in vielen Bereichen offener gegenüber neuen Inhaltsstoffen und Health Claims – das ermöglicht schnellere Markteinführungen.
- Kultur & Narrative: Amerikanische Konsument*innen sind innovationsfreudiger. Sie schätzen Storytelling, Vision und Purpose deutlich mehr als europäische Kund*innen.
Das bedeutet nicht, dass der US-Markt einfacher ist. Er ist aber zugänglicher für disruptive Ideen, insbesondere wenn sie skalierbar und investor*innentauglich aufgesetzt sind.
Operative Herausforderungen: vom Prototyp zur Produktion
Die operative Skalierung ist einer der größten Stolpersteine für Food-Start-ups. Eine Rezeptur im Labormaßstab oder im Handwerk zu entwickeln, ist vergleichsweise einfach. Sie jedoch für den industriellen Maßstab zu adaptieren, bringt komplexe Fragestellungen mit sich:
- Wo finde ich einen Co-Packer mit Kapazitäten für Kleinserien?
- Wie skaliert mein Produkt ohne Qualitätsverlust?
- Wie optimiere ich Haltbarkeit ohne künstliche Zusätze?
- Welche Verpackung schützt das Produkt, erfüllt die Nachhaltigkeitsansprüche und passt zu den Preisvorgaben des Handels?
In Deutschland ist die Infrastruktur für Food-Start-ups im Vergleich zu den USA oder den Niederlanden unterentwickelt. Während es in den USA Inkubatoren mit angeschlossenen Produktionsstätten (z.B. The Hatchery in Chicago oder Pilotworks in New York) gibt, fehlt es hierzulande oft an bezahlbaren, flexiblen Produktionslösungen.
Gerade nachhaltige Verpackungen stellen viele Gründer*innen vor Probleme: Biologisch abbaubare Alternativen sind teuer, nicht immer kompatibel mit Logistikprozessen und oft nicht lagerstabil genug. Ein Spagat, der Investitionen und viel Know-how erfordert.
Erfolgsfaktor Vertrieb: Wie Produkte wirklich in den Handel kommen
Viele unterschätzen den Aufwand, der hinter einem erfolgreichen Listungsgespräch steht. Händler*innen erwarten nicht nur ein gutes Produkt – sie wollen einen Business Case:
- Wie hoch ist die Spanne für den Handel?
- Wie ist die Wiederkaufsquote?
- Wie sieht das Launch-Marketing aus?
- Gibt es POS-Materialien oder begleitende Werbekampagnen?
Ein Listungsgespräch ist kein Pitch – es ist ein Verhandlungstermin auf Basis knallharter Zahlen. Ohne überzeugende Umsatzplanung, Distributionserfahrung und schnelle Liefer- fähigkeit hat ein Start-up kaum Chancen auf eine langfristige Platzierung im Regal. Viele Gründer*innen lernen das schmerzhaft erst nach dem Launch.
Zukunftstechnologien im Food-Bereich
Die Food-Branche steht am Beginn einer technologischen Revolution. Neue Verfahren wie Präzisionsfermentation, Zellkultivierung, 3D-Food-Printing oder molekulare Funktionalisierung eröffnen völlig neue Produktkategorien. Beispiele sind:
- Perfect Day (USA) stellt Milchprotein via Mikroorganismen her – völlig ohne Kuh.
- Formo (Deutschland) produziert Käseproteine durch Fermentation.
- Revo Foods (Österreich) bringt 3D-gedruckten Fisch auf pflanzlicher Basis in die Gastronomie und Handel.
Diese Technologien sind kapitalintensiv, regulatorisch komplex, aber langfristig zukunftsweisend. Wer heute die Brücke zwischen Wissenschaft, Verbraucher*innenbedürfnis und industrieller Machbarkeit schlägt, wird zu den Innovationsführer*innen von morgen zählen.
Neben dem klassischen Lebensmitteleinzelhandel gewinnen alternative Vertriebskanäle zunehmend an Bedeutung. Insbesondere spezialisierte Bio- und Reformhäuser wie Alnatura, Denns oder basic bieten innovativen Start-ups einen niedrigschwelligen Einstieg, da sie auf trendaffine Sortimente, nachhaltige Werte und kleinere Produzent*innen setzen. Hier zählen Authentizität, Zertifizierungen und persönliche Beziehungen mehr als reine Umsatzversprechen.
Auch der Onlinehandel wächst rasant: Der Anteil von E-Commerce im deutschen Lebensmitteleinzelhandel liegt zwar erst bei etwa drei bis vier Prozent, doch Plattformen wie Amazon Fresh, Picnic, Knuspr oder Getir bieten zunehmend Raum für neue Marken. Gerade Quick-Commerce-Anbietende ermöglichen kurzfristige Testmärkte und agile Vertriebspiloten in urbanen Zielgruppen.
Der Blick in die USA zeigt, was in Europa bevorsteht: Dort erzielt TikTok bereits über seinen eigenen TikTok Shop mehr als 20 Milliarden US-Dollar Umsatz – Tendenz stark steigend. Immer mehr Food-Start-ups nutzen die Plattform direkt als Verkaufs- und Marketingkanal. Es ist nur eine Frage der Zeit, bis ähnliche Social-Commerce-Strukturen auch in Europa an Relevanz gewinnen – sei es über TikTok, Instagram oder neue, native D2C-Plattformen.
Weitere Trendfelder, die aktuell in den Fokus rücken, sind unter anderem:
- Regeneratives Essen: Lebensmittel, die nicht nur neutral, sondern positiv auf Umwelt und Biodiversität wirken. Beispiele: Produkte mit Zutaten aus regenerativer Landwirtschaft oder CO₂-bindende Algen.
- Blutzuckerfreundliche Ernährung: Start-ups wie Levels (USA) oder NEOH (Österreich) zeigen, wie personalisierte Ernährung über Glukose-Monitoring neue Märkte erschließen kann.
- „Food as Medicine“: Produkte, die gezielt auf chronische Beschwerden oder Prävention ausgelegt sind – beispielsweise bei Menstruationsbeschwerden, Wechseljahren oder Verdauungsstörungen.
- Zero-Waste-Produkte: Verwertung von Nebenströmen (z.B. aus Brauereien oder Obstpressen) zur Herstellung von Lebensmitteln mit Nachhaltigkeitsanspruch.
- Biohacking-Produkte: hochfunktionale Lebensmittel für kognitive Leistung, Schlaf, Erholung oder hormonelle Balance wie zum Beispiel der Marke Moments – by Biogena.
Die Zukunft von Food liegt in der Synthese aus Wissenschaft, Individualisierung und Nachhaltigkeit. Start-ups, die diese Megatrends frühzeitig besetzen, positionieren sich als Pioniere für eine neue Esskultur. Besonders wichtig in der Investor*innenansprache sind:
- Fundierte Zahlenkenntnis: Gründer*innen sollten Unit Economics, Break-Even-Szenarien und Roherträge detailliert erklären können. Vage Aussagen über Marktpotenzial reichen nicht – es braucht belastbare Szenarien.
- Proof of Concept: Idealerweise liegt bereits ein MVP (Minimum Viable Product) mit echter Kund*innenvalidierung vor. Pilotprojekte mit Handelspartner*innen oder Online-Abverkäufe liefern harte Daten.
- Storytelling mit Substanz: Purpose ist gut – aber er muss betriebswirtschaftlich verankert sein. Was motiviert das Team? Wo liegt der USP? Wie stark ist der Wettbewerb?
- Team-Komplementarität: Ein starkes Gründer*innen-Team vereint Produkt- und Marktwissen, betriebswirtschaftliches Denken und Leadership-Kompetenz.
- Exit-Szenario: Investor*innen wollen eine Perspektive: Wird es ein strategischer Verkauf, ein Buy- & Build-Modell oder ein langfristiger Wachstums-Case?
Wer Investor*innen mit klarer Struktur, realistischen Annahmen und ehrlicher Kommunikation begegnet, hat bessere Chancen auf Kapital – inbesondere in einem Markt, der aktuell selektiver denn je agiert. Genau hier liegt die Kernkompetenz von Food-Start-up-Helfer*innen wie der Alimentastic Food Innovation GmbH, die nicht nur in innovative Unternehmen investiert, sondern ihnen aktiv dabei hilft, die oben genannte operative Komplexität zu überwinden und den Time to Market signifikant zu verkürzen – von der Produktidee bis hin zur Umsetzung im Handel.
Fazit
Der deutsche Food-Start-up-Markt ist herausfordernd, aber voller Chancen. Wer heute erfolgreich gründen will, braucht nicht nur eine starke Produktidee, sondern ein tiefes Verständnis für Produktion, Vertrieb, Kapitalstruktur und Markenaufbau. Functional Food, nachhaltige Innovationen und technologiegetriebene Konzepte bieten enorme Wachstumsmöglichkeiten – vorausgesetzt, sie werden professionell umgesetzt und skalierbar gedacht.
Der Autor Laurenz Hoffmann ist CEO & Shareholder der Alimentastic Food Innovation GmbH und bringt langjährige Erfahrung aus dem Lebensmitteleinzelhandel mit.
Was sollten Eigentümer in Bezug auf Gewerbeimmobilien beachten?
Entdecken Sie wichtige Tipps für Gewerbeimmobilien-Eigentümer. Infos und wichtige Details.
Gewerbeimmobilien stellen eine wichtige Anlageklasse dar, die sowohl attraktive Renditen als auch besondere Herausforderungen mit sich bringt. Der deutsche Gewerbeimmobilienmarkt erlebt derzeit nicht nur einen zyklischen Abschwung, sondern einen dauerhaften strukturellen Wandel durch die Zinswende. Diese Entwicklung verändert die Rahmenbedingungen für Eigentümer grundlegend und erfordert eine Anpassung der Investitionsstrategien.
Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen neue Aspekte wie Nachhaltigkeit, Energieeffizienz und regulatorische Anforderungen zunehmend an Bedeutung. Eine fundierte Kenntnis aller relevanten Faktoren ist daher essentiell für erfolgreiche Gewerbeimmobilien-Investments. Die folgenden Abschnitte liefern eine praktische Übersicht.
Frühzeitig Verpflichtungen rund um das Thema Gebäude prüfen
Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen auch technische und infrastrukturelle Aspekte zunehmend an Bedeutung. Insbesondere Kanalservicearbeiten, wie die Wartung und Instandhaltung der unterirdischen Versorgungsnetze, spielen eine wesentliche Rolle bei der Sicherstellung der langfristigen Werthaltigkeit von Gewerbeimmobilien.
Unter anderem liefert das Kanalservice Magazin hierzu wertvolle Informationen rund um Anbieter und Co. Regelmäßige Inspektionen und Reparaturen von Abwasser- und Entwässerungssystemen sind nicht nur aus rechtlichen und sicherheitstechnischen Gründen wichtig, sondern auch für die Betriebskosten und die Nutzungseffizienz einer Immobilie entscheidend.
Eigentümer sollten sich daher frühzeitig mit den Anforderungen an den Kanalservice auseinandersetzen und sicherstellen, dass diese regelmäßig und vorausschauend durchgeführt werden, um teure Notfalleinsätze und mögliche Wertverluste zu vermeiden.
Steuerliche Vorteile optimal nutzen: Abschreibungen und Umsatzsteuer
Gewerbeimmobilien bieten gegenüber Wohnimmobilien deutliche steuerliche Vorteile, die Eigentümer unbedingt nutzen sollten. Der wichtigste Vorteil liegt in der höheren Abschreibungsrate von 3% jährlich statt der üblichen 2% bei Wohnimmobilien. Diese zusätzliche Abschreibung reduziert die Steuerlast erheblich und verbessert die Rendite nachhaltig.
Ein weiterer bedeutender Vorteil ist die Möglichkeit der 19% Umsatzsteuer-Erstattung beim Erwerb der Immobilie. Voraussetzung hierfür ist die ordnungsgemäße Anmeldung als Unternehmer und die entsprechende Verwendung der Immobilie.
Diese Steuervorteile können die Wirtschaftlichkeit einer Gewerbeimmobilie maßgeblich beeinflussen und sollten bereits in der Planungsphase berücksichtigt werden. Eine professionelle steuerliche Beratung ist dabei unerlässlich. Besonders praktisch ist es in diesem Zusammenhang natürlich auch, dass Studien zufolge aktuell Gründungen in verschiedenen deutschen Städten generell vergleichsweise günstig sind.
Neue Heizungspflicht: Vorgaben rund um erneuerbare Energien seit 2024
Seit 2024 müssen neu installierte Heizungen zu 65% mit erneuerbaren Energien betrieben werden – eine Regelung, die erhebliche Auswirkungen auf Gewerbeimmobilien hat. Diese Vorgabe betrifft sowohl Neubauten als auch den Austausch bestehender Heizungsanlagen und erfordert eine frühzeitige Planung.
Mögliche Lösungen umfassen:
- Wärmepumpen
- Fernwärme
- Biomasseheizungen
- Hybrid-Systeme
Die Investitionskosten sind oft höher als bei konventionellen Systemen, jedoch können staatliche Förderungen einen Teil der Mehrkosten abfedern.
Langfristig ergeben sich durch niedrigere Betriebskosten und steigende CO2-Preise wirtschaftliche Vorteile. Eigentümer sollten rechtzeitig prüfen, welche Technologie für ihre Immobilie am besten geeignet ist, und entsprechende Budgets einplanen. Eine professionelle Energieberatung hilft bei der optimalen Lösung.
Photovoltaik-Potenziale: Chancen und rechtliche Hürden
Die geplante Verdreifachung des Photovoltaik-Ausbaus bis 2030 eröffnet Gewerbeimmobilien-Eigentümern interessante Chancen zur zusätzlichen Wertschöpfung. Gewerbedächer bieten oft ideale Voraussetzungen für Solaranlagen: große, unverschattete Flächen und hoher Eigenverbrauch während der Tagesstunden.
Die Eigenverbrauchsquote kann bei Gewerbeimmobilien deutlich höher liegen als bei Wohngebäuden, was die Wirtschaftlichkeit verbessert. Allerdings bestehen auch rechtliche Hürden, insbesondere bei der Direktvermarktung von Strom an Mieter. Das Mieterstromgesetz und energierechtliche Bestimmungen schaffen komplexe Rahmenbedingungen.
Trotz dieser Herausforderungen können Photovoltaik-Anlagen die Attraktivität einer Gewerbeimmobilie steigern und zusätzliche Einnahmen generieren. Eine sorgfältige Prüfung der rechtlichen und wirtschaftlichen Aspekte ist dabei unerlässlich. Der Faktor „Nachhaltigkeit“ spielt generell aber auch in vielerlei Hinsicht eine wichtige Rolle. So entscheiden sich nicht nur im privaten, sondern auch im gewerblichen Bereich viele dafür, nicht direkt neu zu kaufen, sondern zu reparieren. Ideal für alle, die den ökologischen Fußabdruck ihres Betriebes reduzieren möchten.
Erfolgreich investieren: Wichtige Erkenntnisse für Gewerbeimmobilien-Eigentümer
Erfolgreiche Gewerbeimmobilien-Investments erfordern heute mehr denn je eine ganzheitliche Betrachtung aller relevanten Faktoren. Die steuerlichen Vorteile mit 3% Abschreibung und Umsatzsteuer-Erstattung bleiben wichtige Argumente für diese Anlageklasse.
Gleichzeitig steigen die Anforderungen durch neue Regelungen wie die Heizungspflicht und ESG-Kriterien erheblich. Der strukturelle Wandel des Marktes erfordert angepasste Strategien und eine sorgfältige Auswahl der Immobilien.
Chancen ergeben sich insbesondere in zukunftsorientierten Segmenten wie Logistik und bei der Integration erneuerbarer Energien. Eine professionelle Beratung und kontinuierliche Marktbeobachtung sind unerlässlich. Das Kanalservice Magazin bietet hierfür wertvolle Unterstützung mit fundierten Informationen und praktischen Tipps für alle Aspekte des Gewerbeimmobilien-Investments.
DefenseTech-Report 2025
Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Wie DefTech-Start-ups Sicherheit und Verteidigung durch Innovationskraft, Agilität und Flexibilität revolutionieren.
Der russische Überfall auf die Ukraine im Februar 2022 markierte einen Wendepunkt für die deutsche Verteidigungspolitik. Der Bundeskanzler rief die „Zeitenwende“ aus – einen Kurswechsel, der u.a. ein Sondervermögen von 100 Mrd. Euro für die Bundeswehr einschloss. Seither rücken technologische Innovationen für die Verteidigung verstärkt in den Fokus. DefenseTech-Start-ups (auch DefTechs genannt) – also junge Technologieunternehmen mit rein militärischen oder Dual-Use-Anwendungen (zivil und militärisch) – erleben seitdem einen Aufschwung. Die USA haben deutlich signalisiert, dass ihre Bereitschaft, als Arsenal der Demokratie unbegrenzt westliche Verteidigung zu finanzieren, nachlässt. Europa, Deutschland im Besonderen, muss also eigene Innovationskraft mobilisieren, um wirksam abschrecken zu können.
Start-ups im Gefechtsfeld der Zukunft: Lehren aus dem Ukraine-Krieg
Der russische Angriffskrieg offenbart, welche Technologien und Akteur*innen auf dem Gefechtsfeld der Zukunft dominieren werden. Auffällig ist, wie ein verteidigungsnahes Innovationsökosystem aus Tech-Start-ups und Dual-Use-Technologien in der Ukraine binnen kurzer Zeit Lösungen hervorbrachte, die Russlands konventionelle Überlegenheit teilweise neutralisierten.
Die ukrainischen Streitkräfte setzen neue Taktiken und Waffensysteme zudem mit einer Agilität ein, die westliche Armeen – mit ihren oft jahrelangen Beschaffungszyklen – nicht erreichen.
Im Ukraine-Krieg haben sich vor allem Drohnen als Gamechanger erwiesen. First-Person-View-(FPV)-Drohnen fungieren gleichsam als „Infanterie“ der Drohnenkriegsführung – sie sind zu einer tragenden Säule von Kiews Kriegsanstrengungen geworden und verursachen Schätzungen zufolge bis zu 80 Prozent der russischen Verluste auf dem Gefechtsfeld.
Ukrainische Herstellende – vielfach kleine Firmen – produzieren aktuell rund 200.000 FPV-Drohnen pro Monat und ersetzen zunehmend importierte Bauteile durch eigene Entwicklungen. Solche billigen Mini-Drohnen können aber Panzer oder Radaranlagen im Wert von Millionen zerstören – ein eklatantes Kosten-Nutzen-Missverhältnis zu Ungunsten klassischer Wehrtechnik. Daneben prägen Loitering Munitions (umherschweifende „Kamikaze-Drohnen“) den Konflikt.
Überhaupt redefiniert die Ukraine den Drohneneinsatz: Wie Forbes berichtete, wurde entlang der Front ein rund 25 km breiter „Kill-Zone“-Streifen eingerichtet, patrouilliert von Schwärmen kleiner Drohnen, der feindliche Truppenansammlungen nahezu unmöglich macht – die NATO erwägt bereits eine ähnliche „Drone Wall“ zum Schutz ihrer Ostflanke. Die Allgegenwart von Drohnen rief freilich elektronische Gegenmaßnahmen auf den Plan: Beide Seiten überziehen sich mit immer neuen Electronic-Warfare-Taktiken, vom Stören und Spoofen von GPS- und Funkverbindungen bis hin zu improvisierten physischen Schutzgittern („cope cages“) an Fahrzeugen. Im Gegenzug werden jetzt verstärkt per Glasfaser ferngelenkte Drohnen entwickelt, die gegen Funk-Jamming immun sind. Auch im Cyber-Raum tobt der Schlagabtausch, der jedoch trotz einzelner schwerer Angriffe offenbar bislang keine strategisch entscheidenden Wirkungen erzielte.
Den größten Wert haben Cyber-Operationen daher bislang für Aufklärung und Störung gegnerischer Kommunikation. Insgesamt gilt dieser Krieg auch als erster großer Konflikt, in dem kommerzielle Technik so umfassend militärisch genutzt wird, dass Beobachtende bereits vom ersten „kommerziellen Raumfahrtkrieg“ sprechen. Private Satelliten liefern der Ukraine rund um die Uhr Geodaten und Aufklärung, während tausende Starlink-Terminals ein robustes Kommunikationsnetz auf dem Gefechtsfeld sicherstellen. Ebenso werden zivil verfügbare Drohnen, handelsübliche 3D-Drucker und KI-Software in militärische Anwendungen überführt. Mit erschwinglichen Geräten und Software lässt sich realisieren, was früher teuren Spezialkräften vorbehalten war. Die Kehrseite ist, dass die Trennung zwischen zivilem und militärischem Bereich zunehmend verschwimmt, was ethische und sicherheitspolitische Fragen aufwirft.
Die Rolle von Start-ups
Viele dieser Innovationen wurden nicht von Rüstungsriesen ersonnen, sondern von kleinen, agilen Akteur*innen. In der Ukraine stützt man sich auf eine lebhafte Tech-Start-up-Szene und eine flexible Rüstungsindustrie, um Russlands zahlenmäßige Vorteile auszugleichen. Die Iterationsgeschwindigkeit ist beeindruckend: Die Entwicklungszyklen für neue Lösungen sind von Jahren auf Monate, Wochen oder gar Tage geschrumpft. Agile Start-ups und Entwickler*innen-Teams an der Front reagieren in Echtzeit auf Bedrohungen. Sie fügen ständig neue Gegenmaßnahmen und Verbesserungen hinzu, um der Gegenseite immer einen Schritt voraus zu sein.
Dieser direkte Innovationsloop vom Gefechtsfeld in die Werkstatt und zurück beschleunigt den Fortschritt enorm. So schießen etwa ukrainische Drohnen-Workshops buchstäblich in Kellern und umfunktionierten Supermärkten aus dem Boden, um Produktion und Entwicklung selbst unter Beschuss aufrechtzuerhalten. Start-ups bringen eine Kultur der schnellen Iteration ein, die klassische Rüstungsbetriebe so nicht kennen. Das Ergebnis: 500-US-Dollar-Drohnen werden im Feld per Trial-and-Error optimiert und können anschließend einen 5-Mio.-US-Dollar-Panzer ausschalten.
Gründungs-Boom im Verteidigungssektor
Auch außerhalb der Ukraine hat der Krieg einen Gründungs-Boom ausgelöst. Wagniskapital fließt so stark wie nie in europäische Verteidigungs- und Sicherheits-Technologie: 2024 wurden in diesem Sektor 5,2 Mrd. US-Dollar investiert – ein Allzeithoch. Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Einige staatlich unterstützte VC-Fonds in Europa, wie z.B. SmartCap aus Estland, fördern mittlerweile explizit Rüstungsinvestments. Zwar ist die europäische VC-Branche aufgrund vertraglicher Bindungen insgesamt noch zögerlich, doch die Zurückhaltung wirkt 2025 überholt. Schließlich zeigt der Ukraine-Krieg, dass technologische Innovation das Kriegsgeschehen entscheidend beeinflusst – eine Wahrheit, die in den vergangenen Friedensdekaden in Vergessenheit geriet.
Auch in Deutschland entsteht ein dynamisches Ökosystem, das viele Technologiefelder abdeckt. Die wichtigsten sind künstliche Intelligenz und autonome Systeme, Quantentechnologien, Human Enhancement, Hyperschalltechnologien, neuartige Materialien und Fertigungsverfahren, Raumfahrttechnologien, Advanced Manufacturing sowie resiliente Energiesysteme. Die Bitkom befragte kürzlich 44 deutsche DefTech- und Dual-Use-Start-ups, aber die Dunkelziffer dürfte höher liegen, da inzwischen viele DeepTech-Start-ups mit dem Verteidigungsmarkt liebäugeln.
So hat das Digital Hub Security & Defense BASED während der letzten Münchner Sicherheitskonferenz 80 DefTech-Start-ups auf dem „Sicherheitsfrühstück“ einer fast ebenso großen Zahl an Investor*innen vorgestellt. BASED hat sich auf die Fahnen geschrieben, DefTech-Start-ups „investment ready“ zu machen. Und viele Gründer*innen und Talente entscheiden sich angesichts der Bedrohungslage auch „mission driven“ für die Verteidigung, um einen Beitrag zum Schutz unserer Demokratie zu leisten.
Ein Beispiel für ein erfolgreiches europäisches VerteidigungsStart-ups ist neben ARX Robotics (mehr dazu liest du hier in der Coverstory unserer Magazin-Ausgabe 02/25) oder Quantum Systems aus München auch das Unicorn Helsing, das den HX-2-Drohnenjäger entwickelte und Produktionskapazitäten in Deutschland aufbaut, um monatlich vierstellige Stückzahlen zu liefern. Solche Newcomer zeigen, wie Innovationskraft, Tempo und Skalierung im Ernstfall aussehen können – und dass Start-ups mit unkonventionellen Ansätzen binnen kurzer Zeit Fähigkeiten bereitstellen könnten, für deren Entwicklung traditionelle Rüstungsprogramme in der Vergangenheit Jahrzehnte gebraucht haben. Nicht zuletzt hat der Krieg die Produktionslogik verändert: Entscheidend ist nicht mehr, ein Waffensystem mit allen erdenklichen Sonderwünschen als „Goldrandlösung“ zu perfektionieren, sondern es schnell und robust in großen Stückzahlen bereitzustellen. Auch deutsche Rüstungsfirmen wie Hensoldt sprechen von einem Paradigmenwechsel: weg von der früheren „Boutique“-Fertigung hin zur Massenproduktion. Geschwindigkeit schlägt Sonderanfertigung: Statt monatelanger Feintuning-Schleifen gilt nun, was an der Front sofort wirkt.
Lehren für den Westen und Deutschland
Was bedeuten diese Erfahrungen für die Bundeswehr und ihre Partner*innen? Zunächst, dass Beschaffungsbürokratien und veraltete Prozesse zum Sicherheitsrisiko werden. In der Ukraine hat sich der traditionell träge Militärapparat unter existenziellem Druck rasant gewandelt. Westliche Länder müssen diese Lektionen proaktiv aufgreifen. Im Schnitt dauern Rüstungsprojekte in Deutschland sechs bis sieben Jahre – eine so lange Durststrecke überlebt kein Start-up in der schnelllebigen Tech-Welt. In der Vergangenheit haben sich talentierte Gründer*innen und Investor*innen daher lukrativeren Branchen zugewandt, statt jahrelang auf einen Durchbruch im Verteidigungssektor zu hoffen. Wollen staatliche Stellen die Innovationskraft der Start-up-Welt nutzen, müssen sie nun zu verlässlichen und schnelleren Kund*innen werden. Dazu gehört, Vergabeverfahren radikal zu verschlanken, mehr Wettbewerb und Transparenz zu schaffen und nicht-traditionelle Anbieter*innen aktiv einzubinden.
Die Politik hat dies erkannt: In Berlin hat sich die neue Koalition vorgenommen, die langsamen Beschaffungsabläufe grundlegend zu reformieren. Eine Analyse des Wirtschaftsministeriums (BMWK) identifizierte bereits 2023 Bremsklötze: übermäßige parlamentarische Einmischung bei jedem Auftrag über 25 Mio. Euro, komplizierte Regulierung sowie zu enge Grenzen bei der Forschungsförderung. Diese Hürden führen dazu, dass Innovationen im „Tal des Todes“ versickern – dem Übergang von Prototypen in die Serienbeschaffung. Durch bürokratische Verzögerungen verliert neue Technik dort kritische Zeit und Schwung, bisweilen verschwindet sie ganz. Um das zu verhindern, muss es strukturelle Änderungen geben: von der Verstetigung von Innovationsbudgets über beschleunigte Genehmigungswege bis hin zur besseren Verzahnung von zivilen Talenten mit militärischen Bedarfsträger*innen. Kurz: Die Streitkräfte dürfen nicht länger in Friedensroutine verharren.
Zugleich müssen Produktionskapazitäten hochgefahren werden. Der Krieg lehrt, dass eine industriell-logistische Mobilmachung nötig ist, um im Ernstfall genug Material bereitstellen zu können – seien es Munition, Drohnen oder Ersatzteile. Dafür braucht es auch neue Geschäftsmodelle und modulare „Factories“ in Europa, die bei Bedarf binnen kürzester Zeit die Ausstoßzahlen hochskalieren können. Auch Abhängigkeiten von langen und störanfälligen Lieferketten im Bereich der Rohstoffe und Komponenten müssen reduziert werden.
Generell sollten westliche Regierungen verstärkt Kapital in junge Verteidigungsfirmen lenken – etwa durch Wagniskapitalfonds oder Innovationsprogramme – und verhindern, dass große Rüstungskonzerne vielversprechende Neulinge bloß aufkaufen, um deren Technologien vom Markt zu nehmen. Die Innovationsökosysteme rund um Verteidigung müssen sorgfältig kultiviert werden, damit die aktuelle Aufbruchsstimmung nicht abrupt endet. Dazu gehört auch ein Mentalitätswandel bei Investor*innen: Die Jahrzehnte währende Scheu vor Wehrtechnik-Investments ist nicht mehr zeitgemäß – letztlich hängt die Sicherheit Europas von unserer technologischen Stärke ab.
Fazit
Der Ukraine-Krieg führt vor Augen, wie künftig Kriege entschieden werden: durch Geschwindigkeit und Innovationskraft. Günstige, flexibel einsetzbare Technologien – oft entwickelt von neuen Akteur*innen – können hochgerüstete Gegner*innen ins Wanken bringen. Start-ups avancieren hierbei zum strategischen Faktor. Sie liefern Agilität, frische Ideen und die Fähigkeit, sich im Kriegsverlauf iterativ anzupassen.
Die Autorin Prof. Dr. Rafaela Kraus ist Professorin für Unternehmens- und Personalführung soeir ehem. Vizepräsidentin der Universität der Bundeswehr München und hat dort u.a. das Entrepreneurship-Center founders@unibw ins Leben gerufen. Als Defense-Innovation-Expertin ist sie Initiatorin von BASED, dem Münchner Digital Hub Security & Defense
fünfeinhalb Funksysteme: Echtzeit-WLAN für die Industrie
Das 2023 als Ausgründung aus der TU Dresden gegründete Start-up fünfeinhalb Funksysteme stellt mit BlitzFunk eine 5G-Alternative für industrielle Anwendungen vor.
Die Einführung des Mobilfunkstandards 5G sollte die drahtlose Kommunikation nicht nur für den Consumer-Markt revolutionieren, sondern auch den Weg hin zur Industrie 4.0 mit vollvernetzten, intelligenten Fabriken ebnen. Doch bis heute können kommerzielle 5G- sowie zahlreiche WLAN-Systeme die Echtzeitanforderungen industrieller Anforderungen meist nicht erfüllen: Verzögerungen in der Datenübertragung (Latenzen) führen zu oft zu Systemstopps und Ausfällen ganzer Anlagen. Das Dresdner Start-up fünfeinhalb Funksysteme GmbH hat es sich zum Ziel gesetzt, dies zu ändern. Mit BlitzFunk, einem Echtzeit-WLAN-System mit berechenbaren Latenz-Garantien sowie latenzfreiem Roaming, ist ihm dies gelungen.
Fünfeinhalb Funksysteme wurde 2023 als Ausgründung aus der TU Dresden gegründet, mit dem Ziel, die nicht eingehaltenen Versprechen des Mobilfunkstandards 5G einzulösen und für Anwendungen im industriellen Umfeld nutzbar zu machen. Dafür hat das fünfköpfige Gründerteam rund um Geschäftsführer Dr. Lucas Scheuvens BlitzFunk entwickelt. Das Funksystem – bestehend aus Access Points und Clients – ist so konzipiert, dass es als eine koordinierte Einheit agiert. Die Anwendergeräte (Maschinen, Steuerungen oder Sensoren) werden über Ethernet mit dem System verbunden.
Latenzfreies Roaming ohne Unterbrechung
Einen der größten USPs des Funksystems fasst Dr. Lucas Scheuvens wie folgt zusammen: „Bei einem klassischen Roaming-Prozess, der in räumlich größeren Netzwerken immer nötig ist, ist der Client jeweils mit nur einem Access Point verbunden. Bevor er dessen Reichweite verlässt, muss er mit dem nächsten Access Point verknüpft werden. Das heißt, dass dort die Verbindung zum ersten Access Point ab- und zum nächsten Access Point neu wieder aufgebaut wird. Verschiedene Lösungen können dies zwar besonders schnell, aber es gibt immer einen zeitlichen Break. Bei Blitzfunk ist das nicht so, da unsere Access Points sich koordinieren und somit latenzfreies Roaming garantieren. Dabei koordinieren sie sich im Hintergrund automatisch so, dass sie sich nicht gegenseitig stören. Da das Roaming im BlitzFunk-System keinerlei negative Auswirkungen hat, entfällt auch die aufwendige und kostenintensive Funknetzplanung.“
Entwickelt für die Anforderungen der Industrie 4.0
BlitzFunk garantiert eine schnelle Datenübertragung – selbst bei mehreren verbundenen Geräten (Clients): Für 99,9999 Prozent aller Sendeversuche liegt die Latenz – so das Unternehmen – nachweislich bei maximal 2 × (N + 1) Millisekunden, wobei N die Anzahl der gleichzeitig aktiven Geräte ist – und das bei maximaler Ethernet-Framegröße von 1500 Bytes. Ein einzelner Client im System hat demnach eine garantierte Latenz von 4 Millisekunden, bei zehn Clients sind demnach 22 Millisekunden erwartbar, usw. Diese Garantie gilt auch für den Roaming-Fall, was vollständig unterbrechungsfreie Datenverbindungen für anspruchsvollste Industrie-Anwendungen ermöglicht.
Doch das Funksystem hat noch weitere Vorteile: es verhält sich wie ein verteilter Ethernet-Switch und bietet somit Plug&Play-Kompatibilität mit allen Ethernet-basierten Protokollen, inklusive Profinet, Profisafe, EtherNet/IP, CIP Safety und MQTT. Dazu kommen seine einfache Inbetriebnahme und Verwaltung über einen Webbrowser, was beides ohne spezielle technische Kenntnisse möglich ist. Ein weiterer Pluspunkt ist das eingebaute Troubleshooting, dank dem sich das Funksystem als Fehlerquelle eindeutig identifizieren (z.B. bei Überlastung) oder ausschließen lässt. Nicht zuletzt punktet das Funksystem auch in Bezug auf die Security mit geräteindividueller, quantensicherer Verschlüsselung sowie Authentifizierung.
Gemacht für mobile Anwendungen in der Logistik und Fertigungsbranche
Fünfeinhalb Funksysteme richtet sich insbesondere an Hersteller bzw. Systemintegratoren, die eine mobile Vernetzung ihrer Maschinen benötigen, die genauso zuverlässig funktioniert wie eine Kabelverbindung. Scheuvens erklärt dazu: „Obwohl sich mit BlitzFunk auch existierende Kabelinstallationen ersetzen lassen, ist das nicht unser Hauptanspruch. Konzipiert wurde das System hauptsächlich für Einsatzszenarien in der Fertigung, die mobile Roboter oder Fahrzeuge umfassen. Aber auch für Schlittensysteme und rotierende Elemente ist BlitzFunk geeignet – bzw. generell überall dort, wo Kabel stören oder technisch nicht sinnvoll einsetzbar sind“. Zu den zahlreichen, bereits erfolgreich durchgeführten Projekten zählen Vernetzungen von Schweißrobotern, Deckenkränen und fahrerlosen Transportfahrzeugen – sowohl im Safety- als auch Non-Safety-Bereich.
Blick in die Zukunft: Noch mehr Leistung
Gefragt nach einem Blick in die Zukunft des Unternehmens antwortet Scheuvens: „Aktuell basiert BlitzFunk auf klassischen, für den breiten Massenmarkt konzipierten Standard-Komponenten. Das macht die Lösung sofort und mit einem großen Mehrwert gegenüber anderen Systemen einsetzbar, demonstriert aber nur einen Bruchteil dessen, was möglich ist. Aktuell arbeiten wir an einem komplett integrierten Echtzeit-WLAN-System, das dann selbst BlitzFunk in den Kategorien Größe, Anzahl der gleichzeitig unterstützten Geräte, Zuverlässigkeit, Latenz und Energieverbrauch noch jeweils um den Faktor zwei bis zehn verbessern kann. Wir freuen uns auf die Reise!“
EU AI Act: Bürokratisch, unpraktisch, schlecht
Ein Kommentar von Dominik Mohilo, Redakteur und IT-Experte bei der auf High-Tech spezialisierten Münchner PR- und Kommunikationsagentur PR-COM.
Die Luft auf dem hohen moralischen Ross, auf dem Deutschland vorreitet und Europa folgt, wird dünner und dünner. Ja, der EU AI Act ist eine Errungenschaft. Und ja, ethische Grundsätze sollten wir keinesfalls missachten, wenn es darum geht, künstliche Intelligenz zu entwickeln, zu betreiben und zu verwenden. Fair enough. Doch darf’s vielleicht trotzdem ein bisschen weniger Bürokratie sein, liebe EU? Artikel 5 des KI-Regelwerks der EU besagt beispielsweise, dass die folgende KI-Praktik verboten ist: „Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das unterschwellige Techniken, die sich dem Bewusstsein einer Person entziehen, oder absichtlich manipulative oder täuschende Techniken einsetzt, mit dem Ziel oder der Wirkung, das Verhalten einer Person oder einer Personengruppe dadurch wesentlich zu beeinflussen, dass ihre Fähigkeit, eine sachkundige Entscheidung zu treffen, spürbar beeinträchtigt wird, wodurch sie veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Personengruppe einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.“ (Kapitel II, Artikel 5, 1a)
Sperrig und überregulatorisch
Verstanden worum es geht? Ich auch nicht. Ähnlich sperrig und überregulatorisch ist der Abschnitt über sogenannte Hochrisiko-KI-Systeme formuliert. Gemeint sind damit jene KI-Anwendungen, die etwa im Gesundheitswesen, in der Bildung oder kritischen Infrastrukturen eingesetzt werden sollen – also genau den Bereichen, wo sie dringend benötigte Verbesserungen und Entlastungen für die in diesen Bereichen arbeitenden Menschen mit sich bringen könnten. Was genau mit Hochrisiko gemeint ist, ist allerdings wieder nicht glasklar definiert: was hat denn nun „erheblichen Einfluss auf Grundrechte“? Diese Unsicherheit im Hinblick auf die rechtliche Grundlage ist oft Grund genug für potenzielle Investoren, sich nach anderen Gelegenheiten umzusehen. Wer will schon exorbitante Kosten für juristische Verfahren locker machen und Zertifizierungen noch und nöcher erwerben, nur um am Ende dann möglicherweise doch gegen geltende Gesetze zu verstoßen? Eben.
Start-ups sind von Hürden überproportional heftig betroffen
Gerade kleine und mittelständische Unternehmen (KMU) sowie Start-ups sind von diesen Hürden überproportional heftig betroffen, sodass viele gute und wegweisende Ideen nicht oder zumindest nicht hier in der EU auf den Weg gebracht werden. Wirtschaftlich ist das fatal – das auch noch in diesen schwierigen Zeiten. In diesen Zeiten wäre es eigentlich wichtig, die Wirtschaft voranzutreiben, insbesondere in zukunftsweisenden Bereichen wie dem KI-Markt. Eine gute Möglichkeit wäre, die Technologie hierzulande staatlich zu subventionieren, wie das in den USA und in China bereits in großem Stil passiert. Stattdessen werfen wir uns selbst Stöcke in die Speichen unserer Räder – unter anderem mit Regulierung und ethischen Grundsätzen, sondern insbesondere durch schwammige Gesetzestexte und Undurchsichtigkeit von Compliance-Vorschriften.
Zusammenfassend ist festzustellen, dass die alte Forderung „rebellischer“ (mancher würde sagen: „vernünftiger“) Politiker, Bürokratie abzubauen, selten so eine hohe Relevanz wie aktuell hatte. Europa geht es wirtschaftlich schlecht, gleichzeitig verlassen High-Tech-Unternehmen scharenweise unsere Breitengerade, da das Regulierungskorsett so eng geschnürt ist, dass Innovation keine Luft mehr zum Atmen hat. Es gilt also, Maßnahmen zu ergreifen, um wettbewerbsfähig zu werden.
Was könnte die EU nun machen, da das Regulations-Kind in den Brunnen gefallen ist?
Zunächst einmal wäre es hilfreich, aus unserem Elfenbeinturm herauszukommen. Ethik ist wichtig, aber kein Altar, auf dem wir unsere Wirtschaft opfern sollten. Haben wir das verinnerlicht, braucht der EU AI Act eine Überarbeitung die Unklarheiten auflöst und die Hürden (gerade für Start-ups und KMU) verringert. Sinnvoll wäre zudem, wenn die EU KI-Sandboxes zur Prüfung von innovativen Technologien bereitstellen würde, in denen Unternehmen ihre Entwicklungen testen können, ohne gegen Gesetze zu verstoßen. Zudem muss die EU-Gelder und Mittel zur Verfügung stellen, Zertifizierungsverfahren deutlich zu beschleunigen. Auch eine Zentralisierung dieser Verfahren würde Sinn ergeben. Die entsprechende ISO-Norm (ISO/IEC 42001) gibt es bereits, was fehlt sind offizielle Tools, um die Konformität der eigenen Anwendung zu checken.
Ziel muss es sein, Europa als attraktives Umfeld für den Einsatz und die Entwicklung von KI-Anwendungen zu positionieren. KI wird in den kommenden Jahren über wirtschaftlichen Erfolg nicht nur von Unternehmen, sondern von Staaten avancieren. Wenn wir nicht die gleichen Katastrophen wie aus der Schwerindustrie und der Automobilbranche erleben, sondern wieder vorne mitspielen wollen, dürfen wir uns nicht selbst behindern. Das Gebot der Stunde ist also Bürokratieabbau und Mut zu moderaterer Ethik – so werden wir vielleicht irgendwann doch wieder Exportweltmeister.
Circunomics startet eigenes Batterie-Testlabor
Die Circunomics-Gründer Felix Wagner und Jan Born haben sich das Ziel gesetzt, eine zirkuläre Batteriewirtschaft zu etablieren, indem sie einen digitalen Marktplatz für den Second-Life-Einsatz und das Recycling gebrauchter Batterien bieten. Mit der Einrichtung des eigenen Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort.
„Die Kreislaufwirtschaft ist in Zukunft von immer größerer Bedeutung. Dies ist für uns die große Chance, mit dem digitalen Marktplatz für gebrauchte Batterien, Module und Zellen eine herausragende Position einzunehmen“, sagt Felix Wagner, Co-Founder und CEO von Circunomics. „Im Jahr 2030 werden alleine im Automobilsektor zwischen 200 und 300 Millionen Elektrofahrzeuge auf den Straßen der Welt unterwegs sein. Das bedeutet, dass dann jedes Jahr etwa sechs Millionen gebrauchte Batterien als Rückläufer aus Altfahrzeugen auf den Markt kommen. Diese wiederzuverwenden oder gezielt zu recyclen ist eine Mega-Aufgabe, die gelöst werden muss. Schließlich haben wir alle ein Ziel: Weniger CO2 zu produzieren und weniger der wertvollen, seltenen Rohstoffe zu verbrauchen.“
Battery Lifecycle Management Solution
Die Ergebnisse KI-basierter Analysen von gebrauchten Batterien, die beispielsweise in elektrischen Fahrzeugen verwendet werden, mit selbst ermittelten Laborwerten aus einer Real-Life-Simulation abgleichen, trainieren und verifizieren: Das ist die Aufgabe des neuen Batterie-Testlabors, das vom Start-up Circunomics in Roßdorf bei Darmstadt eingerichtet wurde und jetzt seinen Betrieb vollumfänglich aufgenommen hat.
Die 2019 gegründete Circunomics GmbH ist damit in der Lage, eine Datenbasis für die selbst entwickelte Software aufzubauen, die wiederum genutzt wird, um den Gesundheitszustand (State of Health) einer gebrauchten Batterie während und nach einer Erstverwendung (First Life) sehr präzise zu ermitteln. Vielmehr aber kann detailliert simuliert und hochgerechnet werden, wie sich die gebrauchte Batterie bei einer Zweitverwendung (Second Life) zum Beispiel in einem stationären Speichersystem verhält. Zudem kann eine Empfehlung ausgesprochen werden, welche Batterien für das jeweilige Projekt am besten geeignet sind.
Mit der Einrichtung des Batterie-Testlabors setzt das Start-up mit Hauptsitz Mainz seine Expansion fort, die nach einer erfolgreich durchgeführten Series-A-Finanzierungsrunde möglich ist. Zu Jahresbeginn 2025 hatte Circunomics von Investor*innen über acht Millionen Euro erhalten.
Real-Life-Simulation im Testlabor
Im neuen Batterie-Testlabor in Roßdorf können je nach Bedarf und Programm verschiedene Zellen gleichzeitig in einer sicher abgeschirmten Prüfeinrichtung untergebracht und unterschiedlichsten Belastungen ausgesetzt werden. Es erfolgt eine umfangreiche Real-Life-Simulation täglicher Batterienutzungssituationen beispielsweise in einem Elektrofahrzeug: Schnell oder langsam aufeinander folgende Ladezyklen, unterschiedliche Ladestromstärken mit bis zu 300 Ampere Gleichstrom, verschiedene Degradierungszustände der Batterie und das Ganze – wenn notwendig – bei unterschiedlichen Temperaturen. Möglich ist eine Temperaturspanne von minus 20 bis plus 60 Grad Celsius. Die jeweiligen Tests der Zellen können über einen kurzen, mittleren oder längeren Zeitraum durchgeführt werden. Das können wenige Tage, Wochen und Monate, aber auch bis zu zwei Jahre sein.
„Bisher haben wir die Zellen von einem externen Dienstleister analysieren lassen. Diese Aufgaben nehmen wir jetzt selbst in die Hand, erhöhen damit unsere Effizienz, sind schneller mit dem Abgleich von Daten, wodurch wir in der Lage sind, unsere Simulationen und Hochrechnungen für eine Verwendung im Second Life noch genauer und zuverlässiger anbieten zu können“, erklärt Jan Born, Co-Founder und CTO von Circunomics. Und ergänzt: „Wir haben einerseits Millionen von Daten, die während des First Life einer Batterie gesammelt werden und die uns zur Verfügung gestellt werden. Auf dieser Basis haben wir bisher mit der KI-unterstützten Software am Computer analysiert, was die gebrauchte Batterie noch im Stande ist, im Second Life zu leisten, bevor sie dann endgültig dem Recycling zugeführt wird. Im neuen Labor und mit den eigenen Analysen sehen wir nun, wie sich eine Zelle im simulierten Batterieleben verhält und wir können die dabei ermittelten Ergebnisse, mit denen aus der Software abgleichen und verifizieren.“
KI-Übergangsphase: Fluch und Segen
Zwischen Wundermaschine und Blackbox – Warum wir gerade in einer KI-Übergangsphase leben und was das generell für das Marketing bedeutet.
Künstliche Intelligenz (KI) verändert gerade in rasantem Tempo unsere Welt. Sie automatisiert Prozesse, entlastet Teams, liefert Analysen in Echtzeit und ermöglicht einen bisher nicht gekannten Grad an Personalisierung. Wer heute im Marketing arbeitet, kommt an KI nicht mehr vorbei – sei es beim Texten von Werbebotschaften, beim Targeting, in der Bildgenerierung oder der Erfolgsmessung.
KI verspricht Effizienz, Präzision und neue kreative Möglichkeiten. Doch die Euphorie wird zunehmend begleitet von einer neuen, ernüchternden Erfahrung: Künstliche Intelligenz kann auch Nutzererlebnisse verschlechtern, Prozesse intransparent machen – oder gar ganze Geschäftsmodelle gefährden. Der technologische Fortschritt ist zweifellos da, doch gesellschaftlich, wirtschaftlich und kulturell befinden wir uns noch mitten in einer Übergangsphase. Und das birgt Risiken – nicht nur für Plattformen, sondern auch für Unternehmen, die sie nutzen.
Beispiel Pinterest: Wenn der Algorithmus plötzlich entscheidet
Ein aktuelles Beispiel liefert Pinterest: Die visuelle Such- und Inspirationsplattform setzt verstärkt auf KI, um Inhalte effizient zu kategorisieren, Hassrede zu erkennen, urheberrechtlich geschützte Werke zu markieren oder Spam zu unterbinden. Was auf dem Papier sinnvoll und zukunftsgerichtet klingt – ein moderner „Content Safety Stack“ mit automatisierter Moderation –, hat in der Praxis zahlreiche Creator*innen und Unternehmen auf dem falschen Fuß erwischt.
Accounts wurden gelöscht, Pins blockiert oder ganze Seiten unsichtbar gemacht – oft ohne erkennbare Begründung. Was ist passiert? Die KI-Modelle bei Pinterest wurden darauf trainiert, problematische Inhalte automatisiert zu erkennen und Plattformregeln durchzusetzen. Doch wie in vielen KI-Systemen liegt der Teufel im Detail: Die Modelle sind noch nicht präzise genug, um zwischen legitimen und grenzwertigen Inhalten zuverlässig zu unterscheiden – vor allem in einem visuellen Umfeld wie Pinterest. Besonders problematisch wird es, wenn Nutzer*innen keine Möglichkeit haben, die Entscheidungen nachzuvollziehen oder effektiv dagegen vorzugehen.
Für Unternehmen, die Pinterest als Marketingplattform nutzen, ist das ein unkalkulierbares Risiko. Wer auf Sichtbarkeit und Reichweite angewiesen ist, kann es sich kaum leisten, dass automatisierte Systeme ohne Vorwarnung Inhalte sperren. Der Vertrauensschaden ist enorm.
Im Spannungsfeld der KI-Nutzung
Dieser Fall steht exemplarisch für ein zentrales Spannungsfeld der KI-Nutzung: Auf der einen Seite die große Hoffnung auf Automatisierung, Kostenersparnis und Kontrolle – auf der anderen Seite die Realität einer noch nicht vollständig ausgereiften Technologie, die häufig wie eine Blackbox agiert. Für Nutzer*innen bedeutet das: weniger Transparenz, weniger Kontrolle, mehr Frustration. Ähnliche Phänomene beobachten wir auch bei großen Social-Media-Plattformen wie Meta oder TikTok. Auch hier sorgen KI-basierte Moderationssysteme regelmäßig für Unmut – sei es durch falsch erkannte Verstöße, Einschränkungen der Reichweite oder Verzögerungen im Kundenservice, der durch automatisierte Antworten ersetzt wurde. Dabei geht es nicht um generelle Ablehnung von KI – sondern um die Art und Weise, wie sie implementiert und kommuniziert wird.
Gute KI ist unsichtbar – weil sie funktioniert
Das Marketing der Zukunft soll nicht nur effizient, sondern muss auch verantwortungsvoll sein. Es wird davon abhängen, wie gut Unternehmen die Balance finden zwischen Automatisierung und menschlicher Kontrolle. Zwischen der Verlockung, Prozesse zu beschleunigen, und der Notwendigkeit, Vertrauen zu erhalten. Gute KI ist unsichtbar – weil sie funktioniert. Sie analysiert, aber entscheidet nicht alleine. Zukunftsfähiges Marketing ist also geprägt von einer Kombination aus technologischer Intelligenz und menschlicher Relevanz. KI, Automatisierung und Datenanalyse ermöglichen eine bisher unerreichte Präzision: Zielgruppen werden individueller angesprochen, Inhalte in Echtzeit ausgespielt und Customer Journeys automatisiert optimiert. Personalisierung ist dabei kein Zusatz mehr, sondern Standard.
Gleichzeitig verändern sich die Erwartungen der Konsument*innen: Sie wollen authentische Marken, klare Haltung, Datenschutz und echte Mehrwerte – keine leeren Werbeversprechen. Deshalb wird Marketing künftig nicht nur effizient, sondern auch ethisch und wertebasiert sein müssen. Vertrauen wird zur zentralen Währung. Auch deshalb ist das Marketing der Zukunft vor allem Inhouse zu verorten. Agenturen befinden sich auf dem absteigenden Ast – sie sind teuer und liefern nicht die Ergebnisse, die Unternehmen und Marken wirklich benötigen. Zu dieser Entwicklung gehört auch, dass Inhouse-Marketing-Verantwortliche umfassend geschult werden müssen, damit sich der Einsatz von KI maximal einfach gestaltet und gleichzeitig äußerst produktiv ist.
KI ist weder Fluch noch Segen – sie ist ein mächtiges Werkzeug, das mit Bedacht eingesetzt werden muss. Wer KI einfach laufen lässt, riskiert Vertrauensverluste. Wer sie aber erklärt, einbettet und begleitet, kann gewinnen – an Effizienz, Qualität und Glaubwürdigkeit. Das Marketing der Zukunft ist nicht einfach KI-gesteuert. Es ist menschenzentriert – mit KI als starkem, aber verantwortungsbewusstem Assistenten.
Der Autor Bastian Sens gründete Sensational Marketing im Jahr 2010 – zunächst als klassische Onlinemarketing-Agentur. Im Laufe der Jahre kristallisierte sich jedoch ein alternativer Weg heraus, sodass sich das Unternehmen zu einer Onlinemarketing-Academy wandelte.

