Geschäftsideen Museum: Geräusche für die Ewigkeit

Erstes Museum für Geräusche


44 likes

Viele Gegenstände verschwinden aus unserem Alltag – beispielsweise Telefone mit Wählscheibe, Diaprojektoren oder Schreibmaschinen. Jan Derksen und Daniel Chun bedauern dies und entwickelten eine Geschäftsidee: Um wenigstens die Geräusche dieser Geräte für die nächsten Generationen zu konservieren, haben sie das Onlinemuseum "Conserve The Sound" gegründet.

Finanziell gefördert wurde die Geschäftsidee und damit der Aufbau der Plattform Conserve The Sound von der Film- und Medienstiftung NRW im Rahmen des Pilotförderprogramms "Innovative Audiovisuelle Inhalte".

In nächster Zeit wollen die beiden Gründer etwa 100 weitere Industrie-Geräusche hochladen und veröffentlichen. In naher Zukunft wollen sie zudem allen die Möglichkeit geben, Geräusche hochzuladen, um so die Klangsammlung schnell zu erweitern. Eine gute Idee in dieser schnelllebigen Zeit.

Diese Artikel könnten Sie auch interessieren:

Die Top 10 Grafikdesigntrends 2026

Grafikdesign setzt Impulse, um dein Branding aufzufrischen, deine Marke gekonnt zu inszenieren oder deine Zielgruppe persönlich und emotional anzusprechen. Daher gut zu wissen: Diese zehn Grafikdesigntrends werden von den Profis aktuell favorisiert.

2026 wird das Jahr, in dem Grafikdesign Menschlichkeit betont. Während KI im Alltag eine immer größere Rolle spielt, wächst die Sehnsucht nach Echtheit – nach Entwürfen, die berühren. Zu diesem Schluss kommt das Expert*innen-Team von VistaPrint auf Basis der umfassenden Beobachtungen seiner internationalen Freelancer-Community auf 99designs by Vista.

Die zentrale Erkenntnis: Grafikdesign wird wieder deutlich persönlicher. Es zeichnet sich ab, dass sich die Trends weg vom Glatten, hin zum Echten entwickeln. Marken wollen bei ihren Zielgruppen Gefühle wecken und setzen deshalb auf Geschichten statt Marketingbotschaften. So wird Design zur Bühne für Individualität und damit zum wirksamsten Werkzeug, um echte Verbindungen aufzubauen.

„Kleine Unternehmen haben den entscheidenden Vorteil, mutig, eigenwillig und authentisch auftreten zu können – großen Marken fällt das oft schwer,“ weiß Patrick Llewellyn, VP of Digital and Design Services bei VistaPrint. „In unserer laut und unpersönlich gewordenen Welt wirken unperfekte Designs ehrlich. Genau das macht sie so kraftvoll.“

Die Designtrends 2026 holen das Handgemachte ins Digitale, erzählen von kultureller Identität, feiern Unvollkommenheit und lassen Gefühle sichtbar werden. Nicht der Algorithmus, sondern der Mensch steht im Mittelpunkt.

Die Designtrends 2026 im Überblick:

Elemental Folk

Tradition trifft moderne Gestaltung: Inspiriert von regionaler Handwerkskunst und kulturellem Erbe, entstehen warme, ausdrucksstarke Designs mit floralen Mustern, ornamentalen Details und kräftigen Farben. Die Gestaltung wirkt vertraut und zeitgemäß zugleich. Elemental Folk ist ein visueller Rückgriff auf das Ursprüngliche, der die Identität und Herkunft feiert.

Hyper-Individualism

Dieser Trend bringt frischen Wind ins Design. Er setzt auf surreale Bildwelten, spielt mit verzerrten Formen und bricht ganz bewusst mit Konventionen. Die Darstellungen wirken mal verspielt, mal provokant, aber immer individuell. Während viele ihre Gestaltungsprozesse komplett von der künstlichen Intelligenz erledigen lassen, begeistert dieser Stil mit der kreativen Handschrift der Menschen.

Tactile Craft

Stickerei, Stoffstrukturen und handgemachte Details finden ihren Weg zurück ins digitale Design. Was dabei entsteht, fühlt sich fast schon greifbar an: Die visuellen Oberflächen erzeugen eine besondere Tiefe, die den BetrachterInnen Wärme spendet. Zwischen DIY-Charme und nostalgischer Anmutung generiert dieser Trend – als Gegenentwurf zur glatten, oft distanzierten Ästhetik der digitalen Welt – eine emotionale Nähe.

Distorted Cut

Wenn Gestaltung zum Widerstand wird, entstehen visuelle Statements mit Ecken und Kanten. Klassische Collage-Techniken werden neu interpretiert, indem Bilder zerschnitten, Schichten überlagert und Formen fragmentiert werden. Das Ergebnis wirkt roh, rebellisch und voller Energie. Fest steht: Dieser Designstil will nicht gefallen – es geht darum, Haltung zu zeigen.

Candid Camera Roll

Kreative bringen mit diesem Trend das Echte zurück ins Visuelle. Unperfekte Schnappschüsse, Filmkorn, Blitzlicht und spontane Momente wirken persönlich und nahbar. Im Zusammenspiel mit reduzierter Typografie entstehen Designs, die mit ihrer Ehrlichkeit wirken und berühren.

Hyper-Bloom

Manchmal braucht es einen visuellen Rückzugsort – einen Ort zum Durchatmen. Sanfte Verläufe, zarte Blumenmotive und pudrige Pastelltöne entführen in eine Welt zwischen Traum und Realität. Der Stil wirkt wie ein Gegenpol zum hektischen Alltag und öffnet Raum für Leichtigkeit, Optimismus und ein bisschen Tagträumerei.

Digit-Cute

Die Ästhetik bewegt sich zwischen Nostalgie und digitaler Verspieltheit und sorgt vom ersten Moment an für richtig gute Laune. Klare Strukturen treffen auf bunte Pixelgrafiken, niedliche Figuren und kräftige Farben. Der Look versprüht den Charme der frühen Computerspiele und Popkultur. Gerade weil er so verspielt wirkt, ist er gestalterisch besonders raffiniert.

Micro-Industrial

Was früher rein funktional war, wird jetzt zum Gestaltungskonzept. Inspiriert von Verpackungen, technischen Etiketten und Informationsgrafiken bildet sich ein Designstil, der Klarheit feiert. Der gezielte Einsatz von Elementen wie Barcodes, QR-Codes und Rasterstrukturen verleiht den Entwürfen eine rohe, sachliche und zugleich moderne Ästhetik.

Neon Noir

Dunkel, intensiv und voller Spannung – der Stil erinnert an Szenen aus einem Neo-Noir-Film. Knallige Farben, wie elektrisches Rot, treffen auf tiefes Schwarz, kombiniert mit Bewegungsunschärfen und rauen Texturen. Der urbane, energiegeladene Look fällt sofort ins Auge und bleibt lange im Kopf.

Frutiger Aero Revival

Ein Hauch von Zukunft, so wie man sie sich früher vorgestellt hat: Glänzende Oberflächen, sanfte Farbverläufe und fließende Formen knüpfen an die Tech-Ästhetik der frühen 2000er an. Elemente wie Wasser, Himmel oder digitale Pflanzenwelten verleihen den Designs eine fast träumerische Leichtigkeit. Der Stil ist eine liebevolle Rückschau in eine Zeit, in der Technologie noch als Versprechen galt.

Fazit

Design darf wieder fühlen, Haltung zeigen und Ecken haben. Um als Marke aufzufallen, braucht man nicht mehr das glatteste Logo oder das perfekteste Bild, sondern Persönlichkeit, Mut und eine klare Botschaft. 2026 wird das Jahr, in dem Echtheit zählt. Das Beste daran: Es wird kreativ, lebendig und überraschend schön.

Vorsicht vor diesen KI-Versuchungen

Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

1. Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Re­search Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.

2. Bias

Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.

Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

3. Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*­innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.

4. Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.

Fazit

Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.

Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).

Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche

Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.

Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.

KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.

Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.

Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.

Kontrolle und Zugang: Die Regeln für Sprachmodelle

Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.

Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.

Neue Protokolle für neue Crawler

Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.

Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.

Strukturierte Daten als universelle KI-Sprache

Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.

Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.

Die Bedeutung für die Generierung

Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.

  • Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
  • Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.

Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.

Ladezeit und Interaktivität als Vertrauenssignal

Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.

Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:

  • LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
  • FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
  • CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.

Mobile Performance ist der Schlüssel

Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.

Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.

Redundanz vermeiden: kanonische Klarheit

Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.

Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.

Schlussworte

Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.

Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:

1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.

2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.

3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.

4. Die Vermeidung von Duplikaten durch kanonische Klarheit.

Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.

eleQtron: It's MAGIC

In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.

Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“

Es war ein ungewöhnlicher Ort für eine bahnbrechende

Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.

Von der Universität ...

Im Jahr 2020, als das globale Interesse an Quantentechnolo­gien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.

Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quanten­programme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.

In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.

... zum technologischen Durchbruch

Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer so­genannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikro­wellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“

Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.

Wachstumsschub und strategische Entwicklung

2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.

„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.

Indirekter Einkauf: Versteckter Kostenfresser oder unentdeckter Goldschatz?

Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.

In vielen Unternehmen wird der indirekte Einkauf häufig unterschätzt – dabei liegen hier oft erhebliche Einsparpotenziale verborgen. Durch die wachsende Digitalisierung und die zunehmende Verfügbarkeit von B2B eCommerce-Plattformen bestellen Mitarbeitende Waren und Dienstleistungen immer häufiger außerhalb klassischer Einkaufsprozesse. Diese Entwicklung bringt einerseits Flexibilität und Effizienz, stellt Unternehmen aber auch vor neue Herausforderungen: Wie lassen sich Ausgaben kontrollieren und Transparenz über die gesamte Einkaufskette sicherstellen?

Die beste Einkaufssoftware für den Mittelstand adressiert genau diese Herausforderungen. Hivebuy hat sich als moderne, benutzerfreundliche Lösung etabliert, die den indirekten Einkaufsprozess von der Bestellung bis zur Rechnungsprüfung digitalisiert und automatisiert. Die Software integriert sich nahtlos in bestehende ERP-, Buchhaltungs- und Kommunikationstools wie SAP, Microsoft Dynamics, Teams oder Slack – und das ohne aufwändige technische Implementierung.

Gegründet von erfahrenen Einkaufs- und Finanzexpert*innen aus Frustration über bisherige Lösungen, verfolgt Hivebuy die Mission, versteckte Kosten sichtbar zu machen, Budgets in Echtzeit zu kontrollieren und Einkaufsprozesse effizienter zu gestalten. Mit höchsten Sicherheitsstandards, inklusive ISO/IEC 27001-Zertifizierung und DSGVO-konformer Datenhaltung in Deutschland, schafft Hivebuy Transparenz und Vertrauen entlang der gesamten Einkaufskette.

Im Interview sprechen wir mit Bettina Fischer, Gründerin von Hivebuy, über die Chancen und Risiken des indirekten Einkaufs und darüber, wie Unternehmen mit der richtigen Software Kosten senken und Prozesse optimieren können.

StartingUp: Frau Fischer, viele Unternehmen sehen im indirekten Einkauf eher einen Kostenfaktor, der schwer zu kontrollieren ist. Was macht den indirekten Einkauf aus Ihrer Sicht zu einem versteckten Kostenfresser?

Bettina Fischer: Die große Herausforderung im indirekten Einkauf liegt darin, dass die einkaufenden Personen über das gesamte Unternehmen verteilt sind – anders als im direkten Einkauf, wo spezialisierte Einkaufsabteilungen tätig sind. Das bedeutet: Jede*r Mitarbeitende, der oder die einmal etwas bestellt, wird zum Einkäufer oder zur Einkäuferin – oft ohne die notwendige Erfahrung in Einkaufsprozessen.

Dadurch entstehen typische Muster: Es wird bei bekannten Lieferanten bestellt – oft aus dem privaten Umfeld, wie etwa Amazon Business – ohne Preisvergleiche, ohne Berücksichtigung von Lieferzeiten oder bereits verhandelten Konditionen. Das führt schnell zu ineffizienten und teuren Entscheidungen.

Hinzu kommt, dass im indirekten Einkauf eine hohe Produktvielfalt auf eine extrem heterogene Lieferantenlandschaft trifft. Das erschwert es, durch Bündelung bessere Konditionen zu erzielen. Es fehlt die klare, strategische Beziehung zu bestimmten Lieferanten – und genau dort entstehen die versteckten Kosten.

StartingUp: Wie hilft Hivebuy Mittelständlern konkret dabei, diese versteckten Kosten aufzudecken und zu reduzieren?

Bettina Fischer: Hivebuy verfolgt einen ganzheitlichen Ansatz, um die Herausforderungen des indirekten Einkaufs zu lösen. Zum einen ermöglichen wir es Mitarbeitenden, direkt über integrierte Lieferanten zu bestellen. Das bedeutet: Die Bestellungen erfolgen zentral über Hivebuy – ohne Umwege über externe Plattformen oder individuelle Beschaffungswege. Die Bestellübermittlung ist automatisiert und erfolgt effizient über unser System.

Darüber hinaus bietet Hivebuy einen integrierten Preisvergleich für B2B-Webshops. So wird sichergestellt, dass stets der beste Preis und die optimalen Lieferzeiten berücksichtigt werden – ein entscheidender Hebel zur Kostensenkung.

Ein weiterer zentraler Punkt ist die Budgetkontrolle: Sobald eine Bestellanforderung erstellt wird, sehen Budgetverantwortliche sofort die Auswirkungen auf ihr Budget – in Echtzeit. Dadurch lassen sich Entscheidungen schnell, fundiert und transparent treffen.

Auch die Freigabeprozesse sind flexibel und konfigurierbar: Mitarbeitenden wird Freiheit für alltägliche Bestellungen gegeben, während bei kritischen oder kostenintensiven Vorgängen automatische Eskalationen und Genehmigungen greifen.

Nicht zuletzt ermöglicht Hivebuy dem Einkauf, sein Wissen an die Organisation weiterzugeben. Vorverhandelte Verträge, Katalogartikel oder bevorzugte Lieferanten sind direkt im System sichtbar – wie ein digitaler Einkaufsberater im Hintergrund. So treffen selbst unerfahrene Nutzer bessere Entscheidungen – ganz im Sinne von Kostenkontrolle und Prozesssicherheit.

StartingUp: Ihre Software ist bekannt für ihre Nutzerfreundlichkeit. Wie schaffen Sie es, auch nicht-einkaufserfahrene Mitarbeitende einzubinden?

Bettina Fischer: Benutzerfreundlichkeit steht bei Hivebuy an oberster Stelle. Wann immer wir eine neue Funktion entwickeln, testen wir diese gemeinsam mit unseren Nutzerinnen und Nutzern – direkt aus der Praxis. Unser Ziel ist es, dass Hivebuy genauso intuitiv bedienbar ist wie eine Online-Überweisung: Jeder soll auf Anhieb verstehen, was zu tun ist.

Mit Funktionen wie unserem B2B-Preisvergleich und dem sogenannten Guided Buying führen wir Mitarbeitende gezielt durch den Einkaufsprozess – Schritt für Schritt, ganz ohne Schulungsaufwand. So wird selbst komplexes Einkaufswissen einfach zugänglich gemacht.

Für Freigabeverantwortliche haben wir zusätzlich eine besonders komfortable Lösung geschaffen: Freigaben können direkt über Messenger-Apps wie Microsoft Teams erteilt werden – ohne sich ins System einloggen zu müssen. Die relevanten Informationen kommen automatisch dorthin, wo man ohnehin schon arbeitet – aufs Handy oder den Desktop. Das senkt die Einstiegshürden enorm und sorgt für eine breite Akzeptanz im gesamten Unternehmen.

StartingUp: Welche Rolle spielen Transparenz und Echtzeit-Reporting in der Budgetkontrolle?

Bettina Fischer: Wir sind überzeugt: Budgetkontrolle funktioniert nur in Echtzeit. Es bringt wenig, wenn Budgetübersichten nur monatlich, quartalsweise oder gar halbjährlich zur Verfügung stehen. Entscheidungen im Einkauf werden täglich getroffen – also muss auch die Budgettransparenz jederzeit aktuell sein.

Deshalb haben wir bei der Entwicklung von Hivebuy besonderen Fokus auf eine unmittelbare Budgeteinsicht gelegt. Sobald eine Bestellung angefragt wird, sieht der oder die Budgetverantwortliche sofort, wie sich diese auf das verfügbare Budget auswirkt. Diese Echtzeit-Transparenz ist ein zentrales Element unserer Software.

Gleichzeitig möchten wir Mitarbeitende befähigen, innerhalb ihrer Befugnisse selbstständig Entscheidungen zu treffen. Nicht jede Anfrage muss durch mehrere Instanzen laufen. Vielmehr setzen wir auf smarte, automatisierte Prozesse – kombiniert mit dem Vertrauen in die Souveränität der Nutzer. Das spart nicht nur Zeit, sondern steigert auch die Effizienz und Zufriedenheit im Unternehmen.

StartingUp: Die Einführung neuer Software bedeutet oft hohen Aufwand. Wie gestaltet sich die Implementierung von Hivebuy?

Bettina Fischer: Ich habe selbst über viele Jahre ERP- und Einkaufssoftwareprojekte geleitet – und ehrlich gesagt: Es war jedes Mal ein enormer Aufwand. Genau diese Erfahrungen haben mich dazu motiviert, Hivebuy so zu entwickeln, dass Implementierung eben nicht zur Belastung wird.

Unsere Lösung ist bewusst so aufgebaut, dass sie schnell, unkompliziert und ohne großen IT-Aufwand eingeführt werden kann. Neue Unternehmen können innerhalb kürzester Zeit starten – oft sogar innerhalb eines Tages mit einem eigenen Testsystem.

Die Einführung begleiten wir durch leicht verständliche Videotutorials und Onboarding-Materialien. Darüber hinaus gibt es persönliche Sessions, in denen die Nutzer befähigt werden, das System selbstständig für ihr Unternehmen zu konfigurieren. Schnittstellen zu ERP-Systemen wie SAP, Microsoft Dynamics oder DATEV richten wir in der Regel innerhalb weniger Stunden bis Tage ein.

Wenn beide Seiten fokussiert an das Projekt herangehen, können wir bei Unternehmen mit mehreren tausend Mitarbeitenden innerhalb von acht Wochen vollständig live gehen – inklusive Integration, Schulung und Rollout.

StartingUp: Wie unterstützt Hivebuy IT-Teams und technische Entscheider bei der Integration?

Bettina Fischer: Unsere größte Stärke in der Zusammenarbeit mit IT-Teams ist unsere Schnelligkeit. Bereits im ersten Kick-Off mit der IT tauschen wir alle relevanten technischen Dokumentationen aus, klären die Rahmenbedingungen und ermöglichen in kürzester Zeit die Integration in ein Testsystem. Wir verzichten bewusst auf langwierige Business-Blueprint-Phasen und setzen stattdessen auf eine praxisnahe, direkte Umsetzung.

Hivebuy verfolgt eine klare Integration-First-Strategie. Das bedeutet: Unsere Lösung ist von Grund auf so konzipiert, dass sie sich schnell und flexibel in bestehende ERP-Systeme und IT-Landschaften integrieren lässt. Für alle gängigen Systeme – ob SAP, Microsoft Dynamics, DATEV oder NetSuite – stellen wir vollständige Schnittstellen-Dokumentationen zur Verfügung.

Mein Mitgründer Stefan Kiehne bringt aus seiner Zeit bei PwC tiefes technisches Know-how mit und hat zahlreiche ERP-Implementierungen verantwortet. Dieses Wissen fließt direkt in unsere Projekte ein. Inzwischen haben wir Hivebuy in so viele verschiedene Systeme integriert, dass kaum noch Überraschungen aufkommen. Für IT-Verantwortliche bedeutet das: minimale Unsicherheiten, schnelle Umsetzung und maximale Kompatibilität.

StartingUp: Wie sieht die Zukunft des indirekten Einkaufs aus? Welche Trends beobachten Sie?

Bettina Fischer: Ich sehe im indirekten Einkauf ganz klar einen Wandel hin zu intelligenter Automatisierung und echter Transparenz. Schon heute beobachten wir den Trend in Richtung „Agent AI“ – also digitale Einkaufsassistenten, die Nutzer durch Prozesse begleiten und Entscheidungen mit datenbasierten Empfehlungen unterstützen. Das wird sich in den nächsten Jahren deutlich verstärken.

Was mich persönlich schon lange wundert: Im B2C-Bereich haben wir mit Plattformen wie Idealo längst Preis- und Konditionsvergleiche. Im B2B gibt es das kaum. Deshalb war es uns wichtig, mit Hivebuy eine Lösung zu schaffen, die genau das möglich macht – inklusive der hinterlegten, unternehmensspezifischen Konditionen. Das ist ein echter Gamechanger.

In Zukunft wird der indirekte Einkauf zunehmend automatisiert ablaufen – von der Bedarfserkennung bis hin zur Bestellung. Vergleichbar mit einem intelligenten Kühlschrank, der automatisch Milch nachbestellt, wird auch im Unternehmen vieles automatisch geschehen: Bedarfe erkennen, Angebote vergleichen, Bestellungen auslösen – ganz ohne manuelles Zutun.

Strategische Beschaffung wird dabei zur Grundlage. Das Ziel ist nicht, jede Bestellung individuell zu behandeln, sondern Prozesse zu standardisieren, auf Unternehmensziele auszurichten und individuelle Bedarfe intelligent einzubinden.

Und auch die Rückseite des Einkaufs wird sich stark verändern: Rechnungsprüfung, Buchung und Zahlungsfreigabe werden zunehmend automatisiert ablaufen. In einer idealen Zukunft brauchen wir keine manuelle Rechnungserfassung mehr – weil alles systemgestützt, regelbasiert und transparent funktioniert.

StartingUp: Vielen Dank für das Gespräch, Frau Fischer. Ihre Einblicke verdeutlichen, wie entscheidend es für Unternehmen ist, den indirekten Einkauf transparent und effizient zu gestalten. Mit Lösungen wie Hivebuy können Mittelständler versteckte Kosten sichtbar machen und ihre Beschaffungsprozesse nachhaltig optimieren. Wir wünschen Ihnen weiterhin viel Erfolg bei Ihrer Mission, Einkaufsteams bestmöglich zu unterstützen.

EU AI Act: Status quo

Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.

Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.

Überblick: Der AI Act

Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten Hochrisiko­Systeme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.

Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.

Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.

Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.

Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.

Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produkt­regulierung und Marktüberwachung.

Was fehlt? Guidance und Governance

Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.

Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.

Und wo steht Deutschland?

Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.

Reallabore

Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.

Reaktionen

Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.

Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschied­liche Informationen und Compliance-Nachweise verfügbar sind.

Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.

Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.

Fazit

Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.

Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Her­ausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.

Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München

Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen

Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.

Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.

Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede

Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.

Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.

Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?

Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.

Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.

Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?

Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.

Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.

Expertise als wichtiger Faktor für den Kauf einer Luxusuhr

So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.

Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.

Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.

Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.

Ein Ausblick auf die (mögliche) langfristige Wertentwicklung

Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.

Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.

Food-Innovation-Report

Wie Food-Start-up-Gründer*innen im herausfordernden Lebensmittelmarkt erfolgreich durchstarten und worauf Investor*innen besonders achten.

Food-Start-ups haben in den vergangenen Jahren einen bemerkenswerten Aufschwung erlebt. Der zunehmende Wunsch nach nachhaltiger, gesunder und funktionaler Ernährung, das wachsende Bewusstsein für Klima- und Umweltschutz sowie der Trend zur Individualisierung der Ernährung haben eine neue Gründungswelle ausgelöst. Dennoch: Der Markteintritt im deutschen Lebensmittelmarkt zählt zu den anspruchsvollsten Herausforderungen, denen sich Gründer*innen stellen können. Wer als Start-up nicht durch außergewöhnliche Innovation oder gezielte Nischenstrategie punktet, hat kaum eine Chance, hier gelistet zu werden.

Ohne klare Zielgruppenfokussierung, glaubwürdiges Produktversprechen und professionelle Umsetzung funktionieren auch gute Ideen nicht – wie es u.a. die Frosta-Tochter elbdeli (trotz starker Marke keine Resonanz) und Bonaverde (Kaffeemaschine mit Röstfunktion, die trotz Kickstarter-Erfolg) scheiterte zeigen.

Da dieser Markt so groß ist, ist er auch stark reguliert, hochkonkurrenzfähig und von mächtigen Einzelhandelsstruk­turen dominiert. Zu den größten Hürden zählen die komplexe Regulatorik, Logistik und Produktion, Finanzierung sowie die Konsument*innenakzeptanz.

Laut dem Deutschen Startup Monitor nennen 43 Prozent aller Start-ups die Finanzierung als größte Hürde. Kapitalbedarf entsteht früh – für Verpackungen, Lebensmittelsicherheit, Produktion, Mindestabnahmemengen und Vertrieb.

Ein typisches Seed-Investment liegt zwischen 250.000 und 1,5 Millionen Euro. In späteren Phasen steigen institutionelle VCs mit Ticketgrößen von bis zu fünf Millionen Euro ein. Erfolgreiche Exits wie der Verkauf von yfood an Nestlé (2023) zeigen: Der Markt ist in Bewegung, aber selektiv.

Functional Food als Innovationsmotor – aber nicht der einzige

Functional Food ist längst mehr als ein Trend: Es ist ein wachsendes Segment mit wissenschaftlicher Fundierung. Produkte wie funktionale Riegel, Drinks oder Functional Coffee verbinden Geschmack mit gesundheitlichem Mehrwert. Besonders gefragt sind derzeit Inhaltsstoffe wie Adaptogene, Pro- und Präbiotika, pflanzliche Proteine und weitere Mikronährstoffe.

Zugleich gewinnen auch alternative Proteinquellen (Pilze, Algen, Fermentation), klimapositive Lebensmittel und Zero-­Waste-Konzepte an Bedeutung. Konsument*innen wollen Ernährung, die nachhaltig und leistungsfördernd ist.

Worauf Investor*innen achten – und was sie abschreckt

Aus Sicht eines/einer Investor*in zählen nicht nur Produkt­idee und Branding. Entscheidender ist:

  • Ist das Team umsetzungsstark, resilient, multidisziplinär?
  • Gibt es Traktion (z.B. Verkaufszahlen, Feedback, D2C-Erfolge)?
  • Wie realistisch ist der Finanzplan? Sind Margen und Logistik durchdacht?
  • Ist das Produkt skalierbar – auch international?

Abschreckend wirken hingegen: überschätzte Umsatzpro­gnosen, fehlende Markteinblicke, instabile Lieferketten oder reine Marketingblasen ohne echte Substanz.

Es ist unschwer zu erkennen: Wer im Food-Bereich gründen will, braucht mehr als eine gute Idee. Der deutsche Markt ist selektiv, komplex und durch hohe Einstiegshürden geprägt. Gleichzeitig ist er enorm spannend für alle, die bereit sind, langfristig zu denken, regulatorisch sauber zu arbeiten und echten Mehrwert zu schaffen.

Food-Start-ups, die ihre Zielgruppe kennen, finanziell solide aufgestellt sind und wissenschaftlich fundierte Produkte entwickeln, haben reale Chancen auf Marktdurchdringung – besonders, wenn sie es schaffen, Handelspartner*innen und Konsument*innen gleichermaßen zu überzeugen.

Investor*innen sind bereit, in solche Konzepte zu investieren, aber sie erwarten mehr als Visionen: Sie erwarten belastbare, integrierte Geschäftsmodelle mit echtem Impact.

Internationaler Vergleich: Was Food-Start-ups in den USA anders machen

Die USA gelten als Vorreiter für Food-Innovation. Der Markt ist schneller, risikofreudiger und deutlich kapitalintensiver. Allein im Jahr 2023 flossen in den USA rund 30 Milliarden US-Dollar Wagniskapital in FoodTech und AgriFood-Start-ups – ein Vielfaches im Vergleich zu Deutschland. Start-ups wie Beyond Meat, Impossible Foods oder Perfect Day konnten in kurzer Zeit hunderte Millionen Dollar einsammeln, skalieren und international expandieren. Die wesentlichen Unterschiede zur deutschen Szene sind:

  • Zugang zu Kapital: Amerikanische Gründer*innen profitieren von einer ausgeprägten Investor*innenlandschaft mit spezialisierten VCs, Family Offices und Corporate Funds. In Deutschland dominiert oft konservative Zurückhaltung.
  • Marktzugang: Der US-Markt ist dezentraler organisiert. Start-ups können regional Fuß fassen und wachsen, ohne gleich auf landesweite Listungen angewiesen zu sein.
  • Regulatorik: Die U.S. Food and Drug Administration (FDA) ist in vielen Bereichen offener gegenüber neuen Inhaltsstoffen und Health Claims – das ermöglicht schnellere Markteinführungen.
  • Kultur & Narrative: Amerikanische Konsument*innen sind innovationsfreudiger. Sie schätzen Storytelling, Vision und Purpose deutlich mehr als europäische Kund*innen.

Das bedeutet nicht, dass der US-Markt einfacher ist. Er ist aber zugänglicher für disruptive Ideen, insbesondere wenn sie skalierbar und investor*innentauglich aufgesetzt sind.

Operative Herausforderungen: vom Prototyp zur Produktion

Die operative Skalierung ist einer der größten Stolpersteine für Food-Start-ups. Eine Rezeptur im Labormaßstab oder im Handwerk zu entwickeln, ist vergleichsweise einfach. Sie jedoch für den industriellen Maßstab zu adaptieren, bringt komplexe Fragestellungen mit sich:

  • Wo finde ich einen Co-Packer mit Kapazitäten für Kleinserien?
  • Wie skaliert mein Produkt ohne Qualitätsverlust?
  • Wie optimiere ich Haltbarkeit ohne künstliche Zusätze?
  • Welche Verpackung schützt das Produkt, erfüllt die Nachhaltigkeitsansprüche und passt zu den Preisvorgaben des Handels?

In Deutschland ist die Infrastruktur für Food-Start-ups im Vergleich zu den USA oder den Niederlanden unterentwickelt. Während es in den USA Inkubatoren mit angeschlossenen Produktionsstätten (z.B. The Hatchery in Chicago oder Pilotworks in New York) gibt, fehlt es hierzulande oft an bezahl­baren, flexiblen Produktionslösungen.

Gerade nachhaltige Verpackungen stellen viele Gründer*­innen vor Probleme: Biologisch abbaubare Alternativen sind teuer, nicht immer kompatibel mit Logistikprozessen und oft nicht lagerstabil genug. Ein Spagat, der Investitionen und viel Know-how erfordert.

Erfolgsfaktor Vertrieb: Wie Produkte wirklich in den Handel kommen

Viele unterschätzen den Aufwand, der hinter einem erfolgreichen Listungsgespräch steht. Händler*innen erwarten nicht nur ein gutes Produkt – sie wollen einen Business Case:

  • Wie hoch ist die Spanne für den Handel?
  • Wie ist die Wiederkaufsquote?
  • Wie sieht das Launch-Marketing aus?
  • Gibt es POS-Materialien oder begleitende Werbekampagnen?

Ein Listungsgespräch ist kein Pitch – es ist ein Verhandlungstermin auf Basis knallharter Zahlen. Ohne überzeugende Umsatzplanung, Distributionserfahrung und schnelle Liefer­- fähigkeit hat ein Start-up kaum Chancen auf eine langfristige Platzierung im Regal. Viele Gründer*innen lernen das schmerzhaft erst nach dem Launch.

Zukunftstechnologien im Food-Bereich

Die Food-Branche steht am Beginn einer technologischen Revolution. Neue Verfahren wie Präzisionsfermentation, Zellkultivierung, 3D-Food-Printing oder molekulare Funktionalisierung eröffnen völlig neue Produktkategorien. Beispiele sind:

  • Perfect Day (USA) stellt Milchprotein via Mikroorganismen her – völlig ohne Kuh.
  • Formo (Deutschland) produziert Käseproteine durch Fermentation.
  • Revo Foods (Österreich) bringt 3D-gedruckten Fisch auf pflanzlicher Basis in die Gastronomie und Handel.

Diese Technologien sind kapitalintensiv, regulatorisch komplex, aber langfristig zukunftsweisend. Wer heute die Brücke zwischen Wissenschaft, Verbraucher*innenbedürfnis und industrieller Machbarkeit schlägt, wird zu den Innova­tionsführer*innen von morgen zählen.

Neben dem klassischen Lebensmitteleinzelhandel gewinnen alternative Vertriebskanäle zunehmend an Bedeutung. Insbesondere spezialisierte Bio- und Reformhäuser wie Alnatura, Denns oder basic bieten innovativen Start-ups einen niedrigschwelligen Einstieg, da sie auf trendaffine Sortimente, nachhaltige Werte und kleinere Produzent*innen setzen. Hier zählen Authentizität, Zertifizierungen und persönliche Beziehungen mehr als reine Umsatzversprechen.

Auch der Onlinehandel wächst rasant: Der Anteil von E-Commerce im deutschen Lebensmitteleinzelhandel liegt zwar erst bei etwa drei bis vier Prozent, doch Plattformen wie Amazon Fresh, Picnic, Knuspr oder Getir bieten zunehmend Raum für neue Marken. Gerade Quick-Commerce-Anbietende ermöglichen kurzfristige Testmärkte und agile Vertriebspiloten in urbanen Zielgruppen.

Der Blick in die USA zeigt, was in Europa bevorsteht: Dort erzielt TikTok bereits über seinen eigenen TikTok Shop mehr als 20 Milliarden US-Dollar Umsatz – Tendenz stark steigend. Immer mehr Food-Start-ups nutzen die Plattform direkt als Verkaufs- und Marketingkanal. Es ist nur eine Frage der Zeit, bis ähnliche Social-Commerce-Strukturen auch in Europa an Relevanz gewinnen – sei es über TikTok, Instagram oder neue, native D2C-Plattformen.

Weitere Trendfelder, die aktuell in den Fokus rücken, sind unter anderem:

  • Regeneratives Essen: Lebensmittel, die nicht nur neutral, sondern positiv auf Umwelt und Biodiversität wirken. Beispiele: Produkte mit Zutaten aus regenerativer Landwirtschaft oder CO-bindende Algen.
  • Blutzuckerfreundliche Ernährung: Start-ups wie Levels (USA) oder NEOH (Österreich) zeigen, wie personalisierte Ernährung über Glukose-Monitoring neue Märkte erschließen kann.
  • „Food as Medicine“: Produkte, die gezielt auf chronische Beschwerden oder Prävention ausgelegt sind – beispielsweise bei Menstruationsbeschwerden, Wechseljahren oder Verdauungsstörungen.
  • Zero-Waste-Produkte: Verwertung von Nebenströmen (z.B. aus Brauereien oder Obstpressen) zur Herstellung von Lebensmitteln mit Nachhaltigkeitsanspruch.
  • Biohacking-Produkte: hochfunktionale Lebensmittel für kognitive Leistung, Schlaf, Erholung oder hormonelle Balance wie zum Beispiel der Marke Moments – by Biogena.

Die Zukunft von Food liegt in der Synthese aus Wissenschaft, Individualisierung und Nachhaltigkeit. Start-ups, die diese Megatrends frühzeitig besetzen, positionieren sich als Pioniere für eine neue Esskultur. Besonders wichtig in der Investor*innenansprache sind:

  • Fundierte Zahlenkenntnis: Gründer*innen sollten Unit Economics, Break-Even-Szenarien und Roherträge detailliert erklären können. Vage Aussagen über Marktpotenzial reichen nicht – es braucht belastbare Szenarien.
  • Proof of Concept: Idealerweise liegt bereits ein MVP (Minimum Viable Product) mit echter Kund*innenvalidierung vor. Pilotprojekte mit Handelspartner*innen oder Online-­Abverkäufe liefern harte Daten.
  • Storytelling mit Substanz: Purpose ist gut – aber er muss betriebswirtschaftlich verankert sein. Was motiviert das Team? Wo liegt der USP? Wie stark ist der Wettbewerb?
  • Team-Komplementarität: Ein starkes Gründer*innen-Team vereint Produkt- und Marktwissen, betriebswirtschaft­liches Denken und Leadership-Kompetenz.
  • Exit-Szenario: Investor*innen wollen eine Perspektive: Wird es ein strategischer Verkauf, ein Buy- & Build-Modell oder ein langfristiger Wachstums-Case?

Wer Investor*innen mit klarer Struktur, realistischen Annahmen und ehrlicher Kommunikation begegnet, hat bessere Chancen auf Kapital – inbesondere in einem Markt, der aktuell selektiver denn je agiert. Genau hier liegt die Kernkompetenz von Food-Start-up-Helfer*innen wie der Alimentastic Food Innovation GmbH, die nicht nur in innovative Unternehmen investiert, sondern ihnen aktiv dabei hilft, die oben genannte operative Komplexität zu überwinden und den Time to Market signifikant zu verkürzen – von der Produktidee bis hin zur Umsetzung im Handel.

Fazit

Der deutsche Food-Start-up-Markt ist herausfordernd, aber voller Chancen. Wer heute erfolgreich gründen will, braucht nicht nur eine starke Produktidee, sondern ein tiefes Verständnis für Produktion, Vertrieb, Kapitalstruktur und Markenaufbau. Functional Food, nachhaltige Innovationen und technologiegetriebene Konzepte bieten enorme Wachstumsmöglichkeiten – vorausgesetzt, sie werden professionell umgesetzt und skalierbar gedacht.

Der Autor Laurenz Hoffmann ist CEO & Shareholder der Alimentastic Food Innovation GmbH und bringt langjährige Erfahrung aus dem Lebensmitteleinzelhandel mit.

„Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing“

Mit planqc verfolgt Dr. Alexander Glätzle die Mission, hochskalierbare Quantencomputer für wirtschaftliche Anwendungen zu bauen. Warum das Unternehmen dabei auf Standorte wie München und Innsbruck setzt und welche Rolle Österreichs Talentpool spielt, verrät er im Interview.

Dr. Alexander Glätzle ist Quantenphysiker und Mitgründer von planqc. Er studierte und promovierte an der Universität Innsbruck, forschte an renommierten Instituten wie Oxford, Harvard sowie in Singapur und war als Unternehmensberater tätig. 2022 gründete er planqc als Ausgründung aus dem Max-Planck-Institut in München.

Herr Dr. Glätzle, wie entstand die Unternehmensidee und welche Meilensteine haben Sie mit planqc bisher erreicht?

Die Idee zu planqc ist bereits während meines Studiums an der Universität Innsbruck entstanden. Dort habe ich intensiv im Bereich Quantentechnologie geforscht und das enorme Potenzial erkannt, aus diesen Erkenntnissen ein Start-up zu gründen. Bis zur Gründung hat es allerdings noch einige Jahre gedauert – nicht zuletzt, weil die technologische Entwicklung im Labor ebenfalls voranschreiten musste. 2022 sind wir dann als Ausgründung aus dem Max-Planck-Institut offiziell gestartet. Zu den wichtigsten Meilensteinen zählen zwei große öffentlich geförderte Projekte: Für das Deutsche Zentrum für Luft- und Raumfahrt bauen wir einen Quantencomputer mit einem Volumen von 30 Mio. EUR, ein weiteres Projekt mit dem Leibniz-Rechenzentrum umfasst 20 Mio. EUR, beide mit Abschluss bis Ende 2026 bzw. 2027. Dann werden an diesen beiden Standorten voll funktionsfähige Quantencomputer von planqc installiert sein.

Sie haben bereits Venture Capital mit an Bord. Wer zählt zu Ihren Investoren?

Gestartet sind wir 2022 mit einer Seed-Runde, an der unter anderem UVC Partners, Speedinvest und Apex Ventures beteiligt waren – also bereits starke Partner auch aus Österreich. Diese Basis konnten wir in der Series-A im letzten Jahr weiter ausbauen. Die CATRON Holding, ein Wiener Family Office, ist als Lead-Investor eingestiegen. Dazu kamen weitere Partner wie der DeepTech & Climate Fonds sowie Bayern Kapital. Besonders erfreulich ist, dass auch unsere Bestandsinvestoren erneut signifikant investiert haben. Damit verfügen wir über eine starke, rein mitteleuropäische, deutsch-österreichische Investorenbasis – was in unserem Sektor tatsächlich selten ist.

Ihr Headquarter befindet sich in der Nähe von München. Was hat Sie dazu bewegt, zusätzlich einen Standort in Innsbruck zu eröffnen?

Ursprünglich haben wir planqc in München gegründet – als Ausgründung aus dem Max-Planck-Institut. Doch bereits innerhalb eines Jahres haben wir ein zweites Büro in Innsbruck eröffnet. Der Grund liegt auf der Hand: Innsbruck ist eines der weltweit führenden Zentren für Quantencomputing. Mit renommierten Instituten wie dem Institut für Quantenoptik und Quanteninformation (IQOQI) und Persönlichkeiten wie Peter Zoller und Rainer Blatt gibt es dort eine kritische Masse an international anerkannten Wissenschaftlern. Zudem ist es in der Praxis oft schwierig, hochqualifizierte Talente aus der Region nach München zu bringen. Deshalb haben wir entschieden, ihnen vor Ort ein attraktives Arbeitsumfeld zu bieten – mit einem eigenen Standort in Innsbruck.

Welche Vorteile bietet der Standort Österreich speziell für Unternehmen im Bereich Quantencomputing?

Österreich hat eine lange und starke Tradition in der Quantenphysik. Universitäten wie Innsbruck und Wien, das IQOQI und eine ganze Generation exzellenter Wissenschaftler prägen diese Landschaft. Viele bahnbrechende theoretische und experimentelle Arbeiten wurden hier in den vergangenen Jahren geleistet. Gerade für junge Start-ups bietet das Land enorme Vorteile: Der Talentpool ist außergewöhnlich – mit hervorragend ausgebildeten, dynamischen Fachkräften. Darüber hinaus ist die Nähe zu sogenannten „Industry First Movern“ gegeben, was den Standort besonders spannend macht. Und nicht zuletzt hat Österreich eine historische Verbindung zur Physik – Namen wie Schrödinger, Pauli oder Hess stehen sinnbildlich für diese wissenschaftliche Tiefe.

Welche Unterstützung erhielten Sie bei der Ansiedlung durch die Austrian Business Agency?

Die Austrian Business Agency sowie die Standortagentur Tirol haben uns außerordentlich engagiert unterstützt – sei es bei der Suche nach Büroflächen, bei der Eröffnung des ersten Bankkontos oder in bürokratischen Fragen. Sie standen uns nicht nur beratend zur Seite, sondern haben uns tatkräftig geholfen, Hürden aus dem Weg zu räumen. Genau so stelle ich mir die Zusammenarbeit mit einer lokalen Agentur vor: nah dran, lösungsorientiert und mit exzellentem Netzwerk. Wir hatten wirklich großes Glück mit der Unterstützung vor Ort.

Sie selbst sind in Österreich geboren, haben in Innsbruck promoviert und weltweit Forschungsaufenthalte absolviert – bevor Sie als Unternehmensberater und Gründer nach München gingen. Mit welchen Qualitäten punktet Österreich allgemein, auch als Arbeits- und Wohnort?

Ich habe viele Jahre im Ausland gelebt und gearbeitet – in Oxford, Singapur und Deutschland. Was Innsbruck und Tirol für mich besonders macht, ist die Kombination aus wissenschaftlicher Exzellenz und hoher Lebensqualität. Die Stadt liegt inmitten der Alpen, bietet eine hervorragende Infrastruktur und ein ausgewogenes Verhältnis zwischen Studierenden und Einwohnern. Das schafft ein inspirierendes Umfeld – zum Leben, Forschen und Arbeiten gleichermaßen.

Dr. Alexander Glätzle, vielen Dank für das Gespräch.

Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin

“Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit”

„Made in Steel. Built on Data.“ Mit diesem Leitsatz positioniert sich die EMR Dynamics GmbH als strategische Antwort auf die zunehmende Komplexität globaler Lieferketten – und auf die wachsenden Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Wertschöpfungsnetzwerken.

Unter der Leitung von Emrullah Görsoy geht EMR Dynamics aus einem Berliner Familienunternehmen hervor, das seit 2005 als verlässlicher Partner für mechanische Komponenten in Europa etabliert ist. Nun markiert das Unternehmen den nächsten Entwicklungssprung der Unternehmensgeschichte: von der Fertigung zur Plattform.

Fragen dazu an Emrullah Görsoy, Managing Director at EMR:

Seit mehr als 20 Jahren seid ihr mit EMR am Markt. Man könnte sagen, ihr macht vieles richtig – Wie lautet euer Erfolgsrezept?

Unser Erfolgsrezept liegt in der konsequenten Weiterentwicklung. Wir haben uns nie auf bestehenden Strukturen ausgeruht, sondern das Unternehmen immer wieder neu gedacht – operativ, strategisch und technologisch. Besonders in Zeiten des Wandels war unser pragmatischer Unternehmergeist entscheidend. Dabei kombinieren wir mittelständische Robustheit mit einer agilen Denkweise – anpassungsfähig, resilient und wachstumsorientiert.

Zeitnah startet ihr mit eurer Neugründung EMR Dynamics am Markt. Was steckt dahinter?

EMR Dynamics ist unsere Antwort auf ein fragmentiertes Marktumfeld und wachsende Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Lieferketten. Wir verbinden vertikal integrierte Fertigungskompetenz mit einer digitalen Prozessarchitektur – eine B2B-Plattform für die intelligente Steuerung und Vermittlung industrieller Produktions- und Beschaffungsprozesse. Das Ziel: maximale Skalierbarkeit, reduzierte Time-to-Market und durchgängige Prozesssicherheit für unsere Kunden.

Damit schlagen wir die Brücke zwischen Mittelstand und digitaler Ökonomie – resilient, effizient und kundennah. Wir wollen EMR Dynamics als Plattformmarke im industriellen Mittelstand etablieren – mit eigener Fertigung, digitalem Backbone und strategischer Nähe zum Kunden.

An wen richtet sich euer Angebot?

Unsere Zielgruppen sind OEMs, Tier-1-Zulieferer und Systempartner aus hoch regulierten und qualitätskritischen Industrien – etwa Rail, Aerospace, Defense oder Industrial Tech. Wir liefern nicht nur Komponenten, sondern vernetzen Prozesse, sichern Supply Chains ab und schaffen Plattformlösungen für beschleunigte Wertschöpfung – alles aus einer Hand.

Wie unterscheidet sich euer Angebot von klassischen Fertigungsdienstleistern?

Wir sind kein reiner Teilelieferant. Wir verstehen uns als Lösungsanbieter entlang der industriellen Wertschöpfung – von Co-Engineering und Prototyping über skalierbare Serienfertigung bis hin zur integrierten Lieferkette. Durch die Plattformlogik können wir unsere Prozesse mit denen unserer Kunden synchronisieren und so Time-to-Market und Lieferperformance signifikant verbessern – gerade für komplexe und hochqualifizierte Baugruppen.

Seit mehreren Jahren bist du Geschäftsführer des Unternehmens EMR Industrial. Wie fühlt es sich an, als Young Professional bereits in einer solchen verantwortungsvollen Rolle zu sein?

Herausfordernd, aber erfüllend. Ich hatte das Privileg, früh Verantwortung zu übernehmen – besonders während der Transformation von EMR in der Pandemie. Die Krise 2020 hat uns gezwungen, unser gesamtes Geschäftsmodell zu pivotieren. Diese Erfahrung hat mich geprägt: Strategisch zu denken, unternehmerisch zu handeln und nie den Kontakt zur operativen Realität zu verlieren.

Welche Bedeutung hat die Digitalisierung aus deiner Sicht für den Mittelstand und was können sich Mittelständler von Start-ups abschauen?

Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit. Der Mittelstand kann von Start-ups besonders eines lernen: den Mut, Prozesse radikal neu zu denken – und den Fokus auf Geschwindigkeit, Automatisierung und User Experience.

Emrullah Görsoy, Danke für die Insights

DefenseTech-Report 2025

Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Wie DefTech-Start-ups Sicherheit und Verteidigung durch Innovationskraft, Agilität und Flexibilität revolutionieren.

Der russische Überfall auf die Ukraine im Februar 2022 markierte einen Wendepunkt für die deutsche Verteidigungspolitik. Der Bundeskanzler rief die „Zeitenwende“ aus – einen Kurswechsel, der u.a. ein Sondervermögen von 100 Mrd. Euro für die Bundeswehr einschloss. Seither rücken technologische Innovationen für die Verteidigung verstärkt in den Fokus. DefenseTech-Start-ups (auch DefTechs genannt) – also junge Technologieunternehmen mit rein militärischen oder Dual-Use-Anwendungen (zivil und militärisch) – erleben seitdem einen Aufschwung. Die USA haben deutlich signalisiert, dass ihre Bereitschaft, als Arsenal der Demokratie unbegrenzt westliche Verteidigung zu finanzieren, nachlässt. Europa, Deutschland im Besonderen, muss also eigene Innovationskraft mobilisieren, um wirksam abschrecken zu können.

Start-ups im Gefechtsfeld der Zukunft: Lehren aus dem Ukraine-Krieg

Der russische Angriffskrieg offenbart, welche Technologien und Akteur*innen auf dem Gefechtsfeld der Zukunft dominieren werden. Auffällig ist, wie ein verteidigungsnahes Innovationsökosystem aus Tech-Start-ups und Dual-Use-Technologien in der Ukraine binnen kurzer Zeit Lösungen hervorbrachte, die Russlands konventionelle Überlegenheit teilweise neutralisierten.

Die ukrainischen Streitkräfte setzen neue Taktiken und Waffensysteme zudem mit einer Agilität ein, die westliche Armeen – mit ihren oft jahrelangen Beschaffungszyklen – nicht erreichen.

Im Ukraine-Krieg haben sich vor allem Drohnen als Gamechanger erwiesen. First-Person-View-(FPV)-Drohnen fungieren gleichsam als „Infanterie“ der Drohnenkriegsführung – sie sind zu einer tragenden Säule von Kiews Kriegsanstrengungen geworden und verursachen Schätzungen zufolge bis zu 80 Prozent der russischen Verluste auf dem Gefechtsfeld.

Ukrainische Herstellende – vielfach kleine Firmen – produzieren aktuell rund 200.000 FPV-Drohnen pro Monat und ersetzen zunehmend importierte Bauteile durch eigene Entwicklungen. Solche billigen Mini-Drohnen können aber Panzer oder Radaranlagen im Wert von Millionen zerstören – ein eklatantes Kosten-Nutzen-Missverhältnis zu Ungunsten klassischer Wehrtechnik. Daneben prägen Loitering Munitions (umherschweifende „Kamikaze-Drohnen“) den Konflikt.

Überhaupt redefiniert die Ukraine den Drohneneinsatz: Wie Forbes berichtete, wurde entlang der Front ein rund 25 km breiter „Kill-Zone“-Streifen eingerichtet, patrouilliert von Schwärmen kleiner Drohnen, der feindliche Truppenansammlungen nahezu unmöglich macht – die NATO erwägt bereits eine ähnliche „Drone Wall“ zum Schutz ihrer Ostflanke. Die Allgegenwart von Drohnen rief freilich elektronische Gegenmaßnahmen auf den Plan: Beide Seiten überziehen sich mit immer neuen Electronic-Warfare-Taktiken, vom Stören und Spoofen von GPS- und Funkverbindungen bis hin zu improvisierten physischen Schutzgittern („cope cages“) an Fahrzeugen. Im Gegenzug werden jetzt verstärkt per Glasfaser ferngelenkte Drohnen entwickelt, die gegen Funk-Jamming immun sind. Auch im Cyber-Raum tobt der Schlagabtausch, der jedoch trotz einzelner schwerer Angriffe offenbar bislang keine strategisch entscheidenden Wirkungen erzielte.

Den größten Wert haben Cyber-Operationen daher bislang für Aufklärung und Störung gegnerischer Kommunikation. Insgesamt gilt dieser Krieg auch als erster großer Konflikt, in dem kommerzielle Technik so umfassend militärisch genutzt wird, dass Beobachtende bereits vom ersten „kommerziellen Raumfahrtkrieg“ sprechen. Private Satelliten liefern der Ukraine rund um die Uhr Geodaten und Aufklärung, während tausende Starlink-Terminals ein robustes Kommunikationsnetz auf dem Gefechtsfeld sicherstellen. Ebenso werden zivil verfügbare Drohnen, handelsübliche 3D-Drucker und KI-Software in militärische Anwendungen überführt. Mit erschwinglichen Geräten und Software lässt sich realisieren, was früher teuren Spezialkräften vorbehalten war. Die Kehrseite ist, dass die Trennung zwischen zivilem und militärischem Bereich zunehmend verschwimmt, was ethische und sicherheitspolitische Fragen aufwirft.

Die Rolle von Start-ups

Viele dieser Innovationen wurden nicht von Rüstungsriesen ersonnen, sondern von kleinen, agilen Akteur*innen. In der Ukraine stützt man sich auf eine lebhafte Tech-Start-up-Szene und eine flexible Rüstungsindustrie, um Russlands zahlenmäßige Vorteile auszugleichen. Die Iterationsgeschwindigkeit ist beeindruckend: Die Entwicklungszyklen für neue Lösungen sind von Jahren auf Monate, Wochen oder gar Tage geschrumpft. Agile Start-ups und Entwickler*innen-Teams an der Front reagieren in Echtzeit auf Bedrohungen. Sie fügen ständig neue Gegenmaßnahmen und Verbesserungen hinzu, um der Gegenseite immer einen Schritt voraus zu sein.

Dieser direkte Innovationsloop vom Gefechtsfeld in die Werkstatt und zurück beschleunigt den Fortschritt enorm. So schießen etwa ukrainische Drohnen-Workshops buchstäblich in Kellern und umfunktionierten Supermärkten aus dem Boden, um Produktion und Entwicklung selbst unter Beschuss aufrechtzuerhalten. Start-ups bringen eine Kultur der schnellen Iteration ein, die klassische Rüstungsbetriebe so nicht kennen. Das Ergebnis: 500-US-Dollar-Drohnen werden im Feld per Trial-and-Error optimiert und können anschließend einen 5-Mio.-US-Dollar-Panzer ausschalten.

Gründungs-Boom im Verteidigungssektor

Auch außerhalb der Ukraine hat der Krieg einen Gründungs-Boom ausgelöst. Wagniskapital fließt so stark wie nie in europäische Verteidigungs- und Sicherheits-Technologie: 2024 wurden in diesem Sektor 5,2 Mrd. US-Dollar investiert – ein Allzeithoch. Noch vor wenigen Jahren galt Rüstungs-IT bei vielen Investor*innen als Tabu, ähnlich wie „Sündenbranchen“ à la Glückspiel und Pornografie; dieser Stigma-Effekt ist nun einer neuen Dringlichkeit, die ukrainische Verteidigung zu unterstützen, gewichen. Einige staatlich unterstützte VC-Fonds in Europa, wie z.B. SmartCap aus Estland, fördern mittlerweile explizit Rüstungsinvestments. Zwar ist die europäische VC-Branche aufgrund vertraglicher Bindungen insgesamt noch zögerlich, doch die Zurückhaltung wirkt 2025 überholt. Schließlich zeigt der Ukraine-Krieg, dass technologische Innovation das Kriegsgeschehen entscheidend beeinflusst – eine Wahrheit, die in den vergangenen Friedensdekaden in Vergessenheit geriet.

Auch in Deutschland entsteht ein dynamisches Ökosystem, das viele Technologiefelder abdeckt. Die wichtigsten sind künstliche Intelligenz und autonome Systeme, Quantentechnologien, Human Enhancement, Hyperschalltechnologien, neuartige Materialien und Fertigungsverfahren, Raumfahrttechnologien, Advanced Manufacturing sowie resiliente Energiesysteme. Die Bitkom befragte kürzlich 44 deutsche DefTech- und Dual-Use-Start-ups, aber die Dunkelziffer dürfte höher liegen, da inzwischen viele DeepTech-Start-ups mit dem Verteidigungsmarkt liebäugeln.

So hat das Digital Hub Security & Defense BASED während der letzten Münchner Sicherheitskonferenz 80 DefTech-Start-ups auf dem „Sicherheitsfrühstück“ einer fast ebenso großen Zahl an Investor*innen vorgestellt. BASED hat sich auf die Fahnen geschrieben, DefTech-Start-ups „investment ready“ zu machen. Und viele Gründer*innen und Talente entscheiden sich angesichts der Bedrohungslage auch „mission driven“ für die Verteidigung, um einen Beitrag zum Schutz unserer Demokratie zu leisten.

Ein Beispiel für ein erfolgreiches europäisches Verteidigungs­Start-ups ist neben ARX Robotics (mehr dazu liest du hier in der Coverstory unserer Magazin-Ausgabe 02/25) oder Quantum Systems aus München auch das Unicorn Helsing, das den HX-2-Drohnenjäger entwickelte und Produktionskapazitäten in Deutschland aufbaut, um monatlich vierstellige Stückzahlen zu liefern. Solche Newcomer zeigen, wie Innovationskraft, Tempo und Skalierung im Ernstfall aussehen können – und dass Start-ups mit unkonventionellen Ansätzen binnen kurzer Zeit Fähigkeiten bereitstellen könnten, für deren Entwicklung traditionelle Rüstungsprogramme in der Vergangenheit Jahrzehnte gebraucht haben. Nicht zuletzt hat der Krieg die Produktionslogik verändert: Entscheidend ist nicht mehr, ein Waffensystem mit allen erdenklichen Sonderwünschen als „Goldrandlösung“ zu perfektionieren, sondern es schnell und robust in großen Stückzahlen bereitzustellen. Auch deutsche Rüstungsfirmen wie Hensoldt sprechen von einem Paradigmenwechsel: weg von der früheren „Boutique“-Fertigung hin zur Massenproduktion. Geschwindigkeit schlägt Sonderanfer­tigung: Statt monatelanger Feintuning-Schleifen gilt nun, was an der Front sofort wirkt.

Lehren für den Westen und Deutschland

Was bedeuten diese Erfahrungen für die Bundeswehr und ihre Partner*innen? Zunächst, dass Beschaffungsbürokratien und veraltete Prozesse zum Sicherheitsrisiko werden. In der Ukraine hat sich der traditionell träge Militärapparat unter existenziellem Druck rasant gewandelt. Westliche Länder müssen diese Lektionen proaktiv aufgreifen. Im Schnitt dauern Rüstungsprojekte in Deutschland sechs bis sieben Jahre – eine so lange Durststrecke überlebt kein Start-up in der schnelllebigen Tech-Welt. In der Vergangenheit haben sich talentierte Gründer*innen und Investor*innen daher lukrativeren Branchen zugewandt, statt jahrelang auf einen Durchbruch im Verteidigungssektor zu hoffen. Wollen staatliche Stellen die Innovationskraft der Start-up-Welt nutzen, müssen sie nun zu verlässlichen und schnelleren Kund*innen werden. Dazu gehört, Vergabeverfahren radikal zu verschlanken, mehr Wettbewerb und Transparenz zu schaffen und nicht-traditionelle Anbieter*innen aktiv einzubinden.

Die Politik hat dies erkannt: In Berlin hat sich die neue Koalition vorgenommen, die langsamen Beschaffungsabläufe grundlegend zu reformieren. Eine Analyse des Wirtschaftsministeriums (BMWK) identifizierte bereits 2023 Bremsklötze: übermäßige parlamentarische Einmischung bei jedem Auftrag über 25 Mio. Euro, komplizierte Regulierung sowie zu enge Grenzen bei der Forschungsförderung. Diese Hürden führen dazu, dass Innovationen im „Tal des Todes“ versickern – dem Übergang von Prototypen in die Serienbeschaffung. Durch bürokratische Verzögerungen verliert neue Technik dort kritische Zeit und Schwung, bisweilen verschwindet sie ganz. Um das zu verhindern, muss es strukturelle Änderungen geben: von der Verstetigung von Innovationsbudgets über beschleunigte Genehmigungswege bis hin zur besseren Verzahnung von zivilen Talenten mit militärischen Bedarfsträger*innen. Kurz: Die Streitkräfte dürfen nicht länger in Friedensroutine verharren.

Zugleich müssen Produktionskapazitäten hochgefahren werden. Der Krieg lehrt, dass eine industriell-logistische Mobilmachung nötig ist, um im Ernstfall genug Material bereitstellen zu können – seien es Munition, Drohnen oder Ersatz­teile. Dafür braucht es auch neue Geschäftsmodelle und modulare „Factories“ in Europa, die bei Bedarf binnen kürzester Zeit die Ausstoßzahlen hochskalieren können. Auch Abhängigkeiten von langen und störanfälligen Lieferketten im Bereich der Rohstoffe und Komponenten müssen reduziert werden.

Generell sollten westliche Regierungen verstärkt Kapital in junge Verteidigungsfirmen lenken – etwa durch Wagniskapitalfonds oder Innovationsprogramme – und verhindern, dass große Rüstungskonzerne vielversprechende Neulinge bloß aufkaufen, um deren Technologien vom Markt zu nehmen. Die Innovationsökosysteme rund um Verteidigung müssen sorgfältig kultiviert werden, damit die aktuelle Aufbruchsstimmung nicht abrupt endet. Dazu gehört auch ein Mentalitätswandel bei Investor*innen: Die Jahrzehnte währende Scheu vor Wehrtechnik-Investments ist nicht mehr zeitgemäß – letztlich hängt die Sicherheit Europas von unserer technologischen Stärke ab.

Fazit

Der Ukraine-Krieg führt vor Augen, wie künftig Kriege entschieden werden: durch Geschwindigkeit und Innovationskraft. Günstige, flexibel einsetzbare Technologien – oft entwickelt von neuen Akteur*innen – können hochgerüstete Gegner*innen ins Wanken bringen. Start-ups avancieren hierbei zum strategischen Faktor. Sie liefern Agilität, frische Ideen und die Fähigkeit, sich im Kriegsverlauf iterativ anzupassen.

Die Autorin Prof. Dr. Rafaela Kraus ist Professorin für Unternehmens- und Personalführung soeir ehem. Vizepräsidentin der Universität der Bundeswehr München und hat dort u.a. das Entrepreneurship-Center founders@unibw ins Leben gerufen. Als Defense-Innovation-Expertin ist sie Initiatorin von BASED, dem Münchner Digital Hub Security & Defense

fünfeinhalb Funksysteme: Echtzeit-WLAN für die Industrie

Das 2023 als Ausgründung aus der TU Dresden gegründete Start-up fünfeinhalb Funksysteme stellt mit BlitzFunk eine 5G-Alternative für industrielle Anwendungen vor.

Die Einführung des Mobilfunkstandards 5G sollte die drahtlose Kommunikation nicht nur für den Consumer-Markt revolutionieren, sondern auch den Weg hin zur Industrie 4.0 mit vollvernetzten, intelligenten Fabriken ebnen. Doch bis heute können kommerzielle 5G- sowie zahlreiche WLAN-Systeme die Echtzeitanforderungen industrieller Anforderungen meist nicht erfüllen: Verzögerungen in der Datenübertragung (Latenzen) führen zu oft zu Systemstopps und Ausfällen ganzer Anlagen. Das Dresdner Start-up fünfeinhalb Funksysteme GmbH hat es sich zum Ziel gesetzt, dies zu ändern. Mit BlitzFunk, einem Echtzeit-WLAN-System mit berechenbaren Latenz-Garantien sowie latenzfreiem Roaming, ist ihm dies gelungen.

Fünfeinhalb Funksysteme wurde 2023 als Ausgründung aus der TU Dresden gegründet, mit dem Ziel, die nicht eingehaltenen Versprechen des Mobilfunkstandards 5G einzulösen und für Anwendungen im industriellen Umfeld nutzbar zu machen. Dafür hat das fünfköpfige Gründerteam rund um Geschäftsführer Dr. Lucas Scheuvens BlitzFunk entwickelt. Das Funksystem – bestehend aus Access Points und Clients – ist so konzipiert, dass es als eine koordinierte Einheit agiert. Die Anwendergeräte (Maschinen, Steuerungen oder Sensoren) werden über Ethernet mit dem System verbunden.

Latenzfreies Roaming ohne Unterbrechung

Einen der größten USPs des Funksystems fasst Dr. Lucas Scheuvens wie folgt zusammen: „Bei einem klassischen Roaming-Prozess, der in räumlich größeren Netzwerken immer nötig ist, ist der Client jeweils mit nur einem Access Point verbunden. Bevor er dessen Reichweite verlässt, muss er mit dem nächsten Access Point verknüpft werden. Das heißt, dass dort die Verbindung zum ersten Access Point ab- und zum nächsten Access Point neu wieder aufgebaut wird. Verschiedene Lösungen können dies zwar besonders schnell, aber es gibt immer einen zeitlichen Break. Bei Blitzfunk ist das nicht so, da unsere Access Points sich koordinieren und somit latenzfreies Roaming garantieren. Dabei koordinieren sie sich im Hintergrund automatisch so, dass sie sich nicht gegenseitig stören. Da das Roaming im BlitzFunk-System keinerlei negative Auswirkungen hat, entfällt auch die aufwendige und kostenintensive Funknetzplanung.“

Entwickelt für die Anforderungen der Industrie 4.0

BlitzFunk garantiert eine schnelle Datenübertragung – selbst bei mehreren verbundenen Geräten (Clients): Für 99,9999 Prozent aller Sendeversuche liegt die Latenz – so das Unternehmen – nachweislich bei maximal 2 × (N + 1) Millisekunden, wobei N die Anzahl der gleichzeitig aktiven Geräte ist – und das bei maximaler Ethernet-Framegröße von 1500 Bytes. Ein einzelner Client im System hat demnach eine garantierte Latenz von 4 Millisekunden, bei zehn Clients sind demnach 22 Millisekunden erwartbar, usw. Diese Garantie gilt auch für den Roaming-Fall, was vollständig unterbrechungsfreie Datenverbindungen für anspruchsvollste Industrie-Anwendungen ermöglicht.

Doch das Funksystem hat noch weitere Vorteile: es verhält sich wie ein verteilter Ethernet-Switch und bietet somit Plug&Play-Kompatibilität mit allen Ethernet-basierten Protokollen, inklusive Profinet, Profisafe, EtherNet/IP, CIP Safety und MQTT. Dazu kommen seine einfache Inbetriebnahme und Verwaltung über einen Webbrowser, was beides ohne spezielle technische Kenntnisse möglich ist. Ein weiterer Pluspunkt ist das eingebaute Troubleshooting, dank dem sich das Funksystem als Fehlerquelle eindeutig identifizieren (z.B. bei Überlastung) oder ausschließen lässt. Nicht zuletzt punktet das Funksystem auch in Bezug auf die Security mit geräteindividueller, quantensicherer Verschlüsselung sowie Authentifizierung.

Gemacht für mobile Anwendungen in der Logistik und Fertigungsbranche

Fünfeinhalb Funksysteme richtet sich insbesondere an Hersteller bzw. Systemintegratoren, die eine mobile Vernetzung ihrer Maschinen benötigen, die genauso zuverlässig funktioniert wie eine Kabelverbindung. Scheuvens erklärt dazu: „Obwohl sich mit BlitzFunk auch existierende Kabelinstallationen ersetzen lassen, ist das nicht unser Hauptanspruch. Konzipiert wurde das System hauptsächlich für Einsatzszenarien in der Fertigung, die mobile Roboter oder Fahrzeuge umfassen. Aber auch für Schlittensysteme und rotierende Elemente ist BlitzFunk geeignet – bzw. generell überall dort, wo Kabel stören oder technisch nicht sinnvoll einsetzbar sind“. Zu den zahlreichen, bereits erfolgreich durchgeführten Projekten zählen Vernetzungen von Schweißrobotern, Deckenkränen und fahrerlosen Transportfahrzeugen – sowohl im Safety- als auch Non-Safety-Bereich.

Blick in die Zukunft: Noch mehr Leistung

Gefragt nach einem Blick in die Zukunft des Unternehmens antwortet Scheuvens: „Aktuell basiert BlitzFunk auf klassischen, für den breiten Massenmarkt konzipierten Standard-Komponenten. Das macht die Lösung sofort und mit einem großen Mehrwert gegenüber anderen Systemen einsetzbar, demonstriert aber nur einen Bruchteil dessen, was möglich ist. Aktuell arbeiten wir an einem komplett integrierten Echtzeit-WLAN-System, das dann selbst BlitzFunk in den Kategorien Größe, Anzahl der gleichzeitig unterstützten Geräte, Zuverlässigkeit, Latenz und Energieverbrauch noch jeweils um den Faktor zwei bis zehn verbessern kann. Wir freuen uns auf die Reise!“

EU AI Act: Bürokratisch, unpraktisch, schlecht

Ein Kommentar von Dominik Mohilo, Redakteur und IT-Experte bei der auf High-Tech spezialisierten Münchner PR- und Kommunikationsagentur PR-COM.

Die Luft auf dem hohen moralischen Ross, auf dem Deutschland vorreitet und Europa folgt, wird dünner und dünner. Ja, der EU AI Act ist eine Errungenschaft. Und ja, ethische Grundsätze sollten wir keinesfalls missachten, wenn es darum geht, künstliche Intelligenz zu entwickeln, zu betreiben und zu verwenden. Fair enough. Doch darf’s vielleicht trotzdem ein bisschen weniger Bürokratie sein, liebe EU? Artikel 5 des KI-Regelwerks der EU besagt beispielsweise, dass die folgende KI-Praktik verboten ist: „Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das unterschwellige Techniken, die sich dem Bewusstsein einer Person entziehen, oder absichtlich manipulative oder täuschende Techniken einsetzt, mit dem Ziel oder der Wirkung, das Verhalten einer Person oder einer Personengruppe dadurch wesentlich zu beeinflussen, dass ihre Fähigkeit, eine sachkundige Entscheidung zu treffen, spürbar beeinträchtigt wird, wodurch sie veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Personengruppe einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.“ (Kapitel II, Artikel 5, 1a)

Sperrig und überregulatorisch

Verstanden worum es geht? Ich auch nicht. Ähnlich sperrig und überregulatorisch ist der Abschnitt über sogenannte Hochrisiko-KI-Systeme formuliert. Gemeint sind damit jene KI-Anwendungen, die etwa im Gesundheitswesen, in der Bildung oder kritischen Infrastrukturen eingesetzt werden sollen – also genau den Bereichen, wo sie dringend benötigte Verbesserungen und Entlastungen für die in diesen Bereichen arbeitenden Menschen mit sich bringen könnten. Was genau mit Hochrisiko gemeint ist, ist allerdings wieder nicht glasklar definiert: was hat denn nun „erheblichen Einfluss auf Grundrechte“? Diese Unsicherheit im Hinblick auf die rechtliche Grundlage ist oft Grund genug für potenzielle Investoren, sich nach anderen Gelegenheiten umzusehen. Wer will schon exorbitante Kosten für juristische Verfahren locker machen und Zertifizierungen noch und nöcher erwerben, nur um am Ende dann möglicherweise doch gegen geltende Gesetze zu verstoßen? Eben.

Start-ups sind von Hürden überproportional heftig betroffen

Gerade kleine und mittelständische Unternehmen (KMU) sowie Start-ups sind von diesen Hürden überproportional heftig betroffen, sodass viele gute und wegweisende Ideen nicht oder zumindest nicht hier in der EU auf den Weg gebracht werden. Wirtschaftlich ist das fatal – das auch noch in diesen schwierigen Zeiten. In diesen Zeiten wäre es eigentlich wichtig, die Wirtschaft voranzutreiben, insbesondere in zukunftsweisenden Bereichen wie dem KI-Markt. Eine gute Möglichkeit wäre, die Technologie hierzulande staatlich zu subventionieren, wie das in den USA und in China bereits in großem Stil passiert. Stattdessen werfen wir uns selbst Stöcke in die Speichen unserer Räder – unter anderem mit Regulierung und ethischen Grundsätzen, sondern insbesondere durch schwammige Gesetzestexte und Undurchsichtigkeit von Compliance-Vorschriften.

Zusammenfassend ist festzustellen, dass die alte Forderung „rebellischer“ (mancher würde sagen: „vernünftiger“) Politiker, Bürokratie abzubauen, selten so eine hohe Relevanz wie aktuell hatte. Europa geht es wirtschaftlich schlecht, gleichzeitig verlassen High-Tech-Unternehmen scharenweise unsere Breitengerade, da das Regulierungskorsett so eng geschnürt ist, dass Innovation keine Luft mehr zum Atmen hat. Es gilt also, Maßnahmen zu ergreifen, um wettbewerbsfähig zu werden.

Was könnte die EU nun machen, da das Regulations-Kind in den Brunnen gefallen ist?

Zunächst einmal wäre es hilfreich, aus unserem Elfenbeinturm herauszukommen. Ethik ist wichtig, aber kein Altar, auf dem wir unsere Wirtschaft opfern sollten. Haben wir das verinnerlicht, braucht der EU AI Act eine Überarbeitung die Unklarheiten auflöst und die Hürden (gerade für Start-ups und KMU) verringert. Sinnvoll wäre zudem, wenn die EU KI-Sandboxes zur Prüfung von innovativen Technologien bereitstellen würde, in denen Unternehmen ihre Entwicklungen testen können, ohne gegen Gesetze zu verstoßen. Zudem muss die EU-Gelder und Mittel zur Verfügung stellen, Zertifizierungsverfahren deutlich zu beschleunigen. Auch eine Zentralisierung dieser Verfahren würde Sinn ergeben. Die entsprechende ISO-Norm (ISO/IEC 42001) gibt es bereits, was fehlt sind offizielle Tools, um die Konformität der eigenen Anwendung zu checken.

Ziel muss es sein, Europa als attraktives Umfeld für den Einsatz und die Entwicklung von KI-Anwendungen zu positionieren. KI wird in den kommenden Jahren über wirtschaftlichen Erfolg nicht nur von Unternehmen, sondern von Staaten avancieren. Wenn wir nicht die gleichen Katastrophen wie aus der Schwerindustrie und der Automobilbranche erleben, sondern wieder vorne mitspielen wollen, dürfen wir uns nicht selbst behindern. Das Gebot der Stunde ist also Bürokratieabbau und Mut zu moderaterer Ethik – so werden wir vielleicht irgendwann doch wieder Exportweltmeister.