Aktuelle Events
Geschäftsideen Superfood: ein Café für die Avocado
Alles von der Avocado
Die Avocado ist nicht nur bei Vegetariern und Veganern als Superfood sehr beliebt. Doch nicht jeder Avocadofan will alle möglichen Rezepte zu Hause ausprobieren.
Die Gerichte im Restaurant serviert zu bekommen, ist viel bequemer. Ausgangspunkt für eine coole Geschäftsidee. So gibt es in Amsterdam nun das erste Avocado-Café. Hier werden zum Frühstück, Mittag- und Abendessen leckere Avocadogerichte serviert. Neben Herzhaftem gibt es auch Süßspeisen, wie zum Beispiel ein Schoko-Avocado-Smoothie.
Sie möchten selbst ein Unternehmen gründen oder sich nebenberuflich selbständig machen? Nutzen Sie jetzt Gründerberater.de. Dort erhalten Sie kostenlos u.a.:
- Rechtsformen-Analyser zur Überprüfung Ihrer Entscheidung
- Step-by-Step Anleitung für Ihre Gründung
- Fördermittel-Sofort-Check passend zu Ihrem Vorhaben
Diese Artikel könnten Sie auch interessieren:
Happy Homeoffice Club gestartet
Gründerin Caterina Hirt startet ein digitales Netzwerk als kollaborative Kommunikationsplattform für selbständige Mütter im Homeoffice.
Mit dem Start des Happy Homeoffice Clubs entsteht ein neues digitales Angebot für selbständige Mütter – mit Liveformaten, Co-Working, einer innovativen Softwareplattform und vielen nützlichen Business-Hacks. Die Gründerin Caterina Hirt bringt damit ein strukturiertes, unterstützendes Netzwerk an den Start, das den oft isolierten Homeoffice-Alltag in einen Ort der Verbindung, Motivation und echten Weiterentwicklung verwandelt. „Ich habe selbst erlebt, wie herausfordernd es ist, Beruf, Familie und Selbstverwirklichung unter einen Hut zu bringen – vor allem im Homeoffice. Mit dem Happy Homeoffice Club möchte ich Frauen zeigen, dass sie nicht alleine sind“, so die Gründerin. Caterina Hirt ist Unternehmerin, Autorin, systemische Coachin und Mutter von zwei Kindern. Mit ihrem Agenturbackground und über zehn Jahren Erfahrung im Homeoffice weiß die Marketingspezialistin aus erster Hand, welche Chancen – aber auch welche Herausforderungen – dieser Arbeitsalltag birgt.
Kern der Zusammenarbeit ist eine kollaborative Kommunikationsplattform, über die die Mütter dauerhaft in einem echten Netzwerk verbunden sind. Dazu setzt das Angebot auf Livecalls, Community-Austausch, Expertenvorträge und snackable Businesstipps, die den Workflow im Homeoffice effizienter machen. Das Angebot richtet sich explizit an selbständige Frauen oder Mütter im Homeoffice. „Bei uns fühlt sich keine Teilnehmerin mehr allein. Hier treffen sich Frauen, die genau wissen, wie es ist, mit Laptop, Kaffee, Kind und manchmal ein bisschen Chaos zu jonglieren. Sie arbeiten, lachen, tauschen sich aus und motivieren sich gegenseitig. So modern, vernetzt und unterstützend, wie man es sich als Selbstständige immer gewünscht hat “, sagt Caterina Hirt.
Die zugrundeliegende Softwarelösung bietet eine hochmoderne Nutzeroberfläche, Chats, Calls in einer geschützten Umgebung sowie Daten- und Wissensaustausch an. So gibt es zum Beispiel den Monday Motivation Call mit allen Teilnehmerinnen oder eine interaktive Kaffeeküche, in der man sich einfach mal über alle Themen abseits des Business interaktiv austauschen kann. Die Plattform wird jeder Teilnehmerin zur Verfügung gestellt, die Nutzung ist in der monatlichen Mitgliedsgebühr von 49 Euro (Einführungspreis) enthalten. Interessentinnen können die Community inklusive aller Angebote zwei Wochen kostenlos testen.
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Code für die künstliche Intelligenz: technische Optimierung für die Ära der KI-Suche
Code für die KI: So optimierst du deine Website technisch mit strukturierten Daten und Protokollen für die besten generativen Suchergebnisse.
Die Regeln der Online-Sichtbarkeit werden neu geschrieben. Es geht nicht mehr nur darum, von einem herkömmlichen Algorithmus indiziert zu werden. Stattdessen müssen Websites so aufbereitet werden, dass sie von künstlicher Intelligenz (KI) und großen Sprachmodellen (LLMs) fehlerfrei interpretiert und verarbeitet werden können.
KI erstellt ihre Antworten, indem sie Inhalte blitzschnell liest, deren Bedeutung versteht und die wichtigsten Fakten daraus extrahiert. Wenn der technische Unterbau einer Website unsauber ist, kann die KI die Informationen entweder nicht zuverlässig finden oder sie falsch interpretieren.
Das bedeutet, die technische Seite der Website – der Code – wird zum Fundament für eine gute Platzierung in den generativen Suchergebnissen. Wer hier Nachholbedarf hat, riskiert, als vertrauenswürdige Quelle für die KI unsichtbar zu werden.
Dieser Artikel beleuchtet die entscheidenden technischen Anpassungen, die notwendig sind, um deine Website optimal für die neue Ära der KI-Suche vorzubereiten.
Kontrolle und Zugang: Die Regeln für Sprachmodelle
Der erste technische Schritt zur Optimierung für KI-Ergebnisse ist die Steuerung des Zugriffs durch die großen Sprachmodelle (LLMs). Traditionell wird der Zugang durch die robots.txt Datei geregelt, die festlegt, welche Bereiche der Website von herkömmlichen Suchmaschinen-Crawlern besucht werden dürfen.
Mit dem Aufkommen verschiedener, spezialisierter KI-Crawler (die nicht immer identisch mit dem Googlebot oder Bingbot sind) entsteht jedoch die Notwendigkeit, diesen neuen Akteuren eigene Regeln zu geben. Es geht darum, Transparenz darüber zu schaffen, welche Daten zur Generierung von Antworten verwendet werden dürfen und welche nicht.
Neue Protokolle für neue Crawler
Experten diskutieren und entwickeln neue Protokolle, um diese Unterscheidung zu ermöglichen. Ein viel diskutierter Ansatz ist die Einführung von Protokollen, die spezifisch den Umgang mit generativer KI regeln. Dies könnte die Einführung von Protokollen wie einer llms.txt Datei beinhalten. Solche spezifischen Dateien könnten festlegen, ob ein KI-Modell Inhalte zur Schulung oder zur generativen Beantwortung von Nutzeranfragen nutzen darf.
Diese Kontrollmechanismen sind entscheidend. Sie geben den Website-Betreibern die Autorität darüber zurück, wie ihre Inhalte in der KI-Ära verwendet werden. Wer hier klare Regeln setzt, schafft die technische Grundlage für eine kontrollierte und damit vertrauenswürdige Sichtbarkeit in den KI-Ergebnissen.
Strukturierte Daten als universelle KI-Sprache
Nach der Regelung des Zugangs durch Protokolle ist die Strukturierung der Inhalte der wichtigste technische Schritt. Suchmaschinen nutzen strukturierte Daten schon lange, um Rich Snippets in den klassischen Ergebnissen anzuzeigen. Für die KI sind diese Daten jedoch absolut essenziell.
Strukturierte Daten, die auf dem Vokabular von Schema.org basieren, sind im Grunde eine Übersetzungshilfe im Code, die dem Sprachmodell den Kontext des Inhalts direkt mitteilt. Sie sind die "Sprache", die die KI am schnellsten und präzisesten versteht.
Die Bedeutung für die Generierung
Wenn ein Nutzer eine Frage stellt, sucht die KI nicht nur nach Stichwörtern, sondern nach definierten Informationstypen. Mit strukturierten Daten liefert man der KI diese Informationen als fertige, fehlerfreie Bausteine.
- Fehlerfreie Extraktion: Die KI muss keine Textpassagen interpretieren, um beispielsweise ein Rezept, die Bewertung eines Produkts oder einen FAQ-Abschnitt zu identifizieren. Die korrekte Auszeichnung macht die Daten sofort nutzbar.
- Vertrauensbildung: Fehlerhafte oder inkonsistente strukturierte Daten führen zu einer falschen Interpretation und können bewirken, dass die KI deine Seite als unzuverlässig einstuft.
Die Implementierung muss fehlerfrei sein und sollte alle relevanten Inhaltstypen der Website abdecken. Nur eine saubere Schema-Implementierung garantiert, dass deine Fakten korrekt in die generativen Antworten der KI einfließen.
Ladezeit und Interaktivität als Vertrauenssignal
Die Geschwindigkeit und die Nutzbarkeit einer Website sind in der Ära der KI-Suche nicht mehr nur ein Komfortfaktor, sondern ein entscheidendes technisches Vertrauenssignal. Wenn deine Seite langsam lädt oder schlecht bedienbar ist, wird das von der KI als Indikator für mangelnde Qualität und niedrige Autorität gewertet.
Die Basis dafür sind die sogenannten Core Web Vitals (CWVs). Diese Messwerte, die sich auf das Nutzererlebnis konzentrieren, sind feste Ranking-Faktoren und haben direkten Einfluss darauf, ob eine KI deine Seite als zitierwürdig einstuft:
- LCP (Largest Contentful Paint): Misst die Zeit, bis der größte sichtbare Inhalt geladen ist.
- FID/INP (First Input Delay / Interaction to Next Paint): Misst die Zeit bis zur ersten Interaktion und die allgemeine Reaktionsfähigkeit der Seite.
- CLS (Cumulative Layout Shift): Misst die visuelle Stabilität.
Mobile Performance ist der Schlüssel
Da ein Großteil der Online-Aktivität über mobile Geräte stattfindet, legt die KI höchsten Wert auf die Optimierung der Mobilversion. Eine schlechte mobile Performance kann das gesamte Ranking negativ beeinflussen.
Die technische Anpassung muss daher darauf abzielen, die CWVs zu perfektionieren. Dies beinhaltet die Optimierung von Bildern, das Bereinigen unnötiger Code-Lasten und das Priorisieren wichtiger Ressourcen. Eine schnell ladende und reaktionsfreudige Website signalisiert nicht nur dem Nutzer, sondern auch der KI, dass die Quelle professionell und damit vertrauenswürdig ist.
Redundanz vermeiden: kanonische Klarheit
Eines der größten technischen Probleme für KI-Modelle ist die Verwirrung durch doppelte Inhalte (Duplikate). Wenn die gleiche Information unter verschiedenen URLs verfügbar ist, weiß die KI nicht, welche die Originalquelle darstellt. Dies zersplittert deine Autorität.
Der technische Schlüssel zur Lösung ist der Canonical Tag (<link rel="canonical" ...>). Dieser Tag im Code muss auf jeder Seite korrekt auf die bevorzugte, indexierbare URL zeigen. Durch die Vermeidung von Duplikaten und die korrekte Nutzung dieses Tags stellst du technisch sicher, dass die KI deine Inhalte als eindeutig und autoritär wahrnimmt und dich als zuverlässigen Faktenlieferanten zitiert.
Schlussworte
Die Zukunft der Online-Sichtbarkeit wird durch künstliche Intelligenz neu definiert. Der Erfolg hängt von einer technisch sauberen Vorbereitung ab.
Die wichtigsten Schritte in der Generative Engine Optimization (GEO) sind:
1. Zugangskontrolle durch Protokolle wie die diskutierte llms.txt Datei.
2. Die Nutzung von strukturierten Daten als unverzichtbare KI-Sprache.
3. Die Perfektionierung der Core Web Vitals als Vertrauenssignal.
4. Die Vermeidung von Duplikaten durch kanonische Klarheit.
Investiere in diese technische Qualität, um Autorität und Sichtbarkeit in der Ära der KI-generierten Antworten zu sichern.
eleQtron: It's MAGIC
In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.
Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“
Es war ein ungewöhnlicher Ort für eine bahnbrechende
Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.
Von der Universität ...
Im Jahr 2020, als das globale Interesse an Quantentechnologien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.
Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quantenprogramme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.
In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.
... zum technologischen Durchbruch
Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer sogenannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikrowellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“
Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.
Wachstumsschub und strategische Entwicklung
2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.
„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.
EU KI-Gesetz wird scharf gestellt
Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.
Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.
Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:
- Strafmaßnahmen bei Nichteinhaltung
- Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
- Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene
Strafen bis zu 35 Millionen Euro
Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.
Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen
GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.
GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.
Aufsicht und Governance
Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.
Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.
Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.
Was bedeutet das für Personalabteilungen und Arbeitnehmende?
Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.
- Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
- Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
- Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
- Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.
Fazit
Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.
Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.
EU AI Act: Status quo
Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.
Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.
Überblick: Der AI Act
Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten HochrisikoSysteme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.
Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.
Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.
Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.
Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.
Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produktregulierung und Marktüberwachung.
Was fehlt? Guidance und Governance
Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.
Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.
Und wo steht Deutschland?
Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.
Reallabore
Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.
Reaktionen
Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.
Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschiedliche Informationen und Compliance-Nachweise verfügbar sind.
Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.
Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.
Fazit
Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.
Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Herausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.
Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München
Humanoide Roboter: Vision und Realität
Der Weltroboterverband IFR veröffentlicht sein Positionspapier zu Trends, Chancen und möglichen Grenzen rund um das Thema humanoide Roboter.
Menschenähnliche Roboter gelten als die nächste große Innovation in der Robotik: Der weltweit größte Markt für Industrieroboter, China, hat bereits konkrete Pläne für die Massenproduktion von Humanoiden festgelegt. Gleichzeitig kündigten Technologieunternehmen in den USA und Europa große Investitionsvorhaben in diesem Bereich an. Die Vision ist, Allzweckroboter zu entwickeln, die auf menschlicher Mechanik basieren. Einblicke in Trends, Chancen und mögliche Grenzen humanoider Roboter bietet das neue Positionspapier der International Federation of Robotics.
„Futuristisch anmutende humanoide Roboter, die in unserem Zuhause, in Unternehmen und in der Öffentlichkeit arbeiten, faszinieren die Menschen“, sagt Takayuki Ito, Präsident der International Federation of Robotics. „Da die Welt in der wir leben auf den menschlichen Körper zugeschnitten ist, liegt die Idee eines schnellen, universellen Helfers in der Produktion und bei Dienstleistungen auf der Hand. Ob und wann es aber zu einer massenhaften Nutzung von Humanoiden kommen wird, bleibt ungewiss. Nicht zu erwarten ist jedenfalls, dass Humanoide in Zukunft die derzeit auf dem Markt befindlichen Robotertypen ersetzen. Stattdessen werden sie bestehende Technologien ergänzen und erweitern.“
Einsatz von Humanoiden in den Regionen
In den Vereinigten Staaten arbeiten Tech-Unternehmen wie NVIDIA, Amazon und Tesla intensiv an KI- und Robotertechnologien. Neben der Finanzierung durch das Militär wird diese Entwicklung auch durch zahlreiche private Investitionen unterstützt. Das führt zu einer bedeutenden Start-up-Szene, die sich auf humanoide Roboter spezialisiert. Besonders groß ist das Interesse an Humanoiden in Branchen wie der Logistik und in der Fertigung. Dabei werden humanoide Roboter weniger als soziale Begleiter gesehen, sondern eher als Werkzeuge, die dabei helfen, Produktivität und Effizienz zu steigern. So liegt der Schwerpunkt verstärkt auf praktischen Anwendungen und weniger auf der Integration von Robotern in das tägliche soziale Leben.
In China nehmen die Humanoiden eine zentrale Stellung in der nationalen Robotik-Strategie ein. Die Regierung möchte in diesem Technologiebereich Kompetenz und globale Wettbewerbsfähigkeit unter Beweis stellen. Der Einsatzschwerpunkt liegt dabei im Dienstleistungssektor, beispielsweise für die Kundenbetreuung. Die Automatisierung von Produktionslinien in der Fertigung und der Einsatz von Humanoiden, um weniger von menschlichen Arbeitskräften abhängig zu sein, scheint nur auf zweiter Ebene wichtig zu sein. Kernelement der chinesischen Strategie ist der Aufbau einer skalierbaren Lieferkette für Schlüsselkomponenten.
Japan ist ein Pionier in der Entwicklung humanoider Roboter. Als frühes Beispiel wurde Hondas Asimo bereits im Oktober 2000 vorgestellt. Roboter werden in Japan eher als Gefährten, denn als bloße Werkzeuge gesehen. Humanoide Roboter wie Pepper und Palro sind demzufolge in erster Linie als Sozialroboter konzipiert und kommen in Bildungseinrichtungen, Geschäften und Altenpflegeeinrichtungen zum Einsatz. Diese Ausrichtung spiegelt die Nachfrage einer alternden Gesellschaft wider, mit der Japan konfrontiert ist. Ein wichtiger Schwerpunkt der Projekte liegt auf Robotern, die harmonisch mit Menschen zusammenleben können und als Teil der Gesellschaft akzeptiert sind. Führende Unternehmen wie Kawasaki entwickeln humanoide Roboter als eine Forschungsplattform.
In Europa wird auf die ethischen Implikationen von Robotik und KI besonderes viel Wert gelegt. Im Fokus stehen kollaborative Roboter, die im industriellen Umfeld mit Menschen zusammenarbeiten. Kernthemen sind die Verbesserung der Sicherheit und Effizienz und die Nachahmung menschlicher Fähigkeiten. Die Arbeitskraft von Menschen zu kompensieren, steht dagegen nicht im Fokus. Der Schwerpunkt liegt vielmehr auf einem menschenzentrierten Design und den sozialen und gesellschaftlichen Auswirkungen von Robotern. Die europäischen Unternehmen stehen dem Einsatz von Humanoiden generell eher zurückhaltend gegenüber, wenn es um die kurz- bis mittelfristigen Automatisierungsaufgaben im Fertigungs- und Dienstleistungssektor geht.
+++ Ein bahnbrechendes Robotik Start-up aus Deutschland ist NEURA-Robotics: Hier geht’s zu unserer Gründerstory von NEURA Robotics +++
Ausblick
Dank ihrer menschenähnlichen Geschicklichkeit und Anpassungsfähigkeit sind die Humanoiden prädestiniert, komplexe Aufgaben zu automatisieren, mit denen heutige Roboter durch herkömmliche Programmiermethoden Schwierigkeiten haben. Einen massenhaften Einsatz als universelle Haushaltshelfer dürfte es jedoch kurz- bis mittelfristig nicht geben.
Das POSITION PAPER Humanoid Robots - Vision and Reality von IFR gibt's hier zum freien Download
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
„Österreich hat einen langen Atem – und das zahlt sich im Bereich Applied AI aus“
Als führende Standorte in Sachen Künstliche Intelligenz liegen die USA und Asien auf der Hand, doch auch in Österreich gibt es eine vielfältige AI-Landschaft. Welche Vorteile der Standort für künstliche Intelligenz mit sich bringt und welche Rolle dabei Applied AI spielt, weiß Clemens Wasner, Gründer von AI Austria und CEO der EnliteAI.
Clemens Wasner ist Gründer des österreichischen Verbandes für Künstliche Intelligenz, AI Austria und CEO des Wiener Venture Studios EnliteAI. Der studierte Informatiker arbeitete über ein Jahrzehnt in Asien, bevor er 2017 EnliteAI gründete.
Herr Wasner, Sie kennen die AI-Szene aus erster Hand. Wie gut ist Österreich im internationalen Vergleich aktuell aufgestellt, wenn es um Applied AI geht?
Gemessen an seiner Größe steht Österreich erstaunlich gut da. Unsere AI–Landscape verzeichnet mittlerweile über 450 Unternehmen, die aktiv mit KI arbeiten – nicht nur Start-ups, sondern auch klassische Industrieunternehmen, Dienstleister und der öffentliche Sektor. Gerade im Bereich der industriellen Anwendungen ist Österreich breit aufgestellt: Es gibt zahlreiche Corporates, die eigene Competence Center gegründet, Ausgründungen vorgenommen oder Lizenzmodelle für KI aufgebaut haben. Auch die Zahl der Inkubatoren und Corporate Venture Capitalisten ist beachtlich. Das Thema ist in der Realwirtschaft angekommen – und das nicht erst seit gestern. Bereits 2018 gab es hierzulande einen deutlichen Aufschwung. Im Bereich der Spitzenforschung sind wir ebenfalls stark: Mit drei sogenannten ELLIS-Hubs – European Laboratory for Learning and Intelligent Systems – gehören wir zur europäischen Spitze, gemessen an der Größe des Landes.
Sie sprechen beim Blick auf Österreich oftmals vom „AI-Standort mit langem Atem“. Was genau meinen Sie damit und was macht aus Ihrer Sicht einen exzellenten Standort für AI-Start-ups aus?
Der „lange Atem“ ist positiv gemeint und beschreibt das, was Österreich im Bereich Forschung & Entwicklung auszeichnet: kontinuierliche Investitionen, strategischer Weitblick und langfristige Förderstrukturen. Die Steiermark war lange OECD-Spitzenreiter bei F&E-Ausgaben, Wien verfügt über eine dichte Forschungslandschaft. Das sind keine kurzfristigen Hypes, sondern über Jahrzehnte gewachsene Strukturen. Österreich verfügt zudem über eine differenzierte Förderarchitektur, die alle TRL-Stufen abdeckt – von der Grundlagenforschung bis zur Markteintrittsunterstützung. Auch Clusterstrukturen spielen eine Rolle: In Life Sciences etwa gibt es in Wien und Graz funktionierende Ökosysteme, in denen zunehmend auch KI eine Rolle spielt. Diese Verankerung ermöglicht Planbarkeit, die gerade in technologieintensiven Bereichen entscheidend ist.
Zu den Schlüsselfaktoren einen erfolgreichen Standorts zählen Infrastruktur, Talent Pool und Anwendungsmöglichkeiten. Wo sehen Sie hier derzeit die größten Hebel – und auch die größten Defizite – in Österreich?
Ein klarer Vorteil liegt in der Verfügbarkeit von Talenten: Wien zieht seit Jahren hochqualifizierte Developer aus dem osteuropäischen Raum an. Der AI-Fachkräftemangel ist hier weniger ausgeprägt als in anderen europäischen Hauptstädten. Hinzu kommt: Österreich bildet mehr AI-Absolventen aus, als die Wirtschaft derzeit absorbieren kann. Das schafft einen Bewerbermarkt, der gerade für Start-ups günstig ist. Auch Standortfaktoren wie Lebensqualität und erschwingliche Mieten machen zum Beispiel die Hauptstadt Wien attraktiv. Als Besonderheit sehe ich zudem den aktiven Zugang der Stadt: Wien versteht sich als First Client für KI-Anwendungen, etwa in der Analyse von Geodaten, IoT oder der Digitalisierung von Baueinreichprozessen. Hier ist wesentlich mehr Offenheit für politische Vergabe zu finden als in anderen Ländern. Weniger stark ist Wien in der Spitzenforschung vertreten, hier liegt Linz mit der JKU vorn. Aber man kann als kleines Land nicht alles abdecken – und sollte dort Schwerpunkte setzen, wo bestehende Stärken ausbaubar sind.
Was war der Gründungsimpuls für EnliteAI und wie ist Ihr Venture Studio heute aufgestellt?
Ich kam 2016 nach zehn Jahren in Asien zurück nach Österreich. In China und Japan war KI allgegenwärtig, ein regelrechter Hype. Zurück in Europa herrschte Funkstille – das war ein Kulturschock. Ich wollte dem Thema hierzulande Schub geben: 2017 gründete ich den Verband AI Austria und kurz darauf EnliteAI. Unsere Erkenntnis aus früheren Projekten zeigte, dass viele Unternehmen gute Ideen, aber keine Ressourcen zur Umsetzung hatten. Daraus entstand das Venture Studio: Wir entwickeln Prototypen gemeinsam mit Unternehmen und gründen darauf spezialisierte Start-ups. Aktuell sind wir 20 Personen und verfolgen zwei Themen – Detekt, das sich auf den Bereich Mobile Mapping spezialisiert hat, und ein weiteres im Stromnetzmanagement. Mit EnliteAI möchten wir künftig weitere Projekte unterstützen und bereiten dafür eine Dual-Entity-Struktur mit einem eigenen Fonds vor. Ziel ist es, das Modell professionell zu skalieren und Investoren direkt in die Spin-outs zu bringen.
Rechenleistung zählen zu den Schlüsselressourcen in der AI. Was braucht es aus Ihrer Sicht, damit europäische Standorte hier nicht dauerhaft in Abhängigkeit geraten?
Realistisch betrachtet: Die Abhängigkeit besteht bereits. Die großen Hyperscaler sind US-dominiert, ebenso Chips, Kommunikationstools, Social Networks. Europa muss in die digitale Souveränität investieren. Erste Schritte wie AI Factories sind wichtig, aber nicht ausreichend. Wir brauchen europäische Cloud-Anbieter, Chipproduktion auf europäischem Boden und eine nachhaltige Energiepolitik. Frankreichs KI-Boom basiert auf Atomstrom – weil er langfristig planbar ist. Diese Planbarkeit fehlt in vielen europäischen Ländern derzeit. Ohne Strom gibt es keine KI. Auch das zeigen Stimmen von Sam Altman, Elon Musk und anderen. Hier ist ein strategischer Paradigmenwechsel notwendig.
Sie sprachen bereits die vielfältige Landschaft von kleinen und mittleren Unternehmen in Österreich an, die offen für KI sind. Wie gut funktioniert das Matching zwischen Start-ups und klassischen Industrieunternehmen?
Österreich macht hier sehr viel richtig. Es gibt ein breites Netz an Förderinstrumenten – von der Österreichischen Forschungsförderungsgesellschaft FFG über die Austria Wirtschaftsservice bis hin zu regionalen Wirtschaftskammern. Zudem bietet Österreich eine Forschungsförderungsprämie an, bei der 14 Prozent der F&E-Ausgaben quasi mit einem Blankoschein gefördert werden können. Zudem organisieren viele Institutionen aktiv Matchmaking-Events, etwa im Rahmen von PreSeed-, AI-Adoption- oder Innovationsprogrammen. Hinzu kommt der Industry-Startup-Marktplatz mit mehreren Tausend registrierten Unternehmen. Auch Pitchings werden gefördert. Das Ziel ist stets, AI nicht nur in der Theorie zu belassen, sondern in die Realwirtschaft zu bringen. Trotzdem: Viele Unternehmen wissen noch immer nichts davon. Hier braucht es also noch mehr Aufklärung.
Welcher KI-Standort – in Österreich und darüber hinaus – hat Sie zuletzt positiv überrascht?
In Österreich ist Linz für mich der Hotspot schlechthin – die Kombination aus Spitzenforschung und erfolgreichem Technologietransfer ist dort besonders gut gelungen. International beeindruckt mich Twente in den Niederlanden: kein großer Name, aber mit klarer Strategie. Sie haben das Spin-out-Modell von Oxford und Cambridge adaptiert und konsequent umgesetzt – mit IP-Offices, Gründungsberatung und Infrastruktur für Start-ups. Ein weiteres Vorbild ist Heilbronn mit den Campus Founders: Sie haben, unterstützt durch die Dieter Schwarz Stiftung, einen Ort für Unternehmertum und Innovationen geschaffen und könnten Vorbild für viele europäische Regionen werden. Viele Stiftungen schaffen Parks oder Schlösser, aber wesentlich gewinnbringender wäre die Förderung von Entrepreneurship wie es in Heilbronn passiert statt Museumsstiftung. Europa braucht diese neue Denkweise.
Clemens Wasner, vielen Dank für das Gespräch.
Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin
Was sollten Eigentümer in Bezug auf Gewerbeimmobilien beachten?
Entdecken Sie wichtige Tipps für Gewerbeimmobilien-Eigentümer. Infos und wichtige Details.
Gewerbeimmobilien stellen eine wichtige Anlageklasse dar, die sowohl attraktive Renditen als auch besondere Herausforderungen mit sich bringt. Der deutsche Gewerbeimmobilienmarkt erlebt derzeit nicht nur einen zyklischen Abschwung, sondern einen dauerhaften strukturellen Wandel durch die Zinswende. Diese Entwicklung verändert die Rahmenbedingungen für Eigentümer grundlegend und erfordert eine Anpassung der Investitionsstrategien.
Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen neue Aspekte wie Nachhaltigkeit, Energieeffizienz und regulatorische Anforderungen zunehmend an Bedeutung. Eine fundierte Kenntnis aller relevanten Faktoren ist daher essentiell für erfolgreiche Gewerbeimmobilien-Investments. Die folgenden Abschnitte liefern eine praktische Übersicht.
Frühzeitig Verpflichtungen rund um das Thema Gebäude prüfen
Neben den klassischen Überlegungen zu Standort, Mieterstruktur und Rendite gewinnen auch technische und infrastrukturelle Aspekte zunehmend an Bedeutung. Insbesondere Kanalservicearbeiten, wie die Wartung und Instandhaltung der unterirdischen Versorgungsnetze, spielen eine wesentliche Rolle bei der Sicherstellung der langfristigen Werthaltigkeit von Gewerbeimmobilien.
Unter anderem liefert das Kanalservice Magazin hierzu wertvolle Informationen rund um Anbieter und Co. Regelmäßige Inspektionen und Reparaturen von Abwasser- und Entwässerungssystemen sind nicht nur aus rechtlichen und sicherheitstechnischen Gründen wichtig, sondern auch für die Betriebskosten und die Nutzungseffizienz einer Immobilie entscheidend.
Eigentümer sollten sich daher frühzeitig mit den Anforderungen an den Kanalservice auseinandersetzen und sicherstellen, dass diese regelmäßig und vorausschauend durchgeführt werden, um teure Notfalleinsätze und mögliche Wertverluste zu vermeiden.
Steuerliche Vorteile optimal nutzen: Abschreibungen und Umsatzsteuer
Gewerbeimmobilien bieten gegenüber Wohnimmobilien deutliche steuerliche Vorteile, die Eigentümer unbedingt nutzen sollten. Der wichtigste Vorteil liegt in der höheren Abschreibungsrate von 3% jährlich statt der üblichen 2% bei Wohnimmobilien. Diese zusätzliche Abschreibung reduziert die Steuerlast erheblich und verbessert die Rendite nachhaltig.
Ein weiterer bedeutender Vorteil ist die Möglichkeit der 19% Umsatzsteuer-Erstattung beim Erwerb der Immobilie. Voraussetzung hierfür ist die ordnungsgemäße Anmeldung als Unternehmer und die entsprechende Verwendung der Immobilie.
Diese Steuervorteile können die Wirtschaftlichkeit einer Gewerbeimmobilie maßgeblich beeinflussen und sollten bereits in der Planungsphase berücksichtigt werden. Eine professionelle steuerliche Beratung ist dabei unerlässlich. Besonders praktisch ist es in diesem Zusammenhang natürlich auch, dass Studien zufolge aktuell Gründungen in verschiedenen deutschen Städten generell vergleichsweise günstig sind.
Neue Heizungspflicht: Vorgaben rund um erneuerbare Energien seit 2024
Seit 2024 müssen neu installierte Heizungen zu 65% mit erneuerbaren Energien betrieben werden – eine Regelung, die erhebliche Auswirkungen auf Gewerbeimmobilien hat. Diese Vorgabe betrifft sowohl Neubauten als auch den Austausch bestehender Heizungsanlagen und erfordert eine frühzeitige Planung.
Mögliche Lösungen umfassen:
- Wärmepumpen
- Fernwärme
- Biomasseheizungen
- Hybrid-Systeme
Die Investitionskosten sind oft höher als bei konventionellen Systemen, jedoch können staatliche Förderungen einen Teil der Mehrkosten abfedern.
Langfristig ergeben sich durch niedrigere Betriebskosten und steigende CO2-Preise wirtschaftliche Vorteile. Eigentümer sollten rechtzeitig prüfen, welche Technologie für ihre Immobilie am besten geeignet ist, und entsprechende Budgets einplanen. Eine professionelle Energieberatung hilft bei der optimalen Lösung.
Photovoltaik-Potenziale: Chancen und rechtliche Hürden
Die geplante Verdreifachung des Photovoltaik-Ausbaus bis 2030 eröffnet Gewerbeimmobilien-Eigentümern interessante Chancen zur zusätzlichen Wertschöpfung. Gewerbedächer bieten oft ideale Voraussetzungen für Solaranlagen: große, unverschattete Flächen und hoher Eigenverbrauch während der Tagesstunden.
Die Eigenverbrauchsquote kann bei Gewerbeimmobilien deutlich höher liegen als bei Wohngebäuden, was die Wirtschaftlichkeit verbessert. Allerdings bestehen auch rechtliche Hürden, insbesondere bei der Direktvermarktung von Strom an Mieter. Das Mieterstromgesetz und energierechtliche Bestimmungen schaffen komplexe Rahmenbedingungen.
Trotz dieser Herausforderungen können Photovoltaik-Anlagen die Attraktivität einer Gewerbeimmobilie steigern und zusätzliche Einnahmen generieren. Eine sorgfältige Prüfung der rechtlichen und wirtschaftlichen Aspekte ist dabei unerlässlich. Der Faktor „Nachhaltigkeit“ spielt generell aber auch in vielerlei Hinsicht eine wichtige Rolle. So entscheiden sich nicht nur im privaten, sondern auch im gewerblichen Bereich viele dafür, nicht direkt neu zu kaufen, sondern zu reparieren. Ideal für alle, die den ökologischen Fußabdruck ihres Betriebes reduzieren möchten.
Erfolgreich investieren: Wichtige Erkenntnisse für Gewerbeimmobilien-Eigentümer
Erfolgreiche Gewerbeimmobilien-Investments erfordern heute mehr denn je eine ganzheitliche Betrachtung aller relevanten Faktoren. Die steuerlichen Vorteile mit 3% Abschreibung und Umsatzsteuer-Erstattung bleiben wichtige Argumente für diese Anlageklasse.
Gleichzeitig steigen die Anforderungen durch neue Regelungen wie die Heizungspflicht und ESG-Kriterien erheblich. Der strukturelle Wandel des Marktes erfordert angepasste Strategien und eine sorgfältige Auswahl der Immobilien.
Chancen ergeben sich insbesondere in zukunftsorientierten Segmenten wie Logistik und bei der Integration erneuerbarer Energien. Eine professionelle Beratung und kontinuierliche Marktbeobachtung sind unerlässlich. Das Kanalservice Magazin bietet hierfür wertvolle Unterstützung mit fundierten Informationen und praktischen Tipps für alle Aspekte des Gewerbeimmobilien-Investments.
5 Tipps für GPT-Sichtbarkeit im Netz
Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.
Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.
Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.
Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.
Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht
Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.
Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.
Fünf konkrete Hebel für bessere GPT-Sichtbarkeit
Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.
1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.
2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.
3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.
4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.
5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.
Fazit
Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.
Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit
fünfeinhalb Funksysteme: Echtzeit-WLAN für die Industrie
Das 2023 als Ausgründung aus der TU Dresden gegründete Start-up fünfeinhalb Funksysteme stellt mit BlitzFunk eine 5G-Alternative für industrielle Anwendungen vor.
Die Einführung des Mobilfunkstandards 5G sollte die drahtlose Kommunikation nicht nur für den Consumer-Markt revolutionieren, sondern auch den Weg hin zur Industrie 4.0 mit vollvernetzten, intelligenten Fabriken ebnen. Doch bis heute können kommerzielle 5G- sowie zahlreiche WLAN-Systeme die Echtzeitanforderungen industrieller Anforderungen meist nicht erfüllen: Verzögerungen in der Datenübertragung (Latenzen) führen zu oft zu Systemstopps und Ausfällen ganzer Anlagen. Das Dresdner Start-up fünfeinhalb Funksysteme GmbH hat es sich zum Ziel gesetzt, dies zu ändern. Mit BlitzFunk, einem Echtzeit-WLAN-System mit berechenbaren Latenz-Garantien sowie latenzfreiem Roaming, ist ihm dies gelungen.
Fünfeinhalb Funksysteme wurde 2023 als Ausgründung aus der TU Dresden gegründet, mit dem Ziel, die nicht eingehaltenen Versprechen des Mobilfunkstandards 5G einzulösen und für Anwendungen im industriellen Umfeld nutzbar zu machen. Dafür hat das fünfköpfige Gründerteam rund um Geschäftsführer Dr. Lucas Scheuvens BlitzFunk entwickelt. Das Funksystem – bestehend aus Access Points und Clients – ist so konzipiert, dass es als eine koordinierte Einheit agiert. Die Anwendergeräte (Maschinen, Steuerungen oder Sensoren) werden über Ethernet mit dem System verbunden.
Latenzfreies Roaming ohne Unterbrechung
Einen der größten USPs des Funksystems fasst Dr. Lucas Scheuvens wie folgt zusammen: „Bei einem klassischen Roaming-Prozess, der in räumlich größeren Netzwerken immer nötig ist, ist der Client jeweils mit nur einem Access Point verbunden. Bevor er dessen Reichweite verlässt, muss er mit dem nächsten Access Point verknüpft werden. Das heißt, dass dort die Verbindung zum ersten Access Point ab- und zum nächsten Access Point neu wieder aufgebaut wird. Verschiedene Lösungen können dies zwar besonders schnell, aber es gibt immer einen zeitlichen Break. Bei Blitzfunk ist das nicht so, da unsere Access Points sich koordinieren und somit latenzfreies Roaming garantieren. Dabei koordinieren sie sich im Hintergrund automatisch so, dass sie sich nicht gegenseitig stören. Da das Roaming im BlitzFunk-System keinerlei negative Auswirkungen hat, entfällt auch die aufwendige und kostenintensive Funknetzplanung.“
Entwickelt für die Anforderungen der Industrie 4.0
BlitzFunk garantiert eine schnelle Datenübertragung – selbst bei mehreren verbundenen Geräten (Clients): Für 99,9999 Prozent aller Sendeversuche liegt die Latenz – so das Unternehmen – nachweislich bei maximal 2 × (N + 1) Millisekunden, wobei N die Anzahl der gleichzeitig aktiven Geräte ist – und das bei maximaler Ethernet-Framegröße von 1500 Bytes. Ein einzelner Client im System hat demnach eine garantierte Latenz von 4 Millisekunden, bei zehn Clients sind demnach 22 Millisekunden erwartbar, usw. Diese Garantie gilt auch für den Roaming-Fall, was vollständig unterbrechungsfreie Datenverbindungen für anspruchsvollste Industrie-Anwendungen ermöglicht.
Doch das Funksystem hat noch weitere Vorteile: es verhält sich wie ein verteilter Ethernet-Switch und bietet somit Plug&Play-Kompatibilität mit allen Ethernet-basierten Protokollen, inklusive Profinet, Profisafe, EtherNet/IP, CIP Safety und MQTT. Dazu kommen seine einfache Inbetriebnahme und Verwaltung über einen Webbrowser, was beides ohne spezielle technische Kenntnisse möglich ist. Ein weiterer Pluspunkt ist das eingebaute Troubleshooting, dank dem sich das Funksystem als Fehlerquelle eindeutig identifizieren (z.B. bei Überlastung) oder ausschließen lässt. Nicht zuletzt punktet das Funksystem auch in Bezug auf die Security mit geräteindividueller, quantensicherer Verschlüsselung sowie Authentifizierung.
Gemacht für mobile Anwendungen in der Logistik und Fertigungsbranche
Fünfeinhalb Funksysteme richtet sich insbesondere an Hersteller bzw. Systemintegratoren, die eine mobile Vernetzung ihrer Maschinen benötigen, die genauso zuverlässig funktioniert wie eine Kabelverbindung. Scheuvens erklärt dazu: „Obwohl sich mit BlitzFunk auch existierende Kabelinstallationen ersetzen lassen, ist das nicht unser Hauptanspruch. Konzipiert wurde das System hauptsächlich für Einsatzszenarien in der Fertigung, die mobile Roboter oder Fahrzeuge umfassen. Aber auch für Schlittensysteme und rotierende Elemente ist BlitzFunk geeignet – bzw. generell überall dort, wo Kabel stören oder technisch nicht sinnvoll einsetzbar sind“. Zu den zahlreichen, bereits erfolgreich durchgeführten Projekten zählen Vernetzungen von Schweißrobotern, Deckenkränen und fahrerlosen Transportfahrzeugen – sowohl im Safety- als auch Non-Safety-Bereich.
Blick in die Zukunft: Noch mehr Leistung
Gefragt nach einem Blick in die Zukunft des Unternehmens antwortet Scheuvens: „Aktuell basiert BlitzFunk auf klassischen, für den breiten Massenmarkt konzipierten Standard-Komponenten. Das macht die Lösung sofort und mit einem großen Mehrwert gegenüber anderen Systemen einsetzbar, demonstriert aber nur einen Bruchteil dessen, was möglich ist. Aktuell arbeiten wir an einem komplett integrierten Echtzeit-WLAN-System, das dann selbst BlitzFunk in den Kategorien Größe, Anzahl der gleichzeitig unterstützten Geräte, Zuverlässigkeit, Latenz und Energieverbrauch noch jeweils um den Faktor zwei bis zehn verbessern kann. Wir freuen uns auf die Reise!“
Münchner Scale-up Wemolo erreicht Break-even
Mit KI zur Profitabilität: Das 2019 gegründete Münchner Tech-Scale-up Wemolo, der "schrankenlose Parkraumspezialist", verzeichnet nach eigenen Angaben ein durchschnittliches Jahreswachstum von 280 Prozent, ist profitabel und verwaltet mehr als 255.000 Stellplätze in Europa.
Die digitale Transformation von Parkplätzen birgt großes Potenzial – vor allem, wenn sie nicht nur Schranken und Tickets eliminiert, sondern neue Geschäftsmodelle erschließt. In einem europäischen Markt für automatisierte Parksysteme, der auf 50 Milliarden Euro geschätzt wird, hat sich das Münchner Unternehmen Wemolo innerhalb kürzester Zeit in die erste Liga gearbeitet.
Mit einem Jahresumsatz von rund 40 Millionen Euro im Jahr 2024 und einer positiven EBIT-Marge im ersten Quartal 2025 hat das Scale-up trotz des signifikanten Wachstums die Gewinnzone erreicht. Die jährliche Wachstumsrate betrug seit Gründung 2019 durchschnittlich 280 Prozent (CAGR), was Wemolo laut Deloitte zu einem der am schnellsten wachsenden Tech-Unternehmen Deutschlands macht. Nach mehreren Finanzierungsrunden mit insgesamt rund 30 Millionen Euro (650.000 € Pre-Seed, 4,7 Mio. € Seed, 15 Mio. € Series A und zuletzt 10 Mio. € Growth Financing durch Partner wie die CIBC Innovation Banking) untermauert Wemolo damit die Attraktivität digitaler Parklösungen als Wachstumsbranche.
“Wir haben unsere Skalierungsphase genutzt, um parallel die Entwicklung unserer Technologie zu beschleunigen und rasch Marktanteile in fünf europäischen Ländern zu gewinnen”, sagt Wemolo-Mitgründer und CEO Dr. Yukio Iwamoto. Zu den Investor*innen zählen neben den strategischen Partnern Armira Growth und henQ auch die Flix Founders (Gründerteam des Mobilitätsanbieters Flix), wobei Jochen Engert dem Unternehmen als Beirat zur Seite steht.
"Dass sich Wemolo nach vergleichsweise kurzer Zeit ins Plus gearbeitet hat, ist das Ergebnis unseres kapitaleffizienten Wachstumskurses - mit deutlich weniger Investitionskapital als bei vergleichbaren Tech-Unternehmen. Unser KI-basiertes System liefert für Immobilieneigentümer, Asset-Manager, Einzelhandel und Kommunen nicht nur digitale Parklösungen, sondern auch wertvolle Daten für strategische Geschäftsentscheidungen", so Jochen Engert.
Vom Campus-Projekt zur Digitalplattform
Ursprünglich im Juli 2019 aus einem Projekt der UnternehmerTUM entstanden, betreibt Wemolo heute KI-basierte Kamerasysteme zur Kennzeichenerfassung und Abrechnung an über 3.000 Standorten in fünf Ländern. Täglich erfasst das Unternehmen mehr als zwei Millionen Parkvorgänge digital und wickelt diese ab. Das Unternehmen beschäftigt aktuell rund 250 Mitarbeitende und verwaltet insgesamt 255.000 Stellplätze – von Supermärkten und zentralen Parkhäusern über Krankenhäuser bis hin zu Freizeitanlagen wie Skigebieten und Badeseen.
"Unsere Profitabilität basiert nicht auf Kostendiät, sondern auf nachhaltiger Skalierung: mehr Volumen bei stabilen Fixkosten, bessere Flächenauslastung und immer wertvollere Daten-Assets für unsere Kunden", erklärt CEO und Mitgründer Jakob Bodenmüller. "Dank unserer KI-basierten Plattform können wir sehr schnell auf Marktanforderungen reagieren und unsere Lösung kontinuierlich weiterentwickeln."
Geschäftsmodell mit messbarem Mehrwert für Betreiber*innen
Das Kernprinzip: Mithilfe KI-basierter Computer Vision werden Ein- und Ausfahrten erfasst, was Schranken, Tickets, Parkscheiben und vor allem kostenintensives Personal vor Ort überflüssig macht. Wemolo bietet verschiedene Module für die Parkraumdigitalisierung - von der Überwachung kostenfreier Flächen bis zu volldigitalen Bezahlsystemen, die auf die jeweiligen Kund*innenanforderungen angepasst werden können. Die intelligente Plattform ermöglicht nicht nur die effiziente Bewirtschaftung von Parkraum und reibungslose Nutzer*innenerlebnisse, sondern liefert auch wertvolle Daten für optimierte Geschäftsentscheidungen.
“Wir liefern anonymisierte, aber hochgradig aussagekräftige Daten zur Flächennutzung”, erklärt CPTO und Mitgründer Bastian Pieper. “Ein Beispiel: Durch die effektive Vermeidung von Fremdparkern konnte einer unserer Lebensmittelkunden die Verfügbarkeit seiner Kundenparkplätze deutlich erhöhen. Das Ergebnis: Ein messbarer Anstieg des Filialumsatzes, der bei typischen Margen des Lebensmitteleinzelhandels eine Gewinnsteigerung im mittleren fünfstelligen Bereich pro Jahr ermöglicht.”
“Bei gewerblichen Immobilienprojekten ermöglichen unsere präzisen Nutzungsdaten eine optimierte Stellplatzdimensionierung, was für Investoren zu signifikanten Einsparungen bei Tiefgaragen-Investitionen führt und die Gesamtrendite der Immobilie verbessert”, ergänzt Pieper.
Wachstumsfinanzierung strategisch eingesetzt
Den Break-even wertet das Management als Bestätigung des Geschäftsmodells, aber auch als Signal des wachsenden Bedarfs am Markt. “Wir merken, dass immer mehr Unternehmen und Immobilieneigentümer aktiv nach einer unkomplizierten, verlässlichen Lösung suchen, um ihre Parkflächen zu digitalisieren – und zugleich relevante Daten zu erheben. Das Thema steht weiterhin am Anfang. Wir wollen Wemolo zum stärksten Anbieter auf dem Feld der smarten Parklösungen ausbauen”, sagt Iwamoto.
“Wir verfolgen bei unserer Technologieentwicklung einen hybriden Ansatz”, erklärt Pieper. “Die entscheidenden Komponenten – unsere custom-trainierte KI und die zentrale Softwareplattform – entwickeln wir komplett inhouse, während wir Spezialkomponenten wie Bezahlautomaten nach unserem Design in Deutschland fertigen lassen.”
“Wir setzen auf robuste Industrial-Grade-Hardware, auf der unsere speziell trainierte KI läuft, um jedes Fahrzeug unter allen Wetterbedingungen zuverlässig zu erfassen. Diese Kombination aus eigener Software-Expertise und gezielter Hardware-Integration ermöglicht uns viel schnellere Innovationszyklen als bei traditionellen Parksystembetreibern oder reinen Software-Anbietern”, führt Pieper fort. “Ähnlich wie Tech-Vorreiter aus dem Silicon Valley bringen wir neue Features und KI-Optimierungen in Wochen statt Quartalen zur Marktreife.”
Expansion und Herausforderungen des Wachstums
Wemolo ist bereits in fünf europäischen Ländern aktiv, darunter Deutschland, Österreich, Schweiz, Polen und Italien. Für 2025 plant das Unternehmen, seine digitalen Bezahllösungen in diesen und weiteren europäischen Märkten auszubauen. Dabei setzt das Scale-up auf ein Netzwerk aus strategischen Kooperationen mit Lebensmitteleinzelhändlern, Immobilienentwicklern und kommunalen Einrichtungen.
“Die klassischen Schrankenparksysteme sind in vielen Regionen noch Standard, aber der Markt wandelt sich rapide”, sagt Bodenmüller. “Unser digitales Konzept steigert den Verbraucherkomfort, die Wirtschaftlichkeit von Immobilien und erfüllt ESG-Anforderungen.”
Die größten Herausforderungen beim weiteren Wachstum sieht das Management vor allem in der unterschiedlichen Regulierung zur Kameraüberwachung in den europäischen Ländern sowie in der Akzeptanz schrankenloser Systeme bei traditionell orientierten Betreibern. “Mit unserer DSGVO-konformen Technologie und messbaren Kostenvorteilen durch den Wegfall wartungsintensiver Schranken und Ticketsysteme überzeugen wir den Markt”, betont Pieper.
Ambitionierte Ziele in einem wachsenden Markt
Vor dem Hintergrund der Profitabilität plant Wemolo nun den nächsten Wachstumsschritt. “Wir sind im digitalen Parksegment bereits Marktführer in Europa und wollen zum absolut stärksten Provider werden”, sagt Iwamoto. “Dass wir jetzt bereits profitabel sind, verschafft uns die nötige Unabhängigkeit, um in Technologie, Teams und Expansion zu investieren, ohne dabei von externem Kapital abhängig zu sein." Branchenexperten prognostizieren für den europäischen Markt digitaler Parksysteme ein anhaltend starkes Wachstum. Denn bislang gelten weniger als 25 Prozent des auf rund 50 Milliarden Euro geschätzten Gesamtmarktes als technologisch modernisiert – etwa durch kamerabasierte Zugangssysteme, automatisierte Bezahlprozesse oder intelligente Flächenanalysen.

