Aktuelle Events
Bavarian Airlines: 18-Jähriger gründet Fluggesellschaft in München
18-jährige Gründer*innen gibt es einige. Mit der Gründung der Fluggesellschaft Bavarian Airlines sticht Adem Karagöz allerdings heraus.
Neue Fluglinien werden immer wieder gegründet. Bavarian Airlines sticht jedoch heraus. Erst im November 2022 gestartet und vergangene Woche formell gegründet, will das Unternehmen schon Ende 2023 mit zwölf gemieteten Jets des Typs Embraer E195-E2 von München aus Linienflüge nach Wien, Amsterdam, London City, Berlin, Düsseldorf und Mailand anbieten. Und was vielleicht noch erstaunlicher ist, als der ambitionierte Zeitplan: Co-Founder und CEO Adem Karagöz ist gerade einmal 18 Jahre alt.
Bavarian Airlines: Besseres Essen, breitere Sitze als die Konkurrenz
Dieser hat auch einen Plan, gegenüber der etablierten Konkurrenz wie Lufthansa und Co. herauszustechen, wie er in einem RTL–Interview erzählt: „Wir möchten ein neues Produkt auf den Markt bringen, das es in Deutschland so noch nicht gibt. Es ist vergleichbar mit der Domestic First Class in den USA. Das bedeutet, wir möchten ein besseres Service anbieten.“ Das heiße etwa besseres Essen und breitere Sitze. „In der Business Class gibt es eine 1-1-Bestuhlung statt einer 2-2-Bestuhlung, in der Economy Class eine 2-2-Bestuhlung statt einer 3-3-Bestuhlung“, so Bavarian Airlines-CEO Karagöz. Auf die Idee sei er während eines Business Class-Flugs gekommen, bei dem er sich über schlechtes Service und niedrigen Sitzkomfort geärgert habe, sagt der junge Gründer: „Ich dachte mir, das kann ich besser.“
Das Ziel: Top Services, moderate Preise
Trotz dieses Service-Versprechens will Bavarian Airlines Endverbraucher*innen-Preise in der Größenordnung der etablierten Konkurrenz bieten. Bei Analysen sei man zum Ergebnis gekommen, dass man sogar bei niedrigeren Preisen profitabel arbeiten könne, erklärt Adem Karagöz. Ob man im dritten oder vierten Quartal dieses Jahrs losstarten könne, hänge von der aktuell größten Herausforderung ab: Noch hat das Unternehmen keine Lizenz. Diese wurde aber bereits beantragt, wie sich RTL vom zuständigen Bundesamt bestätigen ließ.
Adem Karagöz sichert Startkapital in zweistelliger Millionenhöhe
Und wie finanziert der junge Gründer das alles? Gegenüber der Bild geht er nicht ins Detail, erzählt aber, man habe bereits einen zweistelligen Millionenbetrag „von Investoren und aus eigener Tasche“. Schon 2024 wolle man mit Bavarian Airlines 2,1 Millionen Passagiere befördern – mit insgesamt 21 900 Flügen, also 60 pro Tag, sagt Adem Karagöz dort. Und: Es werde ein Bonusmeilen-Programm geben, bei dem man in Kryptowährung – „Bavarian Tokens“ – ausbezahlt wird.
Diese Artikel könnten Sie auch interessieren:
Vorsicht vor diesen KI-Versuchungen
Allzu großes Vertrauen in GenAI ist fahrlässig, dennoch prüfen nur rund ein Viertel der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit. Das sind die größten Gefahren und effektivsten Gegenmaßnahmen.
Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Herstellenden nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn sich Ärzt*innen bei der Diagnose auf sie stützen oder Entwickler*innen von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.
Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietenden ein Mindestmaß an Qualitätssicherung – offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.
1. Halluzinationen
KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern – koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin sieben Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.
Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User*innen insbesondere die von der KI verwendeten Primärquellen checken oder – wenn möglich – Expert*innen zur Prüfung der Korrektheit der Antworten zurate ziehen.
2. Bias
Die Anbieter*innen aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen.
Verlassen sollten sich User*innen auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller*innen noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.
Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen und den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.
3. Content-Kannibalisierung
Immer mehr KI-generierter Content flutet das Internet – die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler*innen ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus KI, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User*innen irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.
Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal „Made in a human brain“ trägt.
4. Wissensoligopol
Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter*innen wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells „1984“.
Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer*innen- sowie Supporter*innen-Basis wächst. Gleichzeitig sollten User*innen es dringend verinnerlichen, dass KI- Assistenten nicht der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher „Single Point of Truth“.
Fazit
Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist. Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen – doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen.
Der Autor Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM (mit Fokus auf High-tech- und IT-Industrie im B2B-Umfeld).
Report: Quantencomputing
Wir sind Zeug*innen einer Transformation, die nicht nur die Tech-Branche nachhaltig beeinflussen wird: Quantencomputing und die dazugehörigen Start-ups haben das Potenzial, die Art und Weise, wie wir Daten verarbeiten und Probleme lösen, grundlegend zu verändern.
Quantencomputing (QC) ist ein hochinnovatives Feld der Informatik und Physik, das die Prinzipien der Quantenmechanik nutzt, um Datenverarbeitung und -analyse auf eine Weise zu leisten, die mit klassischen Computern nicht möglich ist. Während klassische Computer Informationen in Form von Bits verarbeiten, die entweder den Wert 0 oder 1 annehmen können, verwenden Quantencomputer Quantenbits oder Qubits. Diese Qubits können sich in einem Zustand der Überlagerung befinden, was bedeutet, dass sie gleichzeitig 0 und 1 darstellen können. Dies ermöglicht es Quantencomputern, komplexe Berechnungen viel schneller durchzuführen als ihre klassischen Pendants.
Herausforderungen
Trotz des enormen Potenzials stehen Forschende und Unternehmen vor vielen Herausforderungen. Eine der größten Hürden ist die sog. Dekohärenz, ein Phänomen, bei dem die Quanteninformation durch Wechselwirkungen mit der Umgebung verloren geht. Um stabile und fehlerfreie Quantenberechnungen durchzuführen, müssen Qubits in einem kontrollierten Zustand gehalten werden, was technisch äußerst anspruchsvoll ist.
Eine weitere Herausforderung ist die Skalierbarkeit. Während einige Prototypen von Quantencomputern bereits existieren, stellt der Bau von Systemen mit einer ausreichenden Anzahl von Qubits, um praktische Probleme zu lösen, eine erhebliche technische Herausforderung dar.
Trends
In den letzten Jahren ist ein zunehmender Fokus auf hybride Ansätze zu verzeichnen, bei denen Quantencomputer in Kombination mit klassischen Computern eingesetzt werden, um spezifische Probleme zu lösen. Diese hybriden Systeme nutzen die Stärken beider Technologien und bieten eine praktikable Lösung für viele aktuelle Herausforderungen.
Zudem ist eine wachsende Zusammenarbeit zwischen akademischen Institutionen, großen Tech-Unternehmen und Start-ups zu beobachten. Diese Partnerschaften sind entscheidend, um Wissen und Ressourcen zu bündeln und die Entwicklung von QC-Technologien voranzutreiben. Unternehmen wie IBM, Google oder Microsoft investieren erheblich in Quantenforschung und -entwicklung und bieten Plattformen für Entwickler*innen und Forschenden an, um ihre eigenen Quantenalgorithmen zu testen.
Ein weiterer Trend ist die zunehmende Verfügbarkeit von QC-Diensten über die Cloud. Unternehmen und Forschende können nun auf Quantencomputer zugreifen, ohne in teure Hardware investieren zu müssen. Dies senkt die Eintrittsbarrieren und ermöglicht es einer breiteren Palette von Nutzenden, die Möglichkeiten des QCs zu erkunden.
Die Rolle von Start-ups
Start-ups spielen hierbei mit neuen Ideen und Ansätzen eine entscheidende Rolle als Innovatoren und konzentrieren sich zumeist auf spezifische Anwendungen des QCs, sei es in der Materialwissenschaft, der Medikamentenentwicklung, der Lieferkettenlogistik oder der Optimierung komplexer Systeme u.a. in der Finanzwelt.
Die 2024 im Auftrag des Bundesministeriums für Wirtschaft und Klimaschutz (BMWK) veröffentlichte Studie „Quantencomputing – Markt, Zugang, Perspektiven“ zeigt: Die Zahl der Start-ups zur Entwicklung von Anwendungssoftware stieg in den letzten Jahren stetig, wobei hardwarespezifische Systemsoftware vorrangig von den Hardwareentwickler*innen selbst bereitgestellt wird. Entfielen im Zeitraum von 2002 bis 2018 weltweit noch rund 58 Prozent der kumulierten Gründungen auf Software- oder Service-zentrierte Start-ups und 42 Prozent auf Hardware- bzw. Komponenten-fokussierte Start-ups, waren es im Zeitraum 2018 bis 2022 rund 74 Prozent mit Fokus auf Software und Services sowie 26 Prozent mit Fokus auf Hardware und Komponenten.
Von weltweit über 150 Start-ups fokussiert sich dabei etwa ein Drittel auf die Entwicklung von Systemsoftware und zwei Drittel auf die Entwicklung von Anwendungssoftware. Deutschland belegt dabei mit knapp 20 Start-ups im Jahr 2023 Platz drei im internationalen Vergleich, hinter den USA und Kanada. Damit hat sich Deutschland als ein Hotspot für QC-Start-ups etabliert.
Deutsche QC-Start-ups mischen ganz vorne mit
Deutsche QC-Start-ups sind oft noch in der Entwicklungsphase, die Gründer*innen kommen meist aus Forschung und Wissenschaft, und ihre Geschäftsmodelle konzentrieren sich auf die Entwicklung und den Verkauf von Hardware, Mikroskopen oder Cloud-basierten QC-Diensten.
Als weltweit erstem Unternehmen ist es dem 2018 gegründeten Start-up kiutra, einem Spin-off der Technischen Universität München, gelungen, eine dauerhafte magnetische Kühlung für Temperaturen nahe des absoluten Nullpunkts zu entwickeln. Statt auf Quantencomputer oder QC-Software, setzen die Gründer Alexander Regnat, Jan Spallek, Tomek Schulz und Christian Pfleiderer auf vollautomatische, äußerst wartungsarme und gut skalierbare Kühlungslösungen, die den Betrieb von Quantentechnologien im industriellen Maßstab ermöglichen.
eleQtron: It's MAGIC
In nur fünf Jahren vom Laborgerät zum 24/7-betriebenen Quantencomputer: Wie das 2020 von Jan Leisse, Christof Wunderlich und Michael Johanning gegründete eleQtron mit seiner MAGIC-Technologie neue Wege ebnet.
Was ihr da macht, ist der Wahnsinn – und genau deswegen bin ich dabei.“ Mit diesen Worten beschreibt Jan Leisse, einer der Gründer von eleQtron, die Anfänge des Unternehmens. Das erste Treffen mit dem Physiker Christof Wunderlich war geprägt von einer Mischung aus Skepsis und Begeisterung. Der Wissenschaftler hatte an der Universität Siegen einen Quantencomputer gebaut – mitten in der deutschen Provinz und ohne das Millionenbudget, das Konzernen wie Google oder IBM zur Verfügung steht. Doch genau das reizte Leisse: „Hier wurde nicht einfach nachgemacht, was andere tun. Hier wurde Neuland betreten.“
Es war ein ungewöhnlicher Ort für eine bahnbrechende
Innovation in der Quantentechnologie. Siegen, eine Mittelstadt im Süden Nordrhein-Westfalens, ist nicht gerade als Hotspot für Hochtechnologie bekannt. Doch manchmal entstehen die Top-Innovationen fernab der etablierten Zentren; die Universität Siegen hatte über Jahre hinweg eine bemerkenswerte Expertise in der Quantenphysik aufgebaut, ohne große mediale Aufmerksamkeit.
Von der Universität ...
Im Jahr 2020, als das globale Interesse an Quantentechnologien exponentiell zunahm, erwuchs aus dieser mutigen Pionierarbeit das Start-up eleQtron – als Spin-off der Universität Siegen. Die Gründer – Jan Leisse, Christof Wunderlich und Michael Johanning – verbindet eine Vision: Quantencomputer für industrielle Anwendungen nutzbar zu machen.
Die Anfangsjahre waren geprägt von Experimentierfreude, Improvisation und dem festen Glauben an die eigene technologische Innovationskraft. Während Tech-Giganten wie IBM, Google und Amazon Milliarden Euro in ihre Quantenprogramme investierten und viele Start-ups auf bekannte Technologien setzten, wagte eleQtron den Schritt in eine völlig neue Richtung.
In den Laboren der Gründer entstand die sogenannte MAGIC-Technologie (Magnetic Gradient Induced Coupling), eine Methode, Qubits (das Quantencomputing-Äquivalent zum klassischen Bit in der Digitaltechnik) nicht wie bislang üblich mit Lasern, sondern mit Mikrowellen zu steuern.
... zum technologischen Durchbruch
Die MAGIC-Technologie basiert auf einem raffinierten Zusammenspiel physikalischer Prinzipien: Magnetische Gradienten (räumliche Veränderungen der Magnetfeldstärke) ermöglichen es als lokale Felder, einzelne Ionen in einer sogenannten Falle selektiv anzusprechen. Die technischen Vorteile sind beeindruckend: Die Fidelity (Genauigkeit) bei Operationen an einzelnen Qubits liegt bei etwa 99,95 Prozent, die Gate-Zeiten (Gate-Zeit steht für die Dauer, die ein Quanten-Gate benötigt, um eine Operation auf einem Qubit auszuführen) betragen nur wenige Mikrosekunden. Gleichzeitig ermöglicht die Technologie eine bessere Skalierbarkeit, da sich Mikrowellenfelder einfacher erzeugen und verteilen lassen als komplexe Lasersysteme. „Der Vorteil liegt nicht nur in der höheren Präzision, sondern auch in der deutlich geringeren Komplexität der Systeme“, erklärt Johanning. „Wir brauchen keine aufwändigen Optiken oder ultrastabile Umgebungen. Unsere Technologie funktioniert auch unter realen Bedingungen.“
Früh erkannten die drei Forscher das große Potenzial ihrer Technologie für praktische Anwendungen. „Durch das gezielte Ersetzen sensibler High-End-Komponenten – insbesondere Lasertechnologie – durch bewährte Mikrowellentechnik und Elektronik, vermeiden wir unnötige Komplexität, minimieren Aufwand und senken die Kosten“, fasst es Leisse zusammen.
Wachstumsschub und strategische Entwicklung
2022 gelang eleQtron ein entscheidender Schritt: Durch Earlybird und den Siegerlandfonds als Investoren sowie das vom BMBF geförderte Projekt „MAGIC App“ sicherte sich das Start-up eine Finanzierung in Höhe von 16 Millionen Euro. Diese Finanzierungsrunde war ein Wendepunkt für das Unternehmen und signalisierte das Vertrauen der Investor*innen in die MAGIC-Technologie.
„Mit diesem Kapitalschub konnten wir von einer reinen Forschungsorganisation zu einem echten Technologieunternehmen werden“, erklärt Leisse. Die Mittel flossen in den Ausbau der Produktionskapazitäten, die Vergrößerung des Teams und die Weiterentwicklung der Technologie-Roadmap. Auch die Mitwirkung von Infineon im Rahmen von MAGIC App war strategisch von Bedeutung: „Die Zusammenarbeit mit Infineon hat uns die Augen für die Realitäten des Industriemarkts geöffnet“, erklärt Leisse.
EU KI-Gesetz wird scharf gestellt
Diese Strafen für KI-Verstöße drohen ab dem 2. August 2025 – was Personalverantwortliche und Arbeitnehmende jetzt wissen und beachten müssen.
Das KI-Gesetz der Europäischen Union, die weltweit erste umfassende KI-Verordnung, erreicht am 2. August 2025 einen entscheidenden Meilenstein. Ab diesem Stichtag gelten für Unternehmen, Behörden und KI-Anbieter*innen in der EU zahlreiche zentrale Verpflichtungen, bei deren Nichteinhaltung Strafmaßnahmen eingeleitet und verhängt werden können. Was das für Unternehmen und ihre Mitarbeitenden bedeutet, erfährst du hier.
Der AI Act, der am 2. Februar dieses Jahres in Kraft getreten ist, schafft einen einheitlichen Rechtsrahmen für Künstliche Intelligenz (KI) in der EU. Zwar werden viele Regelungen erst 2026 wirksam, doch bereits am 2. August 2025 beginnt eine neue Phase, die sich auf drei Bereiche fokussiert:
- Strafmaßnahmen bei Nichteinhaltung
- Verpflichtungen für allgemeine General-Purpose-AI-Modelle (GPAI)
- Aufbau von Aufsicht und Governance auf nationaler und europäischer Ebene
Strafen bis zu 35 Millionen Euro
Seit dem 2. Februar dieses Jahres sind KI-Systeme mit unannehmbaren Risiken verboten. Ab dem 2. August 2025 können zusätzlich nun Geldbußen für Verstöße gegen bereits bestehende Verpflichtungen verhängt werden, die bis zu 35 Millionen Euro oder 7 Prozent ihres gesamten Jahresumsatzes betragen können. Unternehmen müssen dazu beispielsweise sicherstellen, dass ihre Mitarbeitenden über KI-Kenntnisse verfügen. Die Europäische Union erwartet von ihren Mitgliedstaaten, dass sie eigene wirksame, verhältnismäßige und abschreckende Strafmaßnahmen festlegen. Dabei sollen die besonderen Umstände von KMUs und Start-ups berücksichtigt werden, um deren wirtschaftliche Lebensfähigkeit nicht zu gefährden.
Neue Verpflichtungen für Anbieter*innen von GPAI-Modellen
GPAI-Modelle, die ab dem 2. August 2025 in der Europäischen Union vermarktet werden, unterliegen gesetzlichen Verpflichtungen. Das Europäische Amt für Künstliche Intelligenz hat dazu am 10. Juli 2025 die endgültige Fassung der Verhaltenskodizes veröffentlicht. Anbieter*innen solcher GPAI-Modelle müssen unter anderem technische Dokumentationen erstellen, Urheberrechte beachten und Transparenz über die verwendeten Trainingsdaten sicherstellen.
GPAI-Modelle sind KI-Systeme mit besonders breitem Einsatzspektrum und sind darauf ausgelegt, eine Vielzahl von Aufgaben zu erfüllen. Sie werden mit riesigen Datenmengen trainiert und sind entsprechend vielseitig einsetzbar. Das bekannteste Beispiel sind große Sprachmodelle (Large Language Models, LLM), etwa das generative Sprachmodell GPT-4o, das in ChatGPT integriert ist. Für GPAI-Modelle, die bereits vor dem 2. August 2025 in der Europäischen Union auf dem Markt waren, gilt eine Übergangsfirst bis zum 2. August 2027.
Aufsicht und Governance
Die KI-Verordnung schafft einen Rahmen mit Durchführungs- und Durchsetzungsbefugnissen auf zwei Ebenen.
Auf nationaler Ebene muss jeder EU-Mitgliedstaat bis zum 2. August 2025 mindestens eine Marktüberwachungsbehörde sowie eine notifizierende Behörde benennen. Erstere ist für die Überwachung von KI-Systemen zuständig, letztere für die Notifizierung unabhängiger Konformitätsbewertungsstellen. Die Mitgliedstaaten müssen bis dem Stichtag Informationen zu den nationalen Behörden und deren Kontaktdaten veröffentlichen.
Auf EU-Ebene koordinieren das Europäische Amt für KI und der Europäische KI-Ausschuss die Aufsicht. Zusätzlich werden ein Beratungsforum und ein wissenschaftlicher Ausschuss aus unabhängigen Experten eingerichtet.
Was bedeutet das für Personalabteilungen und Arbeitnehmende?
Das KI-Gesetz hat direkte Auswirkungen darauf, wie KI in den Bereichen Rekrutierung, Performance-Management, Personalanalyse und Mitarbeitenden-Monitoring eingesetzt wird. Personalverantwortliche müssen sicherstellen, dass KI-Tools in diesen Bereichen transparent, fair und konform sind.
- Fairness und Antidiskriminierung: KI-Systeme, die bei Einstellungs- oder Beförderungsentscheidungen eingesetzt werden, müssen nachvollziehbar und frei von Bias sein. Personalabteilungen sollten ihre Tools und Anbieter*innen regelmäßig überprüfen, um die Einhaltung der Vorschriften sicherzustellen.
- Vertrauen und Transparenz: Mitarbeitende erhalten einen besseren Einblick, wie KI-Systeme ihre Arbeit beeinflussen, zum Beispiel bei der Einsatzplanung, Leistungsbewertung oder bei der Arbeitssicherheit. Personalabteilung können Vertrauen schaffen, indem sie offen kommunizieren, wie KI eingesetzt wird und wie die Daten der Mitarbeitenden geschützt werden.
- Verantwortlichkeit von Drittanbieter*innen: Werden KI-Tools von Drittanbieter*innen genutzt, müssen Personalabteilungen sicherstellen, dass diese Anbieter*innen die Anforderungen an Transparenz und Dokumentation erfüllen. Verträge und Beschaffungsprozesse sollten entsprechend angepasst werden.
- Training und Change Management: Mit stärkeren Regulierungen von KI wird die Personalabteilung eine Schlüsselrolle bei der Schulung von Führungskräften und Mitarbeitenden übernehmen. Ziel ist es, einen verantwortungsvollen Umgang mit KI zu fördern und ethische Standards in der Unternehmenskultur zu verankern.
Fazit
Anbieter*innen von GPAI-Modellen, die bereits vor dem 2. August 2025 auf dem Markt waren, haben bis zum 2. August 2027 Zeit, die neuen Vorschriften vollständig umzusetzen. Weitere Verpflichtungen für KI-Systeme mit hohem Risiko werden 2026 und 2027 folgen. Dieser Meilenstein spiegelt das Bestreben der EU wider, Innovationen zu fördern und gleichzeitig sicherzustellen, dass KI sicher, transparent und mit den europäischen Werten im Einklang steht. Damit rückt die Personalabteilung in den Mittelpunkt einer verantwortungsvollen Einführung von KI am Arbeitsplatz.
Der Autor Tom Saeys ist Chief Operations Officer bei SD Worx, einem international tätigen Dienstleistungsunternehmen im HR-Bereich.
EU AI Act: Status quo
Recht für Gründer*innen: der EU AI Act. Wo stehen wir in Sachen Umsetzung? Was Gründer*innen und Start-ups jetzt wissen müssen.
Künstliche Intelligenz (KI) ist längst kein Zukunftsthema mehr, sondern prägt schon heute Geschäftsmodelle, Investitionsentscheidungen und die Arbeitswelt. Mit der europäischen KI-Verordnung (EU AI Act, im Folgenden AI Act) wurde im Frühjahr 2024 der weltweit erste umfassende Rechtsrahmen für den Einsatz von KI verabschiedet. Inzwischen sind die ersten Regelungen in Kraft getreten. Für Gründer*innen und Start-ups bedeutet das nicht nur zusätzliche Pflichten, sondern auch Chancen, sofern sie sich rechtzeitig vorbereiten.
Überblick: Der AI Act
Die Verordnung folgt einem risikobasierten Ansatz: Je höher das Risiko für Grundrechte oder Sicherheit, desto strenger die Anforderungen. Auf der untersten Stufe stehen KI-Systeme, die keinerlei Vorgaben erfüllen müssen, solange sie nicht in verbotene Anwendungsfälle fallen. An der Spitze der Regulierungspyramide befinden sich die sogenannten HochrisikoSysteme, also etwa Anwendungen in der medizinischen Diagnostik, in kritischer Infrastruktur oder bei biometrischen Verfahren. Viele Tools aus dem HR-Bereich fallen darunter.
Daneben bestehen besondere Pflichten für sogenannte Generative KI beziehungsweise General Purpose AI, eingeführt, also große Modelle, die viele Anwendungen treiben und „systemische Risiken“ entfalten können.
Wichtig ist zu wissen, dass die Vorgaben schrittweise gelten. Bereits seit dem 2. Februar 2025 sind bestimmte Praktiken ausdrücklich verboten – zum Beispiel das Social Scoring von Bürger*innen, die flächendeckende Emotionserkennung in Schulen oder am Arbeitsplatz sowie das unkontrollierte Sammeln biometrischer Daten. Wer damit noch experimentiert, bewegt sich schon jetzt im rechtswidrigen Raum.
Seit dem 2. August 2025 gelten außerdem die ersten Pflichten für Anbieter*innen von generativen Modellen. Sie müssen unter anderem Transparenzberichte veröffentlichen und Angaben zu den verwendeten Trainingsdaten machen. Für Modelle, die bereits vor Inkrafttreten am Markt waren, gibt es eine Übergangsfrist bis 2027. Für viele Unternehmen, die solche Modelle nutzen oder in Produkte einbetten, bedeutet das, genau hinzuschauen, welche Informationen von den Modellanbieter*innen zur Verfügung gestellt werden. Sonst können eigene Transparenzpflichten womöglich nicht erfüllt werden.
Noch weiter in der Zukunft liegen die Vorschriften für Hochrisiko-Systeme. Diese greifen ab 2. August 2026 und verlangen ein umfassendes Risikomanagement, eine strenge Qualität der Trainingsdaten, eine lückenlose Protokollierung und eine Konformitätsbewertung, bevor ein Produkt überhaupt in Verkehr gebracht werden darf. Für Hochrisiko-KI, die in ohnehin streng regulierten Produkten steckt, zum Beispiel in Medizinprodukten, gilt eine verlängerte Frist bis 2027.
Konformitätsbewertung heißt vor allem Risikobewertung, welche die Anbieter*innen oder Betreiber*innen selbst durchführen müssen. Eine solche „regulierte Selbstregulierung“ ist ein klassisches Merkmal einer solchen klassischen Produktregulierung und Marktüberwachung.
Was fehlt? Guidance und Governance
Noch herrscht allerdings an vielen Stellen Unsicherheit. Zwar hat die EU-Kommission schon erste Leitlinien veröffentlicht, etwa zur Definition von KI-Systemen oder zu den verbotenen Praktiken. Auch für Anbieter*innen generativer KI gibt es inzwischen ein detailliertes Dokumentationsmuster. Noch fehlen allerdings die angekündigten Handreichungen für die Einstufung und Risikobewertung von Hochrisiko-Systemen, die bis Februar 2026 folgen und praktische Beispiele enthalten sollen. Bis dahin bleibt nur, sich für die Bewertung an bestehenden internationalen Standards zu orientieren, zum Beispiel an den Normungsprojekten der Europäischen Komitees für Normung und für elektrotechnische Normung.
Auf Unionsebene entstehen parallel die neuen Governance-Strukturen. Das AI Office innerhalb der Kommission ist bereits aktiv und koordiniert die Umsetzung. Das AI Board, ein Gremium der Mitgliedstaaten, tagt regelmäßig und stimmt Vorgehensweisen ab. Ein wissenschaftliches Panel unabhängiger Expert*innen wurde im Frühjahr eingerichtet, und das Advisory Forum, das die Perspektive von Unternehmen und Zivilgesellschaft einbringen soll, befindet sich gerade in der Bewerbungsphase. Auch die geplante EU-Datenbank für Hochrisiko-Systeme existiert bisher nur auf dem Papier. Ab 2026 müssen Anbieter*innen ihre Systeme dort registrieren; die Plattform selbst wird jedoch gerade erst aufgebaut.
Und wo steht Deutschland?
Auch hierzulande hakt es noch etwas. Eigentlich hätten die Mitgliedstaaten bis 2. August 2025 ihre Marktüberwachungsbehörden benennen müssen. Ein Entwurf für das deutsche Umsetzungsgesetz sieht die Bundesnetzagentur als zentrale Aufsicht vor, doch die formale Benennung ist noch nicht erfolgt. Klar ist, dass die Bundesnetzagentur die Rolle der Notifizierungsbehörde übernimmt, also für die Anerkennung von Konformitätsbewertungsstellen zuständig ist. Zudem entsteht dort ein Kompetenzzentrum für KI, das die Arbeit von Bund und Ländern koordinieren soll.
Reallabore
Ein Bereich, der für KI-Entwickler*innen besonders interessant ist, sind KI-Reallabore, also sichere Testumgebungen, in denen neue Anwendungen unter Aufsicht erprobt und darauf geprüft werden können, ob sie den rechtlichen Rahmen einhalten. Bis zum Sommer 2026 müssen die Mitgliedstaaten mindestens ein solches Reallabor einrichten. Deutschland hat im Mai 2025 ein erstes Pilotprojekt in Hessen gestartet, gemeinsam mit der Bundesnetzagentur und der Bundesdatenschutzbeauftragten. Hier werden reale Unternehmensfälle durchgespielt, um Abläufe und Bedarfe besser zu verstehen. Solche Projekte können eine wertvolle Möglichkeit sein, mit den Aufsichtsbehörden auf Augenhöhe ins Gespräch zu kommen.
Reaktionen
Der AI Act wird zwar kritisch diskutiert, im Grundsatz aber breit akzeptiert. Gerichtliche Klagen direkt gegen die Verordnung gibt es bislang nicht. In der juristischen Literatur überwiegt die Zustimmung zur Zielrichtung. Kritisiert werden vor allem die Komplexität und die noch offenen Fragen bei der praktischen Umsetzung. Streitpunkte finden sich eher außerhalb der Verordnung bei der Frage, ob Trainingsdaten urheberrechtlich geschützt sind oder wie personenbezogene Daten für KI genutzt werden dürfen.
Die Industrie zeigt ein gemischtes Bild. Viele große Anbieter*innen – von Google über OpenAI bis Mistral – haben einen freiwilligen Verhaltenskodex unterzeichnet. Andere, wie etwa Meta, haben sich bewusst dagegen entschieden. Man muss sich also darauf einstellen, dass je nach Anbieter*in sehr unterschiedliche Informationen und Compliance-Nachweise verfügbar sind.
Andererseits wirkt der AI Act bereits am Markt. In öffentlichen Ausschreibungen tauchen Modellklauseln auf, die auf die KI-Verordnung Bezug nehmen. Investor*innen fragen verstärkt nach Compliance-Prozessen, und Unternehmen beginnen, interne Strukturen für Risikomanagement und Dokumentation aufzubauen.
Im Vergleich zu Europa gibt es in den USA bislang nur freiwillige Standards. Die dort bei der Entwicklung und Anwendung von KI (angeblich) vorherrschende größere Freiheit wird zwar viel gerühmt. Einzelne Bundesstaaten wie Colorado arbeiten allerdings an eigenen regulierenden Gesetzen, die ab 2026 greifen sollen. Vielleicht ist es also ein Vorteil, dass europäische Start-ups früh Erfahrungen in einem regulierten Markt sammeln können.
Fazit
Der AI Act entfaltet bereits jetzt Wirkung, auch wenn viele Details erst in den kommenden Monaten geklärt werden. Daher gilt es, nicht abzuwarten, sondern jetzt eine eigene Roadmap zu entwickeln. Wer früh Prozesse für Risikomanagement, Transparenz und Governance etabliert, wird nicht nur rechtlich auf der sicheren Seite sein, sondern auch Vertrauen bei Kund*innen und Investor*innen gewinnen.
Die EU hat ein klares Signal gesetzt: KI soll innovativ sein, aber auch sicher und vertrauenswürdig. Für Start-ups ist das eine Herausforderung – aber auch eine Chance, sich von Anfang an professionell aufzustellen und den Markt aktiv mitzugestalten.
Der Autor Dr. Daniel Michel, LL.M. ist als Rechtsanwalt im Bereich IT/IP/Technologie tätig und betreibt seit 2018 mit DATA LAW COUNSEL seine eigene Rechtsberatung im Raum München
Luxusuhren: Darum ist es sinnvoll, Preise zu vergleichen
Entdecken Sie, warum sich der Preisvergleich bei Luxusuhren lohnt. Sparen Sie beim Online-Kauf.
Preisvergleiche bei Luxusuhren lohnen sich durch erhebliche Preisdifferenzen zwischen verschiedenen Händlern, die mehrere hundert bis tausend Euro betragen können. Diese Unterschiede entstehen hauptsächlich durch verschiedene Kostenberechnungen und unterschiedliche Margenstrategien der Anbieter. Während manche Händler auf Premium-Service setzen, bieten andere günstigere Preise durch schlankere Betriebsstrukturen. Besonders bei begehrten Modellen von Rolex, Patek Philippe oder Audemars Piguet variieren die Preise stark zwischen den Anbietern. Ein gründlicher Preisvergleich kann daher zu beträchtlichen Einsparungen von bis zu 30 Prozent führen. Gleichzeitig hilft er dabei, den tatsächlichen Marktwert einer Luxusuhr präzise zu ermitteln. Die Investition in eine hochwertige Armbanduhr rechtfertigt den Aufwand für einen detaillierten Vergleich verschiedener Anbieter vollständig. Die folgenden Abschnitte zeigen, worauf man achten sollte.
Zwischen den einzelnen Händlern existieren teilweise deutliche Preisunterschiede
Konkrete Beispiele verdeutlichen das Sparpotenzial beim Uhrenkauf: Spezialisierte Händler bieten permanent Armbanduhren mit Rabatten von mehreren tausend Euro unter dem Neupreis an. Diese deutlichen Preisvorteile entstehen durch unterschiedliche Beschaffungswege, Lagerbestände und Verkaufsstrategien der Anbieter. Plattformen wie Watchy24.de ermöglichen es, diese Preisunterschiede transparent zu vergleichen und das beste Angebot zu identifizieren. Während Boutiquen oft Listenpreise verlangen, können autorisierte Händler erhebliche Rabatte gewähren. Online-Händler profitieren von geringeren Betriebskosten und geben diese Kostenvorteile häufig an Kunden weiter.
Besonders bei limitierten Editionen oder seltenen aktuellen Modellen können die Preisunterschiede zwischen verschiedenen Anbietern deutlich ausfallen und eine sorgfältige Recherche rechtfertigen.
Internationale Preisunterschiede und Währungseffekte: Worauf sollte man achten?
Länderspezifische Preisdifferenzen bei Luxusuhren ergeben sich aus verschiedenen wirtschaftlichen Faktoren. Währungsschwankungen beeinflussen die Preisgestaltung deutlich, besonders bei hochwertigen Herstellern aus der Schweiz, die – ebenso wie viele Start-Ups – verstärkt darauf achten, ein hohes Maß an Markenschutz zu gewährleisten. Die unterschiedlichen Mehrwertsteuersätze zwischen den Ländern wirken sich direkt auf die Listenpreise aus. So liegt die Mehrwertsteuer in Deutschland bei 19 Prozent, während sie in der Schweiz und in einigen anderen Ländern deutlich niedriger ist.
Außereuropäische Märkte wie Hongkong oder Singapur bieten teilweise deutlich günstigere Preise, wobei Import- und Zollbestimmungen unbedingt zu beachten sind. Ein internationaler Preisvergleich kann erhebliche Kostenvorteile offenbaren, setzt jedoch Kenntnisse über Garantie- und Servicebedingungen voraus.
Lohnt es sich, auf dem Gebrauchtmarkt Ausschau zu halten?
Der Gebrauchtmarkt für Luxusuhren bietet Einsparpotenziale von bis zu 30 Prozent bei meist stabiler Wertentwicklung. Hochwertige Marken behalten auch als gebrauchte Modelle eine hohe Werterhaltungsrate von durchschnittlich 70 bis 80 Prozent. Plattformen für den Second-Hand-Handel verfügen über umfangreiche Bestände mit detaillierten Zustandsbeschreibungen.
Gebrauchte Luxusuhren werden häufig professionell aufbereitet und einer Qualitätsprüfung durch Fachbetriebe unterzogen. Die Wertstabilität macht den Gebrauchtmarkt zu einer attraktiven Investitionsmöglichkeit für Sammler. Seltene oder nicht mehr produzierte Modelle können sogar an Wert gewinnen. Die transparente Preisgestaltung ermöglicht fundierte Vergleiche und realistische Einschätzungen bei deutlich geringeren Anschaffungskosten.
Expertise als wichtiger Faktor für den Kauf einer Luxusuhr
So gut wie jeder hat individuelle Vorstellungen davon, was er sich gönnen möchte. Manche träumen davon, als digitaler Nomade die Welt zu sehen, andere möchten sich irgendwann eine Luxusuhr leisten können.
Daher ist es wichtig, sich zunächst über die eigenen Ansprüche klar zu werden. Falls die Wahl auf die Luxusuhr fällt, gilt: Die Authentizitätsprüfung bildet die Grundlage für sichere Transaktionen im Luxusuhrenmarkt und beeinflusst maßgeblich die Preisgestaltung. Erfahrene Fachhändler verfügen über spezialisierte Prüfverfahren wie Seriennummern-Checks, Analyse von Werkscodes und Materialuntersuchungen.
Zertifikate, Originalverpackungen und Servicedokumente erhöhen die Glaubwürdigkeit und den Wert einer Uhr erheblich. Experten bewerten den Zustand des Uhrwerks, die Originalität der Komponenten sowie die historische Bedeutung. Die Zusammenarbeit mit erfahrenen Uhrmachern minimiert Risiken beim Kauf hochwertiger Zeitmesser.
Seriöse Händler bieten Echtheitsgarantien und übernehmen die Haftung für die Authentizität ihrer Angebote.
Ein Ausblick auf die (mögliche) langfristige Wertentwicklung
Ein fundierter Preisvergleich bei Luxusuhren zahlt sich oft langfristig über einen Zeitraum von fünf bis zehn Jahren durch bessere Investitionsentscheidungen aus. Die Analyse großer Mengen weltweiter Angebote ermöglicht realistische Markteinschätzungen und das Erkennen von Trends bei renommierten Marken. Erfolgreiche Sammler berücksichtigen sowohl aktuelle Preise als auch die historische Wertentwicklung ihrer Wunschmodelle.
Die Nutzung professioneller Vergleichsplattformen und eine regelmäßige Marktbeobachtung helfen, Risiken zu minimieren und das Preis-Leistungs-Verhältnis zu maximieren. Internationale Preisunterschiede sowie der Gebrauchtmarkt bieten zusätzliche Einsparpotenziale für informierte Käufer. Langfristig profitieren Sammler von fundiertem Markt-Know-how bei zukünftigen Käufen und Verkäufen ihrer Luxusuhren-Kollektion.
Die Rolle von natürlichem Licht in modernen Architekturkonzepten
Natürliches Licht gilt als einer der zentralen Bausteine zeitgemäßer Baugestaltung. Wie moderne Gebäudeplanungen Licht gezielt als formgebendes Element einsetzt.
Architekten und Bauherren setzen zunehmend auf großflächige Fensterfronten, Dachverglasungen oder offene Raumkonzepte, um Innenräume mit ausreichend Helligkeit zu versorgen. Dabei spielt nicht nur die ästhetische Komponente eine Rolle: Tageslicht wird auch mit einem gesunden Lebensumfeld, größerem Wohlbefinden und einer verbesserten Leistungsfähigkeit in Verbindung gebracht. Diese Erkenntnis hat dazu geführt, dass moderne Gebäudeplanungen das Licht gezielt als formgebendes Element einsetzen. Insbesondere in urbanen Gebieten ist der kluge Umgang mit Sonnenlicht eine anspruchsvolle, aber lohnende Aufgabe.
Das wachsende Bewusstsein für Lichtqualität
In jüngster Zeit interessieren sich immer mehr Fachleute für die Optimierung von Gebäudehüllen und deren lichttechnische Eigenschaften. Passende Lösungen entstehen unter anderem durch hochwertige Tageslichtsysteme, die sowohl in ökologischer als auch ökonomischer Hinsicht von Vorteil sind. Dabei wird den Bewohnern oder Nutzern eine angenehme, gleichmäßige Belichtung geboten, ohne dass sie von übermäßigem Wärmeeintrag oder blendendem Sonnenlicht beeinträchtigt werden. Neben der visuellen Wirkung zählt hier auch die thermische Performance: Ein strukturiertes Vorgehen bei der Auswahl von Filtern, Glasarten und Verschattungslösungen begünstigt ein stimmiges Raumklima, das einen hohen Wohn- und Arbeitskomfort generiert.
Architektonische Vielfalt dank Tageslicht
Die Integration von Fenstern, Oberlichtern und transparenten Fassadenelementen ermöglicht eine außergewöhnliche Flexibilität in der Raumgestaltung. Spezialisierte Fachleute beschäftigen sich mit Tageslichtarchitektur, um neue Wege zu eröffnen, Lichtstreuung und -lenkung auf innovative Art zu realisieren. Nicht zuletzt profitieren junge Unternehmen davon, wenn sie derartige Belichtungsaspekte geschickt einsetzen und im Rahmen ihres Marketing-Konzepts die Attraktivität ihrer Räumlichkeiten sichtbar hervorheben. Hohe Räume, diverse Lichtquellen und die gezielte Einbindung von Fassadenelementen geben Bauherren die Möglichkeit, sich an die Bedürfnisse der Nutzerinnen und Nutzer anzupassen und ein stimmiges, einladendes Gesamtbild zu erschaffen.
Energieeffizienz und Gesundheit
Wer auf eine durchdachte Tageslichtplanung setzt, profitiert von einer gewinnbringenden Symbiose aus ökologischem und ökonomischem Mehrwert. Die angemessene Einbindung von Sonnenstrahlen reduziert künstliche Beleuchtung und kann durch sinnvolle Bauphysik -Konzepte auch den Heiz- und Kühlaufwand minimieren. Gleichzeitig enden die Vorzüge nicht bei nachhaltig niedrigen Energiekosten: Studien legen nahe, dass natürliches Licht das Wohlbefinden fördert und geistige Prozesse positiv beeinflussen kann. Indem Räume gleichmäßig und blendfrei ausgeleuchtet werden, profitieren Angestellte oder Bewohner von einer entspannten Atmosphäre, die Stress mindert und Konzentration steigert. Darüber hinaus wirkt ein gutes Lichtkonzept stimmungsvoll und angenehm, was sich auf Motivation und Produktivität auswirken kann.
Materialauswahl und technologische Innovationen
Moderne Bauprojekte setzen häufig auf spezifische Gläser, Membranen und Metallkonstruktionen, um diffuses, aber dennoch ausreichendes Sonnenlicht zu gewinnen. Eine ausgeglichene Balance zwischen Wärmeschutz und Belichtungsintensität bedeutet für Investoren und Planer zugleich höhere Miet- oder Verkaufschancen. Wer in die Praxis blickt, stellt fest, dass sich die Materialinnovation stetig weiterentwickelt: Von mehrschichtigen Isoliergläsern bis hin zu smarten Beschichtungen ist das Angebot überaus reichhaltig. Diese Vielfalt erlaubt Bauherren, ein maßgeschneidertes Konzept zu wählen, das exakte Vorstellungen hinsichtlich Energieeffizienz, Komfort und Design berücksichtigt. Dabei ist die umfassende Beratung durch Spezialisten wesentlich, um jedes Detail zu perfektionieren.
Planungsaspekte für moderne Gebäude
Bei modernen Bauvorhaben lässt sich beobachten, dass Architektinnen und Architekten natürliche Lichtquellen bereits frühzeitig in die Entwürfe einbeziehen. Die Lichtführung, das Zusammenspiel von Ausrichtung und Verschattung sowie die räumlichen Proportionen sind nur einige Faktoren, die für das Gesamtergebnis entscheidend sind. Auch städtebauliche Gegebenheiten wie benachbarte Gebäude oder der vorhandene Baumbestand spielen eine Rolle. Darüber hinaus sind bauordnungsrechtliche Vorschriften zu berücksichtigen, damit der Lichteinfall technisch und rechtlich harmonisch umgesetzt wird. Ein kompetentes Team aus Statikern, Bauphysikern und Designern gleicht diese Parameter untereinander ab.
Gestalterische Freiheit durch Tageslichtlösungen
Da Sonnenlicht eine natürliche Dynamik besitzt, verändert es sich abhängig von Tages- und Jahreszeit. Dieses Wechselspiel bietet Raum für gestalterische Experimente – etwa durch transparente Innenwände, gläserne Verbindungselemente oder spezielle Deckenaufbauten. Somit werden Lichtakzente geschaffen, die verschiedene Bereiche eines Raums hervorheben und ihm eine lebendige, wandelbare Gestalt verleihen. Ob industriell anmutende Lofts oder repräsentative Büroräume mit hellen Gemeinschaftsflächen: Die Anpassungsfähigkeit naturlichter Planungen erlaubt es, Konzepte zu entwickeln, die so einzigartig sind wie ihre Nutzer selbst. Gleichzeitig können Farben, Oberflächenstrukturen und Möblierung die Lichtwirkung verstärken oder abschwächen.
Inspirierende Beispiele aus der Gegenwart
Rund um den Globus existieren Bauwerke, deren Ausstrahlung wesentlich auf der klugen Verwendung von Tageslicht beruht. Museumsbauten, deren Ausstellungsräume großflächig mit Oberlichtern ausgestattet sind, erzeugen eine fast sakrale Atmosphäre. Ebenso gibt es Wohnbaufassaden, die durch neuartige Verglasungstechniken sowohl stilvoll als auch energieeffizient wirken. In vielen Ländern nimmt die öffentliche Hand aktiv Einfluss und fördert Projekte, die eine nachhaltige Lichtgestaltung ermöglichen. Auf diese Weise entsteht eine vielgestaltige Palette architektonischer Ausdrucksformen, bei denen ästhetische und gesundheitliche Bedürfnisse gleichermaßen berücksichtigt werden.
Ausblick auf künftige Entwicklungen
Künftige Baukonzepte werden das Zusammenspiel von Umweltschutz, Nutzungsflexibilität und gesundheitsfördernder Tageslichtgestaltung weiter ausbauen. Forschung und Praxis streben an, energieeffiziente Systeme mit noch intelligenteren Steuerungen zu verknüpfen und so den Lichteinfall in Echtzeit zu regulieren. Überdies ist zu erwarten, dass sich die Verbindung von wetterabhängigen Sensoren, automatisierter Beschattung und innovativen Materialien weiter professionalisiert – was Gebäude für die Bewohnerinnen und Bewohner noch attraktiver macht. So bleibt die Rolle des natürlichen Lichts auch in der kommenden Generation der Architektur ein beständiger Motor für Kreativität, Wohlbefinden und Effizienz.
„Österreich hat einen langen Atem – und das zahlt sich im Bereich Applied AI aus“
Als führende Standorte in Sachen Künstliche Intelligenz liegen die USA und Asien auf der Hand, doch auch in Österreich gibt es eine vielfältige AI-Landschaft. Welche Vorteile der Standort für künstliche Intelligenz mit sich bringt und welche Rolle dabei Applied AI spielt, weiß Clemens Wasner, Gründer von AI Austria und CEO der EnliteAI.
Clemens Wasner ist Gründer des österreichischen Verbandes für Künstliche Intelligenz, AI Austria und CEO des Wiener Venture Studios EnliteAI. Der studierte Informatiker arbeitete über ein Jahrzehnt in Asien, bevor er 2017 EnliteAI gründete.
Herr Wasner, Sie kennen die AI-Szene aus erster Hand. Wie gut ist Österreich im internationalen Vergleich aktuell aufgestellt, wenn es um Applied AI geht?
Gemessen an seiner Größe steht Österreich erstaunlich gut da. Unsere AI–Landscape verzeichnet mittlerweile über 450 Unternehmen, die aktiv mit KI arbeiten – nicht nur Start-ups, sondern auch klassische Industrieunternehmen, Dienstleister und der öffentliche Sektor. Gerade im Bereich der industriellen Anwendungen ist Österreich breit aufgestellt: Es gibt zahlreiche Corporates, die eigene Competence Center gegründet, Ausgründungen vorgenommen oder Lizenzmodelle für KI aufgebaut haben. Auch die Zahl der Inkubatoren und Corporate Venture Capitalisten ist beachtlich. Das Thema ist in der Realwirtschaft angekommen – und das nicht erst seit gestern. Bereits 2018 gab es hierzulande einen deutlichen Aufschwung. Im Bereich der Spitzenforschung sind wir ebenfalls stark: Mit drei sogenannten ELLIS-Hubs – European Laboratory for Learning and Intelligent Systems – gehören wir zur europäischen Spitze, gemessen an der Größe des Landes.
Sie sprechen beim Blick auf Österreich oftmals vom „AI-Standort mit langem Atem“. Was genau meinen Sie damit und was macht aus Ihrer Sicht einen exzellenten Standort für AI-Start-ups aus?
Der „lange Atem“ ist positiv gemeint und beschreibt das, was Österreich im Bereich Forschung & Entwicklung auszeichnet: kontinuierliche Investitionen, strategischer Weitblick und langfristige Förderstrukturen. Die Steiermark war lange OECD-Spitzenreiter bei F&E-Ausgaben, Wien verfügt über eine dichte Forschungslandschaft. Das sind keine kurzfristigen Hypes, sondern über Jahrzehnte gewachsene Strukturen. Österreich verfügt zudem über eine differenzierte Förderarchitektur, die alle TRL-Stufen abdeckt – von der Grundlagenforschung bis zur Markteintrittsunterstützung. Auch Clusterstrukturen spielen eine Rolle: In Life Sciences etwa gibt es in Wien und Graz funktionierende Ökosysteme, in denen zunehmend auch KI eine Rolle spielt. Diese Verankerung ermöglicht Planbarkeit, die gerade in technologieintensiven Bereichen entscheidend ist.
Zu den Schlüsselfaktoren einen erfolgreichen Standorts zählen Infrastruktur, Talent Pool und Anwendungsmöglichkeiten. Wo sehen Sie hier derzeit die größten Hebel – und auch die größten Defizite – in Österreich?
Ein klarer Vorteil liegt in der Verfügbarkeit von Talenten: Wien zieht seit Jahren hochqualifizierte Developer aus dem osteuropäischen Raum an. Der AI-Fachkräftemangel ist hier weniger ausgeprägt als in anderen europäischen Hauptstädten. Hinzu kommt: Österreich bildet mehr AI-Absolventen aus, als die Wirtschaft derzeit absorbieren kann. Das schafft einen Bewerbermarkt, der gerade für Start-ups günstig ist. Auch Standortfaktoren wie Lebensqualität und erschwingliche Mieten machen zum Beispiel die Hauptstadt Wien attraktiv. Als Besonderheit sehe ich zudem den aktiven Zugang der Stadt: Wien versteht sich als First Client für KI-Anwendungen, etwa in der Analyse von Geodaten, IoT oder der Digitalisierung von Baueinreichprozessen. Hier ist wesentlich mehr Offenheit für politische Vergabe zu finden als in anderen Ländern. Weniger stark ist Wien in der Spitzenforschung vertreten, hier liegt Linz mit der JKU vorn. Aber man kann als kleines Land nicht alles abdecken – und sollte dort Schwerpunkte setzen, wo bestehende Stärken ausbaubar sind.
Was war der Gründungsimpuls für EnliteAI und wie ist Ihr Venture Studio heute aufgestellt?
Ich kam 2016 nach zehn Jahren in Asien zurück nach Österreich. In China und Japan war KI allgegenwärtig, ein regelrechter Hype. Zurück in Europa herrschte Funkstille – das war ein Kulturschock. Ich wollte dem Thema hierzulande Schub geben: 2017 gründete ich den Verband AI Austria und kurz darauf EnliteAI. Unsere Erkenntnis aus früheren Projekten zeigte, dass viele Unternehmen gute Ideen, aber keine Ressourcen zur Umsetzung hatten. Daraus entstand das Venture Studio: Wir entwickeln Prototypen gemeinsam mit Unternehmen und gründen darauf spezialisierte Start-ups. Aktuell sind wir 20 Personen und verfolgen zwei Themen – Detekt, das sich auf den Bereich Mobile Mapping spezialisiert hat, und ein weiteres im Stromnetzmanagement. Mit EnliteAI möchten wir künftig weitere Projekte unterstützen und bereiten dafür eine Dual-Entity-Struktur mit einem eigenen Fonds vor. Ziel ist es, das Modell professionell zu skalieren und Investoren direkt in die Spin-outs zu bringen.
Rechenleistung zählen zu den Schlüsselressourcen in der AI. Was braucht es aus Ihrer Sicht, damit europäische Standorte hier nicht dauerhaft in Abhängigkeit geraten?
Realistisch betrachtet: Die Abhängigkeit besteht bereits. Die großen Hyperscaler sind US-dominiert, ebenso Chips, Kommunikationstools, Social Networks. Europa muss in die digitale Souveränität investieren. Erste Schritte wie AI Factories sind wichtig, aber nicht ausreichend. Wir brauchen europäische Cloud-Anbieter, Chipproduktion auf europäischem Boden und eine nachhaltige Energiepolitik. Frankreichs KI-Boom basiert auf Atomstrom – weil er langfristig planbar ist. Diese Planbarkeit fehlt in vielen europäischen Ländern derzeit. Ohne Strom gibt es keine KI. Auch das zeigen Stimmen von Sam Altman, Elon Musk und anderen. Hier ist ein strategischer Paradigmenwechsel notwendig.
Sie sprachen bereits die vielfältige Landschaft von kleinen und mittleren Unternehmen in Österreich an, die offen für KI sind. Wie gut funktioniert das Matching zwischen Start-ups und klassischen Industrieunternehmen?
Österreich macht hier sehr viel richtig. Es gibt ein breites Netz an Förderinstrumenten – von der Österreichischen Forschungsförderungsgesellschaft FFG über die Austria Wirtschaftsservice bis hin zu regionalen Wirtschaftskammern. Zudem bietet Österreich eine Forschungsförderungsprämie an, bei der 14 Prozent der F&E-Ausgaben quasi mit einem Blankoschein gefördert werden können. Zudem organisieren viele Institutionen aktiv Matchmaking-Events, etwa im Rahmen von PreSeed-, AI-Adoption- oder Innovationsprogrammen. Hinzu kommt der Industry-Startup-Marktplatz mit mehreren Tausend registrierten Unternehmen. Auch Pitchings werden gefördert. Das Ziel ist stets, AI nicht nur in der Theorie zu belassen, sondern in die Realwirtschaft zu bringen. Trotzdem: Viele Unternehmen wissen noch immer nichts davon. Hier braucht es also noch mehr Aufklärung.
Welcher KI-Standort – in Österreich und darüber hinaus – hat Sie zuletzt positiv überrascht?
In Österreich ist Linz für mich der Hotspot schlechthin – die Kombination aus Spitzenforschung und erfolgreichem Technologietransfer ist dort besonders gut gelungen. International beeindruckt mich Twente in den Niederlanden: kein großer Name, aber mit klarer Strategie. Sie haben das Spin-out-Modell von Oxford und Cambridge adaptiert und konsequent umgesetzt – mit IP-Offices, Gründungsberatung und Infrastruktur für Start-ups. Ein weiteres Vorbild ist Heilbronn mit den Campus Founders: Sie haben, unterstützt durch die Dieter Schwarz Stiftung, einen Ort für Unternehmertum und Innovationen geschaffen und könnten Vorbild für viele europäische Regionen werden. Viele Stiftungen schaffen Parks oder Schlösser, aber wesentlich gewinnbringender wäre die Förderung von Entrepreneurship wie es in Heilbronn passiert statt Museumsstiftung. Europa braucht diese neue Denkweise.
Clemens Wasner, vielen Dank für das Gespräch.
Das Interview führte Janine Heidenfelder, Chefredakteurin VC Magazin
“Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit”
„Made in Steel. Built on Data.“ Mit diesem Leitsatz positioniert sich die EMR Dynamics GmbH als strategische Antwort auf die zunehmende Komplexität globaler Lieferketten – und auf die wachsenden Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Wertschöpfungsnetzwerken.
Unter der Leitung von Emrullah Görsoy geht EMR Dynamics aus einem Berliner Familienunternehmen hervor, das seit 2005 als verlässlicher Partner für mechanische Komponenten in Europa etabliert ist. Nun markiert das Unternehmen den nächsten Entwicklungssprung der Unternehmensgeschichte: von der Fertigung zur Plattform.
Fragen dazu an Emrullah Görsoy, Managing Director at EMR:
Seit mehr als 20 Jahren seid ihr mit EMR am Markt. Man könnte sagen, ihr macht vieles richtig – Wie lautet euer Erfolgsrezept?
Unser Erfolgsrezept liegt in der konsequenten Weiterentwicklung. Wir haben uns nie auf bestehenden Strukturen ausgeruht, sondern das Unternehmen immer wieder neu gedacht – operativ, strategisch und technologisch. Besonders in Zeiten des Wandels war unser pragmatischer Unternehmergeist entscheidend. Dabei kombinieren wir mittelständische Robustheit mit einer agilen Denkweise – anpassungsfähig, resilient und wachstumsorientiert.
Zeitnah startet ihr mit eurer Neugründung EMR Dynamics am Markt. Was steckt dahinter?
EMR Dynamics ist unsere Antwort auf ein fragmentiertes Marktumfeld und wachsende Anforderungen an Geschwindigkeit, Transparenz und Resilienz in industriellen Lieferketten. Wir verbinden vertikal integrierte Fertigungskompetenz mit einer digitalen Prozessarchitektur – eine B2B-Plattform für die intelligente Steuerung und Vermittlung industrieller Produktions- und Beschaffungsprozesse. Das Ziel: maximale Skalierbarkeit, reduzierte Time-to-Market und durchgängige Prozesssicherheit für unsere Kunden.
Damit schlagen wir die Brücke zwischen Mittelstand und digitaler Ökonomie – resilient, effizient und kundennah. Wir wollen EMR Dynamics als Plattformmarke im industriellen Mittelstand etablieren – mit eigener Fertigung, digitalem Backbone und strategischer Nähe zum Kunden.
An wen richtet sich euer Angebot?
Unsere Zielgruppen sind OEMs, Tier-1-Zulieferer und Systempartner aus hoch regulierten und qualitätskritischen Industrien – etwa Rail, Aerospace, Defense oder Industrial Tech. Wir liefern nicht nur Komponenten, sondern vernetzen Prozesse, sichern Supply Chains ab und schaffen Plattformlösungen für beschleunigte Wertschöpfung – alles aus einer Hand.
Wie unterscheidet sich euer Angebot von klassischen Fertigungsdienstleistern?
Wir sind kein reiner Teilelieferant. Wir verstehen uns als Lösungsanbieter entlang der industriellen Wertschöpfung – von Co-Engineering und Prototyping über skalierbare Serienfertigung bis hin zur integrierten Lieferkette. Durch die Plattformlogik können wir unsere Prozesse mit denen unserer Kunden synchronisieren und so Time-to-Market und Lieferperformance signifikant verbessern – gerade für komplexe und hochqualifizierte Baugruppen.
Seit mehreren Jahren bist du Geschäftsführer des Unternehmens EMR Industrial. Wie fühlt es sich an, als Young Professional bereits in einer solchen verantwortungsvollen Rolle zu sein?
Herausfordernd, aber erfüllend. Ich hatte das Privileg, früh Verantwortung zu übernehmen – besonders während der Transformation von EMR in der Pandemie. Die Krise 2020 hat uns gezwungen, unser gesamtes Geschäftsmodell zu pivotieren. Diese Erfahrung hat mich geprägt: Strategisch zu denken, unternehmerisch zu handeln und nie den Kontakt zur operativen Realität zu verlieren.
Welche Bedeutung hat die Digitalisierung aus deiner Sicht für den Mittelstand und was können sich Mittelständler von Start-ups abschauen?
Digitalisierung ist kein Nice-to-have mehr, sondern strukturelle Voraussetzung für Wettbewerbsfähigkeit. Der Mittelstand kann von Start-ups besonders eines lernen: den Mut, Prozesse radikal neu zu denken – und den Fokus auf Geschwindigkeit, Automatisierung und User Experience.
Emrullah Görsoy, Danke für die Insights
5 Tipps für GPT-Sichtbarkeit im Netz
Warum klassisches SEO allein nicht mehr ausreicht und wie Unternehmen für die KI-Antworten der GPT-Modelle sichtbar werden.
Die Spielregeln der digitalen Sichtbarkeit werden gerade neu geschrieben – und die Unternehmen müssen sich neu aufstellen. Denn während viele Unternehmen ihre Strategien noch immer ausschließlich auf Google-Rankings und SEO-Kriterien ausrichten, verlagert sich die digitale Aufmerksamkeit längst in Richtung KI: Sprachmodelle wie ChatGPT, Claude oder Gemini ersetzen zunehmend die klassische Suche. Sie liefern keine Trefferlisten mehr, sondern direkte, aufbereitete Antworten – oft mit konkreten Empfehlungen und Verlinkungen. Für Marken, Produkte und Unternehmen wird es damit entscheidend, in diesen zusammengefassten Antworten stattzufinden. Das Stichwort hierfür ist technisches SEO für KI-Rankings.
Suchmaschinen waren gestern das führende Element in der Sortierung von Wissen im Netz und vor allem das Google-Ranking war entscheidend für die Sichtbarkeit von Informationen und Seiten. In Zukunft entscheiden dagegen Sprachmodelle darüber, welche Inhalte gesehen, zitiert und empfohlen werden. Und wer in diesen Systemen nicht genannt wird, verliert den direkten Draht zur Zielgruppe.
Diesen Paradigmenwechsel vom Google-Ranking zur Antwortlogik hat die SMAWAX, die auf Strategieberatung spezialisierte Agentur der Smarketer Group, erstmals systematisch im Rahmen eines Whitepapers analysiert (s. Link am Ende des Beitrags). Die Expert*innen erklären dabei detailliert, wie GPT-Modelle Inhalte auswählen – und welche Inhalte von den Systemen überhaupt referenziert werden dürfen. Die zentrale Erkenntnis: Suchmaschinenoptimierung nach alten Regeln greift zu kurz, ist aber weiterhin die Sichtbarkeitsgrundlage. Denn Sprachmodelle wie ChatGPT denken nicht in Keywords und Rankings, sondern in semantischen Relevanzräumen, Entitätenbeziehungen und struktureller Klarheit.
Inhalte müssen modular und semantisch präzise sein – doch das reicht nicht
Es geht nicht mehr um Top-Rankings – es geht darum, die richtige Antwort zu sein. Wir müssen SEO neu denken – als Schnittstelle zwischen Struktur, Relevanz und maschinellem Verstehen. Inhalte müssen dazu maschinenlesbar, modular aufgebaut und semantisch präzise sein. Nur dann haben Unternehmen eine Chance, in den Empfehlungslogiken von Claude, GPT & Co. aufzutauchen.
Besonders überraschend ist dabei aber, dass viele Unternehmen in GPT-Antworten zwar durchaus latent präsent, aber nicht sichtbar sind. Der Grund hierfür sind unscharfe Entitäten, fehlende „About“-Seiten, keine Verankerung in externen Quellen wie Wikidata, Trustpilot oder LinkedIn. Die Folgen wirken sich negativ auf die Marken aus und sorgen für Fehlinformationen: KI-Modelle verwechseln Marken, halluzinieren Funktionen oder verschweigen relevante Angebote. Halluzinationen sind in Wahrheit ein strategischer Hinweis auf Unsichtbarkeit. Wenn GPT ein Produkt falsch beschreibt oder dich mit einem Mitbewerber verwechselt, zeigt das: Deine Inhalte sind zwar irgendwo im Modell – aber nicht stabil genug verankert, um korrekt genannt zu werden.
Fünf konkrete Hebel für bessere GPT-Sichtbarkeit
Diese praxisnahe Handlungsempfehlungen können Unternehmen sofort umsetzen können – unabhängig davon, ob sie im B2B- oder B2C-Bereich aktiv sind.
1. Entitäten definieren: Jede Marke braucht heute eine kanonische „About“-Seite, ergänzt um ein Wikidata-Profil, semantische Markups und gleiche Namensverwendungen auf Plattformen wie LinkedIn oder Handelsregister.
2. Aktualität signalisieren: GPT-Modelle bevorzugen Inhalte mit klaren Update-Daten (z.B. dateModified). Ohne erkennbaren Pflegezustand gelten Inhalte als veraltet – und werden ausgefiltert.
3. Bing wird zum Gateway: Weil GPT seine Websuche auf Bing stützt, ist dessen Indexierung entscheidend. Wer dort nicht sauber auffindbar ist, existiert in GPT-Antworten nicht.
4. Content chunkbar machen: Inhalte sollten nicht mehr aus langen Fließtexten bestehen, sondern in modularen Blöcken mit H2-Strukturen, Listen und Zwischenfazits aufgebaut sein.
5. Externe Signale einbinden: Erwähnungen auf Trustpilot, Reddit oder in der Fachpresse stärken die semantische Autorität – und erhöhen die Chance, von Sprachmodellen zitiert zu werden.
Fazit
Die neue Sichtbarkeit entsteht durch das, was das Modell nicht selbst erzeugen kann – sie entsteht also nicht über Rankings, sondern über Relevanzräume. Wer auf Standard-Content setzt, wird paraphrasiert oder übergangen. Wer dagegen einzigartigen, strukturierten und technisch klaren Content liefert, wird empfohlen.
Zum Weiterlesen: Das Whitepaper steht zum kostenlosen Download bereit unter www.smawax.com/whitepaper-ki-sichtbarkeit
Digitaler Vorreiter: Wie Bootsschule1 die Sportboot-Ausbildung umkrempelt
Bootsschule1 überzeugt mit SmartLearn™-Plattform, All‑Inclusive‑Paketen, hoher Qualität und bundesweiter Praxis – digital, transparent und risikofrei.
Der Weg zum Sportbootführerschein galt lange als bürokratisch, zeitraubend und unflexibel – geprägt von Präsenzunterricht, Papierbergen und Prüfungsstress. Wer beruflich eingespannt ist oder außerhalb von Metropolregionen lebt, sah sich oft mit logistischen Hürden konfrontiert. Genau an diesem Punkt setzt Bootsschule1 an – und definiert die Ausbildung auf dem Wasser neu. Nicht mit leeren Marketingversprechen, sondern mit einem durchdachten Gesamtkonzept, das sich konsequent an den Bedürfnissen moderner Lerner orientiert.
Was einst nach trockener Theorie und starren Kurszeiten roch, verwandelt sich hier in ein digitales Lernsystem, das in punkto Nutzerfreundlichkeit und Didaktik Maßstäbe setzt. Im Zentrum steht eine selbst entwickelte Lernplattform, die Inhalte in kurzen, präzise aufbereiteten Videolektionen vermittelt – ergänzt durch realistische Prüfungssimulationen und ein umfassendes All-Inclusive-Paket, das vom Navigationsbesteck bis zur persönlichen Betreuung reicht. Transparente Preise, flexible Praxisstandorte und eine Geld-zurück-Garantie zeigen: Hier geht es nicht um den schnellen Schein, sondern um nachhaltige Qualität.
Dieser Artikel beleuchtet, wie Bootsschule1 mit technischer Präzision, durchdachten Services und didaktischer Klarheit nicht nur mit alten Konventionen bricht, sondern ein neues Kapitel in der Ausbildung für Wassersportbegeisterte aufschlägt – nah am Alltag, weit entfernt vom Schulbank-Gefühl.
Moderne Lernplattform mit smarten Tools
Die digitale Bootsschule von Bootsschule1 übernimmt in Deutschland eine Vorreiterrolle, wenn es um eine moderne Bootsführerschein-Ausbildung geht. Die selbst entwickelte SmartLearn™‑Lernplattform bildet das Herzstück dieses Konzepts. Sie bietet über 50 Videolektionen in hochwertiger 4K-Qualität und einen Multiple‑Choice‑Fragentrainer, die den gesamten Stoff für Sportbootführerscheine strukturiert abdecken. Die Videos dauern meist zwischen drei und fünf Minuten – ideal, um Inhalte gezielt und ohne Zeitdruck zu konsumieren: Sei es unterwegs beim Pendeln, in der Mittagspause oder abends auf dem heimischen Sofa. Dieses modulare Format erlaubt es, einzelne Themen effizient zu wiederholen oder gezielt Vertiefungen abzurufen.
Doch Bootsschule1 bietet weit mehr als reine Videospots: Ein interaktiver Prüfungssimulator integriert alle 15 offiziellen Prüfungsbögen. Nutzer*innen können die komplette Prüfungssituation durchspielen, inklusive Originalfragen und zeitlicher Vorgabe – so entsteht ein realistisches Trainingserlebnis. Dieser praxisnahe Ansatz führt weg vom bloßen Auswendiglernen hin zu gezielter Vorbereitung, mit hoher Trefferquote bei der echten Prüfung. Durch regelmäßiges Simulations-Training werden Schwachstellen sichtbar und lassen sich gezielt bearbeiten – ein entscheidender Vorteil gegenüber herkömmlichen Kursformaten.
All‑Inclusive‑Angebot statt versteckter Kosten
Ein echtes Alleinstellungsmerkmal ist das All‑Inclusive‑Versprechen. In einer einzigen Kursbuchung sind enthalten: Lernplattform, hochwertige Lernvideos, Kursmaterialien wie Kurs‑ und Anlegedreieck, Zirkel sowie Tampen und Klampe, dazu die praktische Ausbildung inklusive einer kostenfreien 1:1‑Betreuung. Ergänzt wird das Ganze durch ein freiwilliges Exkurs‑Paket mit über 25 zusätzlichen Lektionen mit einem Gegenwert von 119 €, das Kunden gratis erhalten.
Der Preis erscheint dabei vergleichsweise günstig: Ein Kombiangebot für SBF See & Binnen kostet gerade mal 445 € statt ursprünglich 495 € – inklusive Exkurs‑Paket. Durch Aktionen mit Rabattcodes lässt sich die Summe weiter reduzieren – ohne unerwartete Zusatzkosten. Transparenz ist hier Programm.
Risikofrei dank Geld‑zurück‑Garantie
Bootsschule1 gibt Anfängern besonderen Rückhalt: Innerhalb von 14 Tagen nach Buchung kann man bei Nichtgefallen rückabwickeln – sofern bislang keine Praxisstunde gebucht und maximal 60 % der Kursinhalte absolviert wurden. Darüber hinaus gibt es eine Garantie für den Prüfungserfolg: Wer den Theorie‑Teil bestanden, aber in der Praxisprüfung durchfällt, erhält anteilig die Kursgebühr zurück. Das reduziert das finanzielle Risiko und lässt den Kurs zu einer sicheren Investition werden.
Flexible praktische Ausbildung in ganz Deutschland
Ein weiterer wichtiger Aspekt, in dem Bootsschule1 überzeugt, ist der bundesweite Zugang zur praktischen Ausbildung. Mehr als 100 Prüfzentren und zahlreiche Praxispartner ermöglichen es, Theorie online zu lernen und die Bootsfahrstunden lokal zu absolvieren. Unter anderem gibt es Angebote in großen Städten wie Berlin, Hamburg oder entlang des Rheins (z.B. Bonn, Koblenz, Köln).
Praktische Einheiten dauern meist 60 Minuten und reichen oft aus, um die Fahrpraxis für die Prüfung zu erlangen. Zudem übernimmt die Plattform die Terminbuchung, Organisation und Anmeldung bei der Prüfung – der gesamte Papierkram liegt in digitaler Hand, was Zeit und Aufwand spart.
Umfangreiche Kursvarianten für jeden Bedarf
Bootsschule1 deckt sämtliche Sportbootführerscheine ab: getrennte Kurse für SBF See, SBF Binnen sowie Kombikurse See & Binnen. Darüber hinaus werden spezielle Qualifikationen angeboten, etwa das Bodenseeschifferpatent, der SRC- und UBI-Funkschein sowie Fachkundenachweise (FKN/SKN).
- Das Bodenseeschifferpatent ist als Ergänzung zum SBF günstig kombinierbar (145 € Theorie oder Kombipreis von € 590).
- Der SRC‑Funkschein wird mit gleicher SmartLearn™‑Plattform vorbereitet – inklusive Online‑Training und praktischer Prüfung in einem Prüfungszentrum (127,88 € Prüfungsgebühr).
Wer nur den Funkschein machen möchte, erhält dafür bis zu 365 Tage Zugriff auf Lernmaterial und Praxisaufgaben.
Qualitativ hochwertiger Unterricht
Bootsschule1 legt klar Wert auf hohe Produktionsqualität: Einzelne Videolektionen entstehen aus bis zu 200 Stunden Rohmaterial, das anschließend mehr als 100 Stunden postproduziert und mit 3D‑Animationen sowie CGI‑Effekten angereichert wird. Das Ergebnis ist eine visuell ansprechende und fachlich präzise Darstellung, die man in vielen herkömmlichen Kursen vergeblich sucht. Ergänzt wird das durch profunde Fahrsessions per Videochat und persönliche Unterstützungsangebote.
Medizinischer Beleg und gesundheitliche Voraussetzungen
Vor Prüfungsanmeldung ist ein ärztliches Attest nötig. Dieses umfasst Sehtest (DIN 58220, Sehschärfe ≥ 0,8), Farbunterscheidung und Hörtest. Brillenträger schaffen den Führerschein problemlos – die Vermerkpflicht auf der Fahrerlaubnis ist im Einklang mit Vorschriften. Empfehlenswert ist es, frühzeitig die optionalen Testangebote bei Optikern zu nutzen, um die ärztliche Bescheinigung vorzubereiten.
Prüfung mit digitaler Unterstützung
Bootsschule1 nimmt Interessierten den bürokratischen Aufwand ab: Prüfterminbuchung, Anmeldeunterlagen und Zertifikatrecherche übernimmt das Team. Nach Bestehen der Prüfung erreicht man den Führerschein binnen zwei Wochen bequem per Post. Wer beim ersten Mal nicht besteht, kann Theorie und Praxis beliebig oft wiederholen – zusätzliche Kosten entstehen nur durch behördliche Prüfungsgebühren.
Fazit
Bootsschule1 präsentiert ein Konzept, bei dem Technik und didaktischer Anspruch eng miteinander verbunden sind: Die Lernplattform mit qualitativ hochwertigen Videos, Prüfungssimulationen und smartem Fragebetrieb bildet das Rückgrat der Ausbildung. Zeitgleich liefern All‑Inclusive‑Pakete inklusive 1:1‑Betreuung, bundesweite Praxis sowie Garantien echte Mehrwerte.
In einer Zeit, in der Flexibilität und Qualität gefragt sind, liefert Bootsschule1 eine Antwort auf praktische Herausforderungen. Es ist kein theoretisches Referenzmodell, sondern ein funktionierendes System, das vielen den Zugang zum Wassersport erleichtert – und dabei ganz klar zeigt, wie moderne Bildung in der Praxis aussehen kann. Somit liefert der Anbieter im Sportbootbereich das, was bei Autofahrschulen schon länger Realität ist.
EU AI Act: Bürokratisch, unpraktisch, schlecht
Ein Kommentar von Dominik Mohilo, Redakteur und IT-Experte bei der auf High-Tech spezialisierten Münchner PR- und Kommunikationsagentur PR-COM.
Die Luft auf dem hohen moralischen Ross, auf dem Deutschland vorreitet und Europa folgt, wird dünner und dünner. Ja, der EU AI Act ist eine Errungenschaft. Und ja, ethische Grundsätze sollten wir keinesfalls missachten, wenn es darum geht, künstliche Intelligenz zu entwickeln, zu betreiben und zu verwenden. Fair enough. Doch darf’s vielleicht trotzdem ein bisschen weniger Bürokratie sein, liebe EU? Artikel 5 des KI-Regelwerks der EU besagt beispielsweise, dass die folgende KI-Praktik verboten ist: „Das Inverkehrbringen, die Inbetriebnahme oder die Verwendung eines KI-Systems, das unterschwellige Techniken, die sich dem Bewusstsein einer Person entziehen, oder absichtlich manipulative oder täuschende Techniken einsetzt, mit dem Ziel oder der Wirkung, das Verhalten einer Person oder einer Personengruppe dadurch wesentlich zu beeinflussen, dass ihre Fähigkeit, eine sachkundige Entscheidung zu treffen, spürbar beeinträchtigt wird, wodurch sie veranlasst wird, eine Entscheidung zu treffen, die sie andernfalls nicht getroffen hätte, und zwar in einer Weise, die dieser Person, einer anderen Person oder einer Personengruppe einen erheblichen Schaden zufügt oder mit hinreichender Wahrscheinlichkeit zufügen wird.“ (Kapitel II, Artikel 5, 1a)
Sperrig und überregulatorisch
Verstanden worum es geht? Ich auch nicht. Ähnlich sperrig und überregulatorisch ist der Abschnitt über sogenannte Hochrisiko-KI-Systeme formuliert. Gemeint sind damit jene KI-Anwendungen, die etwa im Gesundheitswesen, in der Bildung oder kritischen Infrastrukturen eingesetzt werden sollen – also genau den Bereichen, wo sie dringend benötigte Verbesserungen und Entlastungen für die in diesen Bereichen arbeitenden Menschen mit sich bringen könnten. Was genau mit Hochrisiko gemeint ist, ist allerdings wieder nicht glasklar definiert: was hat denn nun „erheblichen Einfluss auf Grundrechte“? Diese Unsicherheit im Hinblick auf die rechtliche Grundlage ist oft Grund genug für potenzielle Investoren, sich nach anderen Gelegenheiten umzusehen. Wer will schon exorbitante Kosten für juristische Verfahren locker machen und Zertifizierungen noch und nöcher erwerben, nur um am Ende dann möglicherweise doch gegen geltende Gesetze zu verstoßen? Eben.
Start-ups sind von Hürden überproportional heftig betroffen
Gerade kleine und mittelständische Unternehmen (KMU) sowie Start-ups sind von diesen Hürden überproportional heftig betroffen, sodass viele gute und wegweisende Ideen nicht oder zumindest nicht hier in der EU auf den Weg gebracht werden. Wirtschaftlich ist das fatal – das auch noch in diesen schwierigen Zeiten. In diesen Zeiten wäre es eigentlich wichtig, die Wirtschaft voranzutreiben, insbesondere in zukunftsweisenden Bereichen wie dem KI-Markt. Eine gute Möglichkeit wäre, die Technologie hierzulande staatlich zu subventionieren, wie das in den USA und in China bereits in großem Stil passiert. Stattdessen werfen wir uns selbst Stöcke in die Speichen unserer Räder – unter anderem mit Regulierung und ethischen Grundsätzen, sondern insbesondere durch schwammige Gesetzestexte und Undurchsichtigkeit von Compliance-Vorschriften.
Zusammenfassend ist festzustellen, dass die alte Forderung „rebellischer“ (mancher würde sagen: „vernünftiger“) Politiker, Bürokratie abzubauen, selten so eine hohe Relevanz wie aktuell hatte. Europa geht es wirtschaftlich schlecht, gleichzeitig verlassen High-Tech-Unternehmen scharenweise unsere Breitengerade, da das Regulierungskorsett so eng geschnürt ist, dass Innovation keine Luft mehr zum Atmen hat. Es gilt also, Maßnahmen zu ergreifen, um wettbewerbsfähig zu werden.
Was könnte die EU nun machen, da das Regulations-Kind in den Brunnen gefallen ist?
Zunächst einmal wäre es hilfreich, aus unserem Elfenbeinturm herauszukommen. Ethik ist wichtig, aber kein Altar, auf dem wir unsere Wirtschaft opfern sollten. Haben wir das verinnerlicht, braucht der EU AI Act eine Überarbeitung die Unklarheiten auflöst und die Hürden (gerade für Start-ups und KMU) verringert. Sinnvoll wäre zudem, wenn die EU KI-Sandboxes zur Prüfung von innovativen Technologien bereitstellen würde, in denen Unternehmen ihre Entwicklungen testen können, ohne gegen Gesetze zu verstoßen. Zudem muss die EU-Gelder und Mittel zur Verfügung stellen, Zertifizierungsverfahren deutlich zu beschleunigen. Auch eine Zentralisierung dieser Verfahren würde Sinn ergeben. Die entsprechende ISO-Norm (ISO/IEC 42001) gibt es bereits, was fehlt sind offizielle Tools, um die Konformität der eigenen Anwendung zu checken.
Ziel muss es sein, Europa als attraktives Umfeld für den Einsatz und die Entwicklung von KI-Anwendungen zu positionieren. KI wird in den kommenden Jahren über wirtschaftlichen Erfolg nicht nur von Unternehmen, sondern von Staaten avancieren. Wenn wir nicht die gleichen Katastrophen wie aus der Schwerindustrie und der Automobilbranche erleben, sondern wieder vorne mitspielen wollen, dürfen wir uns nicht selbst behindern. Das Gebot der Stunde ist also Bürokratieabbau und Mut zu moderaterer Ethik – so werden wir vielleicht irgendwann doch wieder Exportweltmeister.
Podcast: Die Peter Thiel Story
Tipp der Redaktion: Ab 28. Mai 2025 in der Deutschlandfunk App verfügbar – der sechsteilige Podcast „Die Peter Thiel Story“.
Peter Thiel ist mit PayPal und Facebook reich geworden und hat die Gedankenwelt des Silicon Valleys wie kaum ein zweiter geprägt. Der Tech-Milliardär ist ein Architekt des neuen rechten Amerikas, ist Strippenzieher und bestens vernetzt im radikalkonservativen und -libertären Amerika.
Mit dem sechsteiligen Podcast „Die Peter Thiel Story“ beleuchtet der Deutschlandfunk jetzt die Hintergründe des geheimnisvollen Investors, der trotz seines enormen Einflusses vielen kaum bekannt ist.
Host und Autor Fritz Espenlaub zeichnet nach, wie ein in Deutschland geborener Philosophiestudent im Silicon Valley aufstieg. Er zeigt das intellektuelle Fundament – geprägt von Carl Schmitt, René Girard und Ayn Rand – sowie das Netzwerk, das heute Schlüsselpositionen in Wirtschaft und Politik besetzt.
Die Serie dokumentiert dabei auch Thiels Visionen: Die Errichtung schwimmender libertärer Städte, die Entwicklung fortschrittlicher Überwachungstechnologie und seine Suche nach dem ewigen Leben.
„Die Peter Thiel Story“ bietet Einblicke in das Leben des Mannes, der ewig leben und alles verändern will.
Die Peter Thiel Story
Sechsteilige Erzählserie jeweils ca. 30 Minuten
ab 28. Mai 2025 in der Deutschlandfunk App

