[ccpw id="4879"]

KI aus der Schweiz: Das offene Sprachmodell Apertus, fordert Big Tech heraus

Was Apertus von seinen amerikanischen und chinesischen Konkurrenten unterscheidet? Während OpenAI, Microsoft und Co. ihre Modelle wie Staatsgeheimnisse hüten, legen die Schweizer alles offen: Modellarchitektur, Trainingsdaten, Gewichtungen und sogar die kompletten Trainingsrezepte. Das ist nicht nur ein technologischer Meilenstein, sondern auch eine kulturelle Kampfansage an die Blackbox-Mentalität der Tech-Giganten.

Während Google, Microsoft und OpenAI im KI-Wettrennen immer neue proprietäre Sprachmodelle aus dem Hut zaubern, hat die Schweiz jetzt ein Ausrufezeichen gesetzt, das die Tech-Giganten ins Schwitzen bringen könnte. Mit Apertus haben die Eidgenossen ein völlig offenes, transparentes und mehrsprachiges KI-Modell veröffentlicht, das nicht nur technologisch überzeugt, sondern auch einen radikalen Gegenentwurf zur Geheimniskrämerei der Big-Tech-Konzerne darstellt. Das Beste daran? Es kommt in zwei Größen – für jeden Anspruch das passende Modell.

Die Schweizer KI-Offensive: Hochkarätige Köpfe hinter Apertus

Stellt euch vor, die klügsten Köpfe der Schweiz tun sich zusammen und beschließen, die KI-Welt auf den Kopf zu stellen. Genau das ist passiert. Die École polytechnique fédérale de Lausanne (EPFL), die ETH Zürich und das Swiss National Supercomputing Centre (CSCS) haben ihre Kräfte gebündelt und mit Apertus das erste vollständig in der Schweiz entwickelte Large Language Model geschaffen. Die Swiss AI Initiative ist die erste Initiative des Swiss National AI Institute (SNAI), einer Partnerschaft zwischen dem ETH AI Center und dem EPFL AI Center.

Hinter dem Projekt stehen Forschungsgrößen wie Martin Jaggi von der EPFL, Imanol Schlag von der ETH Zürich und Thomas Schulthess vom CSCS. Mit Swisscom ist zudem ein strategischer Partner an Bord, der für die praktische Umsetzung und Bereitstellung über seine souveräne KI-Plattform sorgt. „Mit dieser Veröffentlichung wollen wir eine Blaupause dafür liefern, wie sich ein vertrauenswürdiges, souveränes und inklusives KI-Modell bauen lässt“, erklärt Martin Jaggi von der EPFL.

Was Apertus von seinen amerikanischen und chinesischen Konkurrenten unterscheidet? Während OpenAI, Microsoft und Co. ihre Modelle wie Staatsgeheimnisse hüten, legen die Schweizer alles offen: Modellarchitektur, Trainingsdaten, Gewichtungen und sogar die kompletten Trainingsrezepte. Das ist nicht nur ein technologischer Meilenstein, sondern auch eine kulturelle Kampfansage an die Blackbox-Mentalität der Tech-Giganten.

Zwei Größen, unbegrenzte Möglichkeiten: Die technischen Details

Apertus kommt in zwei Ausführungen daher – und das ist kein Zufall, sondern durchdachte Strategie. Die kleinere Variante mit 8 Milliarden Parametern (Apertus-8B) ist ideal für individuelle Forschung, Prototyping und lokale Anwendungen. Sie läuft bereits auf hochwertigen Consumer-GPUs wie einer RTX 4090 mit 24 GB VRAM. Das größere Modell mit 70 Milliarden Parametern (Apertus-70B) zielt auf Unternehmensanwendungen, komplexe Analysen und großangelegte Content-Generierung ab. Hier werden allerdings server-grade GPUs oder Cloud-Infrastruktur wie NVIDIA DGX H100 oder Multi-GPU-Cluster benötigt. Der Clou: Beide Modelle wurden mit einem beeindruckenden Datensatz von 15 Billionen Tokens aus über 1.000 Sprachen trainiert, wobei 40% des Materials nicht-englischsprachig ist – ein klares Bekenntnis zur sprachlichen Vielfalt und Inklusion, das besonders bisher im großen LLM-Kosmos unterrepräsentierte Sprachen wie Schweizerdeutsch und Rätoromanisch berücksichtigt. Zudem unterstützt Apertus standardmäßig eine Kontextlänge von bis zu 65.536 Tokens.

Offenheit als Wettbewerbsvorteil: Der Apertus-Ansatz

In einer Welt, in der OpenAI mit GPT-4 und Meta mit Llama 3 um die Vorherrschaft kämpfen, geht Apertus einen radikal anderen Weg. Während die US-Giganten höchstens Teilaspekte ihrer Modelle offenlegen, macht Apertus Tabula rasa mit der Geheimniskrämerei. Jeder Aspekt des Modells – von den Trainingsdaten bis zum fertigen Produkt – liegt offen und kann von der Community eingesehen, überprüft und weiterentwickelt werden.

Dieser Ansatz schafft nicht nur Vertrauen, sondern auch eine solide Grundlage für Innovation und Weiterentwicklung. Statt eines geschlossenen Gartens mit hohen Mauern entsteht ein offenes Ökosystem, in dem Entwickler, Forscher und Unternehmen gemeinsam an Verbesserungen arbeiten können. Das ist nicht nur technologisch sinnvoll, sondern auch strategisch klug: Die Schweiz positioniert sich damit als Vorreiter für ethische, transparente und vertrauenswürdige KI in Europa.

Besonders bemerkenswert: Das Training erfolgte auf dem Alps-Supercomputer am CSCS, der über 10 Millionen GPU-Stunden für das Projekt bereitstellte. Dabei wurde besonderer Wert auf Datenfilterung gelegt, um persönliche Informationen zu entfernen, maschinenlesbare Opt-out-Anfragen zu respektieren und die Einhaltung schweizerischer Datenschutzgesetze sowie des EU AI Act zu gewährleisten. SNAI wird regelmäßig eine Datei mit Hash-Werten zum Download bereitstellen, die als Output-Filter verwendet werden kann, um Datenschutz-Löschanfragen zu berücksichtigen.

Vom Chatbot bis zum Rechtssystem: Anwendungsfälle für Apertus

Die Einsatzmöglichkeiten von Apertus sind so vielfältig wie beeindruckend. Im Bereich Chatbots und Conversational Agents können Entwickler Schnittstellen schaffen, die die fortschrittlichen mehrsprachigen Fähigkeiten des Modells nutzen. Für Übersetzungs- und Sprachtools eröffnen sich neue Horizonte, auch hier profitieren Sprachen wie Schweizerdeutsch oder Rätoromanisch.

Im Bildungssektor sind digitale Tutoring-Systeme und Lernressourcen denkbar, die ein nuanciertes Verständnis mehrerer Sprachen erfordern. Für LegalTech und Compliance-Anwendungen bietet Apertus durch seinen transparenten Rahmen die Möglichkeit, rigorose Audits für die Einhaltung lokaler Gesetze durchzuführen – ein entscheidender Vorteil in streng regulierten Branchen wie Finanzen und Recht.

Die Kehrseite der Medaille: Herausforderungen und Grenzen

Trotz aller Euphorie müssen wir ehrlich sein: Auch Apertus hat seine Grenzen. Das 70B-Modell erfordert spezialisierte Hardware und erhebliche Rechenressourcen, was seine direkte Nutzung für kleinere Organisationen einschränkt. Selbst die 8B-Variante benötigt High-End-GPU-Konfigurationen für einen effizienten lokalen Einsatz.

Anders als bei fertigen Produkten wie ChatGPT erfordern Open-Source-LLMs wie Apertus nuanciertes Prompt-Design und können unberechenbare Antworten liefern, wenn die Anweisungen nicht ausreichend klar sind. Der vollständige Zugang zum Innenleben des Modells birgt zudem potenzielle Missbrauchsrisiken, wenn Sicherheitsmaßnahmen nicht robust genug sind.

Als offenes Framework wird Apertus kontinuierliche Community-Beiträge und institutionelle Unterstützung benötigen, um Schwachstellen zu beheben, zugrundeliegende Datensätze zu aktualisieren und die Einhaltung von Vorschriften zu gewährleisten. 

Digitale Souveränität: Warum Apertus strategisch brillant ist

Dennoch: Apertus ist mehr als nur ein technologisches Spielzeug – es ist ein politisches und strategisches Statement. Das Projekt stärkt (Kontinental-)Europas Initiative zur digitalen Souveränität, indem es die Abhängigkeit von proprietären KI-Systemen aus den USA oder China reduziert. Durch die Gewährleistung von Transparenz bei der KI-Infrastruktur stärkt es das öffentliche Vertrauen und die Einhaltung von Vorschriften in sensiblen Sektoren.

Das Engagement des Projekts für Offenheit und Reproduzierbarkeit setzt einen neuen ethischen Maßstab für die KI-Branche. Es ermöglicht Forschern und Entwicklern weltweit, das Modell ohne undurchsichtige „Black Box“-Einschränkungen zu inspizieren, feinzutunen und anzupassen. Und schließlich dient Apertus als „Basisplattform“, auf der Startups, akademische Forscher und etablierte Unternehmen innovativ sein können. Der duale Größenansatz (8B und 70B) ermöglicht Skalierbarkeit und Anwendung in verschiedenen Branchen, was voraussichtlich das künftige Wirtschaftswachstum in der Region antreiben wird.

Imanol Schlag von der ETH Zürich bringt es auf den Punkt: „Apertus wurde als Beitrag zum Gemeinwohl entwickelt. Es gehört zu den wenigen vollständig offenen LLMs in dieser Größenordnung und schafft neue Standards in Mehrsprachigkeit, Transparenz und Compliance.“

Vergleich der Giganten: Apertus vs. Llama vs. GPT-4

Um die Einordnung zu erleichtern, hier ein direkter Vergleich: Während Apertus unter einer permissiven Open-Source-Lizenz (Apache 2.0) steht, die kommerzielle Nutzung uneingeschränkt erlaubt, unterliegt Llama 3 von Meta einer maßgeschneiderten Lizenz mit Einschränkungen. GPT-4 von OpenAI ist komplett proprietär und nur über eine API zugänglich.

Bei den Modellgewichten legt Apertus alles offen, Llama 3 teilweise, und bei GPT-4 bleibt alles unter Verschluss. Ähnlich sieht es bei der Dokumentation der Trainingsdaten aus: Apertus macht vollständige Angaben, Llama 3 nur teilweise, und OpenAI schweigt sich aus. Dieser Transparenzunterschied ist nicht nur ein technisches Detail, sondern hat direkte Auswirkungen auf Vertrauen, Sicherheit und die Möglichkeit zur Weiterentwicklung.

Apertus nutzen: So kommst du an Bord

Wenn ihr selbst mit Apertus experimentieren wollt, stehen euch zahlreiche Ressourcen zur Verfügung. Beide Modellvarianten – Apertus-8B und Apertus-70B – sind über das Hugging Face Repository zugänglich, zusammen mit umfassender Dokumentation und community-beigesteuerten Beispielen. Die offizielle Website der Swiss AI Initiative bietet detaillierte Ankündigungen, Whitepapers und Forschungsartikel, die die strategische Vision des Projekts darstellen.

Auf der CSCS-Website www.swiss-ai.org könnt ihr mehr über den Alps-Supercomputer und seine Rolle beim Training von Apertus erfahren. Das GitHub-Repository enthält Quellcode, Trainingsskripte und zusätzliche Dokumentation zur Reproduktion des Trainingsprozesses. Und nicht zuletzt macht der Public AI Inference Utility Apertus für Nutzer weltweit zugänglich – ohne dass ihr eigene Hardware bereitstellen müsst.

Schweizer Präzision trifft auf KI-Innovation

Was Apertus besonders macht, ist nicht nur die Technologie, sondern auch die Schweizer DNA, die in jedem Aspekt des Projekts steckt. Präzision, Transparenz, Mehrsprachigkeit und ein Fokus auf Qualität statt reiner Größe – all das spiegelt die Werte wider, für die die Schweiz bekannt ist.

Antoine Bosselut von der EPFL und Co-Leiter der Swiss AI Initiative bringt es auf den Punkt: „Die Veröffentlichung von Apertus ist der Beginn einer Reise – ein langfristiges Bekenntnis zu offenen, vertrauenswürdigen und souveränen KI-Grundlagen für das weltweite Gemeinwohl.“

In einer Zeit, in der KI-Modelle immer größer, aber nicht unbedingt besser werden, setzt Apertus auf Qualität, Vielfalt und Zugänglichkeit. Es ist ein Modell, das nicht nur technologisch überzeugt, sondern auch ethisch und strategisch durchdacht ist. Und es zeigt, dass Europa in der KI-Welt durchaus mitspielen kann – wenn es auf seine Stärken setzt und eigene Wege geht.

Für wen ist das von Bedeutung?

Warum solltet ihr euch für Apertus interessieren? Hier sind drei Gründe:

Für Unternehmen mit Datenschutzbedenken: Apertus bietet vollständige Transparenz und Kontrolle über die KI-Infrastruktur, was es ideal für Anwendungen in sensiblen Bereichen wie Gesundheitswesen, Finanzen oder öffentlicher Verwaltung macht.

Für Entwickler und Forscher: Die vollständige Offenlegung des Modells ermöglicht tiefgreifende Anpassungen, Experimente und Weiterentwicklungen, die mit proprietären Systemen nicht möglich wären.

Für mehrsprachige Märkte: Mit seiner beeindruckenden Unterstützung für über 1.000 Sprachen, darunter viele europäische Dialekte, ist Apertus besonders wertvoll für Unternehmen, die mehrsprachige Märkte bedienen.

Share this article:

Related Articles