Red Hat Summit 2024

Vom 06.05 bis zum 09.05 fand die Red Hat Summit in Denver statt. Die Konferenz drehte sich wieder um aktuelle Entwicklungen und Ankündigungen aus den eigenen Reihen. Ca. 6000 Teilnehmende besuchten das Event in Colorado.

Hinweis

Anlässlich der Red Hat Summit 2024 wurde im FOCUS ON: Linux-Podcast ein zweiteiliges Special veröffentlicht. Neben einem Wrap-Up gibt es auch wieder zahlreiche Interviews mit Expert:innen.

Location

Das Event fand im knapp 20 Hektar großen Colorado Convention Center statt - die Anzahl der angebotenen Hands-On-Labs, Vorträge und Workshops stieg auf 485 an. Gegenüber letztem Jahr war es noch leichter sich zu verlaufen - die angebotene Red Hat Event Guide-App war zwingend notwendig, um sich zurechtzufinden. Besucher:innen waren gut damit beraten, gewünschte Vorträge vorab im Zeitplan zu reservieren - Vortragsräume und Wartelisten waren schnell erschöpft. Im Ausstellungsbereich gab es neben Community-Ständen (u.a. Ansible, CentOS, Fedora) auch zahlreiche Hersteller, die Fragen beantworteten und ebenfalls neue Produkte vorstellten.

Verschiedene Giveaways

An einem der zahlreichen Red Hat-Stände konnten Mützen individuell mit Produktlogos gestaltet werden, das Red Hat Videoteam hatte ein vollwertiges Aufnahmestudio für Interviews und Demos. Auch gab es wieder Signierstunden für Fachbücher. Neben unzähligen Stickern und anderen Giveaways gab es diesmal auch zwei Pickleball-Spielfelder für die sportliche Betätigung. Als weitere Abwechslung stand ein Hunde-Streichelzoo zur Verfügung - prinzipiell eine schöne Idee, aber leider wussten nicht alle Besuchende mit den Tieren auch respektvoll umzugehen.

Unterhaltsam war auch ein Escape Room, in dem es - zu meinem Verwundern - nicht darum ging, den Editor vim zu verlassen. Viel mehr wurden hier gängige Elemente von Exit Rooms in den Red Hat-Kontext gerückt. Unsere Gruppe hat die Zeitvorgabe leider knapp verfehlt.

Funfact

Die Big Blue Bear-Statur "I See What You Mean" vor dem Colorado Conference Center stammt von Lawrence Argent, ist 12 Meter hoch und wiegt 5 Tonnen. Sie spielt auf das Wildleben in unmittelbarer Nähe an und greift eine Lokalnachricht auf, in welcher ein Bär durch das Fenster eines Wohnhauses spähte.

Keynotes

Wie auch im letzten Jahr drehte sich die Konferenz vor allem um AI ✨🚀. Das Thema scheint branchenübergreifend ein Dauerbrenner zu sein und muss, so meine Beobachtung, in aktuellen Tools eingebaut werden - auch wenn es nicht immer einen konkreten Nutzen verspricht.

Matt Hicks (President and CEO, Red Hat) setzte gleich in der ersten Keynote "Unleashing the Power of Hybrid Cloud and AI" das Konferenz-Motto. Künstliche Intelligenz bewege sich inzwischen auf einem Niveau, auf welchem Standard-Hardware statt exotischer Hardware ausreicht, um KI-Modelle zu konsumieren und zu trainieren. Nachdem Meta als erstes Unternehmen quelloffene KI-Modelle anbot, kooperierten IBM und Red Hat, um die Granite-Modellfamilie unter der freien Apache-Lizenz anzubieten. Während die Modelle Mistral und Llama 2 aber schwer zugänglich sind, plant Red Hat das Training von Modellen radikal zu vereinfachen. Hierzu wurde das InstructLab-Projekt vorgestellt, auf welches ich gleich noch näher eingehe.

Abschließend fasste Hicks zusammen, KI sei - auch wenn immer noch einige skeptisch sind - eine Technik, die gekommen sei um zu bleiben. Und in diesem Fall müsse eine quelloffene Lösung immer einer proprietären vorgezogen werden.

In der zweiten Keynote "Optimizing IT Infrastructure for the AI Era" wurde mit RHEL Lightspeed ein in Entwicklung befindlicher Chatbot für die hauseigene Linux-Distribution angeteasert. Dieser soll sowohl für Neulinge als auch Expert:innen gleichermaßen nützlich sein. In Alltagssituationen angewendet, soll dieser nützliche Tipps liefern und auch komplexe Fragen beantworten können. Wie die Implementation schlussendlich aussehen kann wurde offen gelassen - ich persönlich denke hier an ein Zusatzfeature für Red Hat Insights.

In den AnsibleFest-Keynotes "Automation, AI, and the next enterprise IT revolution" und "Adopting a mission-critical automation mindset" wurde erneut über Ansible Lightspeed berichtet, welches letztes Jahr erstmalig vorgestellt wurde. Innerhalb eines Jahres wurde das Modell aufgewertet, sodass dieses nun auch vollständige Playbooks statt einzelner Tasks generieren kann.

Es wurde ein Chatbot-Interface demonstriert, welches aus einer Beschreibung mehrere Tasks vorschlug und diese dann in einer Entwicklungsumgebung einfügte. Ebenfalls neu ist die Funktionalität bereits existierenden Code zu erklären - insbesondere Neulingen dürfte diese Funktion den Einstieg erleichtern. Das Training wurde auf Basis von validierten Partnerinhalten aus dem Red Hat Automation Hub und Ansible Galaxy-Inhalten mit hohem Qualitätsranking durchgeführt.

In einer weiteren Keynote wurde eine vollautomatische Fehlerbehebung in einem fiktiven Versicherungsunternehmen demonstriert. Hier kamen Event-driven Ansible und Ansible Lightspeed zum Einsatz, um Windows Eventlog-Fehler (ein subtiler Seitenhieb? 😼) zu analysieren und potentielle Gegenmaßnahmen in Code zu verwandeln. Dieser Code wurde anschließend automatisch mittels Git-Versionskontrolle eingebunden und ausgeführt. Technisch sicherlich beeindruckend, aber meiner Meinung nach in Produktionsumgebungen gänzlich unvorstellbar.

In Summe fand ich die Keynotes im Vergleich zu letztem Jahr weniger technisch und deutlich oberflächlicher. Die einzige Ausnahme stellte die Live-Demo von InstructLab und Podman AI Lab dar, in der ein KI-Modell lokal mit wenigen Kniffen angepasst und anschließend auf einen OpenShift-Cluster übertragen wurde. Es bleibt abzuwarten, ob der KI-Hypetrain nächstes Jahr abflacht.

InstructLab

Medial bekam InstructLab (Large-scale alignment for Chatbots) die größte Aufmerksamkeit. Hierbei handelt es um ein Community-Projekt, das die Benutzung und Anpassung von generativen KI-Modellen (Gen AI) stark vereinfachen soll. Hat man diese Aufgaben bisher vor allem Data-Scientist:innen und KI-Entwickler:innen zugeschrieben, sollen diese in Zukunft auch Entwickler:innen mit weniger Vorwissen ausführen können.

Was ist Gen AI?

Gen AI beschreibt KI-Modelle, die als Antwort auf einen Prompt ("Schreibe mir ein Hello World in Python") individuelle Inhalte wie Quellcode, Texte oder Bilder generieren können.

Basis gängiger Gen AI-Lösungen ist der Einsatz sogenannter Large Language Models (LLMs) - also leistungsfähiger Sprachmodelle, die in der Lage sind menschliche Sprache zu verstehen und zu generieren. Vertreter wie openAI GPT-3 sind so beispielsweise in der Lage den Inhalt komplexer Texte zu verstehen und zusammenzufassen.

Derzeit besteht das Projekt aus einer Kommandozeilen-Anwendung, welches das Erweitern vordefinierter Modelle anhand simpler YAML-Dokumente, in welchen sogenannte Taxonomien und Skills definiert werden, ermöglicht. InstructLab ist dabei kompatibel zum Platzhirsch openAI und unterstützt den Import eigener Modelle im GGUF-Format. Zahlreiche Beispiele sollen den Einstieg erleichtern.

Podman AI Lab erweitert Podman Desktop um die Funktionalität LLMs lokal zu entwickeln und auszuführen - unter Linux, macOS und Windows.

Mit RHEL AI wurde RHEL-Variante vorgestellt, die speziell für die Entwicklung und Benutzung von Gen AI-Modellen optimiert wurde. Diese kann sowohl auf herkömmlicher PC-Hardware, als auch auf Edge-Geräten und vollwertigen OpenShift-Clustern ausgeführt werden.

Ansible Automation Platform 2.5

Sehr gespannt blicke ich auf die nächste Ansible Automation Platform (AAP)-Version 2.5 im kommenden Juli entgegen. Diese kommt mit einer stark verbesserten UX - wobei das Highlight eine modulare zentrale Web-Oberfläche sein dürfte. Diese vereint die bisher dedizierte Oberflächen des Automation Controllers, Private Automation Hubs und des Event-driven Ansible Controllers. Hierfür wurde ein Gateway-Service entwickelt, welcher die tatsächlich verwendeten Komponenten erkennt und entsprechend in der Navigation einblendet. AAP kann beliebig übersichtlich oder komplex implementiert werden und eine einheitliche Web-Oberfläche ist eine Verbesserung, auf die ich schon länger gewartet habe. Die Entwicklung entstand aus konkretem User-Feedback - ein Upgrade von Version 2.4 wird möglich sein.

Als weitere Verbesserung variiert die Ansicht je nach Rolle des angemeldeten Users. Der Fokus der angezeigten Elemente unterscheidet sich zwischen der Admin-, Developer- und Operator-Rolle. Ebenso wird die Ansicht hinsichtlich einiger Parameter (u.a. Theme, Zeit und automatischer Refresh der angezeigten Informationen) anpassbar sein. Neu ist auch ein mehrfach gewünschter Dark Mode. In einem Gespräch mit einem der Entwickler:innen konnte ich mir den aktuellen Stand selbst anschauen. Das Konzept weiß zu überzeugen und ich freue mich schon darauf, die neue Version selbst zu benutzen.

Als Randnotiz wurde angemerkt, dass neue AAP-Versionen zukünftig nur noch jährlich erscheinen sollen um den Wartungsaufwand zu reduzieren. Eine vernünftige Entscheidung, wie ich finde, da das Aktualisieren komplexer Umgebungen mitunter viel Zeit beanspruchen kann.

Ein weiteres Highlight war die Vorschau auf ein neues Feature namens Automated Policy as Code. Dieses soll die Workflow-Ausführung innerhalb von AAP an weitere Bedingungen knüpfen, um die Einhaltungen von Richtlinien zu gewähren. Hierbei ist jedoch nicht notwendigerweise von Security die Rede, wie drei Beispiele einer Keynote zeigten.

Hier wurden sogenannte Policybooks definiert, die Playbooks hinsichtlich ihrer Ausführungszeit, verwendeten Collections oder Rollen-Parameter überprüften - etwa, um validierten Code sicherzustellen oder Cloud-Kosten zu reduzieren.

Ansible-Entwicklungswerkzeuge

Neuigkeiten gab es auch hinsichtlich der Entwicklungswerkzeuge. So habe ich mit ansible-creator ein Framework zur einfacheren Erstellung von Ansible-Inhalten kernnengelernt. Dieses bietet umfangreiche Vorlagen für Collections, Playbooks, CI/CD-Pipelines und Unittests.

Mit den Ansible Development Tools gibt es ein Python-Metapaket, welches alle Entwicklungswerkzeuge und benötigte Abhängigkeiten installiert. Dabei erfolgt die Versionierung auf Basis des aktuellen Datums, um veraltete Installationen schnell zu identifizieren.

ansible-lint, das Werkzeug für statische Ansible Code-Analyse, wurde um den Parameter --fix erweitert und kann so einige übliche Fehler automatisch korrigieren. Eine neue Version des ansible-builder erlaubt die einfachere Erstellung von Execution Environments für AAP oder das Upstream AWX.

Mit community-ansible-dev-tools wurde ein Container-Image vorgestellt, welches auf Fedora basiert und alle Ansible-Entwicklungswerkzeuge enthält. Eine optionale Visual Studio Code-Integration erlaubt eine einfache Entwicklung von Ansible-Inhalten ohne mühsame Konfiguration von Werkzeugen. Das dürfte vor allem für Immutable Linux-Distributionen, wie z.B. Fedora Silverblue interessant sein.

Im GitHub-Marketplace gibt es mit ansible-content-actions eine vorgefertigte CI/CD-Entwicklungspipeline. Diese kann Code automatisch testen sowie Changelogs und Release Notes erstellen. In Kombination mit auf Ansible Galaxy verknüpften Repositories dürfte das sehr nützlich sein.

Image Mode for RHEL

Ein weiteres Highlight war für mich eine die angekündigte Installationsvariante Image Mode for RHEL. Gegenüber konventionellen Installationen mit RPM-Repositories kommen hier Technologien zum Einsatz, die bereits in der Software-Entwicklung verwendet werden. So können vollständige Installationen auf Basis eines Containerfiles vorgenommen werden - beispielsweise über eine CI/CD-Pipeline. Für die Systemkonfiguration werden keine dedizierten Werkzeuge, wie beispielsweise Red Hat Satellite oder Ansible, mehr benötigt.

Zentrale Komponente dieses Ansatzes ist das bootc-Werkzeug, welches konventionelle OCI-Container, wie sie von Docker und Podman verwendet werden, auf Standard-Hardware und -Dateisystemen (XFS, ext4) booten und aktualisieren kann. Großer Unterschied zu herkömmlichen Containern ist hier jedoch, dass ein Kernel im Abbild enthalten sein muss.

Herkömmliche RPM-Pakete lassen sich nicht installieren, einige Kernkomponenten werden via OSTree installiert - für weitere Anforderungen können OCI-Images eingesetzt werden. Updates benötigen folglich konzeptionell einen Reboot und werden als neue Version im GRUB-Bootloader angezeigt. Das ist ein Feature, das NixOS-Usern bekannt vorkommen dürfte. Generell diente NixOS als eine der Inspirationsquellen, wie ein Interview ergeben hat und auch einige bootc-Kommandos vermuten lassen:

1# bootc status
2# bootc switch
3# bootc upgrade
4# bootc rollback

Mit Project Bluefin gibt es eine an Entwickler:innen gerichtete Linux-Workstation, die den gleichen technischen Unterbau nutzt. Hier wird der GNOME-Desktop mit Flathub, GPU-Treibern und nützlichen OCI-Imagen kombiniert. Es existieren fertige ISO-Abbilder für x86-Computer, eine Version für Apple-Hardware ist in Arbeit.

Beide Tools gelten als Technical Preview und sollten daher noch nicht in der Produktion eingesetzt werden.

Fedora ELN und CentOS Stream 10

Sehr spannend war auch der Vortrag "What's Next in Fedora's Innovation Pipeline" von Stephan Gallagher (Principal Software Engineer, Red Hat) und Davide Cavalca (Production Engineer, Meta). In diesem wurde thematisiert, dass Fedora primär für Innovation stünde, während RHEL für Stabilität eingesetzt werde. Es wurde Einblick in den RHEL-Releaseprozess gewährt, bei welchem experimentelle Features und einige Abhängigkeiten von Fedora entfernt werden müssen. Auch gilt es, Pakete zwischen den BaseOS-, AppStream- und CRB-Repositories aufzuteilen.

CentOS Stream dient hier als Zwischenstufe zwischen Fedora und RHEL - während der Lebenszeit eines RHEL-Releases gilt es als Entwicklungsversion der nächsten Minor-Version. Bevor sich diese Vorgehensweise etabliert hatte - beispielsweise beim RHEL 9-Release - benötigte ein dediziertes Entwicklungsteam 9 Monate, um den Fedora-Code zu portieren.

Dieses Vorhaben wurde als zu zeitintensiv und komplex bewertet, da Red Hat angibt, alle 3 Jahre neue Hauptversionen zu veröffentlichen. Abhilfe schafft hier der Einsatz von Fedora ELN, welches den RHEL-Entwicklungsprozess auf der Fedora Rawhide-Codebasis emuliert. Rawhide bezeichnet die aktuelle Fedora-Entwicklungsversion und beinhaltet brandaktuelle Pakete. Durch diese Vorgehenweise können Auswirkungen, beispielsweise durch Bugs oder neue Anforderungen an die CPU-Architektur, für spätere RHEL-Versionen schon früh erkannt werden. Kürzlich wurde Fedora 40 veröffentlicht, welches die Basis für das kommende RHEL 10 bildet. Der Aufwand der Code-Migration durch die neue Vorgehensweise wurde mit nur einem Monat angegeben.

Meta nutzt CentOS Stream in der Produktion und Fedora ELN in der Entwicklungsumgebung, um das Aktualisieren auf neue Hauptversionen so schmerzfrei wie möglich zu gestalten. Hierfür werden CI/CD-Pipelines eingesetzt und Updates automatisiert in der Testumgebung installiert, um Auswirkungen früh zu testen. Es wird auch geplant, CentOS Stream 10 produktiv vor Ende 2024 einzusetzen.

Ich fand den Vortrag unter anderem deswegen interessant, weil er gezeigt hat, dass CentOS Stream in der Produktion eingesetzt werden kann. Neben Meta setzt auch das CERN die Distribution im großen Stil ein. Im deutschsprachigen Raum hält sich bei vielen Kund:innen vehement der Mythos, dass diese Distribution instabil sei - erfrischend zu sehen, dass dies nicht der Fall ist.

Networking

Den meisten Spaß hatte ich wieder daran, Menschen zu treffen, die man sonst nicht so leicht treffen kann. So hatte ich die Gelegenheit mit Neal Gompa und Leonardo Gallego (Ansible Catalyst and Technical Marketing Manager, Red Hat) zu sprechen, nachdem sich unsere Wege schon im Internet gekreuzt haben. 😀

In der Red Hat Event Guide-App konnten Kontaktdaten über die auf den Teilnahmebadges aufgedruckten QR-Codes ausgetauscht werden und auch auf Social-Media fand ein Austausch über die Hashtags #RedHatSummit und #RHSummit statt.

Sehr erfreut hat mich, dass wir wieder mit einigen Expert:innen Interviews führen konnten. So haben wir mit Craig Brandt (Senior Principal Product Manager Ansible, Red Hat) über die Ansible Automation Platform 2.5 gesprochen, während uns Eric Hendricks (Technical Product Marketing Manager, Red Hat) seine Einschätzung zu RHEL Lightspeed gegeben hat. Mit Matthew Miller (Fedora-Projektleiter und Distinguished Engineer, Red Hat) haben wir über die aktuellen Entwicklungen des Fedora-Projekts gesprochen. Details zum Image Mode for RHEL haben wir von Stef Walter (Senior Director Linux Engineering, Red Hat) erfahren. Sehr schön war auch der Austausch zum Pflegen von Communities mit Carol Chen (Open Source Community Architect, Red Hat).

Abseits der Konferenz

Wenn es die Zeit zulässt, ist es empfehlenswert, die Stadt zu erkunden. Denver war einst eine Goldgräbermetropole und ist die Hauptstadt und bevölkerungsreichste Stadt Colorados. In unmittelbarer Nähe der Rocky Mountains gelegen gibt es zahlreiche Outdoor-Aktivitäten. Kulturell bietet die Stadt neben dem beeindruckenden Denver Art Museum gleich mehrere Theater und eine Oper.

Mit dem Red Rocks Park gibt es einen beeindruckenden Sandstein-Gebirgspark inklusive Amphitheater. In der Nähe befindet sich der Dinosaur Ridge Trail - eine der weltweit bedeutendsten Dinosaurier-Fossilfundstellen, an der gut erhaltene Spuren begutachtet werden können. Der Rocky Mountain National Park bietet einen atemberaubenden Ausblick - ein absolutes Highlight!

Fazit

Mir hat die Konferenz wieder viel Spaß gemacht - insbesondere der Austausch mit anderen Teilnehmenden sowie Community-Membern hatte einen absoluten Mehrwert für mich.

Ich persönlich habe mir mehr Themenvielfalt abseits des KI-Trends gewünscht - erachte die InstructLab-Ankündigung und erweiterten Ansible Lightspeed-Funktionen aber als wichtig. Den Image Mode for RHEL finde ich technologisch spannend und freue mich schon darauf, diesen auszuprobieren. Nicht weniger gespannt blicke ich der neuen AAP-Version entgegen und bin auch auf das erste CentOS Stream 10-Release gespannt. In Summe gab es also genügend spannende Neuigkeiten. Etwas schade finde ich, dass es keine Ankündigungen bezüglich Red Hat Satellite gab. Die aktuelle Version 6.15 wurde vor kurzem veröffentlicht - hier hätte mich ein Ausblick auf kommende Funktionen interessiert.

Ich bin auf die nächste Veranstaltung gespannt - Red Hat kündigte bereits an, dass diese dann in Orlando stattfinden wird.

Übersetzungen: