KI ist in aller Munde. Verständnis leider nicht.

Auslöser für diesen Text war ein Zufallsfund: Ein Humble Bundle mit zwölf O'Reilly-Büchern zu Machine Learning und Generative AI. Günstig, gut zusammengestellt, gemeinnützig unterstützt. Aber eigentlich geht es um etwas anderes.

Pandolin steht vor einem Buchladen und zeigt begeistert auf einen Stapel KI-Fachliteratur mit einem BIG SALE-Schild.
Manchmal stolpert man über die richtigen Bücher zur richtigen Zeit.

Warum Wissensaufbau (wie immer) der eigentliche Wettbewerbsvorteil ist und warum dieser Glücksfall gerade erstaunlich günstig zu haben ist.


Man kommt dieser Tage kaum an einem Meeting, einem LinkedIn-Post oder einer Pressemitteilung vorbei, ohne das Wort „KI“ mindestens dreimal zu lesen. KI ist transformativ! sagen sie. KI verändert alles! und alle nicken. KI ist gekommen, um zu bleiben! sagt das Marketing.

Das stimmt alles. Und ich bin auch der Meinung, dass wir noch nicht einmal an der Oberfläche gekratzt haben. Um euch vielleicht ein bisschen Vorfreude geben, nächste Woche werde ich speziell zu dem Thema KI und Mensch einen Artikel veröffentlichen.

Und ändert nichts daran, dass erstaunlich viele Menschen, die sehr laut über KI reden, die Grundlagen dahinter kaum erklären könnten, streckenweise bemerkenswert wenig Ahnung haben und nur Phrasen wiederholen. Was ein Transformer ist. Warum ein Sprachmodell halluziniert. Worin der Unterschied zwischen einem Basismodell, einem feinabgestimmten Modell und einer API liegt. Was Embeddings eigentlich tun. Warum RAG nicht einfach ein schicker neuer Name für „Suchfunktion plus LLM“ ist. Oder was es konkret bedeutet, ein Modell selbst zu betreiben, statt es bloß bei irgendeinem Anbieter einzukaufen. Und das ist wirklich spannend. Kaum jemand macht sich die Hände schmutzig. Aus Mangel an Skills.

Das ist kein moralischer Vorwurf. Es ist meine nüchterne Beobachtung.
Und es ist eine großartige Chance.

Genau in dieser Lücke entscheidet sich gerade, wer in ein paar Jahren souverän an KI, mit KI arbeiten wird und wer lediglich der nächste austauschbare Wiederverkäufer von Buzzwords einiger Hersteller bleibt.


Das eigentliche Problem: KI-Kompetenz wird mit KI-Konsum verwechselt

Im Moment passiert an vielen Stellen etwas, das man fast schon bewundern müsste, wenn es nicht so demprimierend und unerquicklich wäre: Eine ganze Schicht von KI-Betriebsamkeit erzeugt den Eindruck von Kompetenz, obwohl oft nur Werkzeuge bedient werden, deren innere Funktionsweise man nicht versteht. Oder ein bisschen wie die Kulissen aus einem Hollywood-Western. Aussen schick, aber nichts dahinter, kein Tiefgang.

Pandolin steht skeptisch mit verschränkten Armen vor einer verlassenen Hollywood-Western-Kulisse mit einem AI-Schild.
Schick von vorne. Nichts dahinter.

Da werden ein paar Services zusammengesteckt, eine API angebunden, ein Framework darübergelegt, ein Agentendemo-Workflow zusammengeklickt, und schon klingt das in der Präsentation nach „transformative AI strategy“.
"Wie können Generative AI" oder "Darf ich ihnen mal was über Agentic AI erzählen?" Ein bisschen Orchestrierung hier, ein bisschen Vektorstore dort, etwas LangChain oder ein anderer Kleber dazwischen fertig ist das Gebilde, das auf Folien nach resilienter Planung für die Zukunft aussieht.

Nur ist es eben häufig kein Fundament, sondern nicht mal ein richtiger Prototyp. Nur ist geliehene Komplexität ohne Resilienz. Ohne Fallbacks und inhärente Konsistenz.

Und geliehene Komplexität hat die unangenehme Eigenschaft, genau so lange bequem zu wirken, bis Preise steigen, das erste Modell ausgetauscht wird, ein Anbieter einen einzigen Aufruf in seiner API ändert, Compliance-Fragen auftauchen (und wenn sie das nicht tun, dann stellt sie euch selber), die Latenz unerträglich wird oder plötzlich jemand wissen möchte, warum die Qualität der Antworten so stark schwankt, Halluzinationen lassen grüßen.

Spätestens an diesem Punkt trennt sich Bedienkompetenz von Verstehen, der Bastler vom Profi, der "Cloud-Architekten" vom wirklichen Systemingenieur.

Wer dann nicht erklären kann, was unter der Haube passiert, hat kein System gebaut. Er hat Abhängigkeiten arrangiert. Oder, wenn wir bei einem alten Bild bleiben wollen: eher Lego Duplo als Fischertechnik.


Das strukturelle Problem: Managed Services sind kein Fundament


Die IT-Welt hat sich in den letzten Jahren daran gewöhnt, Komplexität wegzuabstrahieren. Das war in den ersten Jahren der Legacy-Cloud-Services oft sinnvoll. Cloud-Dienste haben enorm viel beschleunigt. Infrastruktur, die früher unerschwinglich teuer war, wurde verfügbar, ohne dass jeder alles selbst bauen musste.

Irgendwann aber wurde Geschwindigkeit wichtiger als Tiefgang. Auch das kann in bestimmten Phasen richtig sein. Heute merken wir, was uns diese Bequemlichkeit gekostet hat. Seit ein oder zwei Jahren schauen viele aus gegebenen politischen Anlass richtigerweise wieder etwas kritischer hin um plötzlich erschrocken festzustellen, dass unterwegs eine Menge Kompetenz verloren gegangen ist. Spezialisten sind in den Ruhestand gegangen, wurden nicht nachbesetzt, und zu oft blieb am Ende nur noch die Fähigkeit übrig, Baukästen zusammenzustecken.

Heute lassen sich beeindruckend klingende KI-Architekturen bauen, ohne dass man die zugrunde liegenden Mechanismen wirklich verstanden haben muss. Ein Modell wird konsumiert, ein Speicher ergänzt, ein paar Datenquellen angebunden, ein Framework orchestriert den Rest, und das Resultat wird als Innovation oder Intellectual Property verkauft.

Das funktioniert super. Bis es nicht mehr funktioniert. Dann wird es ... hektisch.

Wer nicht versteht, wie ein Embedding erzeugt wird, was Retrieval-Augmented Generation tatsächlich leistet, warum Prompting allein keine Magie ist, wie sich Quantisierung auf Qualität und Geschwindigkeit auswirkt, wann Fine-Tuning sinnvoll ist und wann eben nicht, der bleibt maximal abhängig. Abhängig vom Anbieter, abhängig von Preislisten, abhängig vom nächsten größeren Breaking Change, aber vor allem abhängig von Black Boxes, die man zwar benutzen, aber nicht beurteilen kann, geschweige denn wirklich versteht.

Und bevor jetzt der übliche Reflex einsetzt: Natürlich gibt es faire und transparente Anbieter. Anthropic ist so ein Fall. Mistral ebenfalls. Das Problem sind nicht die Anbieter, sondern Anwender, die Bequemlichkeit und Geschwindigkeit über Verständnis stellen.

Denn genau da beginnt das Elend. Ohne Verständnis gibt es keine Urteilskraft. Ohne Urteilskraft gibt es keine belastbare Architekturentscheidung. Und ohne belastbare Architekturentscheidung gibt es am Ende auch keine digitale Souveränität, sondern nur die etwas modernere, bequemere Form des Vendor Lock-in, diesmal eben als "irgendwas mit KI".

Und ich muss mich selber korrigieren. Früher habe ich immer gesagt: Souveränität fängt bei der Infrastruktur an. Das war und ist immer noch nicht falsch, nur etwas zu kurz gedacht. Souveränität fängt tatsächlich viel früher an: mit Verständnis.


Die unbequeme Wahrheit: Wer nur zusammenstöpselt, bleibt austauschbar

Man muss das so deutlich sagen, weil es derzeit erstaunlich oft übertüncht wird: Wer KI nur aus vorgefertigten Modulen zusammensetzt, ohne die Mechanik dahinter zu verstehen, arbeitet nicht ansatzweise souverän. Er konsumiert Werkzeuge und Plattformen.

Das kann für einen schnellen, mitunter sogar ziemlich guten Prototypen reichen. Das kann für die nächste Management-Demo oder den nächsten Sales-Pitch reichen. Das kann sogar kurzfristig geschäftlich funktionieren. Verkaufen lässt sich sowas allemal. Als Produkt und/oder als Kompetenz.

Aber es ist kein belastbares Können. Die eigentliche Leistung liegt nicht darin, drei Baukästen korrekt zu verkabeln. Die eigentliche Leistung liegt darin, zu verstehen, welches Problem man lösen will, welches Modell dafür taugt, welche Architektur tragfähig ist, welche Daten wohin dürfen, welche Qualitätsgrenzen das System hat, wie Ergebnisse überprüfbar werden und an welcher Stelle man sich gerade einem Anbieter ausliefert, weil man den technischen Kern gar nicht mehr selbst beurteilen kann.

Das ist der Unterschied zwischen echter Kompetenz und herstellerdekorierter Abhängigkeit.

Und ja, das klingt mit Sicherheit schärfer, als manche es gern hätten. Vermutlich bringt mir auch das wieder nicht nur Freunde ein :-) Aber wir reden hier längst nicht mehr über Geschmacksfragen. Wir reden über die Grundlage unserer eigenen zukünftigen Handlungsfähigkeit.

Die nächste Generation digitaler Abhängigkeit kommt nicht mit Ketten, klassischen 88-seitigen Lizenzverträgen und auch nicht mit einem dramatischen Warnhinweis bei der Installation eines Tools. Sie kommt als sehr komfortabler Managed Service mit perfekter Dokumentation, millonenschwerer Vermarktung und dem SLA-basierten Versprechen, dass man sich um die Details nicht kümmern müsse.

Genau deshalb muss man sich um die Details kümmern und wieder lernen, sie zu verstehen.


Was wirkliches Verstehen bedeutet


Es geht ausdrücklich nicht darum, dass jetzt jeder ein eigenes Foundation Model trainieren müsste. Das ist für die allermeisten weder realistisch noch wirtschaftlich sinnvoll. Es geht auch nicht darum, aus jeder KI-Frage eine dogmatische Selbsthoster-Moralpredigt zu machen.

Es geht um etwas viel Nüchterneres und zugleich viel Wertvolleres: zu verstehen, wie diese Systeme funktionieren und daraus die richtigen Schlüsse zu ziehen. Also zu wissen, welche Aufgaben sich lokal lösen lassen, ohne sensible Daten in irgendeine Cloud zu schieben, welche Modelle für welche Aufgaben taugen und welche schlicht falsch gewählt sind, wann Inferenz reicht, wann RAG wirklich sinnvoll ist und wann nur zusätzliche Komplexität auf ein Problem geworfen wird, das in Wahrheit sauberere Daten oder bessere Prozesse bräuchte. Dazu gehört auch die Frage, wie man Anwendungen so baut, dass sie nicht an genau einem Hyperscaler, genau einem Modellanbieter und genau einem Preismodell hängen, was es technisch, organisatorisch und wirtschaftlich bedeutet, ein Modell etwa mit Ollama selbst zu betreiben, wann Quantisierung hilfreich ist und wann sie Qualität ruiniert, welche Latenz akzeptabel ist, welche Halluzinationsrate tragbar und welche Datenflüsse überhaupt vertretbar sind.

Und dann ist da noch der Teil, über den gerade auffallend ungern gesprochen wird: Bei geschlossenen Modellen sehen wir eben nicht sauber, wie sie trainiert, gewichtet, feinjustiert oder durch nachgelagerte Regeln eingefasst wurden. Als Anwender in der Europäischen Union können wir oft nicht einmal sicher sagen, ob wir tatsächlich dasselbe Modell mit denselben Leitplanken bekommen wie Nutzer in den Vereinigten Staaten. Und in einer Zeit, in der Technologiepolitik wieder offener als Machtinstrument betrieben wird, ist das keine Nebensache. Wenn Anbieter auf politischen Druck, Exportvorgaben oder regionale Regulierungslogiken reagieren müssen, dann kann aus einem Modell sehr schnell auch ein regional gefiltertes Modell werden, ohne dass der Nutzer das sauber beurteilen kann. Genau deshalb ist Transparenz hier keine Formalie, sondern Teil jeder ernstzunehmenden Souveränitäts- und Architekturentscheidung.

Das alles ist keine wegzuwinkende Nebensache, das ist das Fundament.

PyTorch läuft lokal, ebenso Ollama. Hugging Face-Modelle lassen sich lokal mit echt wenig Aufwand evaluieren. LangChain, LlamaIndex und ähnliche Werkzeuge sprechen nicht nur mit Cloud-Diensten, sondern auch mit lokalen Modellen, ich habe das selber getestet. Vektordatenbanken lassen sich selbst betreiben (freut euch auf meinen Safe Harbor-Artikel nächste Woche) . GPU-gestützte Inferenz ist heute nicht mehr exotisch, sondern für viele Szenarien mit machbarem finanziellen Aufwand praktisch erreichbar. Die Werkzeuge für souveräne KI existieren längst. Auch als Open Source.

Was oft fehlt, ist nicht der Zugang zu Technik. Was fehlt, ist das Fundament, um diese Technik sinnvoll, unabhängig und verantwortungsvoll einzusetzen. Und dieses Fundament kann euch kein Hersteller abnehmen. Nicht aus Bosheit, sondern weil seine Interessen naturgemäß andere sind.


Digitale Souveränität in der KI ist zuerst eine Kompetenzfrage

Das ist vielleicht der entscheidende Punkt dieses ganzen Textes: Digitale Souveränität in der KI beginnt nicht erst beim eigenen Rechenzentrum, nicht bei der Frage „Cloud oder On-Prem?“ und auch nicht erst bei der Wahl des Modells.

Sie beginnt deutlich früher. Sie beginnt bei der Fähigkeit, zu verstehen, was genau man da eigentlich benutzt.

Wer nicht erklären kann, wie ein Sprachmodell zu Antworten kommt, warum es Halluzinationen gibt, wie Kontextfenster funktionieren oder was sie überhaupt sind, was Embeddings leisten, wie Retrieval arbeitet, wie Tokenisierung das Verhalten beeinflusst oder welche Grenzen ein Modell systematisch hat, der betreibt keine souveräne KI, der konsumiert ein Produkt.

Das mag für manche Rollen eine Zeit lang reichen. Es ist aber definitiv kein tragfähiger Zustand für Unternehmen, die ihre Daten, Prozesse, Wertschöpfung und Entscheidungen nicht vollständig an Black-Box-Anbieter auslagern wollen.

Ich sage das nicht als Theoretiker. Ich betreibe seit Monaten einen hybriden Cloud-OnPrem KI-Stack auf meinem Homelab. Lokale Modelle auf eigener Hardware, Cloud-KI-Instanzen mit persistentem Gedächtnis, eine Infrastruktur die mir gehört und die kein Anbieter einfach vollständig abschalten kann. Was man dabei lernt ist ernüchternd und befreiend zugleich: Wer nicht versteht was unter der Haube passiert, baut keine souveräne KI. Er arrangiert Abhängigkeiten. Mehr dazu nächste Woche.

Wissensaufbau zu dem Thema ist deshalb kein akademischer Luxus oder gar ein Nerd-Hobby. Kein "netter Zusatz" für Leute, die abends freiwillig Handbücher lesen.

KI-Wissensaufbau ist die Voraussetzung dafür, sich aus der nächsten Welle technischer Abhängigkeit nicht einfach selig lächelnd wieder einsammeln zu lassen. Und das sollte für uns keine überraschende Erkenntnis sein.


Der Markt belohnt gerade noch Lautstärke. Später wird er Verständnis belohnen.

Im Moment ist viel Goldgräberstimmung im Spiel. Das ist normal, jeder hat Angst den diffusen Anschluss zu verlieren. Neue Technologien erzeugen diesen Effekt fast immer. Wer am lautesten spricht, wird schnell als besonders kompetent wahrgenommen, egal ob er kompetent ist oder nicht, wer die meisten Buzzwords jongliert, wirkt modern, wer besonders viele „Agenten“, „Copilots“ und „AI-first“-Formulierungen in eine Folie bekommt, gilt schnell als ganz vorne. Ein sogenannter Driver. Die Hersteller belohnen so etwas.

Aber Märkte werden irgendwann (und das irgendwann beginnt gerade jetzt) unangenehm konkret.

Plötzlich geht nicht mehr um Schlagworte, sondern um Kosten, Qualität, Governance, Datenschutz, Betrieb, Wartbarkeit, Portabilität und Haftung. Dann reicht heute nicht mehr, was gestern auf einer Demo glänzt. Dann muss es reproduzierbar stabil funktionieren. Dann muss man seine Entscheidungen begründen können, erklären können, warum man welches Modell wo einsetzt. Alternativ- und Exit-Szenarien sind kein Luxus sondern ein Must-Have. Dann erkennt man nämlich auch , ob man gerade transparente Architektur baut oder nur Convenience einkauft.

Und genau dort kippt der Vorteil. Wer heute versteht, richtig versteht, in der Tiefe, baut morgen tragfähiger. Wer heute nur konsumiert, wird morgen, nächste Woche, nächstes Jahr teuer überrascht. Leider ist das vielen CTO's/CIOs durchaus bewusst aber egal. Man denkt in 3 Jahres-Fenstern.

Der eigentliche Wettbewerbsvorteil für Dienstleister liegt deshalb nicht darin, möglichst früh möglichst viele KI-Logos in die eigene Architektur zu kleben. Diese sind tatsächlich fast nebensächlich.

Er liegt darin, rechtzeitig genug tiefes belastbares Verständnis aufzubauen. Denn wer urteilen kann, wird zum Partner, nicht zur Low Hanging Fruit.


Der Glücksfall: Eine kleine KI-Bibliothek für wenig Geld

Genau deshalb ist das aktuelle Humble Bundle für O’Reilly-Bücher mehr als nur ein nettes Schnäppchen. Es ist, mit ein wenig gutem Willen betrachtet, beinahe ein subventionierter Einstieg in technische Urteilskraft.

Das Paket heißt „Interfacing with Machine Learning". Zwölf Bücher, gestaffelter Preis, ein Teil des Erlöses geht an gemeinnützige Organisationen. Die Bücher sind DRM-frei! PDF und ePub, die Aktion läuft noch wenige Tage. Wer also souveräne Bibliotheken mag, ist hier doppelt richtig. (Wer das Thema DRM-freie Bücher und souveräne Lesegeräte interessiert — dazu habe ich hier bereits einen Artikel geschrieben.)

Meist sind solche Bundles ein bunter Mischkasten aus „ein paar brauchbaren Titeln, drei Lückenfüllern und zwei Büchern, die wahrscheinlich nur ins Paket gefallen sind, weil noch Platz im Karton war“. Dieses hier ist deutlich brauchbarer.

Ich habe es mir aus einer Souveränitätsperspektive angeschaut. Nicht unter der Frage „Welche Titel klingen am futuristischsten?“, sondern unter der sehr viel sinnvolleren Frage: Welche dieser Bücher helfen Menschen dabei, KI nicht nur zu benutzen, sondern zu verstehen? Ganz egozentrisch, welche davon will ich in meiner souveränen Bibliothek?

Und da wird es interessant.

Screenshot der Humble Bundle Seite: O'Reilly Bücher-Bundle "Interfacing with Machine Learning", 12 Bücher ab 4,56 Euro, DRM-frei als PDF und ePub, bereits 6.380 mal verkauft.
731,29 Euro Listenpreis. Ab 22,86 Euro im Bundle. DRM-frei. Läuft noch wenige Tage.

Besonders relevant für ein souveränes Fundament

Géron: Hands-On Machine Learning with Scikit-Learn, Keras & PyTorch

Seit Jahren wohl einer der solidesten Einstiege ins praktische Machine Learning. Kein Cloud-Zwang, kein Vendor-Korsett, kein Hochglanznebel. Stattdessen Substanz. Wer verstehen will, wie Modelle in der Praxis gebaut, trainiert, bewertet und verbessert werden, bekommt hier ein belastbares Fundament. Wirklich vendoren-neutral.

Jay Alammar / Maarten Grootendorst: Hands-On Large Language Models

Für viele (wie auch mich) vermutlich der eigentliche Schatz im Bundle. Das Buch ist genau dort stark, wo der aktuelle Markt gern schwächelt: bei der Erklärung dessen, was LLMs eigentlich tun. Nicht als Magie, nicht als Marketing, sondern als technische Systeme mit nachvollziehbaren Eigenschaften, Grenzen und Einsatzmustern. Wer über Sprachmodelle reden will, ohne bloß Werbetexte nachzusprechen, sollte hier anfangen.

Laurence Moroney: AI and Machine Learning for Coders

Praktisch, zugänglich und nicht nur für Entwickler sehr brauchbar. Vor allem aber: offen genug, um nicht in einem proprietären Käfig zu enden. PyTorch und ähnliche Werkzeuge sind keine Wolkenreligion, sondern handfeste Technik. Sie laufen lokal, nachvollziehbar und ohne dass man jedem Anbieter vorher die Datensouveränität überreichen muss.

Prompt Engineering for Generative AI

Der Titel klingt zunächst nach dem nächsten Beitrag zur großen Industrie des magischen Formulierens. Tatsächlich ist das Thema nützlicher, wenn man es richtig einordnet: Prompting ist kein Ersatz für Systemverständnis, aber ein sinnvoller Teil davon. Und vor allem ist gutes Prompting modell-agnostisch genug, um nicht an einem einzigen Anbieter zu hängen. Wer lokal mit Ollama arbeitet, profitiert davon genauso wie jemand, der APIs nutzt.

Learning LangChain

LangChain ist für manche inzwischen fast schon ein Reflex geworden: Wenn etwas mit LLMs gebaut wird, kommt eben irgendein Framework drumherum. Das kann schnell kontraproduktiv werden. Gerade deshalb ist es sinnvoll, die Werkzeuge sauber zu verstehen. LangChain spricht nicht nur mit irgendwelchen proprietären Cloud-Modellen, sondern auch mit lokalen Backends. Wer damit arbeitet, sollte es nicht als Zauberkasten behandeln, sondern als Werkzeugkasten. Das Buch kann wirklich dabei helfen.

LLM Security und Building AI Agents

Beides sind Themen, die im Überschwang der Möglichkeiten gern zu spät ernst genommen werden. Sicherheit, Robustheit, Missbrauch, Prompt Injection, Berechtigungsgrenzen, Kontrollmechanismen, Beobachtbarkeit: All das wird nicht plötzlich irrelevant, nur weil ein System „intelligent“ genannt wird. Im Gegenteil. Wer hier früh Grundlagen versteht, spart sich später teure Erkenntnismomente. Vendoren-neutral.

Nützlich, aber mit leichter Hyperscaler-Schlagseite

Generative AI Design Patterns (Lakshmanan)

Kommt erkennbar aus einer Cloud-nahen Ecke, aber das ist noch kein Ausschlusskriterium. Viele Muster sind sinnvoll und übertragbar, auch wenn die Beispiele stellenweise nach Anbieterökosystem riechen. Man sollte das Buch lesen wie ein Architekturbuch, bitte auf keinen Fall wie ein IT-Shopping-Guide.

LLMOps

Kann nützlich sein, kann aber je nach Tiefe auch in Bereiche kippen, in denen Prozesse und Plattformlogiken sehr an bestehende Cloud-Welten gekoppelt werden. Der Nutzen hängt wirklich stark vom eignen Kontext ab, also sehr selektiv zu lesen. Wer das Fundament sucht, sollte erst die Mechanik verstehen und sich dann mit dem operativen Rahmen beschäftigen, nicht andersherum. Dieses Buch hinten auf der Lese-Prio-Liste.

Solide Bücher, aber im Bundle etwas deplatziert

Die beiden Will-Larson-Bücher

Engineering Strategy und An Elegant Puzzle beziehungsweise ähnliche Larson-Titel sind überhaupt keine schlechten Bücher, ganz im Gegenteil. Für Leadership, Organisation und technische Führungsarbeit sind sie oft sehr gut, aber ... In einem Bundle mit diesem Schwerpunkt wirken sie ein wenig, als hätte jemand beim Packen noch zwei ordentliche Bücher gefunden und beschlossen, dass sie schon nicht stören werden. Tun sie auch nicht. Aber der direkte KI-Mehrwert ist begrenzt

Das heißt nicht, dass sie nutzlos wären. Nur eben: Wer das Paket wegen KI-Verständnis kauft, kauft diese beiden nicht aus demselben Grund.

andolin mit Lesebrille studiert ein technisches Buch an einem Schreibtisch, umgeben von blinkenden Servern und einer Teekanne.
Tee. Server. Bücher. So geht souveräner Wissensaufbau.

Warum gerade diese Art von Büchern wichtig ist

Es gibt im KI-Umfeld derzeit keinen Mangel an Content. Es gibt eher einen Überfluss. Blogposts, Videos, Kurse, Newsletter, Demos, Framework-Launches, Tool-Sammlungen, Meinungen mit Mikrofon und jede Menge Meinungen von "Spezialisten" ohne Fundament, daran herrscht wahrlich derzeit kein Mangel.

Wobei ... Meinungen mit Mikrofon: meine erste Podcast-Episode ist seit dieser Woche draußen. 🙂

Was knapper ist, ist strukturierter stabiler Wissensaufbau.

Bücher haben dafür einen fast altmodischen Vorteil: Sie zwingen zu Zusammenhängen, erklären nicht nur, dass etwas existiert, sondern warum. Sie setzen Konzepte in Beziehung, schaffen Begriffsdisziplin. Sie geben dem Denken eine Reihenfolge, das hilft uns beim Lernen, Zusammenhänge verankern sich besser als viele Einzelfragmente. Das springen von Medium zu Medium, von Youtube zu PDF zu Podcast zu KI-Chat fragmentiert unsere Fähigkeit Informationen zu speichern. Wie ein Stack Overflow. Alles gesehen, nicht behalten geschweige denn gelernt. Und gerade bei einem Thema, das derzeit so oft in Häppchen, Memes und Halbwissen zerfällt, ist das ein echter Wert.

Wer sich ein solides Fundament in KI aufbauen will, braucht mehr als einen weiteren „Top 10 Prompt Hacks“-Beitrag. Er braucht ein Verständnis dafür, wie Modelle arbeiten, wie Daten eingebunden werden, wie Trainings- und Inferenzpfade sich unterscheiden, welche Fehlerklassen es gibt, welche Architekturentscheidungen welchen Preis haben und warum manche Lösungen nur deshalb einfach wirken, weil jemand anders die unbequeme Komplexität für einen versteckt. Und vor allem wann mal wieder die einfache Lösung die bessere sein kann.

Das ist keine Romantik, das ist schlicht und einfach Handwerkszeug.


Der eigentliche Punkt ist nicht das Bundle. Der eigentliche Punkt ist die Haltung.

Man kann dieses Bundle kaufen oder nicht. Darum geht es am Ende nur am Rand. Ich habs gekauft.

Der eigentliche Punkt ist ein anderer: Wer bei KI ernsthaft von digitaler Souveränität sprechen will, darf sich nicht damit zufriedengeben, Lego-Duplo-Bausteine zusammenzusetzen, ohne sie zu verstehen, ohne ihre Grundlagen beurteilen zu können.

Denn dann verharrt man freiwillig in der Rolle des Konsumenten.

Ein Konsument kann einkaufen, kann Funktionen vergleichen, Preise bewerten. Er kann Anbieter wechseln, solange andere Anbieter dieselbe Bequemlichkeit verkaufen.

Aber ein Konsument ist niemals souverän.

Souverän wird man erst dort, wo man beginnen kann, Systeme zu verstehen, Alternativen einzuordnen, Abhängigkeiten zu erkennen und vor allem technische Entscheidungen nicht aus dem Bauch, der Roadmap oder Account-Liste eines Vertrieblers oder gar der Begeisterung der letzten Keynote-Folie zum Launch von XYZ heraus zu treffen.

Das ist viel anstrengender als „einfach mal was mit KI zu machen“. Frustrierend, ich weiss. Wir alle wollen Einfachheit. Wir alle wollen Verantwortung abgeben können.

Den einfachen Weg gehen. Den Falschen.

Aber genau deshalb ist es so wertvoll.


Fazit

Der Géron und der Alammar allein sind den Preis dieses Bundles im Grunde schon wert. Der Rest ist, je nach Blickwinkel, manchmal brauchbare Vertiefung, vereinzelt selektiver Mehrwert oder schlicht ein guter Bonus.

Der wichtigere Punkt liegt aber tiefer.

Wer KI nur konsumieren will, wird sie benutzen können. Fein.

Wer KI verstehen will, wird sie einordnen, bewerten, kontrollieren und sinnvoll einsetzen können.

Und genau in diesem Unterschied liegt der eigentliche Wettbewerbsvorteil. Bei Kunden, bei Hostern, bei MSPs. Und übrigens auch bei den KI-Anbietern selbst, denn wer seine Nutzer versteht, erkennt irgendwann dass Transparenz kein Nachteil ist, sondern der einzige nachhaltige Differenziator. Anthropic beispielsweise hat das verstanden. Die meisten anderen (noch) nicht.

Nicht im nächsten Baukasten, in der nächsten Demo, nicht im nächsten glattpolierten Vendor-Versprechen.

Sondern in Urteilskraft.

Digitale Souveränität in der KI beginnt nicht mit einem Dashboard, auch nicht mit einem Vertrag und erst recht niemals mit einem Logo.

Sie beginnt mit Verständnis. Ausschliesslich. Egal was uns jemand erzählen will.

Und selten war der Einstieg in dieses Verständnis so günstig zu haben wie gerade jetzt. Für 27,86 Euro.

🔗 Humble Tech Book Bundle: Interfacing with Machine Learning by O’Reilly


One Community. One homelab. One less excuse.

Subscribe to pandolin.io

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe