Revision 666: KI in der Webentwicklung

In unserem KI-Block geht’s diesmal wieder um den Einsatz von Künstlicher Intelligenz in der Webentwicklung – von Codegenerierung über Tool-Integrationen bis hin zu lokalen Modellen und neuen Standards, die die Zusammenarbeit zwischen Mensch und Maschine verändern könnten. Dazu haben wir Max Marschall eingeladen (Consultant bei ThinkTecture, LinkedIn), der mit Vanessa und Schepp über seine Erfahrungen spricht. Wir diskutieren Tooling, werfen einen kritischen Blick auf technische und ethische Grundlagen – und Max bringt’s auf den Punkt: Wir arbeiten immer mehr mit „Sprache als Interface“.

Schaunotizen

[00:06:15] LLMs
Wir sprechen über die Basis fast aller heutigen KI-Anwendungen: LLMs. Schepp erinnert sich an seine ersten Gehversuche mit der Tabnine-Erweiterung für JetBrains, Max bringt die aktuelle Entwicklung ein – von klassischem Machine Learning bis zu ChatGPT. Dabei bleibt klar: Die Vorschläge sollte man nicht blind übernehmen. Und auch das Thema Urheberrecht beim Training von Modellen lassen wir nicht außen vor.
[00:13:15] Komplexität der Aufgaben
Je komplexer die Aufgabe, desto schwieriger tut sich KI. Das stellen Max und Vanessa schnell fest. Bei einfachen Problemen funktioniert’s oft erstaunlich gut – bei größeren Projekten sinkt der Nutzen oder es schleichen sich Fehler ein.
[00:21:42] Agentic Code Editors
Wir werfen einen Blick auf Editoren, die mehr können als einfache Prompts: sogenannte Agentic Code Editors. Max hat verschiedenste Tools ausprobiert – von NeoVim über VS Code bis JetBrains. Tools wie Windsurf oder Cursor liefern echte Kontextunterstützung. Vanessa bleibt lieber bei ChatGPT, weil dort klar ist: Kontext gibt’s keinen. Wir reden auch über @commands zur gezielten Aufgabensteuerung und Use Cases wie Variablennamen oder Talktitel finden.
[00:30:47] Coding Rules
Wir sprechen über CodingRules.ai und ähnliche Tools, mit denen wir einmal definieren können, welche Stilregeln gelten – z. B. ob fat arrow functions oder ECMAScript-Imports verwendet werden sollen. Max nutzt solche Tools projektbezogen – und schaltet z. B. in einen „Architekturmodus“ oder „Doku-Modus“ um.
[00:34:45] Memory Bank
Langfristiger Kontext ist das Stichwort: Mit Tools wie Cursor Memory Bank oder Cline.bot lassen sich Informationen dauerhaft speichern – z. B. welche Tools im Projekt verwendet werden. Cline legt dafür Markdown-Dateien an, wie in den Cline Docs beschrieben.
[00:39:56] Lokale LLMs
Datenschutz ist ein großes Thema – gerade im Unternehmenskontext. Wir sprechen über lokale LLMs mit Ollama oder ChatGPT via Azure. So lassen sich Modelle datenschutzkonform nutzen – ohne dass Inhalte ins Training einfließen.
[00:45:18] MCP (Model Context Protocol)
Max bringt MCP ins Spiel – das Model Context Protocol von Anthropic. Eine neue Schnittstelle, mit der sich LLMs standardisiert mit externen Tools wie Datenbanken oder Backends verbinden lassen.
[00:51:02] Generatoren
Wir reden über Tools wie V0, Lovable, Bolt.new und Builder.io. Sie liefern per Prompt komplette Frontends – oft als React-Komponenten. Das spart Zeit, ist aber in der Praxis oft auf generische Anwendungen begrenzt. Kevin hat in Revision 665 ähnliche Erfahrungen gemacht.
[01:00:31] Chrome Dev Tools
Auch die Chrome DevTools bekommen KI-Funktionen. Max berichtet, dass man dort künftig Fragen zum Code stellen oder Styles ändern kann – spannend, auch wenn er selbst das lieber direkt in der IDE macht. Firefox testet laut Support-Artikel eigene KI-Features.
[01:13:39] CLI Integration
Wer im Terminal zu Hause ist, schaut sich Tools wie Aider oder Warp an. Wir sprechen über diesen Medium-Artikel mit 5 Must-Have CLI-AI-Tools, in dem praktische Tools gesammelt sind.
[01:15:57] Platform Tooling
Auch rund um GitHub, Jira & Co. zieht KI ein. Automatische Pull Request Reviews, Ticket-Zusammenfassungen, Textoptimierungen – das verändert unsere Workflows und spart Zeit.

Links

Anhören

MP3 herunterladen (61,1 MB) | Transkript