Python + AI livestream series: Resources · azure-ai-foundry · Discussion #166
Python + Generative AI livestreams: a practical 9-part series you can actually use
If you’re curious about using Python with generative AI models, this nine-part livestream series is made for you. It covers everything from getting started with free GitHub Models support to end-to-end solutions that include deployment to Azure. The team keeps the thread updated with slides, recordings, and the repositories demonstrated, so you won’t miss the code examples.
A few things to know up front. Sessions happen weekly, each Thursday at 1PM PT, and there are office hours in the Azure AI Discord where you can bring questions or drop them in the discussion thread. I’ve followed a couple of these streams, and what I like is the mix of live demos and practical repos you can clone and run. Small aside, sometimes pages hiccup (web threads, you know), but the maintainers are responsive and actually read feedback.
Common questions pop up, like how to deploy RAG applications. For example, if you’re using ChromaDB for vectors, a FastAPI backend, and a web frontend, the series doesn’t spend a lot of time on production deployment, but most end-to-end samples include infrastructure-as-code, which helps a lot. People also debate Docker containers versus a single Linux VM. Containers give you isolation, easier scaling, and portability, but a single VM can be simpler when you want less overhead. I’ve done both, and frankly, choosing depends on how much management you want later.
If you want the original discussion and ongoing updates, check the thread here: https://github.com/orgs/azure-ai-foundry/discussions/166
Final thought, you’ll get more from the series if you follow along with the repos and pop into office hours. It’s practical, honest teaching, and there’s a good chance you’ll leave with a working project and clearer next steps.
Deutsch
Wenn du Python mit generativen KI-Modellen ausprobieren willst, ist diese neunteilige Livestream-Reihe sehr hilfreich. Sie beginnt bei den Grundlagen, zeigt, wie man kostenlose GitHub-Model-Unterstützung nutzt, und reicht bis zu End-to-End-Beispielen mit Deployment auf Azure. Die Veranstaltenden pflegen den Diskussions-Thread mit Folien, Aufzeichnungen und den gezeigten Repositories, sodass du die Beispiele direkt nachbauen kannst.
Die Sessions finden jeden Donnerstag um 13:00 PT statt. In einem kleinen, aber nützlichen Extra gibt es Office-Hours im Azure AI Discord, bring dort gern deine Fragen mit. Kleiner Realtalk, manchmal gibt es technische Hänger auf der Seite, aber das Team liest Feedback und ergänzt Links, etwa zu älteren Kursversionen.
Ein wiederkehrendes Thema ist das Deployment von RAG-Anwendungen. Wenn du ChromaDB für Vektoren, FastAPI als Backend und eine Web-Frontend kombinierst, erklärt die Serie nicht jedes Produktionsdetail, aber viele End-to-End-Beispiele enthalten Infrastructure-as-Code. Das hilft beim Rollout enorm. Zur Debatte steht oft auch, ob man Docker-Container oder eine einzelne Linux-VM nutzen sollte. Container bieten Isolation, Skalierbarkeit und Portabilität. Eine einzelne VM bleibt einfacher, wenn du weniger Orchestrierung willst. Ich habe beide Wege probiert, und die Entscheidung hängt wirklich davon ab, wie viel Operational-Overhead du tragen möchtest.
Für die Diskussion und laufende Updates hier entlang: https://github.com/orgs/azure-ai-foundry/discussions/166
Kurz gesagt, mitmachen, die Repositories klonen und in die Office-Hours kommen, das bringt dich am schnellsten voran.



Kommentar abschicken