Teilzeit, qCademy Ohlstadt
Teilzeit, qCademy Ohlstadt
Mitarbeit beim Aufbau einer Private-AI-/On-Prem-KI-Umgebung (GPU-Server, Containerisierung, Deployment-Standards, Zugriffsmodelle).
Evaluierung und Prototyping von lokaler Inference (z. B. LLMs/Embeddings) inkl. Dokumentation und Betriebskonzept (Runbooks/SoPs).
Entwicklung erster AIOps-Use-Cases: z. B. Alarm-Korrelation, Log-Analyse, Anomalie-Erkennung, Ticket-Zusammenfassungen, Wissenssuche/RAG auf internen Dokus.
Integration in bestehende Toolchains (z. B. Monitoring/Alerting, GitLab, Automatisierung) und Mitarbeit an CI/CD-Standards.
Erstellung von Technik-Dokumentation, Lessons Learned und Vorschlägen für sichere Governance (Datenklassifizierung, Auditfähigkeit, Nachvollziehbarkeit).
Studium (Informatik, IT-Security, Data/AI, Software Engineering o. ä.) und Lust auf Infrastruktur + Automatisierung.
Solide Grundlagen in Linux, Netzwerken und Scripting (Python oder Bash).
Verständnis für Container/Deployments (Docker, idealerweise Kubernetes) und sauberes Arbeiten mit Git.
Interesse an Monitoring/Operations (z. B. Events, Logs, Metriken) und an zuverlässigen Systemen.
Sorgfältige, strukturierte Arbeitsweise – Compliance/Datenschutz ist bei uns kein Extra, sondern Standard.
Erste Berührung mit LLM-Inference lokal (z. B. vLLM, llama.cpp, Ollama) oder ML-Tooling.
Erfahrung mit Automatisierung/IaC (Ansible, Terraform) oder CI/CD (GitLab Pipelines).
Kenntnisse in Observability/Monitoring (z. B. Zabbix, Elastic/Opensearch, Loki, Grafana) oder Security-Stack (SIEM/EDR).
Grundwissen zu RAG/Embeddings und Vektorsuche (z. B. pgvector, OpenSearch/Vector).
Hands-on-Arbeit an einer Private AI Plattform (GPU-Hardware, echte Produktionsnähe).
Ein Umfeld, in dem Sauberkeit, Dokumentation und Stabilität zählen – ideal zum Lernen von „echtem Betrieb“.
Mentoring, klare Aufgabenpakete und die Möglichkeit, Ergebnisse sichtbar in Managed Services zu verankern.
Flexible Werkstudentenzeiten (typisch 10–20h/Woche) und planbare Prüfungsphasen.