Programm 2026
Keynote 2026: Loubna Ben Allal
© privat
Wir freuen uns sehr Loubna Ben Allal, Machine Learning Engineer bei Hugging Face, als Keynote Speakerin für die SAINT 2026 ankündigen zu dürfen!
Johann Haag | Chief Executive Officer (CEO), USTP – University of Applied Sciences St. Pölten
Marlies Temper | USTP
Loubna Ben Allal | Machine Learning Engineer bei Hugging Face (🤗)
Loubna Be Allal ist Machine Learning Engineer bei Hugging Face, wo sie das SmolLM Projekt leitet – ein Open Source Projekt zum Aufbau kompakter, leistungsstarker Large Language Modelle. Neben der Verantwortung für SmolLM ist sie auch Mitglied des BigCode Projekts und Mitautorin des The Stack Datensatzes sowie der StarCoder Familie von Code Generierungsmodellen.
Loubna besitzt zwei Masterabschlüsse – in Mathematik und Deep Learning – von der École des Mines de Nancy und der ENS Paris Saclay. Nach zwei Praktika trat sie 2022 Hugging Face bei und arbeitete zunächst an Sprachmodellen zur Code Generierung. Ihre Tätigkeit erweiterte sich rasch auf die gesamte LLM Forschung, wodurch sie sich als Expertin für Model Effizienz, Open Source Tools und verantwortungsbewusste KI Entwicklung etablierte.
Seit ihrem Eintritt bei Hugging Face hat Loubna die Konzeption, das Training und den Roll out mehrerer SmolLM Generationen vorangetrieben (einschließlich SmolLM 2 und dem neueren SmolLM 3). Ihr aktuelles „SmolLM Training Playbook“ – veröffentlicht als umfassender, buchähnlicher Blog Post – bietet einen tiefgehenden Einblick in die praktischen und methodischen Entscheidungen, die ein effizientes Training von Large Language Models im großen Maßstab ermöglichen.
Loubnas Kombination aus tiefgehender technischer Expertise, Open Source Engagement und klarer Kommunikation macht sie zu einer überzeugenden Stimme für die Zukunft kompakter, zugänglicher Large Language Modelle. In ihrer Keynote wird sie über die neuesten Fortschritte beim effizienten LLM Training, sowie über die gewonnenen Erkenntnisse aus dem Konzeptionieren und Trainieren von SmolLM 3, sprechen.
The Smol Training Playbook.
Besuchen Sie die Poster-Sessions in der Bildungsachse.
Michael Kolleger & Kevin Janisch | FOTEC Forschungs- und Technologietransfer GmbH
Vortragssprache: Deutsch
Im Projekt mit Steirerfleisch wurde untersucht, inwieweit eine automatisierte Produkterkennung von kommissionierten Fleischprodukten mittels KI im realen Produktionsumfeld umsetzbar ist. Dafür wurden über einen Monat hinweg Bilddaten direkt im laufenden Prozess erfasst, vorverarbeitet und zur Entwicklung eines CNN‑Modells (EfficientNetV2‑B0) genutzt.Das Modell zeigte hohe Genauigkeiten bei klar definierten Klassen, jedoch deutliche Schwächen bei visuell ähnlichen Produkten, geringen Datenmengen und fehlerhaften bzw. inkonsistenten Aufnahmen.
Die Analyse macht deutlich, dass nicht die Modellarchitektur, sondern Datenqualität, kontrollierte Bildaufnahme und Prozessstabilität die entscheidenden Erfolgsfaktoren darstellen. Mit optimierter Hardware, klaren Aufnahmeprozessen und verbesserten Daten kann die Lösung industriell skalierbar werden.
Michael Kollegger hat den Bereich BISS – „Innovative Software Systems“ bei der FOTEC Forschungs- und Technologietransfer GmbH aufgebaut und leitet diesen seit 2009. Er ist seit mehr als 25 Jahren als Referent und Speaker im Bereich Softwareentwicklung in verschiedenen Studienprogrammen der FH Wiener Neustadt sowie auf nationalen und internationalen Konferenzen tätig. Darüber hinaus leitete und unterstützte er zahlreiche Forschungs- und Entwicklungsvorhaben mit den Schwerpunkten IoT, Cross-Plattform-Softwareentwicklung, Künstliche Intelligenz, Mixed Reality und Cloud Computing.
Frederik Bednar | ebcont
Vortragssprache: Deutsch
Wenngleich Modelle zur Objekterkennung in Computer Vision Use Cases bereits eine immer bessere Basisperformance aufweisen, so gestalten sich benutzerspezifische Labelings mithilfe von Bounding Boxes als zeitintensiv und fehleranfällig. Im Vortrag wird erläutert, wie mittels Einsatzes von Gaming Engines und Simulationen eine große Menge an deutlich angereicherten Trainingsdaten erzeugt und somit bessere Ergebnisse in der Objekterkennung erzielt werden können. Der Use Case wird anhand eines praktischen Anwendungsbeispiels aus der Logistik vorgestellt.
Seit ca. zwei Jahrzehnten beschäftigt sich Frederick Bednar branchenübergreifend mit datenaffinen Projekten, die sowohl wirtschaftliche, statistische als auch IT-technische Aspekte abdecken. Bei EBCONT ist er für Data & AI Themen verantwortlich, wobei von seinem Tätigkeitsbereich auch Themen wie Data Governance, Data Engineering, Machine Learning/Deep Learning, Semantics und Business Intelligence umfasst sind.
Joel Klimont | Cyber Physical Systems Group - TU Wien
Vortragssprache: Deutsch
Autonomes Drohnenrennen bringt Wahrnehmung, Zustandsschätzung und Regelung an ihre Grenzen: Die Drohne muss mit minimalen Reaktionszeiten am Motorlimit durch enge Tore fliegen. In diesem Vortrag stellen wir unsere Arbeit für den A2RL Autonomous Drone Racing Wettbewerb vor und diskutieren eine zentrale Frage: Ist Drohnenrennen vor allem ein Regelungsproblem oder ein Problem der Zustandsschätzung (State Estimation)?
Wir präsentieren ein vollständig onboard arbeitendes System, das ausschließlich eine monokulare Rolling-Shutter-Kamera und die IMU eines konventionellen Flugcontrollers nutzt, ganz ohne Motion-Capture, ohne Stereo-Vision und ohne Offboard-Compute, und dennoch Spitzengeschwindigkeiten bis 20 m/s erreicht. Dabei beleuchten wir die Konsequenzen dieser minimalistischen Sensorik für Zeitstempelung, Synchronisation und Schätzverfahren sowie praktische Implementierungsdetails, die in der Literatur selten beschrieben werden: Echtzeit-Scheduling, Datenflüsse, typische Ausfallmodi und jene Engineering-Entscheidungen, die in der Praxis über Erfolg oder Absturz entscheiden.
Abschließend vergleichen wir modellbasierte Regelung (MPC) mit Reinforcement Learning (RL). Wir zeigen, warum RL in diesem Setting MPC oft überlegen ist, und wie es uns gelang, eine Woche vor dem Wettbewerb von MPC zu RL zu wechseln.
Joel Klimont beschäftigt sich seit mehreren Jahren mit autonomen Drohnensystemen und der zuverlässigen Navigation in Innenräumen sowie in Umgebungen ohne GNSS-Empfang. Im Zentrum seiner Arbeit stehen Methoden der Wahrnehmung, Lokalisierung und Entscheidungsfindung für autonome Flugplattformen.
Ein besonderer Schwerpunkt liegt auf hochdynamischem Drohnenrennen: agile Flugmanöver an der Leistungsgrenze, robuste Trajektorienplanung und Regelung bei sehr kurzen Reaktionszeiten sowie der Vergleich lernbasierter Ansätze (insbesondere Reinforcement Learning) mit modellbasierten Verfahren wie MPC. Dabei stehen Fragen der schnellen Entwicklung („One Week to RL“), der Sim-to-Real-Übertragung und der Betriebssicherheit im Vordergrund.
Besuchen Sie die Poster-Sessions in der Bildungsachse.
Manuel Kerzner & Michael Jank | APA - Austria Presse Agentur
Vortragssprache: Deutsch
Die Entwicklung von Foundation-Modellen wie BERT und RoBERTa hat die Realisierung vieler KI-Services im Textbereich ermöglicht. Um einen spezialisierten Use Case abbilden zu können, ist es eine gängige Strategie mithilfe verhältnismäßig weniger Daten einen Finetune dieser Foundation-Modelle zu trainieren.
Dieser Ansatz birgt jedoch rechtliche Herausforderungen. Das betrifft die Transparenz der Trainingsdaten und deren Urheberrechte genauso wie der Umgang mit sensiblen oder anstößigen Inhalten. Aus diesem Grund hat sich die APA – Austria Presse Agentur dazu entschlossen, selbst auf eigenen Datenbeständen ein Foundation-Modell zu trainieren: AustroBERT. Als größte nationale Nachrichtenagentur in Österreich stellt sie nicht nur täglich unabhängige und faktenbasierte Berichterstattung zur Verfügung, sondern hostet auch einen Großteil des österreichischen Medienarchivs.
Trotz hoher Anforderungen - Millionen von Texten und spezialisierte Infrastruktur - konnten wir mit dem APA-Textmaterial ein Foundation-Modell trainieren, dessen Finetunes im Vergleich zu produktiv laufenden Modellen qualitativ praktisch ebenbürtig sind. In Zeiten geopolitischer Veränderungsprozesse ein konkreter Beitrag zur Digitalen Souveränität Europas.
Michael Jank ist Senior Software Developer und Data Scientist in der APA-Tech (eine 100-prozentigen Tochterunternehmen der APA – Austria Presse Agentur). Zu seinen Expertisen zählen unter anderem die Implementierung hochspezialisierter KI-Services im Bild- und Textbereich, das Training von KI-Modellen anhand regionaler Daten sowie die Fullstack Implementierung von Web-Applikationen und Portalen.
Manuel Kerzner ist Transformationsmanager und Data Scientist bei der APA - Austria Presse Agentur. Zu seinen Expertisen zählen die Leitung von KI-Forschungsprojekten, die PR- und Medienanalyse sowie strategisches Change Management. Als zertifizierter KI-Manager verbindet er technologisches Know-how mit der Fähigkeit, Organisationen durch digitale Transformationsprozesse zu führen.
Sebastian Raubitzek | SBA Research
Vortragssprache: Deutsch
Dieser Vortrag widmet sich der Frage, wie Ideen aus der Fraktalgeometrie für das Design neuronaler Netze nutzbar gemacht werden können. Im Zentrum steht eine Klasse von Aktivierungsfunktionen, die von einfachen fraktalen Konstruktionen inspiriert ist und Struktur über viele Skalen hinweg in ansonsten klassische Modelle einbringt. Dabei geht es nicht darum, Netzwerke größer oder komplizierter zu machen, sondern ihre Reaktionsweise auf Eingaben gezielt zu erweitern.
Anhand anschaulicher Beispiele und intuitiver Visualisierungen wird gezeigt, wie sich nicht-glatte, selbstähnliche Aktivierungsfunktionen von gängigen Standardfunktionen unterscheiden und weshalb diese Unterschiede für Lernprozesse relevant sein können. Experimente auf etablierten Benchmark-Datensätzen verdeutlichen, dass dieser Ansatz wettbewerbsfähige Ergebnisse erzielen kann und zugleich neue geometrische Eigenschaften neuronaler Repräsentationen sichtbar macht.
Insgesamt vermittelt der Vortrag eine Perspektive darauf, wie Konzepte aus Mathematik und Physik alternative Gestaltungsansätze im Machine Learning eröffnen und weshalb fraktale Strukturen ein sinnvoller Baustein zukünftiger neuronaler Modelle sein könnten.
Sebastian Raubitzek ist Forscher bei SBA Research in Wien, Österreich, und Mitglied der Forschungsgruppe „Komplexität und Resilienz“. Er hat einen Master of Science in theoretischer Physik von der Universität Graz und promovierte in Informatik an der TU Wien mit Schwerpunkt auf der Integration von Chaostheorie und Komplexitätsforschung mit künstlicher Intelligenz.
Seine Forschungsgebiete umfassen Komplexitätsforschung, künstliche Intelligenz, theoretische und Quantenphysik, maschinelles Lernen und Chaos. Raubitzek hat Arbeiten zu Themen wie neuronale Netze, Anwendungen des maschinellen Lernens, Zeitreihenanalyse, quanteninspirierte Methoden und Datenverschleierungstechniken im Zusammenhang mit dem Datenschutz veröffentlicht. Er ist Autor zahlreicher begutachteter Artikel und Vorabdrucke in diesen Bereichen.
Besuchen Sie die Poster-Sessions in der Bildungsachse.
Samuel Hilbrand & Fabian Fidler
Vortragssprache: Deutsch
Was passiert, wenn man ein Jahr KI- und Data-Science-Entwicklung in einen Mixer wirft und ihn auf „Turbo“ stellt? In diesem Abschluss-Slot nehmen wir Sie mit auf eine pointenreiche Zeitreise von April 2025 bis April 2026: von großen Modell-Releases und neuen Toolchains über Agenten-Hypes, Benchmark-Drama und „Prompt Engineering“-Alltag bis hin zu den gesellschaftlichen Nebenwirkungen wie Deepfakes, Regulierung, Urheberrecht, dem kollektiven „Moment… ist das noch echt?“ und OpenClaw... wenn KI plötzlich zu viel Möglichkeiten hat.
Ariane Mora| AITHYRA
Lecture language: English
Identifying enzymes for specific chemical transformations remains a key challenge at the intersection of machine learning and biochemistry. In the talk Ariane Mora discusses some of the state-of-the-art models in enzyme discovery and the current challenges and opportunities for development.
Dimitrios Christodoulou | Digital For Planet (D4P)
Lecture language: English
This talk details a vision for building automatic, continuous compliance into Machine Learning (ML) systems. It outlines an approach that addresses the legal requirements of the EU AI Act and GDPR by translating them into actionable constraints. The core solution involves a Semantic MLOps Engine for structured metadata tracking, an Ontology for creating virtual knowledge graphs, and a RegOps Tool for automated, continuous compliance assessment. The aim is to move beyond manual audits to embed traceability, transparency, and trust throughout the entire AI lifecycle.
Dimitrios Christodoulou is a Software Engineer at Digital 4 Planet in Zurich, Switzerland. He holds a Master’s degree in Robotics, Systems and Control from ETH Zurich and an Integrated Master’s in Electrical and Computer Engineering from the University of Thessaly, Greece. His research interests lie at the intersection of computer vision, multimodal learning, human-computer interaction and AI-enabled compliance checking using large language models, with applications in autonomous systems and augmented reality and a broader focus on enabling trustworthy, regulation-compliant and interoperable AI systems across the computing continuum.
Jakob Kasbauer | Technische Hochschule Deggendorf
Lecture language: English
SOVIA (Social Virtual Assistance with LLMs) is a social voice assistant designed for ageing at home. It combines a modular ASR/TTS speech pipeline with an LLM-agnostic dialog core, a biographically structured “challenge” engine that schedules proactive daily conversation topics, and a user-memory module that stores structured summaries rather than raw transcripts. This talk presents the architecture and its privacy-by-design choices and explains how they enable in-home evaluation. We outline a four-week field trial with 10 senior households (65+), where participants use SOVIA in everyday life. A mixed-methods protocol triangulates interaction telemetry with pre/post questionnaires and qualitative interviews to assess usability, acceptance, perceived companionship, and potential changes in subjective loneliness. The contribution is a reusable technical blueprint plus an evaluation-ready study design for LLM-based social voice assistance in ageing-well scenarios.
Jakob Kasbauer is an academic staff at Deggendorf Institute of Technology since 2019 where he is part of the Applied Artificial Intelligence for Context Recognition (AI4CARE) research group.
Besuchen Sie die Poster-Sessions in der Bildungsachse.
Daniel Netzl
Lecture language: English
Artificial intelligence is increasingly introduced into organizations under the promise of productivity gains and economic efficiency. Yet the criteria used to justify and evaluate these implementations are often narrow, short-term, and primarily monetary. This talk draws on practical experience from corporate environments to critically examine how AI is currently deployed in organizations and which consequences remain systematically overlooked. It discusses productivity narratives, measurement problems, loss of expertise, organizational dependency on AI systems, and emerging inequalities between large corporations and smaller enterprises. By drawing parallels to other systemic failures driven by short-term optimization the talk argues that efficiency alone is an insufficient justification for AI adoption. Instead, AI implementation should be guided by broader societal and ecological considerations, as well as long-term organizational resilience. The talk invites practitioners to rethink what is being optimized, for whom, and at what cost.
Daniel Netzl is an AI enthusiast and data scientist currently finishing his studies in Artificial Intelligence at Johannes Kepler University Linz. Based on hands-on experience in corporate environments, his work critically engages with the promises and limits of AI-driven productivity, focusing on societal responsibility, ecological blind spots, and long-term organizational consequences of AI adoption.
Yury Zhuk, Benjamin Braun, Maurice Laurent DeBock | Agent Alpha GmbH
Lecture language: English
LLMs have many failure cases when used in agentic workflows: They forget constraints, need constant reprompting, and use tools improperly. This talk is a practical tour of “context engineering” as we apply it at Agent Alpha, a knowledge assistant that routes questions, searches internal sources, and turns one-off expert answers into reusable knowledge.
We focus on reliability patterns that hold under sovereign AI requirements. You will see how strict system guardrails, robust templates, and structured retrieval reduce hallucinations and keep behaviour stable. How we design agent flows around EU-based deployment and data boundaries, including what changes when you want sensitive context to stay in-region and auditable. Finally, we share the tactics we use in production: retries and fallback paths, human escalation, and lightweight evals that catch regressions early. This is how we build trustworthy, sovereign, agentic AI.
Yury Zhuk is AI Engineer, Consultant, and CTO with 10+ years of experience delivering end-to-end AI projects on tight deadlines. He helps companies plan, prototype, and productionalize machine learning systems, modern data pipelines, and enterprise-grade Agentic systems. He has shipped production AI/ML projects in domains like HealthTech, Energy & Meteorology, Manufacturing & Logistics, SaaS & Data Platforms.
Niels Pfau & Michael Macher | Mantodea Security GmbH
Lecture language: English
AI assistants are starting to control things we care about: our files, our browsers, our passwords — sometimes even our entire computer. From an IT security perspective, this is a big change. We are giving systems that operate on natural language the same level of access that used to be reserved for carefully hardened software.
In this talk, an experienced red teamer and an AI professor show what that means in practice. Using real tools such as Clawdbot, we demonstrate live how easily modern AI assistants can be abused by everyday users. No hacking tools, no technical background, no complex exploits. In many cases, a few well-chosen instructions are enough to bypass safeguards and influence an AI into performing actions it was never meant to perform.
These attacks work because language itself becomes the attack surface. When security relies on instructions, those instructions can be manipulated — by anyone. This creates a gap between traditional security models and how AI systems actually behave once they are deployed with broad permissions.
We explain why these failures occur, how easily users expose themselves by trusting AI with too much access, and why familiar security assumptions break down in this context. The talk combines hands-on demonstrations with practical guidance for developers and product builders, focusing on how to limit damage, design safer systems, and avoid repeating old security mistakes in a new form.
The goal is awareness through understanding: showing the flaws, explaining the risks, and helping people prevent them — before convenience becomes vulnerability.
Besuchen Sie die Poster-Sessions in der Bildungsachse.
