Leiter der Abteilung Generative AI-Forschung, Dynatrace
Ich leite die Forschung an Generativer Künstlicher Intelligenz im Dynatrace Research Lab. Mein derzeitiger Fokus sind Large Language Models und wie diese effizient in ein Produkt integriert werden können.
Davor forschte ich an Audio- und Sprach-AI bei Microsoft. Als ausgebildeter Teilchenphysiker trug ich zur Entdeckung des Higgs-Bosons am CERN LHC bei. Neben der Wissenschaft gehört meine Leidenschaft dem Sport, Lesen & Reisen.
Hauptthema dieses Blogs ist das Erklären von AI-Konzepten ohne technisches Wissen vorauszusetzen.
Ein Vortrag bei der GraML-Konferenz in Graz. Die Präsentation dreht sich darum, wie KI im Kontext von Observability verwendet wird - anhand des Beispiels von Dynatrace.
Sieben Vorhersagen für zukünftige LLMs Große Sprachmodelle (LLMs) scheinen aus der Zukunft zu stammen - tatsächlich sind sie in vielerlei Hinsicht aber immer noch sehr grob und verdanken einen Teil ihrer erstaunlichen Leistung Brute-Force: mehr Rechenleistung, mehr Trainingsdaten, größere Modelle. LLMs der Zukunft werden ganz anders aussehen, und im Folgenden werde ich sieben Vorhersagen über deren Entwicklung treffen. Alle sieben Aspekte werden bereits intensiv erforscht und tauchen teilweise bereits in aktuellen LLMs auf und könnten früher eintreffen, als du denkst - die Mehrheit vielleicht bereits 2024.
Auf mehreren Webseiten kann Stable Diffusion verwendet werden, um Bilder mit einem Text-Prompt zu erzeugen. Stable Diffusion Online ist ein Beispiel. Allerdings verlangen diese entweder Geld, haben eine lange Warteliste oder bieten nur eine sehr begrenzte Anzahl von Optionen an (etwa für die Bildgröße). Wusstest du, dass du deine eigene Version von Stable Diffusion in nur zwei Minuten einrichten und ausführen kannst? Alles, was du dafür brauchst, ist ein Google-Konto, und schon kann es losgehen.
Werden ChatGPT & Co in kommerziellen Produkten verwendet? Das Herumspielen mit ChatGPT macht Spaß, und wenn wir den Nachrichten glauben, erledigt es inzwischen den Großteil der Hausaufgaben von Schülern. Allerdings werden auch große Sprachmodelle (LLMs) nur dann überleben, wenn jemand herausfindet, wie man mit ihnen Geld verdienen kann. Offensichtlich ist das bereits geschehen: Viele Unternehmen haben ChatGPT in ihre Produkte integriert. Sie zeigen damit, dass LLMs bereits tatsächlichen Wert (und Profit) erzeugen.
Diese Abbildung basiert auf Bildern, die mit Stable Diffusion Web erstellt wurden
Was macht Generative KI? Generative Künstliche Intelligenz (GenKI) verwendet Modelle basierend auf maschinellem Lernen, die Inhalte generieren können. Beliebte Modalitäten von GenKI-Inhalten sind:
Text: Zusammenfassungen, Antworten, Romane, Gedichte, Computercode Bilder: Gemälde, Grafiken, Sequenzen von Bildern (genannt Videos), 3D-Modelle Audio: Sprache, Musik Moleküle: Proteine, Medikamente Okay, aber wie funktioniert das? Bis in die frühen 2020er Jahre verwendete fast jede praktische KI-Anwendung ein sogenanntes diskriminatives Modell: Es wurde darauf trainiert, eine Kategorie (z.
Ein Blog-Eintrag der ursprünglich hier veröffentlicht wurde und sich um eine bei Interspeech 2022 (Südkorea) präsentierte Forschungsarbeit dreht.
Einige Videos die während meiner Zeit am Hochenergiephysik-Institut der Österreichischen Akademie der Wissenschaften entstanden sind. Ich erkläre, was Teilchen und Masse sind, und was es mit dem Higgs-Boson auf sich hat. Diese zwei kurzen Videos wurden für eine Ausstellung im Naturhistorischen Museum von Wien produziert:
Und dieses hier wurde für die Webseite des Hochenergiephysikinstituts gedreht: