Generative AI

Definition & Bedeutung

Generative AI, zu Deutsch auch bekannt als Generative Künstliche Intelligenz, ist eine spezielle Form der Künstlichen Intelligenz, die auf Basis von Vorgaben und vorhandenen Informationen neue Inhalte generieren kann. Dabei kommen verschiedene KI-Verfahren und -Technologien zum Einsatz, wie trainierte neuronale Netzwerke, maschinelles Lernen (Deep Learning) und KI-Algorithmen. Diese ermöglichen es, Texte, Bilder, Audio- und Videoinhalte, Programmcode, 3D-Modelle und mehr zu erstellen. Die erstellten Inhalte sind teilweise kaum von menschlichem Ursprung zu unterscheiden. Im Gegensatz zur diskriminativen KI, die darauf ausgelegt ist, Input zu differenzieren und zu klassifizieren, schafft die generative KI neue Inhalte auf Grundlage der gegebenen Vorgaben. Generative AI kann unterteilt werden in unimodale (verarbeitet eine Datentypart wie Text, Bild oder Audio) und multimodale AI (verarbeitet verschiedene Datentypen).

 

Funktionsweise generativer KI und zugrundeliegende Architekturen

Generative Künstliche Intelligenz basiert auf künstlichen neuronalen Netzwerken, die zunächst mit großen Datenmengen trainiert werden. Diese Modelle können anschließend, basierend auf den während des Trainings gelernten Informationen, neue Inhalte entsprechend einer vorgegebenen Aufgabenstellung generieren.

Es werden verschiedene Architekturen neuronaler Netzwerke verwendet:

  • Transformer-Architektur: Diese Deep-Learning-Architektur besteht aus in Reihe geschalteten Kodierern und Dekodierern mit Self-Attention-Mechanismus. Sie kann Eingangsdaten im erweiterten Kontext der Umgebungsdaten verarbeiten. Die Transformer-Architektur hat sich als eine Standardarchitektur für große generative Sprachmodelle etabliert.
  • Generative Adversarial Networks (GANs): Ein GAN besteht aus zwei Teilen, einem Generator und einem Diskriminator. Der Generator erzeugt neue Inhalte, während der Diskriminator zwischen echten und generierten Daten unterscheidet. Beide Teile treten in einem Wettbewerb gegeneinander an, wodurch der Generator zur Erzeugung immer realistischerer Daten angeregt wird.

 

Einsatzmöglichkeiten generativer Künstlicher Intelligenz

Generative KI findet in zahlreichen Anwendungsbereichen Anwendung. Einige typische Einsatzmöglichkeiten sind:

  • Textgenerierung: Generative AI erstellt Texte für verschiedene Zwecke wie Web-Content, Nachrichten, Produktbeschreibungen und Marketingtexte.
  • Chatbots: Intelligente Chatbots, wie der ChatGPT von OpenAI, nutzen generative KI, um Fragen im Kundensupport zu beantworten.
  • Bildgenerierung: Generative KI erzeugt fotorealistische Bilder für Werbezwecke und andere Anwendungen.
  • Programmieren: Sie unterstützt beim Programmieren neuer Anwendungen und erstellt Programmcode.
  • Künstlerische Werke: Generative AI erstellt künstlerische Werke in Bild-, Text-, Audio- oder Videoform und synthetische Musik.
  • 3D-Modellierung: Sie generiert 3D-Modelle von Objekten.
  • Wissenschaftliche Anwendungen: Generative KI kann bei der Beantwortung wissenschaftlicher Fragestellungen in verschiedenen Bereichen wie Medizin und Architektur helfen.
  • Personalisierte Werbung: Sie wird für die Erstellung personalisierter Werbeanzeigen verwendet.

 

Bekannte Beispiele für Generative AI

Es existieren diverse Beispiele für generative Künstliche Intelligenz. Dazu gehören große generative Sprachmodelle wie MT-NLG von Microsoft und Nvidia, LaMDA von Google, PaLM von Google, sowie GPT-3 und -4 von OpenAI. GPT-4 ist sogar multimodal und kann sowohl Text- als auch Bildeingaben verstehen. Zu den bekanntesten KI-Bildgeneratoren zählen Stable Diffusion von Stability AI, Midjourney vom gleichnamigen Forschungsinstitut und DALL-E von OpenAI. Es gibt auch KI-Musikgeneratoren wie Jukebox von OpenAI, MusicLM von Google und AI Music Generator von Soundraw, sowie KI-Videogeneratoren wie Gen1 und Gen2 von Runway Research oder Make-A-Video von Meta. KI-Stimmgeneratoren wie VALL-E von Microsoft gehören ebenfalls zu den herausragenden Beispielen für Generative AI.

 

Large Language Models (LLM)

Eine wichtige Entwicklung in der Welt der generativen AI sind die Large Language Models (LLM) - wie zum Beispiel GPT-4. Diese Modelle können nicht nur hochwertige Texte produzieren, sondern auch multimodale Inputs verstehen, einschließlich Bilder und andere Datenformate. LLM basieren auf tiefen neuronalen Netzwerken, die mit umfangreichen Datensätzen trainiert werden. Dies ermöglicht eine menschenähnliche Textgenerierung, die nicht nur grammatisch korrekt, sondern auch kontextuell bedeutungsvoll ist.LLM zeichnen sich dadurch aus, komplexe Fragen zu verstehen und relevante Antworten zu generieren, was sie für Anwendungen wie Kundenservice-Chatbots und automatisierte Übersetzungen äußerst wertvoll macht.


Grenzen, Risiken und Gefahren

Obwohl generative Künstliche Intelligenz beeindruckende Fähigkeiten besitzt, gibt es auch Grenzen und Risiken bei ihrem Einsatz. Generative AI erzeugt unter Umständen fehlerhafte Outputs und neigt dazu, bei unzureichender Wissensbasis Fakten zu erfinden. Sie ist nicht wirklich kreativ, sondern stellt im Training gelernte Inhalte lediglich neu zusammen. Inhalte, die von generativer KI erstellt werden, können zudem durch im Trainingsmaterial enthaltenen Bias beeinflusst sein. Die Technologie kann auch für unerwünschte Zwecke wie die Erzeugung von Deepfakes, Propaganda, Desinformationskampagnen und Schadsoftware verwendet werden.

Der Einsatz von generativer KI wirft auch rechtliche Fragen auf, insbesondere hinsichtlich Urheberschaft, Haftung, Datenschutz und der Verwendung urheberrechtlich geschützter Materialien für das Training. Darüber hinaus erfordert das Training und der Betrieb großer generativer KI-Modelle erheblichen technischen Aufwand und Energie.

 

Hublify Wave