Entschlüsselt: Die Bausteine der künstlichen Intelligenz

Künstliche Intelligenz
Künstliche Intelligenz ist in aller Munde, doch was verbirgt sich eigentlich hinter diesem Begriff und wie hängt er mit Konzepten wie maschinellem Lernen, Foundation Models und genAI zusammen?

In den letzten Jahren hat sich künstliche Intelligenz (KI) zu einem der meistdiskutierten Themen in Technologie und Gesellschaft entwickelt. Doch was genau versteht man unter KI und wie verhält sie sich zu verwandten Konzepten wie maschinellem Lernen und Deep Learning? Dieser Artikel gibt einen fundierten Überblick über die wichtigsten Begriffe im Zusammenhang mit KI.

Was ist künstliche Intelligenz?

Künstliche Intelligenz lässt sich im Wesentlichen als der Versuch definieren, mit Computern etwas zu simulieren, das menschliche Intelligenz erreicht oder sogar übertrifft. Dabei geht es vor allem um Fähigkeiten wie Lernen, Schlussfolgern und logisches Denken. KI ist also ein sehr breites Forschungsfeld, das darauf abzielt, Maschinen mit menschenähnlichen kognitiven Fähigkeiten auszustatten.

Während KI lange Zeit ein Nischenthema war, das nur wenige Experten interessierte, ist es heute in aller Munde.

Diese Entwicklung lässt sich grob in folgende Phasen einteilen:

  1. Frühe KI-Forschung (1950er-1970er): Grundlegende Konzepte werden entwickelt, aber praktische Anwendungen sind noch weit entfernt.
  2. Expertensysteme (1980er-1990er): Erste kommerzielle Anwendungen von KI, aber noch sehr begrenzt in ihren Fähigkeiten. (z.B. IBMs Schachcomputer Deep Blue)
  3. Maschinelles Lernen (2000er-2010er): Durchbruch durch die Verfügbarkeit großer Datenmengen und gestiegene Rechenleistung.
  4. Deep Learning (ab 2010er): Neuronale Netze ermöglichen bahnbrechende Fortschritte in vielen Bereichen.
  5. Generative KI (ab 2020er): KI-Systeme können eigenständig neue Inhalte erzeugen und kreativ tätig werden.

 

Die einzige Form der KI die heute existiert, basiert auf statistischer Mathematik und kann große Datenmengen analysieren, um scheinbar intelligente Ergebnisse zu produzieren. Sie ist darauf ausgelegt, sehr spezifische, spezialisierte Aufgaben auszuführen und gilt immer noch als „schwache KI“.  Obwohl sie in ihrem begrenzten Aufgabenbereich oft besser abschneidet als Menschen, kann sie nicht außerhalb dieses definierten Rahmens agieren und benötigt menschliches Training.

Der nächste Entwicklungsschritt wäre eine künstliche allgemeine Intelligenz (AGI), auch „starke KI“ genannt, die in der Lage wäre, frühere Erfahrungen und Fähigkeiten zu nutzen, um neue Aufgaben in unterschiedlichen Kontexten zu bewältigen – ohne menschliches Training. Eine AGI könnte selbstständig lernen und sich an neue Situationen anpassen, ist bislang aber nicht mehr als ein theoretisches Konzept.

Das Verhältnis von AI, ML, DL, FM and genAI

Um das Verhältnis zwischen künstlicher Intelligenz, maschinellem Lernen, Deep Learning, Foundation Models und Generative AI zu verstehen, ist es hilfreich, sich ein erweitertes Venn-Diagramm (Mengendiagramm) vorzustellen:

  • Künstliche Intelligenz ist der übergeordnete Begriff, der das gesamte Feld umfasst.
  • Maschinelles Lernen ist eine Teilmenge der KI.
  • Deep Learning wiederum ist eine Teilmenge des maschinellen Lernens.
  • Foundation Models sind eine spezielle Kategorie innerhalb des Deep Learning, die auf großen Datensätzen vortrainiert werden und als Grundlage für verschiedene Anwendungen dienen können.
  • Generative AI ist ein Anwendungsbereich, der in den meisten Fällen auf Foundation Models basiert.

Maschinelles Lernen als Teilbereich der KI

Maschinelles Lernen (ML) ist ein wichtiger Teilbereich der künstlichen Intelligenz, der sich in den 2010er Jahren zunehmend durchgesetzt hat. Wie der Name schon sagt, geht es beim maschinellen Lernen darum, dass die Maschine selbstständig lernt, anstatt explizit programmiert zu werden.

Ein ML-System wird mit großen Datenmengen trainiert und kann daraus Muster erkennen und Vorhersagen treffen. Je mehr Trainingsdaten zur Verfügung stehen, desto genauer werden die Vorhersagen. Maschinelles Lernen eignet sich besonders gut für Aufgaben wie:

  • Erkennen von Mustern in Daten
  • Treffen von Vorhersagen
  • Identifizieren von Ausreißern und Anomalien

 

Es gibt zwei Hauptformen des maschinellen Lernens:

  1. Überwachtes Lernen: Hier werden die Trainingsdaten mit Bezeichnungen (Labels) versehen. Das System lernt, diese Bezeichnungen vorherzusagen.
  2. Unüberwachtes Lernen: Hierbei werden dem System ungelabelte Daten präsentiert. Es muss selbstständig Muster und Strukturen in den Daten erkennen.

Deep Learning: KI-Systeme nach dem Vorbild des Gehirns

Deep Learning ist eine Untergruppe des maschinellen Lernens, die in den letzten Jahren enorme Fortschritte gemacht hat. Deep-Learning-Systeme basieren auf künstlichen neuronalen Netzen, die in ihrer Struktur dem menschlichen Gehirn nachempfunden sind.

Diese neuronalen Netze bestehen aus mehreren Schichten (daher „deep“) von miteinander verbundenen Knoten. Jede Schicht verarbeitet die Informationen auf einer höheren Abstraktionsebene. Deep-Learning-Systeme können sehr komplexe Muster in Daten erkennen und haben zu bahnbrechenden Fortschritten in Bereichen wie Bilderkennung, Sprachverarbeitung und Spielintelligenz geführt.

Eine Besonderheit von Deep-Learning-Systemen ist, dass ihre Entscheidungsprozesse oft schwer nachvollziehbar sind. Das System liefert zwar Ergebnisse, aber es ist nicht immer klar, wie genau es zu diesen Ergebnissen gekommen ist.

Foundation Models

Foundation Models sind eine fortschrittliche Form von künstlicher Intelligenz, die auf großen, umfassenden Datensätzen trainiert werden und als Grundlage für verschiedene spezifische Anwendungen dienen können. Diese Modelle zeichnen sich durch ihre Fähigkeit aus, komplexe Muster und Zusammenhänge in Daten zu erkennen und zu verarbeiten. Im Gegensatz zu herkömmlichen KI-Modellen, die für spezifische Aufgaben entwickelt werden, sind Foundation Models vielseitig einsetzbar und können durch Feinabstimmung (Fine-tuning) an verschiedene Aufgaben angepasst werden.

Sie nutzen Techniken des selbstüberwachten oder semi-überwachten Lernens, um effizient von großen, teilweise ungelabelten Datensätzen zu lernen. Bekannte Beispiele für Foundation Models sind große Sprachmodelle wie GPT (Generative Pre-trained Transformer), aber auch Modelle für Bildverarbeitung oder multimodale Aufgaben. Ihre Größe und Komplexität ermöglichen es ihnen, menschenähnliche Fähigkeiten in Bereichen wie Sprachverständnis, Texterstellung und sogar kreativen Aufgaben zu entwickeln.

Generative KI

Unter generative AI versteht man KI-Systeme, die in der Lage sind, neue Inhalte zu erzeugen – sei es Text, Bilder, Audio oder Video.

Generative KI basiert auf sogenannten Foundation Models (Grundlagenmodellen). Ein bekanntes Beispiel dafür sind Large Language Models (LLMs) wie GPT-3, die riesige Mengen an Textdaten verarbeitet haben und daraus neue, kohärente Texte generieren können.

Einige mögliche Anwendungsbereiche von generativer künstlicher Intelligenz sind:

  • Chatbots und Konversation: Systeme, die menschenähnliche Gespräche führen können.
  • Text-to-Image: KI-Modelle, die aus Textbeschreibungen Bilder erzeugen.
  • Deepfakes: Technologie zur realistischen Manipulation von Video- und Audioinhalten.

 

Machine Learning Deep Learning LLMs
Definition AI-Subset für Lernen aus historischen Daten „Künstliche neuronale Netze“ für komplexe Mustererkennung Fortgeschrittene Deep Learning Modelle für natürliche Sprache
Komplexität Einfachere Modelle (z.B. Entscheidungsbäume) Komplexe Multi-Layer-Modelle (CNNs, RNNs) Sehr komplex, mit Milliarden von Parametern
Datenbedarf & Training Weniger Daten, schnelleres Training Große Datenmengen, längeres Training Massive Datensätze, sehr zeitintensives Training
Anwendungen Datenanalyse und Vorhersagemodellierung Unstrukturierte Daten: z.B. Bild/Sprache Erkennung Komplexe Sprachaufgaben: z.B. Übersetzung, Texterstellung
Interpretierbarkeit Gut interpretierbar Weniger interpretierbar („Black Box“) Sehr schwer interpretierbar
Einsatzgebiete Effektiv für spezifische, diskriminative Aufgaben (z.B. Sentimentanalyse) Geeignet für komplexere Muster und Strukturen in Daten Ideal für anspruchsvolle Sprachaufgaben und Inhaltsgeneration

Fazit

Die Entwicklung der künstlichen Intelligenz hat in den letzten Jahren eine beeindruckende Dynamik entfaltet und tiefgreifende Auswirkungen auf zahlreiche Bereiche unseres Lebens. Von den grundlegenden Konzepten der KI über maschinelles Lernen und Deep Learning bis hin zu Foundation Models und generativer KI haben wir eine bemerkenswerte Evolution miterlebt.

Es ist wichtig zu verstehen, dass diese verschiedenen Konzepte nicht isoliert voneinander existieren, sondern eng miteinander verwoben sind. Maschinelles Lernen bildet die Grundlage für viele moderne KI-Anwendungen, während Deep Learning als Teilbereich des maschinellen Lernens besonders leistungsfähige Modelle ermöglicht. Foundation Models wiederum nutzen die Stärken des Deep Learning, um vielseitig einsetzbare Grundlagen für verschiedene Anwendungen zu schaffen.

Die jüngsten Fortschritte in der generativen KI, die auf diesen Foundation Models aufbauen, haben das Potenzial der künstlichen Intelligenz eindrucksvoll demonstriert. Die Fähigkeit, menschenähnliche Texte zu produzieren, realistische Bilder zu generieren oder komplexe Aufgaben zu bewältigen, hat sowohl Begeisterung als auch Bedenken hervorgerufen.

Trotz dieser beeindruckenden Fortschritte ist es wichtig, die Grenzen der aktuellen KI-Systeme zu erkennen. Wir befinden uns nach wie vor im Bereich der „schwachen KI“, die auf spezifische Aufgaben spezialisiert ist. Eine künstliche allgemeine Intelligenz (AGI), die menschenähnliche Flexibilität und Anpassungsfähigkeit aufweist, bleibt vorerst ein theoretisches Konzept.

Entschlüsselt: Die Bausteine der künstlichen Intelligenz

Inhaltsverzeichnis

Nichts mehr verpassen
mehr lesen
Fachbeitrag
Bürgerbeteiligung Regionalbank Tokenisierung
Crypto
Gemeinsam mit unseren Partnern von heartstocks durchleuchten wir die Potenziale der Tokenisierung für Regionalbanken und zeigen, wie die Technologie funktioniert...
Fachbeitrag
genAI Darstellung
AI
Die jüngsten Fortschritte im Bereich der genAI haben zu einer bemerkenswerten Verschiebung in der öffentlichen Wahrnehmung von KI geführt....
Fachbeitrag
KI-Technik
AI
Wir beleuchten die Unterschiede zwischen verschiedenen KI-Techniken wie Generative AI, Non Generative ML, Simulationen und heuristischen Ansätzen. Anhand konkreter Use...
Ready for take-off
AI
Banking
Crypto

Wir sind überzeugt: Deutschland ist digital underbanked – und das wollen wir ändern!

Ob AI, Banking oder Crypto, digit.cologne widmet sich der digitalen Transformation von Finanzdienstleistern.

Wir bringen im Schnitt mehr als 15 Jahre Berufserfahrung und Beteiligungen an zahlreichen Digitalisierungsprojekten mit, in den Bereichen Banking, Payment, Crypto und Wealth Management.

Bei digit.cologne kommen wir zusammen, um Finanzdienstleister auf ihrem Weg durch digitale Transformationsprozesse zu begleiten.

Wir freuen uns darauf, mit Ihnen in Kontakt zu treten.

pascal schade
Pascal Schade
Consultant
Tobias Ehret
Geschäftsführer
Joshua Olbrich
Consultant
Moritz Braun
Consultant
Leonhard Walter
Consultant
alexander stankoswki
Alexander Stankowski
Consultant