Das TechCrunch KI-Glossar: Wichtige Begriffe der künstlichen Intelligenz erklärt
Künstliche Intelligenz ist eine komplexe und vielschichtige Welt. Die Wissenschaftler, die in diesem Bereich arbeiten, verwenden oft Fachbegriffe und Jargon, um ihre Arbeit zu erklären. Als Folge davon müssen auch wir in unserer Berichterstattung über die KI-Branche häufig auf diese technischen Begriffe zurückgreifen. Aus diesem Grund haben wir beschlossen, ein Glossar mit Definitionen einiger der wichtigsten Wörter und Phrasen zusammenzustellen, die wir in unseren Artikeln verwenden.
Dieses Glossar wird regelmäßig aktualisiert, um neue Einträge hinzuzufügen, während Forscher kontinuierlich neue Methoden entdecken, um die Grenzen der künstlichen Intelligenz zu erweitern und gleichzeitig neue Sicherheitsrisiken identifizieren.
KI-Agent
Ein KI-Agent bezeichnet ein Werkzeug, das KI-Technologien einsetzt, um eine Reihe von Aufgaben für Sie auszuführen – über das hinaus, was ein einfacherer KI-Chatbot leisten könnte. Dazu gehören beispielsweise das Einreichen von Spesenabrechnungen, das Buchen von Tickets oder eines Tisches in einem Restaurant oder sogar das Schreiben und Pflegen von Code. Wie wir jedoch bereits zuvor erklärt haben, gibt es in diesem aufstrebenden Bereich viele bewegliche Teile, sodass „KI-Agent“ für verschiedene Menschen unterschiedliche Bedeutungen haben kann. Auch die Infrastruktur wird noch aufgebaut, um die angedachten Fähigkeiten zu realisieren. Das Grundkonzept impliziert jedoch ein autonomes System, das möglicherweise auf mehrere KI-Systeme zurückgreift, um mehrstufige Aufgaben auszuführen.
Gedankenkette (Chain of Thought)
Bei einer einfachen Frage kann das menschliche Gehirn oft ohne viel Nachdenken antworten – zum Beispiel bei der Frage „Welches Tier ist größer, eine Giraffe oder eine Katze?“. In vielen Fällen benötigt man jedoch Stift und Papier, um zur richtigen Antwort zu gelangen, da es Zwischenschritte gibt. Wenn ein Bauer beispielsweise Hühner und Kühe hat und diese zusammen 40 Köpfe und 120 Beine haben, müssen Sie möglicherweise eine einfache Gleichung aufstellen, um die Antwort zu finden (20 Hühner und 20 Kühe).
Im KI-Kontext bedeutet Chain-of-Thought-Reasoning für große Sprachmodelle, ein Problem in kleinere Zwischenschritte zu zerlegen, um die Qualität des Endergebnisses zu verbessern. Es dauert in der Regel länger, eine Antwort zu erhalten, aber die Antwort ist mit höherer Wahrscheinlichkeit korrekt, insbesondere in einem Logik- oder Programmierkontext. Reasoning-Modelle werden aus traditionellen großen Sprachmodellen entwickelt und durch Verstärkungslernen für Chain-of-Thought-Denken optimiert.
Deep Learning
Deep Learning ist eine Untergruppe des selbstverbessernden maschinellen Lernens, bei der KI-Algorithmen mit einer mehrschichtigen Struktur künstlicher neuronaler Netze (ANN) entworfen werden. Dies ermöglicht es ihnen, im Vergleich zu einfacheren Machine-Learning-basierten Systemen wie linearen Modellen oder Entscheidungsbäumen komplexere Korrelationen herzustellen. Die Struktur von Deep-Learning-Algorithmen ist inspiriert von den vernetzten Verbindungen der Neuronen im menschlichen Gehirn.
Deep-Learning-KI-Modelle können selbstständig wichtige Merkmale in Daten erkennen, ohne dass menschliche Ingenieure diese Merkmale definieren müssen. Die Struktur unterstützt auch Algorithmen, die aus Fehlern lernen und durch einen Prozess der Wiederholung und Anpassung ihre eigenen Ausgaben verbessern können. Allerdings benötigen Deep-Learning-Systeme eine große Menge an Datenpunkten, um gute Ergebnisse zu erzielen (Millionen oder mehr). Sie benötigen in der Regel auch mehr Zeit für das Training im Vergleich zu einfacheren Machine-Learning-Algorithmen – daher sind die Entwicklungskosten tendenziell höher.
Feinabstimmung (Fine-Tuning)
Feinabstimmung bezieht sich auf das weitere Training eines KI-Modells, um die Leistung für eine spezifischere Aufgabe oder einen Bereich zu optimieren, als es zuvor der Schwerpunkt des Trainings war – typischerweise durch die Eingabe neuer, spezialisierter (d.h. aufgabenorientierter) Daten.
Viele KI-Startups nehmen große Sprachmodelle als Ausgangspunkt, um ein kommerzielles Produkt zu entwickeln, und versuchen, den Nutzen für einen Zielsektor oder eine Zielaufgabe zu steigern, indem sie frühere Trainingszyklen durch Feinabstimmung auf der Grundlage ihres eigenen domänenspezifischen Wissens und ihrer Expertise ergänzen.
Großes Sprachmodell (Large Language Model, LLM)
Große Sprachmodelle oder LLMs sind die KI-Modelle, die von beliebten KI-Assistenten wie ChatGPT, Claude, Google’s Gemini, Meta’s AI Llama, Microsoft Copilot oder Mistral’s Le Chat verwendet werden. Wenn Sie mit einem KI-Assistenten chatten, interagieren Sie mit einem großen Sprachmodell, das Ihre Anfrage direkt oder mit Hilfe verschiedener verfügbarer Tools wie Websurfen oder Code-Interpretern verarbeitet.
KI-Assistenten und LLMs können unterschiedliche Namen haben. Zum Beispiel ist GPT das große Sprachmodell von OpenAI und ChatGPT ist das KI-Assistenten-Produkt.
LLMs sind tiefe neuronale Netze, die aus Milliarden von numerischen Parametern (oder Gewichten) bestehen, die die Beziehungen zwischen Wörtern und Phrasen lernen und eine Repräsentation von Sprache, eine Art multidimensionale Karte von Wörtern, erstellen.
Diese Modelle werden durch die Kodierung der Muster erstellt, die sie in Milliarden von Büchern, Artikeln und Transkripten finden. Wenn Sie ein LLM mit einer Eingabe versehen, generiert das Modell das wahrscheinlichste Muster, das zur Eingabe passt. Es bewertet dann das wahrscheinlichste nächste Wort nach dem letzten, basierend auf dem, was zuvor gesagt wurde. Dieser Prozess wird wiederholt.
Neuronales Netzwerk
Ein neuronales Netzwerk bezieht sich auf die mehrschichtige algorithmische Struktur, die dem Deep Learning zugrunde liegt – und allgemeiner dem gesamten Boom bei generativen KI-Tools nach dem Aufkommen großer Sprachmodelle.
Obwohl die Idee, sich von den dicht vernetzten Bahnen des menschlichen Gehirns als Designstruktur für Datenverarbeitungsalgorithmen inspirieren zu lassen, bis in die 1940er Jahre zurückreicht, war es der viel jüngere Aufstieg der Grafikprozessor-Hardware (GPUs) – durch die Videospielindustrie -, der die Macht dieser Theorie wirklich freisetzte. Diese Chips erwiesen sich als gut geeignet für das Training von Algorithmen mit viel mehr Schichten als in früheren Epochen möglich war – was es neuronalen netzwerkbasierten KI-Systemen ermöglichte, in vielen Bereichen wie Spracherkennung, autonome Navigation und Arzneimittelentdeckung deutlich bessere Leistungen zu erzielen.
Gewichte
Gewichte sind von zentraler Bedeutung für das KI-Training, da sie bestimmen, wie viel Bedeutung (oder Gewicht) verschiedenen Merkmalen (oder Eingabevariablen) in den für das Training des Systems verwendeten Daten beigemessen wird – und damit die Ausgabe des KI-Modells beeinflussen.
Anders ausgedrückt sind Gewichte numerische Parameter, die definieren, was in einem Datensatz für die gegebene Trainingsaufgabe am wichtigsten ist. Sie erfüllen ihre Funktion, indem sie Multiplikationen auf Eingaben anwenden. Das Modelltraining beginnt typischerweise mit zufällig zugewiesenen Gewichten, aber im Verlauf des Prozesses passen sich die Gewichte an, während das Modell versucht, zu einer Ausgabe zu gelangen, die dem Ziel näher kommt.
Zum Beispiel könnte ein KI-Modell zur Vorhersage von Immobilienpreisen, das mit historischen Immobiliendaten für einen Zielort trainiert wurde, Gewichte für Merkmale wie die Anzahl der Schlaf- und Badezimmer, ob eine Immobilie freistehend oder Reihenhaus ist, ob sie einen Parkplatz, eine Garage usw. hat, enthalten.
Letztendlich spiegeln die Gewichte, die das Modell jedem dieser Inputs zuweist, wider, wie stark sie den Wert einer Immobilie beeinflussen, basierend auf dem gegebenen Datensatz.
Häufig gestellte Fragen (FAQ)
Was ist der Unterschied zwischen Machine Learning und Deep Learning?
Machine Learning ist ein breiterer Begriff, der alle Arten von Algorithmen umfasst, die aus Daten lernen können. Deep Learning ist eine spezielle Untergruppe des Machine Learning, die auf künstlichen neuronalen Netzen mit vielen Schichten basiert. Deep Learning-Modelle können komplexere Muster erkennen und benötigen in der Regel größere Datenmengen zum Training, liefern dafür aber oft bessere Ergebnisse bei komplexen Aufgaben wie Bilderkennung oder Sprachverarbeitung.
Wie funktionieren große Sprachmodelle (LLMs) wie GPT-3?
Große Sprachmodelle wie GPT-3 werden mit riesigen Textmengen trainiert, um Muster und Strukturen in der Sprache zu lernen. Sie verwenden diese Muster, um Wahrscheinlichkeiten für das nächste Wort in einer Sequenz zu berechnen. Wenn sie eine Eingabe erhalten, generieren sie Text, indem sie wiederholt das wahrscheinlichste nächste Wort basierend auf dem vorherigen Kontext auswählen. Dieser Prozess ermöglicht es ihnen, kohärente und oft kontextrelevante Antworten zu generieren.
Was sind die Hauptanwendungsbereiche von KI in der Wirtschaft?
KI findet in vielen Wirtschaftsbereichen Anwendung, darunter:
– Automatisierung von Geschäftsprozessen
– Kundenservice (z.B. Chatbots)
– Predictive Analytics und Datenanalyse
– Personalisierung von Produkten und Dienstleistungen
– Optimierung von Lieferketten und Logistik
– Fraud Detection im Finanzsektor
– Entwicklung neuer Medikamente in der Pharmabranche
– Autonomes Fahren in der Automobilindustrie
Welche ethischen Herausforderungen gibt es bei der Entwicklung und dem Einsatz von KI?
Einige der wichtigsten ethischen Herausforderungen im Bereich KI sind:
– Datenschutz und Schutz persönlicher Informationen
– Fairness und Vermeidung von Bias in KI-Systemen
– Transparenz und Erklärbarkeit von KI-Entscheidungen
– Verantwortlichkeit bei KI-gestützten Entscheidungen
– Auswirkungen auf den Arbeitsmarkt und möglicher Jobverlust
– Sicherheit und Kontrolle fortgeschrittener KI-Systeme
– Ethische Grenzen beim Einsatz von KI in sensiblen Bereichen wie Militär oder Überwachung
Wie unterscheidet sich künstliche Intelligenz von menschlicher Intelligenz?
Künstliche Intelligenz unterscheidet sich in mehreren Aspekten von menschlicher Intelligenz:
– KI ist auf spezifische Aufgaben spezialisiert, während Menschen vielseitiger sind
– KI basiert auf Daten und Algorithmen, menschliche Intelligenz auf Erfahrung und Intuition
– KI kann große Datenmengen schnell verarbeiten, Menschen sind besser in kreativem und abstraktem Denken
– KI hat kein Bewusstsein oder Emotionen wie Menschen
– Menschen können Wissen leichter auf neue Situationen übertragen (Transfer Learning)
– KI kann 24/7 arbeiten ohne Ermüdung, Menschen brauchen Pausen und Erholung